Séminaires d’équipe

Les séminaires sont animés par Solange Rossato et Didier Schwab

Liste des prochains séminaires

04/04/2018 à 15h Steven Bird (306)

31/05/2018 Bruno Pouliquen (306)

Steven Bird

Professeur, Univ. Charles Darwin, Australie
http://www.cdu.edu.au/northern-institute/our-teams/steven-bird

Sparse Transcription: Rethinking the Processing of Unwritten Languages

Steven Bird is researching new methods for documenting and revitalising the thousands of small languages still spoken in the world today. His career began with a BSc and MSc in computer science at Melbourne University, followed by a PhD in computational linguistics from Edinburgh University, completed in 1990. Since then he has worked at the Universities of Edinburgh, Pennsylvania, Melbourne, and Berkeley, and conducted fieldwork in Australia, West Africa, Melanesia, Amazonia, and Central Asia. He is co-author of a popular textbook in computational linguistics, and recently developed a new computer science curriculum for secondary students which has been adopted in Australian schools. The Aikuma app developed with his students took out the grand prize in the Open Source Software World Challenge.

Laurent Besacier

Professeur au LIG, équipe GETALP

Le défi de découvrir des unités linguistiques à partir de la parole brute / The challenge of discovering linguistic units from raw speech

Dans ce séminaire, je présenterai deux projets scientifiques collectifs [1,2] qui m’ont occupé pendant l’année 2017. Qu’ont-ils en commun ?La découverte d’unités linguistiques à partir de la parole brute sans aucune autre supervision. Ou presque …In this seminar, I will present two collective scientific projects [1,2] that occupied me during the year 2017. What do they have in common?Discovering linguistic units from raw speech without any other supervision. Or almost…[1] https://arxiv.org/pdf/1712.04313.pdf[2] https://arxiv.org/pdf/1802.05092.pdf

Marco Dinaralli – 22 mars 2018 à 15H15

LaTTiCe-CNRS UMR 8094 – en séjour au LIG-GETALP

Compréhension automatique de la parole et resolution de chaînes de coréférences.
Dans ce séminaire je vais parler des principaux domaines de recherches sur lesquels j’ai travaillé : compréhension automatique de la parole et resolution de chaînes de coréférences. Je décrirai les systèmes informatiques, surtout à base d’apprentissage artificiel, mis en place pour modéliser ces problèmes.
Ces systèmes s’appuient sur des modèles qui vont des automates probabilistes à états finis (FSA/FST) aux réseaux neuronaux, en passant par les champs conditionnels aléatoires (CRF), et détiennent l’état-de-l’art sur certaines tâches.

Emmanuel Morin – 20 mars 2018 à 9H30

Professeur à l’Université de Nantes (LS2N – Laboratoire des Sciences du Numérique de Nantes)
Extraction de lexiques bilingues à partir de corpus comparables spécialisés : la langue générale au secours de la langue de spécialité
L’extraction de lexiques bilingues à partir de corpus a initialement été réalisée en s’appuyant sur des textes en correspondance de traduction (c’est-à-dire des corpus parallèles). Cependant, et en dépit des bons résultats obtenus, ces corpus demeurent des ressources rares, notamment pour les domaines spécialisés et pour des couples de langues ne faisant pas intervenir l’anglais. Dans ce contexte, les recherches en extraction de lexiques bilingues se sont penchées sur d’autres corpus composés de textes partageant différentes caractéristiques telles que le domaine, le genre, la période… sans être en correspondance de traduction (c’est-à-dire des corpus comparables).L’extraction de lexiques bilingues à partir de corpus comparables spécialisés est fortement contrainte par la quantité de données mobilisables. Pour contourner cet obstacle, une solution serait d’associer des ressources externes au corpus spécialisés. Cette solution, quoi que intuitive, va à l’encontre du courant dominant puisque de nombreuses études soutiennent l’idée que l’ajout de documents hors-domaine à un corpus spécialisé diminue la qualité des lexiques extraits. Dans cet exposé nous montrerons comment des corpus de langue générale peuvent venir compléter des corpus de langue de spécialité. Nous présenterons différentes manières d’associer ces données entre elles en exploitant des représentations distributionnelles basées sur modèles vectoriels et neuronaux.

Olivier Kraif – 8 mars 2018

Laboratoire de Linguistique et Didactique des Langues Etrangères et Maternelles
Analyse en dépendances pour l’extraction automatique de motifs récurrents

On désigne par “motifs” des constructions récurrentes susceptibles de jouer un rôle dans l’organisation textuelle et la structuration du discours. Les motifs, en tant que constructions préfabriquées, sont par ailleurs caractéristiques de genres textuels très codifiés. L’identification de ces constructions peut s’avérer utile dans différents types d’application en TAL : classification de documents, traduction automatique, aide à la rédaction, recherche de termes, outils pour la linguistique de corpus… Après avoir précisé la notion au plan linguistique, nous passerons en revue différentes méthodes dédiées à l’identification automatique de motifs : segments répétés ou ngrams, motifs d’itemsets, arbres lexico-syntaxiques récurrents. Nous détaillerons les pistes recherches actuelles concernant l’utilisation de la syntaxe (analyses en dépendances) pour la découverte et la description de certaines classes de motifs.

Moez Avili – 8 février 2018

Laboratoire d’Informatique d’Avignon
Fiabilité de la comparaison de voix dans le cadre judiciaire / Reliability of voice comparison for forensic applications

Dans les procédures judiciaires, des enregistrements de voix sont de plus en plus fréquemment présentés comme élément de preuve. En général, il est fait appel à un expert scientifique pour établir si l’extrait de voix en question a été prononcé par un suspect donné (prosecution hypothesis) ou non (defence hypothesis). Ce prosessus est connu sous le nom de “Forensic Voice Comparison (FVC)” (comparaison de voix dans le cadre judiciaire). Depuis l’émergence du modèle DNA typing, l’approche Bayesienne est devenue le nouveau “golden standard” en sciences criminalistiques. Dans cette approche, l’expert exprime le résultat de son analyse sous la forme d’un rapport de vraisemblance (LR). Ce rapport ne favorise pas seulement une des hypothèses (“prosecution” ou “defence”) mais il fournit également le poids de cette décision. Bien que le LR soit théoriquement suffisant pour synthétiser le résultat, il est dans la pratique assujetti à certaines limitations en raison de son processus d’estimation. Cela est particulièrement vrai lorsque des systèmes de reconnaissance automatique du locuteur (ASpR) sont utilisés. Ces systèmes produisent un score dans toutes les situations sans prendre en compte les conditions spécifiques au cas étudié. Plusieurs facteurs sont presque toujours ignorés par le processus d’estimation tels que la qualité et la quantité d’information dans les deux enregistrements vocaux, la cohérence de l’information entre les deux enregistrements,
leurs contenus phonétiques ou encore les caractéristiques intrinsèques des locuteurs. Tous ces facteurs mettent en question la notion de fiabilité de la comparaison de voix dans le cadre judiciaire. Dans cette thèse, nous voulons adresser cette problématique dans le cadre des systèmes automatiques (ASpR) sur deux points principaux.

Le premier consiste à établir une échelle hiérarchique des catégories phonétiques des sons de parole selon la quantité d’information spécifique au locuteur qu’ils contiennent. Cette étude montre l’importance du contenu phonétique: Elle met en évidence des différences intéressantes entre les phonèmes et la forte influence de la variabilité intra-locuteurs. Ces résultats ont été confirmés par une étude complémentaire sur les voyelles orales basée sur les paramètres formantiques, indépendamment de tout système de reconnaissance du locuteur.

Le deuxième point consiste à mettre en oeuvre une approche afin de prédire la fiabilité du LR à partir des deux enregistrements d’une comparaison de voix sans recours à un ASpR. À cette fin, nous avons défini une mesure d’homogénéité (NHM) capable d’estimer la quantité d’information et l’homogénéité de cette information entre les deux enregistrements considérés. Notre hypothèse ainsi définie est que l’homogénéité soit directement corrélée avec le degré de fiabilité du LR. Les résultats obtenus ont confirmé cette hypothèse avec une mesure NHM fortement corrélée à la mesure de fiabilité du LR. Nos travaux ont également mis en évidence des différences significatives du comportement de NHM entre les comparaisons cibles et les comparaisons imposteurs.

Nos travaux ont montré que l’approche “force brute” (reposant sur un grand nombre de comparaisons) ne suffit pas à assurer une bonne évaluation de la fiabilité en FVC. En effet, certains facteurs de variabilité peuvent induire des comportements locaux des systèmes, liés à des situations particulières. Pour une meilleure compréhension de l’approche FVC et/ou d’un système ASpR, il est nécessaire d’explorer le comportement du système à une échelle aussi détaillée que possible (le diable se cache dans les détails).

Paule-Annick Davoine – 23 novembre 2017

Professeur à l’Université Grenoble Alpes, laboratoire Pactes
Cartographie et géovisualisation pour la représentation et l’analyse de données spatialisées pour les humanités numériques

De plus en plus de disciplines ou de recherches en sciences humaines et sociales, lettres et langues s’intéressent à la dimension spatiale des données ou des sources: en histoire pour la représentation de données géo historiques nécessaires à la compréhension de l’évolution des territoires ou des phénomènes les impactants; en littérature pour la cartographie des lieux dans les romans, des récits de vie des auteurs ; en linguistique pour appréhender la diffusion spatiale des langues ou des dialectes; en géographie pour la reconstitution de trajectoires et de déplacements d’individus à partir de récits ou pour la valorisation de documents cartographiques anciens…. Tous ces besoins lancent de nouveaux défis à la cartographie et à la géo visualisation qui doivent traiter des données spatialisées semi-structurées, multidimensionnelles, multi-formes et définies par une diversité d’échelles d’observation tant géographique que temporelle et selon des niveaux de qualité variables.
L’objectif de la communication est de présenter certaines problématiques cartographiques et de géo visualisation soulevées par le traitement et la représentation spatialisées des données issues du domaine des humanités numériques en s’appuyant sur des projets de recherche menés au sein de l’équipe Steamer

Patrick Paroubek – 26 octobre 2017

Ingénieur de Recherche CNRS (IR1)

Le Traitement Automatique des Langues pour l’analyse des publications scientifiques

Le thème sera abordé à partir des travaux d’analyse des publications de la communauté TAL réalisés autour du corpus NLP4NLP
qui couvre 50 ans de publications des principales conférences et revues dans le domaine de l’analyse du texte et de  la parole
et de corpus biomédicaux (projet MIROR). Les apports du TAL adressés ici concerneront  l’analyse des tendances et  des réseaux ainsi que la détection de plagiat ou de “spin” (embellissement) dans les publications scientifiques.

Christian Boitet – 5 octobre 2017

Professeur émérite à l’Université Grenoble Alpes, GETALP-LIG
Séminaire consacré au MT summit (http://aamt.info/app-def/S-102/mtsummit/2017/)

Maximiliano Duran – 30 mai 2017

Linguiste peruvien
Le temps non marqué et suffixation à quatre niveaux en quechua

Pedro Chahuara – 18 mai 2017

Chercheur au Centre Européen de Xerox (XRCE)
Online Mining of Web Publisher RTB Auctions for Revenue Optimization
In the online adversiment market there are two main actors: the publishers that offer a space for advertisement in their websites and the announcers who compite in an auction to show their advertisements in the available spaces. When a user accesses an internet site an auction starts for each ad space, the profile of the user is given to the announcers and they offer a bid to show an ad to that user. The publisher fixes a reserve price, the minimum value they accept to sell the space.
In this talk I will introduce a general setting for this ad market and I will present an engine to optimize the publisher revenue from second-price auctions, which are widely used to sell on-line ad spaces in a mechanism called real-time bidding. The engine is fed with a stream of auctions in a time-varying environment (non-stationary bid distributions, new items to sell, etc.) and it predicts in real time the optimal reserve price for each auction. This problem is crucial for web publishers, because setting an appropriate reserve price on each auction can increase significantly their revenue.
I consider here a realistic setting where the only available information consists of a user identifier and an ad placement identifier. Once the auction has taken place, we can observe censored outcomes : if the auction has been won (i.e the reserve price is smaller than the first bid), we observe the first bid and the closing price of the auction, otherwise we do not observe any bid value.
The proposed approach combines two key components: (i) a non-parametric regression model of auction revenue based on dynamic, time-weighted matrix factorization which implicitly builds adaptive users’ and placements’ profiles; (ii) a non-parametric model to estimate the revenue under censorship based on an on-line extension of the Aalen’s Additive Model.

Jean-Pierre Chevrot – 2 mars 2017

Professeur à l’Université Grenoble Alpes
Laboratoire de l’Informatique du Parallélisme, Institut rhône-alpin des systèmes complexes, ENS Lyon
Laboratoire Lidilem, Université Grenoble Alpes
Acquisition du langage et usages sociolinguistiques : le social, le cognitif et le réseau
Le rapprochement des approches cognitives et des approches sociales est souvent présenté comme un objectif souhaitable pour mieux comprendre le processus d’acquisition du langage (Hulstijn et al., 2014). Cependant, la question reste de savoir comment traduire ce programme dans la en réalité de la pratique de la recherche.

Bien que les approches cognitives et sociales soient fondées sur des traditions différentes, la tentative de combiner les deux points de vue dans la recherche sur l’acquisition du langage peut bénéficier d’entreprises similaires dans d’autres domaines, tels que la cognition sociale, la sociologie cognitive, la sociolinguistique cognitive, les neurosciences sociales, etc. L’examen de ces tentatives interdisciplinaires conduit à l’identification de trois façons de combiner le social et le cognitif: l’approche sociale de la cognition, l’approche cognitive du social et l’approche dite individualisme complexe (Kaufmann et Clément, 2011; Chevrot, Drager & Foulkes, en préparation, Dupuy, 2004).

Parmi ces options, seule la dernière ne favorise ni le niveau social et collectif, ni le niveau cognitif et individuel (Dupuy, 2004). Au contraire, elle met l’accent sur l’interaction et la causalité bidirectionnelle entre ces eux. Dans cette perspective, des individus ayant des caractéristiques sociales et cognitives spécifiques interagissent les uns avec les autres dans le cadre de contraintes sociales et cognitives générales. Les caractéristiques des individus peuvent évoluer en raison des interactions entre eux et ces changements peuvent à leur tour modifier les contraintes générales (Hruschka et al. 2009). Dans ce cadre, l’acquisition du langage et son usage peuvent être considérés comme les résultats d’influences réciproques diffusant dans un réseau de relations.

Nous présenterons des projets susceptibles de mettre en œuvre ce cadre, notamment le projet DyLNet – Language Dynamics, Linguistic Learning, and Sociability at Preschool: Benefits of Wireless Proximity Sensors in Collecting Big Data (Nardy, 2017).
References
Chevrot, J.P., Drager, K. & Foulkes, P. (en préparation). Sociolinguistic Variation and Cognitive Science.

Dupuy, J.-P. (2004). Vers l’unité des sciences sociales autour de l’individualisme méthodologique complexe. Revue du MAUSS, 24(2), 310-328.

Hruschka, D. J., Christiansen, M. H., Blythe, R. A., Croft, W., Heggarty, P., Mufwene, S. S., Pierrehumbert, Janet B., Poplack, S. (2009). Building social cognitive models of language change. Trends in Cognitive Sciences, 13(11), 464–469.

Hulstijn, J. H., Young, R. F., Ortega, L., Bigelow, M., DeKeyser, R., Ellis, N. C., Lantolf, J. P., Mackey, A., Talmy, S. (2014). Bridging the Gap. Studies in Second Language Acquisition, 36(03), 361–421.

Kaufmann, L., & Clément, F. (2011). L’esprit des sociétés. Bilan et perspectives en sociologie cognitive. In L. Kaufmann & F. Clément, La sociologie cognitive, Ophrys (pp. 7–40).

Nardy (2017). DyLNet Project – Language Dynamics, Linguistic Learning, and Sociability at Preschool: Benefits of Wireless Proximity Sensors in Collecting Big Data [https://hal-univ-orleans.archives-ouvertes.fr/hal-01396652]

Michael Zock – 12 janvier 2017

Directeur de recherche CNRS au Laboratoire d’Informatique Fondamentale (LIF), groupe TALEP à Aix-Marseille Université

Si tous les chemins mènent à Rome, ils ne se valent pas tous. Le problème d’accès lexical en production

Tout le monde a déjà rencontré le problème suivant : on cherche un mot (ou le nom d’une personne) que l’on connaît, sans être en mesure d’y accéder à temps. Les travaux des psychologues ont montré que les personnes se trouvant dans cet état cognitif savent énormément de choses concernant le mot recherché (sens, nombre de syllabes, origine, etc.), et que les mots avec lequel ils le confondent lui ressemblent étrangement (lettre ou son initial, catégorie syntaxique, champ sémantique, etc.).
Mon objectif (à long terme) est de réaliser un programme tirant bénéfice de cet état de faits pour assister un locuteur ou rédacteur à (re)trouver le mot qu’il a sur le bout de la langue. À cette fin, je prévois d’ajouter à un dictionnaire électronique existant un index d’association (collocations rencontrées dans un grand corpus). Autrement dit, je propose de construire un dictionnaire analogue à celui des êtres humains, qui, outre les informations conventionnelles (définition, forme écrite, informations grammaticales) contiendrait des liens (associations), permettant de naviguer entre les idées (concepts) et leurs expressions (mots). Un tel dictionnaire permettrait donc l’accès à l’information recherchée soit par la forme (lexicale : analyse), soit par le sens (concepts : production), soit par les deux.
L’objectif de cet exposé est de montrer comment construire une telle ressource, comment s’en servir, quelles sont les difficultés de construction et quelles sont les possibilités qu’offre un telle ressource.

Lorraine Goeuriot – 1er décembre 2016

Maîtresse de conférences  à l’Univ. Grenoble Alpes dans l’équipe MRIM du Laboratoire d’informatique de Grenoble

Medical Information Retrieval and its evaluation: an overview of CLEF eHealth evaluation task

In this talk, I will introduce my research activities in the field of medical information retrieval, and in particular its evaluation.
The use of the Web as source of health-related information is a wide-spread phenomena, and laypeople often have difficulties finding relevant documents. The goal of the CLEF eHealth evaluation challenge is to provide researchers with datasets to improve consumer health search. I will firstly introduce the task and the datasets built. Then I will describe some experiments and results obtained on this dataset.

Fabien Ringeval – 20 octobre 2016

Maître de conférences à l’Univ. Grenoble Alpes dans l’équipe GETALP  du Laboratoire d’informatique de Grenoble

Vers la reconnaissance automatique d’émotions écologiques

Les technologies de reconnaissance automatique de l’émotion ont gagné une attention croissante dans la dernière décennie tant au niveau académique qu’industriel, puisqu’elles ont trouvé de nombreuses applications dans des domaines aussi variés que la santé, l’éducation, les jeux-vidéos, la publicité, ou encore la robotique sociale. Bien que de bonnes performances soient reportées dans la littérature pour des émotions actées, la reconnaissance automatique d’émotions spontanées, comme exprimées dans la vie de tous les jours, reste encore un challenge non résolu, puisque ces émotions sont subtiles, et leur expression, comme leur signification, varient fortement selon de nombreux paramètres locuteur, comme par exemple l’âge, et le genre, mais aussi la personnalité, le rôle social, la langue, et la culture. Dans cette présentation, je décrirai les méthodologies actuelles en acquisition et annotation de données affectives, et présenterai les dernières avancées pour la reconnaissance automatique des émotions à partir du signal de parole.