Séminaires d’équipe / Team Seminars

Les séminaires sont animés par Solange Rossato et Didier Schwab et ont lieu sauf précision contraire les jeudi à 14H au bâtiment IMAG

Liste des prochains séminaires / Team Seminars

Le programme pour 2019-2020 est en cours de constitution, la page sera actualisée au fur et à mesure.21 Nov à 11H : Raheel QADER (LIG/GETALP)
12 Dec : maximin coavoux
16 Jan (2020) Gérard Bailly (GipsaLab) (à confirmer)
13 Fev (2020)
12 Mar (2020)
9 Avr (2020)
30 Avr (2020)
28 Mai (2020)
18 Juin (2020)
19 Jul (2020)

Saison 2019-2020

Maximin Couavoux (LIG/GETALP) le 12 décembre à 14H

Algorithms for Discontinuous Constituency Parsing

In this seminar, I will present an overview of my work on discontinuous constituency parsing.
Constituency trees represent the syntactic structure of a sentence by a recursive grouping of tokens into labelled phrases such as NP, PP, VP, etc.
However, standard constituency trees are not adequate to model a number of syntactic phenomena related to word order variations, e.g. long distance extractions.
In contrast, *discontinuous* constituency trees use crossing branches to model these phenomena.
Discontinuous structures correspond to derivations of mildly context-sensitive formal grammars, such as Linear Context-Free Rewriting Systems (LCFRS), and are therefore much more difficult to parse than projective constituency trees (CFG derivations).

In this talk, I will present efficient data-driven parsing algorithms for discontinuous constituency trees, as well as empirical parsing results on English and German discontinuous parsing.

I will also mention the release of wikiparse: wikipedia automatically annotated with constituency trees, dependency trees and morphological analyses (POS tags, morphological features) for 7 languages.

References:

https://www.aclweb.org/anthology/E17-1118.pdf
https://www.aclweb.org/anthology/Q19-1005.pdf
https://www.aclweb.org/anthology/N19-1018.pdf
https://hal.archives-ouvertes.fr/tel-02302563
– wikiparse:
– data download: http://www.llf.cnrs.fr/wikiparse/
– scripts: https://github.com/mcoavoux/wiki_parse

Raheel QADER (LIG/GETALP) le 21 novembre à 11H (attention horaire atypique)

Neural Natural Language Generation with Limited Annotated Data

In Natural Language Generation (NLG), End-to-End models have recently gained a strong interest. Such models need a large amount of carefully annotated data to reach satisfactory performance. However, acquiring such datasets for every new NLG application is a tedious and time-consuming task. In the first part of my talk I will present our efforts on collecting a newly created and publicly available company dataset that has been collected from Wikipedia. The dataset consists of around 51K company descriptions that can be used for both concept-to-text and text-to-text generation tasks. We study the performance of several End-to-End models applied to generation of short company descriptions and discuss the challenge in evaluating models trained on such data. In the second part of the talk, I will present a semi-supervised deep learning scheme that can learn from non-annotated data and annotated data when available. It uses an NLG and a Natural Language Understanding (NLU) End-to-End models which are learned jointly to compensate for the lack of annotation. Our experiments on two benchmark datasets show that, with limited amount of annotated data, the method can achieve competitive results while not using any preprocessing or re-scoring tricks. I will also briefly talk about a PyTorch based sequence-to-sequence model that we developed for this project: https://gricad-gitlab.univ-grenoble-alpes.fr/getalp/seq2seqpytorch

Emmanuelle Esperança-Rodier et Francis Brunet-Manquat (GETALP/LIG), le 17 octobre 2019 en salle 306 à 14H

ACCOLÉ : Annotation Collaborative d’erreurs de traduction pour COrpus aLignÉs

L’objectif initial qui a guidé le développement d’ACCOLÉ, est l’annotation manuelle des erreurs de traduction selon des critères linguistiques. L’idée sous-jacente est de pouvoir fournir à un utilisateur une aide dans le choix d’un système de TA à utiliser selon le contexte (compétences linguistiques et informatiques de l’utilisateur, connaissance du domaine du document source à traduire et la tâche pour laquelle il a besoin de traduire le document source.) Pour ce faire, ACCOLÉ doit permettre de détecter quels sont les phénomènes linguistiques qui ne sont pas traités correctement par le système de TA étudié. Nous proposons sur la même plateforme une palette de services permettant de répondre aux besoins d’analyse d’erreurs de traduction. Ainsi, les principales fonctionnalités de la plateforme ACCOLÉ sont la gestion simplifiée des corpus, des typologies d’erreurs, des annotateurs, etc. ; l’annotation d’erreurs ; la collaboration et/ou supervision lors de l’annotation ; la recherche de modèles d’erreurs (type d’erreurs dans un premier temps, patrons morphosyntaxiques ultérieurement) dans les annotations. La tâche d’analyse d’erreurs étant déjà fastidieuse, il est important que les personnes la réalisant aient un accès simple à l’outil ainsi qu’au corpus qu’ils souhaitent analyser. La plateforme est donc disponible en ligne (http://lig-accole.imag.fr) sur un navigateur et ne nécessite aucune installation spécifique.

Fusa Katada
Faculty of Science and Engineering
Waseda University, Tokyo, Japan le 10 octobre 2019 à 14H en salle 306

The Realm of Unknown Oral Languages and Its Interface with Information Technology: A Report from Mindanao

The General Conference of UNESCO (Paris, 1999) approved February 21 as International Mother Language Day. The idea is to promote linguistic and cultural diversity and multilingualism in all aspects of public life, particularly in education. The focus here is on mother-tongue-based education for all children in the world. Subsequently, UNESCO Ad Hoc Expert Group on Endangered Languages (2003) includes “materials for language education and literacy” as one of the nine suggested factors to assess the vitality of language. Several issues are raised here with respect to the notions of ‘language of education’, ‘orality vs. literacy’, ‘literacy and information technology’, among others:
Why is mother-tongue-based education important?
What challenges do multilingual communities face?
What changes has the globalized digital age brought to languages in oral tradition?
How foreign is it the currently used script for indigenous languages?
What can information technology do to languages that once had their own script?
In this talk, I report on my fieldwork in extraordinarily multilingual communities in Mindanao, the Philippines, and respond to the above addressed issues. In particular, I clarify why mother-tongue-based education is important for children’s sustainable development of conceptual thinking, and introduce a challenging enterprise to revive the understudied minority languages with the lost ancient script called Baybayin, which is anticipated as the script of their own. (This research was made possible by my research collaborators in Mindanao since 2014.)

Hady Elsahar, Naver labs le 26 septembre 2019 en salle 306 à 14H

Enabling Dynamic Interactions between Natural Language and Structured Knowledge Bases

The complementary nature between Natural Language and Structured Knowledge Bases has inspired a lot of applications that involve interactions in between, such as Information Extraction, Question Answering and Natural Language Generation.
Natural language processing models responsible for those interactions are usually designed in a static way, with the abundance of continuously published new information on the web they require a tedious process of maintenance and adaptation.
In this direction, I’ll present several contributions from My PhD. thesis to tackle this issue. Firstly, T-REx an architecture for automatically generating alignment datasets between natural language text and structured knowledge bases, alongside with the largest available dataset of the same kind.
Secondly, I’ll present an encoder-decoder neural network architecture for question generation from knowledge base triples in a zero-shot setup; this model occupied with part-of-speech tag copy actions has proven its capacity of generating questions for unseen relation and entity types during test time, and hence has a large potential of being used in data-augmentation techniques for training Question Answering systems in an evolving way. Finally, I’ll present several delexicalization techniques to generate entity descriptions from structured triples, this method has proven efficiency to generate entity summaries in an under-served multilingual setup with limited training datasets.

Saison 2018-2019

Maëva Garnier, chercheuse CNRS au département parole & cognition du GIPSA-lab, Grenoble le 20 juin à 13H30 en salle 306

Speech clarification in face-to-face interaction

According to the H&H theory (Lindblom, 1970), speakers adapt their articulation effort to the level of intelligibility required by the communicative situation.
In a first part of my talk, I will present different studies on speech adaptation to a noisy environment (also called the Lombard effect), showing that speech modifications observed in such a perturbed situation do not limit to hyper-articulation, but reflect a set of different communicative strategies aiming, among others, at improving speech audibility (detection, segregation from the background noise, depending on the noise type), improving segment (audiovisual) intelligibility and facilitating discourse structure and segmentation (through the enhancement of prosodic cues). I will discuss how such adaptation strategies vary between individuals – in particular how some of them make use of the visual modality to improve one’s intelligibility in perturbed conditions – and how they can be affected by the experimental paradigm (reading task vs. interactive game; noise played through headphones vs. loudspeakers).
In a second part of my talk, I will go deeper into that speaker-listener interaction loop and present some resent work on how exactly a speaker estimates the required level of intelligibility and adapts his speech to meet the listener’s needs. I will present a study of the different audiovisual markers of understanding vs. misunderstanding emitted by the listener, from which the speaker can estimate online his actual intelligibility. I will also present an ongoing study on speech correction following a misunderstanding, exploring how the speaker’s clarification depends (or not) on what the listener actually perceived.
I will conclude my talk with some perspectives on speech adaptation and clarification in face-to-face interaction.

Mathieu Loiseau (Univ. Grenoble Alpes)  le 16 mai à 14H00 en salle 306

ICALL ou iCALL — Questions posées par l’intégration du TAL dans l’ALAO ?

Si Traitement Automatique des Langues et Apprentissage des Langues Assisté par Ordinateur sont intimement liés depuis leurs origines (ou presque), cette alliance ne s’est pas faite sans heurts et à l’heure actuelle les systèmes d’Apprentissage des Langues embarquant de véritables technologies de TAL ne sont pas légion. Toutefois, le TAL s’immisce de plus en plus largement dans les technologies du quotidien. À l’heure du “Big Data”, l’intégration des technologies du TAL aux systèmes tournés vers l’ALAO pose des questions méthodologiques.

Caroline Rossi (ILCEA4 (GREMUTS) Univ. Grenoble Alpes) & Dorothy Kenny (Dublin City University)

Le contexte en traduction automatique : un concept à géométrie variable

Souvent saluée pour ses effets de démocratisation (Prado 2010 ; Boitet et al. 2010 ; Goltz 2017) et sa contribution au maintien de la diversité linguistique (Cronin 2013 : 59), la TA peut également être considérée comme fondée sur des mythes trompeurs (l’universalité du sens ou la transparence des formes linguistiques), et symptôme d’une vision purement instrumentale du langage (voir par exemple Raley 2003 ; ou encore Cronin 2013). Paradoxalement peut-être, elle est aussi souvent interprétée comme un soutien à l’hégémonie culturelle continue de l’anglais (Raley 2003 ; Poibeau 2017 : 168). Enfin, si elle constitue une technologie clé pour les grandes entreprises mondialisées (Poibeau 2017 : 6), elle est également impliquée dans la baisse des coûts de traduction, que subissent actuellement les traducteurs humains indépendants (Moorkens 2017). Il n’est donc pas étonnant que de nombreux travaux en traductologie soient porteurs de représentations négatives de la TA. Les points de rencontre sont cependant de plus en plus nombreux, non seulement parce que la façon dont les développeurs de TA abordent leur tâche peut à la fois refléter et aider à construire la compréhension du langage, du sens et de la traduction (Kenny 2012a), mais aussi parce que c’est principalement par l’interface avec la TA que les études en traduction rencontrent certaines des questions les plus pressantes de notre époque, liées au regain d’intérêt pour l’intelligence artificielle et l’avenir du travail humain.
Dans cet exposé, nous analysons ces convergences récentes en considérant les usages de la notion de contexte en traduction automatique. Après avoir défini trois grands types de contexte (co-texte, contexte élargi, et contexte situationnel), nous décrivons les principales approches historiquement adoptées en TA et leur utilisation du contexte, afin de montrer que les modèles statistiques puis neuronaux ont permis une prise en compte élargie de celui-ci. Dans un second temps, pour dresser un premier bilan des apports et des limites d’un tel élargissement, nous procédons à l’analyse comparative de sorties de TA statistique et neuronale (avec la paire de langues anglais-français) à partir de deux problèmes souvent relevés: le traitement des anaphoriques (Voita et al. 2018 ; Bawden et al. 2018 ; Hardmeier & Guillou 2018), et celui des métaphores (Isabelle 2017 ; Toral & Way 2018).

Véronique Aubergé (LIG-GETALP) 28 mars à 14H en salle 406

La Théorie D.A.N.S.E. et ses applications en interaction personne-robot, située dans les enjeux sociétaux et éthiques inévitables

Le robot social : utile, futile ou toxique ?

Ce qui sépare le robot social d’un objet intelligent connecté n’est pas tant la complexité des compétences artificielles qu’on lui donne que des caractéristiques que nous ne cernons pas encore et qui le font percevoir comme un “autre”. Le robot augmente ainsi notre espace social, ce qui est tout à fait nouveau puisque nous avions jusqu’ici « désiré », par les outils techniques et technologies, augmenter seulement les capacités de l’individu (mieux voir, traverser l’atlantique en 7h, augmenter sa mémoire par l’écriture ou le net etc).  La question que nous devons tous nous poser sur le fond est pourquoi ce désir aujourd’hui, soudain et effervescent, d’un autre que moi artefactuel, alors que la première statue parlante date de 2000 ans avant l’égypte ancienne. Vaucanson avait réussi à convaincre tous de l’autonomie de ses automates, sans qu’aucun des puissants qui l’accueillaient n’aient souhaité mettre dans son salon le son joueur de flûte ou son canard comme automate compagnon…

Donc, même si cette rupture entre objet et sujet ne peut pas encore être objectivement rapporté à des caractéristiques techniques (le critère d’autonomie n’est par exemple pas totalement discriminant) on doit constater que les objets technologiques, perçus par nous humain,  comme des robots déclenchent en nous une illusion empathique, une illusion d’un autre acceptable dans notre espace social. Une illusion d’un autre avec qui nous croyons communiquer. Or la communication est un élément vital pour l’humain au même titre que l’eau et la nourriture : au 13e siècle un empereur se demandant quelle langue parlerait spontanément un enfant si les personnes qui l’entouraient ne lui adressaient jamais la parole ; il a confié 6 bébés à 6 nourrices, tous les bébés sont morts rapidement. Dans les orphelinats en roumanie en 1990 dans lesquels les enfants ont été à peu près nourris et lavés, mais jamais dans le désir de les considérer communicativement, dans un orphelinat récemment au Maroc d’enfants issus de viols, dont le tabou a involontairement rendu les soignantes non communiquantes, les enfants sont décédés ou sont devenus irrémédiablement psychotiques. De manière moins exceptionnelle, les personnes âgées de plus de 75 ans se fragilisent et meurent 7 fois plus vite q’ils sont en sentiment d’isolement, les opérés cardiaques entre 35 et 45 ans se dégradent 5 fois plus s’ils se sentent isolés, et de plus en plus de jeunes gens au Japon, mais surtout en Europe, souffrent du syndrome d’isolement social hikikimori.

Cela signifie que si à travers nos signaux sociaux : nos paroles, nos regards nos gestes, nos rapprochements ou éloignements, nos manières de nous déplacer ensemble, nous n’échangeons pas assez de nourriture socio-relationnelle, ou de la mauvaise nourriture, nous développons des souffrances intenses, pas toujours conscientes, par ce sentiment d’isolement. Ces fibres sociales qui nous relient, nous les appelons la glu socio-affective et nous avons émis l’hypothèse que lorsque nous tirons sur ces fibres, quand notre culture nous y pousse,  avec un sentiment individuel de liberté, nous prenons le risque de les casser et de ne plus pouvoir y laisser passer assez de nourriture utile. Vous l’avez compris, l’hypothèse que nous proposons pour comprendre ce désir aujourd’hui de robot est un déficit de nourriture de l’autre.

Le robot pourrait ainsi par cette illusion empathique soulager dans un premier temps cette souffrance, comme le miroir posé en face d’un bras valide soulage la douleur fantôme d’un bras amputé.  Mais bien sûr le grand danger serait que ce soulagement laisse croire que le robot va réellement nourrir l’humain en mal de l’autre, alors qu’il ne s’agit que d’une illusion, d’un miroir sur lequel l’humain se projette.

Ainsi dans les expériences que nous menons, des personnes, en sentiment variable d’isolement, projettent rapidement des attachements qui soulagent leur douleur d’isolement sur le robot Emox. Cet attachement, cette glu, utilise  des primitives vocales, gestuelles et proxémiques sans contenus lexicaux, mais dont les caractéristiques prosodiques sont parfaitement contrôlées aussi bien dans leurs contenus que dans la dymanique par laquelle nous « manipulons » la nature de cet attachement. Ces relations  s’inscrivent dans le modèle DANSE (Dynamics of the Affective Network for Social Entities), à travers une méthode écologique de « Making Thinking » (Fractal) de Living Lab mettant l’humain au centre du paradigme technologique de l’interaction dont le but est bien de ramener l’humain vers l’humain jusqu’à rendre inutile le robot.

Nous avons ainsi montré que ces bruits purement prosodiques peuvent attacher l’humain d’autant plus vite quand il n’est pas isolé, mais d’autant plus fort et longtemps quand il souffre d’isolement, et ceci sur des axes que nous avons choisis pour ne pas placer l’humain dans la dominance ou la soumission, en explorant un espace proposés de l’altruisme, et dans une relation qu’il perçoit comme positive. Les dimensions de fragilité/robustesse associée à une évaluation visée de « soin tendre » sont particulièrement explorée  pour toutes les dimensions de l’artefact robot (son design sa locomotion, ses expressions vocales et visuelles). La théorie D.A.N.S.E., outre explorer cet espace, propose une dynamique co-animée de l’interaction, qui, selon ses paramètres, permet de représenter des états différents du « corps social » – i.e. de la mole émergente d’interactions- en analogie aux états de la matière inerte liquide, solide, gazeux. Au delà des interactions entre humains, ce sont les entités intégrées par l’humain dans son espace social que nous souhaitons observer, analyser, modéliser et simuler, la machine perçue comme entité, cad le robot, étant de plus un outil instrumental ; les entités vivantes non humaines, en particulier les « animaux de compagnie » (pets) permettant d’étendre l’observation des primitives collectées sur l’humain à des primitives plus génériques, voire potentiellement universelles du lien social intra et inter-espèces. Ces primitives identifiées dans l’espace vocal sont plus généralement recherchées dans tous les espaces de la communication directe ou indirecte  (par exemple la « navigation »).

Notre but applicatif est de soulager ainsi la souffrance d’isolement pour que cela amène l’humain à retrouver sa capacité d’entretenir et de faire grandir ses relations avec les autres humains de sa sphère sociale, jusqu’à n’avoir plus aucun désir, plus aucun besoin du robot, et le rejeter.

Mais comment encadrer ce mécanisme afin qu’il ne coupe pas encore plus l’humain des ses relations aux humains, justement car il ne souffre plus quand il est installé dans sa communication avec le robot, dont notre hypothèse est résolument qu’elle est factice et à terme mettra cet humain dans un isolement peut-être irréversible ?

 Cette capacité de manipulation, par exemple comme nous l’avons fait par des primitives aussi simples de langage, nous interroge très fortement éthiquement sur les conséquences de ces manipulations, d’autant plus si la raison de l’engouement pour ces technologies se révélait être un grandissement de l’isolement par des relations insuffisantes ou surtout de mauvaise qualité pour notre bien grandir ensemble.

Bien au-delà du robot pensé dès le départ comme compagnon, le robot de services quel qu’il soit, du fait même que nous le percevons robot, est perçu comme communicant ; Cela signifie que l’humain va trouver un sens à ces signaux émis sans but communicatif : que se passe-t-il si cette manipulation implicite, non volontairement contrôlée par le constructeur, et pour cause puisqu’il ne voulait pas explicitement faire de robot social, a des effets psychologiques, comportementaux, sociétaux qui seront toxiques à court ou moyen terme ? Comment et qui rendre responsable de ces effets ?
A ce moment même où, une loi européenne donnant le statut de personne électronique au robot a été gelée certes, mais après de longues discussions, et je dirais même de combats, en se souvenant que son embryon est née au MIT il y a 10 ans au plus près des GAFA qui proposent de décider pour nous et de nous enseigner les bons usages de l’IA (proposition émise en sept 2017), et où cette loi de personne électronique séduit malgré tout par exemple en Pologne, alors qu’un robot a obtenu un titre de nationalité en arabie saoudite, il est urgent de se poser les questions des effets de cette technologie et de les encadrer afin qu’elle ne soit pas rejetée par une inquiétude collective. Car si notre hypothèse d’isolement s’avérait, le robot serait un moyen efficace de nous en faire prendre conscience pour que nous développions des mécanismes de reconstructions humaines.

La question qu’il me semble donc essentiel de poser est : cet artefact est-il seulement futile, auquel cas il n’est pas nécessaire d’y réfléchir ? Pourrait-il utilement favoriser la reconstruction d’un espace social humain endommagé, jusqu’à devenir inutile ? Dans ce cas comment s’assurer que c’est un mécanisme de reconstruction humaine qui sera mise en œuvre et non pas l’enferment dans l’illusion au début agréable de l’illusion de relation avec les artefacts robots ? Ou au contraire la méconnaissance que nous avons aujourd’hui, toutes sciences humaines confondues, des processus profonds de l’interaction est-il un risque de toxicité dans la simulation artificielle de l’interaction qui déclenche l’illusion d’un autre ?

Marc Douguet (LITT&ARTS) le 21 mars à 14H en salle 306

Le traitement automatique de la parole théâtrale

Les textes dramatiques français du xviie siècle présentent une structure intrinsèque extrêmement riche : leur division en scènes, répliques et vers fait de ce corpus un recueil d’interactions qui présentent de vastes potentialités pour une analyse automatisée des phénomènes conversationnels.
En se plaçant à des échelles variées (des unités les plus étendues aux plus brèves), il s’agira ici de montrer tout le bénéfice que les études littéraires aussi bien que la linguistique peuvent tirer de l’extraction automatique des motifs récurrents que l’on observe dans ces textes, que ceux-ci concernent la gestion du cadre conversationnel (entrées et sorties des personnages) ; l’organisation des tours de parole en situation de trilogue ou de polylogue ; ou, enfin, les choix lexicaux reposant sur l’emploi d’éléments de langage fréquemment répétés.

Fusa Katada (Professeur à la Waseda University, Tokyo, Japon) le 5 février à 14h en salle 306

Explaining Mora Inclination in Phonological Dyslexia

The neurobiological disability called dyslexia (< Greek dys- ‘impaired’ + lexis ‘word’) is a specific learning disability that affects only literacy skills. It has been generally assumed that congenital form of dyslexia, termed developmental dyslexia, stems from a particular problem in language acquisition affecting phonological awareness. However, the exact nature of phonological awareness has not yet been made clear.
This study spotlights the seemingly mysterious discrepancy in the prevalence of dyslexic populations between stress-timed English (as high as 20%) and mora-timed Japanese (as low as 1%). Stress-timed French falls between the two types of languages. On the basis of English dyslexic reading marked by an overproduction of moraic (CV) units in the absence of rhyme (VC) units, the study strengthens the mora-basic hypothesis and shows that the discrepancy is due to differences in prosodic structures between the two languages. For VC-oriented English, the readers must have rhyme awareness depicting the unit rhyme through prosodic restructuring from CV-C to C-VC. A failure to do so manifests as phonological dyslexia. For mora (CV) oriented Japanese, rhyme awareness and prosodic restructuring are irrelevant. Consequently phonological dyslexia is largely undetected.
From the articulatory phonological point of view, it is suggested that onset consonants are coarticulation of the following vowels. Moras (CVs) are thus formed automatically and essentially free. In contrast, coda consonants are not coarticulation with the preceding vowels. Forming rhymes (VCs) requires a cognitive temporal-spatial decision load, which a dyslexic mind is unable to bear. Mora inclination is explained accordingly.
The study deepens the above view and come to claim that mora-forming coarticulation is easy because it is a synchronized articulatory behavior, akin to a synchronized human locomotive behavior. This view conforms to a human neurobiological restriction inclined toward synchronized behavior, which is claimed to be acquired in the process of human evolution.
Developmental dyslexia has a serious impact on children’s learning and forms a quite interdisciplinary field of study ranging from clinics, to brain science, to information processing, to linguistics, and to pedagogy, which offers both technical and conceptual research potentials.

Keywords: mora inclination, developmental dyslexia, phonological awareness, rhyme awareness, coarticulation, synchronized articulatory behavior

Claude Roux (Naver Labs Europe) le 14 février 2018 à 14H00 en salle 306

Tamgu un langage de programmation pour l’extraction d’information

Tamgu signifie en coréen l’investigation, la recherche. Ce langage regroupe tous les outils de base nécessaire à l’extraction et la détection d’expressions textuelles. Tamgu permet en particulier de combiner des approches en apprentissage automatique avec des approches plus symboliques, par exemple en intégrant des lexiques généraux ou utilisateurs.

Steven Bird, Charles Darwin University

Mon 14th January at 2pm – room 306 batiment IMAG
Scalable Methods for Working with Unwritten Languages 2: Talking about Places and Processes

Lane Schwartz (Univ. of Illinois) le 10 janvier 2019 à 14H00 en salle 306

Intersecting machine learning and linguistic fieldwork: Computational models for St. Lawrence Island Yupik

Marc Dymetman Principal Scientist, NLP, NAVER Labs Europe, le 6/12/2018 à 14H00 en salle 306

Prior knowledge and deep learning: some principles and applications to NLP

In the last few years, neural networks have quickly gained a dominant position in computational linguistics. In application domains where supervised data is abundant, such as Machine Translation between some of the major world languages, the superior learning capabilities of neural networks have produced models with better performance than the previously available techniques. In such abundant data conditions, these models can be trained from raw data, in an end-to-end fashion, without much injection of external knowledge.

However, in less favorable data conditions, prior knowledge continues to play an important role: it allows the neural components to be guided, not only by direct data observations, but also by hypotheses and principles that come from an understanding of the problem at hand.

In my talk, I will try to provide some intuitions about the role of prior knowledge in deep learning for NLP and provide some examples from my own experience with applications such as Language Modelling, NLG, and Semantic Parsing.

Marc Cavazza, Professeur à University of Greenwich · School of Computing & Mathematical Sciences le 4/12/2018 à 10H30 en salle séminaire-1

Nouvelles Applications des Techniques de Narration Interactive 

Les techniques de Narration Interactive se sont développées depuis les années 2000 principalement dans le but de fournir un contenu narratif plus évolué aux médias interactifs, pour des applications plus ludiques qu’éducatives. Avec le développement de représentations des connaissances plus sophistiquées et d’approches plus cognitives de la narration, il existe de nouvelles opportunités pour utiliser des techniques narratives dans le cadre de la simulation et de la formation. Cette tendance rejoint au niveau narratif le développement du domaine des « Jeux Sérieux ». Nous présentons plusieurs exemples d’utilisation de techniques narratives dans des applications non ludiques, basées sur une utilisation de techniques de planification par opérateurs ou par tâches.

Dans le domaine de la formation ou de l’éducation des patients, la conversion de modèles en connaissances en fragments narratifs scénarisés peut être utilisée pour créer une diversité de situations résultant de l’interaction entre des connaissances génériques et des données personnelles. Nous présenterons également une approche cognitive de la narration qui vise à contrôler le phénomène de compréhension narratif, et qui a pu être utilisée pour explorer la compréhension causale chez l’enfant.

Denis Paperno (Loria) – 8 novembre 2018 à 14H00 en salle 206.

Limitations in learning an interpreted language with recurrent models

I report work in progress on learning simplified interpreted languages by means of recurrent models. The data is constructed to reflect core properties of natural language as modeled in formal syntax and semantics: recursive syntactic structure and compositionality. Preliminary results suggest that LSTM networks do generalise to compositional interpretation, albeit only in the most favorable learning setting, with a well-paced curriculum, extensive training data, and left-to-right (but not right-to-left) composition.
Bio : While I have experience in different subfields of language science such as field linguistics, language typology, and formal semantics, my current work mainly focuses on computational semantic representations for natural language, including word, phrase, and sentence embeddings. My work has included proposing new models such as the Practical Lexical Function model for syntax-driven vector compositionality or the Boolean Distributional Semantic Model for entailment detection, as well as analyzing existing models and evaluating them on new tasks.
I hold an undergraduate degree in Linguistics from Moscow State University and a PhD from the University of California, Los Angeles. After finishing my thesis, I was a postdoc at Marco Baroni’s COMPOSES group at the University of Trento. Since 2016, I am a researcher (CR CNRS) at the Lorraine laboratory of computer science and its applications (Loria).

Jacob Levy Abitbol, Márton Karsai, Jean-Pierre Chevrot, Jean-Philippe Magué – 20 septembre 2018 à 15H30 en salle 306.

Socioeconomic Dependencies of Linguistic Patterns in Twitter: A Multivariate Analysis

Our usage of language is not solely reliant on cognition but is arguably determined by myriad external factors leading to a global variability of linguistic patterns. This issue, which lies at the core of sociolinguistics and is backed by many small-scale studies on face-to-face communication, is addressed here by constructing a dataset combining the largest French Twitter corpus to date with detailed socioeconomic maps obtained from national census in France. We show how key linguistic variables measured in individual Twitter streams depend on factors like socioeconomic status, location, time, and the social network of individuals. We found that (i) people of higher socioeconomic status, active to a greater degree during the daytime, use a more standard language; (ii) the southern part of the country is more prone to use more standard language than the northern one, while locally the used variety or dialect is determined by the spatial distribution of socioeconomic status; and (iii) individuals connected in the social network are closer linguistically than disconnected ones, even after the effects of status homophily have been removed. Our results inform sociolinguistic theory and may inspire novel learning methods for the inference of socioeconomic status of people from the way they tweet.

Christian Boitet – 13 septembre 2018 à 14h en salle 306

Professeur émérite à l’Université Grenoble Alpes, GETALP-LIG
Séminaire consacré à la conférence Coling 2018 (http://coling2018.org)

Saison 2017-2018

Bruno Pouliquen 31/05/2018 à 14h – 306

Organisation mondiale de la propriété intellectuelle

From SMT to NMT at WIPO

Steven Bird – 4 avril 2018 à 15h

Professeur, Univ. Charles Darwin, Australie
http://www.cdu.edu.au/northern-institute/our-teams/steven-bird

Sparse Transcription: Rethinking the Processing of Unwritten Languages

Steven Bird is researching new methods for documenting and revitalising the thousands of small languages still spoken in the world today. His career began with a BSc and MSc in computer science at Melbourne University, followed by a PhD in computational linguistics from Edinburgh University, completed in 1990. Since then he has worked at the Universities of Edinburgh, Pennsylvania, Melbourne, and Berkeley, and conducted fieldwork in Australia, West Africa, Melanesia, Amazonia, and Central Asia. He is co-author of a popular textbook in computational linguistics, and recently developed a new computer science curriculum for secondary students which has been adopted in Australian schools. The Aikuma app developed with his students took out the grand prize in the Open Source Software World Challenge.

Laurent Besacier

Professeur au LIG, équipe GETALP

Le défi de découvrir des unités linguistiques à partir de la parole brute / The challenge of discovering linguistic units from raw speech

Dans ce séminaire, je présenterai deux projets scientifiques collectifs [1,2] qui m’ont occupé pendant l’année 2017. Qu’ont-ils en commun ?La découverte d’unités linguistiques à partir de la parole brute sans aucune autre supervision. Ou presque …In this seminar, I will present two collective scientific projects [1,2] that occupied me during the year 2017. What do they have in common?Discovering linguistic units from raw speech without any other supervision. Or almost…[1] https://arxiv.org/pdf/1712.04313.pdf[2] https://arxiv.org/pdf/1802.05092.pdf

Marco Dinaralli – 22 mars 2018 à 15H15

LaTTiCe-CNRS UMR 8094 – en séjour au LIG-GETALP

Compréhension automatique de la parole et resolution de chaînes de coréférences.
Dans ce séminaire je vais parler des principaux domaines de recherches sur lesquels j’ai travaillé : compréhension automatique de la parole et resolution de chaînes de coréférences. Je décrirai les systèmes informatiques, surtout à base d’apprentissage artificiel, mis en place pour modéliser ces problèmes.
Ces systèmes s’appuient sur des modèles qui vont des automates probabilistes à états finis (FSA/FST) aux réseaux neuronaux, en passant par les champs conditionnels aléatoires (CRF), et détiennent l’état-de-l’art sur certaines tâches.

Emmanuel Morin – 20 mars 2018 à 9H30

Professeur à l’Université de Nantes (LS2N – Laboratoire des Sciences du Numérique de Nantes)
Extraction de lexiques bilingues à partir de corpus comparables spécialisés : la langue générale au secours de la langue de spécialité
L’extraction de lexiques bilingues à partir de corpus a initialement été réalisée en s’appuyant sur des textes en correspondance de traduction (c’est-à-dire des corpus parallèles). Cependant, et en dépit des bons résultats obtenus, ces corpus demeurent des ressources rares, notamment pour les domaines spécialisés et pour des couples de langues ne faisant pas intervenir l’anglais. Dans ce contexte, les recherches en extraction de lexiques bilingues se sont penchées sur d’autres corpus composés de textes partageant différentes caractéristiques telles que le domaine, le genre, la période… sans être en correspondance de traduction (c’est-à-dire des corpus comparables).L’extraction de lexiques bilingues à partir de corpus comparables spécialisés est fortement contrainte par la quantité de données mobilisables. Pour contourner cet obstacle, une solution serait d’associer des ressources externes au corpus spécialisés. Cette solution, quoi que intuitive, va à l’encontre du courant dominant puisque de nombreuses études soutiennent l’idée que l’ajout de documents hors-domaine à un corpus spécialisé diminue la qualité des lexiques extraits. Dans cet exposé nous montrerons comment des corpus de langue générale peuvent venir compléter des corpus de langue de spécialité. Nous présenterons différentes manières d’associer ces données entre elles en exploitant des représentations distributionnelles basées sur modèles vectoriels et neuronaux.

Olivier Kraif – 8 mars 2018

Laboratoire de Linguistique et Didactique des Langues Etrangères et Maternelles
Analyse en dépendances pour l’extraction automatique de motifs récurrents

On désigne par “motifs” des constructions récurrentes susceptibles de jouer un rôle dans l’organisation textuelle et la structuration du discours. Les motifs, en tant que constructions préfabriquées, sont par ailleurs caractéristiques de genres textuels très codifiés. L’identification de ces constructions peut s’avérer utile dans différents types d’application en TAL : classification de documents, traduction automatique, aide à la rédaction, recherche de termes, outils pour la linguistique de corpus… Après avoir précisé la notion au plan linguistique, nous passerons en revue différentes méthodes dédiées à l’identification automatique de motifs : segments répétés ou ngrams, motifs d’itemsets, arbres lexico-syntaxiques récurrents. Nous détaillerons les pistes recherches actuelles concernant l’utilisation de la syntaxe (analyses en dépendances) pour la découverte et la description de certaines classes de motifs.

Moez Avili – 8 février 2018

Laboratoire d’Informatique d’Avignon
Fiabilité de la comparaison de voix dans le cadre judiciaire / Reliability of voice comparison for forensic applications

Dans les procédures judiciaires, des enregistrements de voix sont de plus en plus fréquemment présentés comme élément de preuve. En général, il est fait appel à un expert scientifique pour établir si l’extrait de voix en question a été prononcé par un suspect donné (prosecution hypothesis) ou non (defence hypothesis). Ce prosessus est connu sous le nom de “Forensic Voice Comparison (FVC)” (comparaison de voix dans le cadre judiciaire). Depuis l’émergence du modèle DNA typing, l’approche Bayesienne est devenue le nouveau “golden standard” en sciences criminalistiques. Dans cette approche, l’expert exprime le résultat de son analyse sous la forme d’un rapport de vraisemblance (LR). Ce rapport ne favorise pas seulement une des hypothèses (“prosecution” ou “defence”) mais il fournit également le poids de cette décision. Bien que le LR soit théoriquement suffisant pour synthétiser le résultat, il est dans la pratique assujetti à certaines limitations en raison de son processus d’estimation. Cela est particulièrement vrai lorsque des systèmes de reconnaissance automatique du locuteur (ASpR) sont utilisés. Ces systèmes produisent un score dans toutes les situations sans prendre en compte les conditions spécifiques au cas étudié. Plusieurs facteurs sont presque toujours ignorés par le processus d’estimation tels que la qualité et la quantité d’information dans les deux enregistrements vocaux, la cohérence de l’information entre les deux enregistrements,
leurs contenus phonétiques ou encore les caractéristiques intrinsèques des locuteurs. Tous ces facteurs mettent en question la notion de fiabilité de la comparaison de voix dans le cadre judiciaire. Dans cette thèse, nous voulons adresser cette problématique dans le cadre des systèmes automatiques (ASpR) sur deux points principaux.

Le premier consiste à établir une échelle hiérarchique des catégories phonétiques des sons de parole selon la quantité d’information spécifique au locuteur qu’ils contiennent. Cette étude montre l’importance du contenu phonétique: Elle met en évidence des différences intéressantes entre les phonèmes et la forte influence de la variabilité intra-locuteurs. Ces résultats ont été confirmés par une étude complémentaire sur les voyelles orales basée sur les paramètres formantiques, indépendamment de tout système de reconnaissance du locuteur.

Le deuxième point consiste à mettre en oeuvre une approche afin de prédire la fiabilité du LR à partir des deux enregistrements d’une comparaison de voix sans recours à un ASpR. À cette fin, nous avons défini une mesure d’homogénéité (NHM) capable d’estimer la quantité d’information et l’homogénéité de cette information entre les deux enregistrements considérés. Notre hypothèse ainsi définie est que l’homogénéité soit directement corrélée avec le degré de fiabilité du LR. Les résultats obtenus ont confirmé cette hypothèse avec une mesure NHM fortement corrélée à la mesure de fiabilité du LR. Nos travaux ont également mis en évidence des différences significatives du comportement de NHM entre les comparaisons cibles et les comparaisons imposteurs.

Nos travaux ont montré que l’approche “force brute” (reposant sur un grand nombre de comparaisons) ne suffit pas à assurer une bonne évaluation de la fiabilité en FVC. En effet, certains facteurs de variabilité peuvent induire des comportements locaux des systèmes, liés à des situations particulières. Pour une meilleure compréhension de l’approche FVC et/ou d’un système ASpR, il est nécessaire d’explorer le comportement du système à une échelle aussi détaillée que possible (le diable se cache dans les détails).

Paule-Annick Davoine – 23 novembre 2017

Professeur à l’Université Grenoble Alpes, laboratoire Pactes
Cartographie et géovisualisation pour la représentation et l’analyse de données spatialisées pour les humanités numériques

De plus en plus de disciplines ou de recherches en sciences humaines et sociales, lettres et langues s’intéressent à la dimension spatiale des données ou des sources: en histoire pour la représentation de données géo historiques nécessaires à la compréhension de l’évolution des territoires ou des phénomènes les impactants; en littérature pour la cartographie des lieux dans les romans, des récits de vie des auteurs ; en linguistique pour appréhender la diffusion spatiale des langues ou des dialectes; en géographie pour la reconstitution de trajectoires et de déplacements d’individus à partir de récits ou pour la valorisation de documents cartographiques anciens…. Tous ces besoins lancent de nouveaux défis à la cartographie et à la géo visualisation qui doivent traiter des données spatialisées semi-structurées, multidimensionnelles, multi-formes et définies par une diversité d’échelles d’observation tant géographique que temporelle et selon des niveaux de qualité variables.
L’objectif de la communication est de présenter certaines problématiques cartographiques et de géo visualisation soulevées par le traitement et la représentation spatialisées des données issues du domaine des humanités numériques en s’appuyant sur des projets de recherche menés au sein de l’équipe Steamer

Patrick Paroubek – 26 octobre 2017

Ingénieur de Recherche CNRS (IR1)

Le Traitement Automatique des Langues pour l’analyse des publications scientifiques

Le thème sera abordé à partir des travaux d’analyse des publications de la communauté TAL réalisés autour du corpus NLP4NLP
qui couvre 50 ans de publications des principales conférences et revues dans le domaine de l’analyse du texte et de  la parole
et de corpus biomédicaux (projet MIROR). Les apports du TAL adressés ici concerneront  l’analyse des tendances et  des réseaux ainsi que la détection de plagiat ou de “spin” (embellissement) dans les publications scientifiques.

Christian Boitet – 5 octobre 2017

Professeur émérite à l’Université Grenoble Alpes, GETALP-LIG
Séminaire consacré au MT summit (http://aamt.info/app-def/S-102/mtsummit/2017/)

Saison 2016-2017

Maximiliano Duran – 30 mai 2017

Linguiste peruvien
Le temps non marqué et suffixation à quatre niveaux en quechua

Pedro Chahuara – 18 mai 2017

Chercheur au Centre Européen de Xerox (XRCE)
Online Mining of Web Publisher RTB Auctions for Revenue Optimization
In the online adversiment market there are two main actors: the publishers that offer a space for advertisement in their websites and the announcers who compite in an auction to show their advertisements in the available spaces. When a user accesses an internet site an auction starts for each ad space, the profile of the user is given to the announcers and they offer a bid to show an ad to that user. The publisher fixes a reserve price, the minimum value they accept to sell the space.
In this talk I will introduce a general setting for this ad market and I will present an engine to optimize the publisher revenue from second-price auctions, which are widely used to sell on-line ad spaces in a mechanism called real-time bidding. The engine is fed with a stream of auctions in a time-varying environment (non-stationary bid distributions, new items to sell, etc.) and it predicts in real time the optimal reserve price for each auction. This problem is crucial for web publishers, because setting an appropriate reserve price on each auction can increase significantly their revenue.
I consider here a realistic setting where the only available information consists of a user identifier and an ad placement identifier. Once the auction has taken place, we can observe censored outcomes : if the auction has been won (i.e the reserve price is smaller than the first bid), we observe the first bid and the closing price of the auction, otherwise we do not observe any bid value.
The proposed approach combines two key components: (i) a non-parametric regression model of auction revenue based on dynamic, time-weighted matrix factorization which implicitly builds adaptive users’ and placements’ profiles; (ii) a non-parametric model to estimate the revenue under censorship based on an on-line extension of the Aalen’s Additive Model.

Jean-Pierre Chevrot – 2 mars 2017

Professeur à l’Université Grenoble Alpes
Laboratoire de l’Informatique du Parallélisme, Institut rhône-alpin des systèmes complexes, ENS Lyon
Laboratoire Lidilem, Université Grenoble Alpes
Acquisition du langage et usages sociolinguistiques : le social, le cognitif et le réseau
Le rapprochement des approches cognitives et des approches sociales est souvent présenté comme un objectif souhaitable pour mieux comprendre le processus d’acquisition du langage (Hulstijn et al., 2014). Cependant, la question reste de savoir comment traduire ce programme dans la en réalité de la pratique de la recherche.

Bien que les approches cognitives et sociales soient fondées sur des traditions différentes, la tentative de combiner les deux points de vue dans la recherche sur l’acquisition du langage peut bénéficier d’entreprises similaires dans d’autres domaines, tels que la cognition sociale, la sociologie cognitive, la sociolinguistique cognitive, les neurosciences sociales, etc. L’examen de ces tentatives interdisciplinaires conduit à l’identification de trois façons de combiner le social et le cognitif: l’approche sociale de la cognition, l’approche cognitive du social et l’approche dite individualisme complexe (Kaufmann et Clément, 2011; Chevrot, Drager & Foulkes, en préparation, Dupuy, 2004).

Parmi ces options, seule la dernière ne favorise ni le niveau social et collectif, ni le niveau cognitif et individuel (Dupuy, 2004). Au contraire, elle met l’accent sur l’interaction et la causalité bidirectionnelle entre ces eux. Dans cette perspective, des individus ayant des caractéristiques sociales et cognitives spécifiques interagissent les uns avec les autres dans le cadre de contraintes sociales et cognitives générales. Les caractéristiques des individus peuvent évoluer en raison des interactions entre eux et ces changements peuvent à leur tour modifier les contraintes générales (Hruschka et al. 2009). Dans ce cadre, l’acquisition du langage et son usage peuvent être considérés comme les résultats d’influences réciproques diffusant dans un réseau de relations.

Nous présenterons des projets susceptibles de mettre en œuvre ce cadre, notamment le projet DyLNet – Language Dynamics, Linguistic Learning, and Sociability at Preschool: Benefits of Wireless Proximity Sensors in Collecting Big Data (Nardy, 2017).
References
Chevrot, J.P., Drager, K. & Foulkes, P. (en préparation). Sociolinguistic Variation and Cognitive Science.

Dupuy, J.-P. (2004). Vers l’unité des sciences sociales autour de l’individualisme méthodologique complexe. Revue du MAUSS, 24(2), 310-328.

Hruschka, D. J., Christiansen, M. H., Blythe, R. A., Croft, W., Heggarty, P., Mufwene, S. S., Pierrehumbert, Janet B., Poplack, S. (2009). Building social cognitive models of language change. Trends in Cognitive Sciences, 13(11), 464–469.

Hulstijn, J. H., Young, R. F., Ortega, L., Bigelow, M., DeKeyser, R., Ellis, N. C., Lantolf, J. P., Mackey, A., Talmy, S. (2014). Bridging the Gap. Studies in Second Language Acquisition, 36(03), 361–421.

Kaufmann, L., & Clément, F. (2011). L’esprit des sociétés. Bilan et perspectives en sociologie cognitive. In L. Kaufmann & F. Clément, La sociologie cognitive, Ophrys (pp. 7–40).

Nardy (2017). DyLNet Project – Language Dynamics, Linguistic Learning, and Sociability at Preschool: Benefits of Wireless Proximity Sensors in Collecting Big Data [https://hal-univ-orleans.archives-ouvertes.fr/hal-01396652]

Michael Zock – 12 janvier 2017

Directeur de recherche CNRS au Laboratoire d’Informatique Fondamentale (LIF), groupe TALEP à Aix-Marseille Université

Si tous les chemins mènent à Rome, ils ne se valent pas tous. Le problème d’accès lexical en production

Tout le monde a déjà rencontré le problème suivant : on cherche un mot (ou le nom d’une personne) que l’on connaît, sans être en mesure d’y accéder à temps. Les travaux des psychologues ont montré que les personnes se trouvant dans cet état cognitif savent énormément de choses concernant le mot recherché (sens, nombre de syllabes, origine, etc.), et que les mots avec lequel ils le confondent lui ressemblent étrangement (lettre ou son initial, catégorie syntaxique, champ sémantique, etc.).
Mon objectif (à long terme) est de réaliser un programme tirant bénéfice de cet état de faits pour assister un locuteur ou rédacteur à (re)trouver le mot qu’il a sur le bout de la langue. À cette fin, je prévois d’ajouter à un dictionnaire électronique existant un index d’association (collocations rencontrées dans un grand corpus). Autrement dit, je propose de construire un dictionnaire analogue à celui des êtres humains, qui, outre les informations conventionnelles (définition, forme écrite, informations grammaticales) contiendrait des liens (associations), permettant de naviguer entre les idées (concepts) et leurs expressions (mots). Un tel dictionnaire permettrait donc l’accès à l’information recherchée soit par la forme (lexicale : analyse), soit par le sens (concepts : production), soit par les deux.
L’objectif de cet exposé est de montrer comment construire une telle ressource, comment s’en servir, quelles sont les difficultés de construction et quelles sont les possibilités qu’offre un telle ressource.

Lorraine Goeuriot – 1er décembre 2016

Maîtresse de conférences  à l’Univ. Grenoble Alpes dans l’équipe MRIM du Laboratoire d’informatique de Grenoble

Medical Information Retrieval and its evaluation: an overview of CLEF eHealth evaluation task

In this talk, I will introduce my research activities in the field of medical information retrieval, and in particular its evaluation.
The use of the Web as source of health-related information is a wide-spread phenomena, and laypeople often have difficulties finding relevant documents. The goal of the CLEF eHealth evaluation challenge is to provide researchers with datasets to improve consumer health search. I will firstly introduce the task and the datasets built. Then I will describe some experiments and results obtained on this dataset.

Fabien Ringeval – 20 octobre 2016

Maître de conférences à l’Univ. Grenoble Alpes dans l’équipe GETALP  du Laboratoire d’informatique de Grenoble

Vers la reconnaissance automatique d’émotions écologiques

Les technologies de reconnaissance automatique de l’émotion ont gagné une attention croissante dans la dernière décennie tant au niveau académique qu’industriel, puisqu’elles ont trouvé de nombreuses applications dans des domaines aussi variés que la santé, l’éducation, les jeux-vidéos, la publicité, ou encore la robotique sociale. Bien que de bonnes performances soient reportées dans la littérature pour des émotions actées, la reconnaissance automatique d’émotions spontanées, comme exprimées dans la vie de tous les jours, reste encore un challenge non résolu, puisque ces émotions sont subtiles, et leur expression, comme leur signification, varient fortement selon de nombreux paramètres locuteur, comme par exemple l’âge, et le genre, mais aussi la personnalité, le rôle social, la langue, et la culture. Dans cette présentation, je décrirai les méthodologies actuelles en acquisition et annotation de données affectives, et présenterai les dernières avancées pour la reconnaissance automatique des émotions à partir du signal de parole.