Lors de la 26ème conférence sur le Traitement Automatique des Langues à Toulouse du 1er au 5 juillet organisé conjointement avec la Plateforme d’Intelligence Artificielle, Loïc Vial, Benjamin Lecouteux et Didier Schwab ont obtenu le prix du meilleur article pour Compression de vocabulaire de sens grâce aux relations sémantiques pour la désambiguïsation lexicale.
Cet article présente une méthode originale qui pallie le manque de données annotés de bonne qualité et qui permet d’obtenir des résultats qui surpassent largement l’état de l’art sur toutes les tâches d’évaluation de la désambiguïsation lexicale.
Pour rappel, la Désambiguïsation Lexicale est une tâche qui vise à clarifier un texte en assignant à chacun de ses mots l’étiquette de sens la plus appropriée depuis un inventaire de sens prédéfini. Il s’agira, par exemple, de préférer dans la phrase La souris mange le fromage le sens de rongeur plutôt que le sens de dispositif électronique pour le mot souris. Ces travaux sont exploités par les auteurs dans plusieurs applications du traitement automatique des langues comme la traduction automatique ou pour concevoir des outils destinés à établir une communication alternative par exemple pour pour des personnes maîtrisant pas ou peu la langue ou des personnes en situation de polyhandicap.
Category Archives: Uncategorized
2 seminars from Steven Bird in january 2019
LIG présent au R&T Days de l’Institut Cognition !
Didier Schwab, Benjamin Lecouteux et Laurent Besacier présentent le 5 Octobre 2018 deux démonstrations aux R&T Days de l’Institut Cognition.
- GazePlay : jeux par le regard pour les enfants en situation de polyhandicap
- Lig-Aikuma : une application mobile pour la collecte de parole sur le terrain
ICPhS 2019 Special Session
Welcome
This is the web page for the Computational Approaches for Documenting and Analyzing Oral Languages Special Session at ICPhS 2019, the International Congress of the Phonetic Sciences, 5-9 August 2019, Melbourne, Australia.
Summary
The special session Computational Approaches for Documenting and Analyzing Oral Languages welcomes submissions presenting innovative speech data collection methods and/or assistance for linguists and communities of speakers: methods and tools that facilitate collection, transcription and translation of primary language data. Oral languages is understood here as referring to spoken vernacular languages which depend on oral transmission, including endangered languages and (typically low-prestige) regional varieties of major languages.
The special session intends to provide up-to-date information to an audience of phoneticians about developments in machine learning that make it increasingly feasible to automate segmentation, alignment or labelling of audio recordings, even in less-documented languages. A methodological goal is to help establish the field of Computational Language Documentation and contribute to its close association with the phonetic sciences. Computational Language Documentation needs to build on the insights gained through phonetic research; conversely, research in phonetics stands to gain much from the availability of abundant and reliable data on a wider range of languages.
Our special session is mentioned on the ICPhS website here. You can find a poster of this session here.
Main goals
The special session aims to bring together phoneticians, computer scientists and developers interested in the following goals:
- Rethinking documentary processes: recording, transcription and annotation;
- Responding to the urgent need to document endangered languages and varieties;
- Elaborating an agenda and establishing a roadmap for computational language documentation;
- Ensuring that the requirements of phonetics research are duly taken into consideration in the agenda of Computational Language Documentation;
- Attracting computer scientists to ICPhS and engaging them in discussions with phoneticians (and linguists generally).
Main topics
This special session will focus on documenting and analyzing oral languages, including topics such as the following:
- large-scale phonetics of oral languages,
- automatic phonetic transcription (and phonemic transcription),
- mobile platforms for speech data collection,
- creating multilingual collections of text, speech and images,
- machine learning over these collections,
- open source tools for computational language documentation,
- position papers on computational language documentation.
Session format
Special sessions at ICPhS will normally be 1.5 hours. For our accepted special session, we chose the “workshop” type with a more open format suitable for discussion of methods/tools. The exact format is still to be determined. More details will be provided on the format later.
How does the submission process work?
Papers will be submited directly to the conference by December 4th and will then be evaluated according to the standard ICPhS review process [see here]. Accepted papers will be allocated either to this special session or a general session. When submitting you can specify if you want to be considered for this special session.
Organizers
Laurent Besacier – LIG UGA (France)
Alexis Michaud – LACITO CNRS (France)
Martine Adda-Decker – LPP CNRS (France)
Gilles Adda – LIMSI CNRS (France)
Steven Bird – CDU (Australia)
Graham Neubig – CMU (USA)
François Pellegrino – DDL CNRS (France)
Sakriani Sakti – NAIST (Japan)
Mark Van de Velde – LLACAN CNRS (France)
Endorsement
This special session is endorsed by SIGUL (Joint ELRA and ISCA Special Interest Group on Under-resourced Languages)
Soutenance de thèse par Alexis Brenon le 14 décembre 2017
Thèse intitulée « Modèle profond pour le contrôle vocal adaptatif d’un habitat Intelligent » à 14h15 dans l’amphithéâtre IMAG.
Offre de thèse financée par l’ANR
L’équipe GETALP recrute un doctorant sur un sujet de thèse financée par l’ANR : Système personnalisé de commande vocale en contexte
Contrat de 3 ans, début en septembre 2017.
Séminaire d’équipe Pedro Chahuara le jeudi 18 mai à 14h
séminaire d’équipe Jean-Pierre Chevrot (jeudi 2 mars)
Acquisition du langage et usages sociolinguistiques : le social, le cognitif et le réseau
18-19 janvier 2017 : Réunion de lancement du projet ANR VOCADOM
Le projet VOCADOM porté par GETALP a été sélectionné par l’ANR lors de l’appel générique en 2016.
Durée du projet : 48 mois – Responsable scientifique : Michel Vacher)
Partenaires : CNRS/LIG, Inria Nancy Grand-Est, GRePS, THEORIS
Site du projet : VOCADOM
2 articles de l’équipe présentés à COLING 2016
2 articles de l’équipe présentés à COLING 2016 à Osaka du 10 au 16 Dec. 2016 !
Vous pouvez y accéder en cliquant sur les liens ci-dessous !