Avec l’entrée en vigueur de la réglementation européenne sur l’IA, l’explicabilité et l’interprétabilité deviennent des enjeux incontournables. En traitement du langage, de la parole ou en recherche d’information, elles aident à comprendre le fonctionnement interne des modèles, à identifier biais et limites, mais aussi à concevoir de nouvelles architectures plus fiables.
Cette journée organisée par le GDR TAL invite à partager travaux, expériences et perspectives autour de ces questions.
Nous encourageons les contributions exploratoires, les retours d’expérience, ainsi que les travaux en cours. Les propositions d'intervention sont attendues sous la forme d'un résumé d’une page environ au format texte ayant la structure ci-dessous à soumettre sur sur ce site. Vous préciserez et motiverez le mode de présentation souhaité (oral, poster, démonstration).
Les thématiques couvertes, qui doivent avoir pour objet central le Traitement Automatique des Langues, lors de cette journée sont les suivantes :
Interprétabilité pour la recherche des biais Étudier comment les méthodes explicatives peuvent mettre en lumière des biais implicites dans les données ou les modèles, et contribuer à des systèmes plus justes et responsables.
Interprétabilité et applications Explorer l’usage des approches explicatives dans des domaines sensibles tels que la médecine, l’éducation, ou les sciences sociales, et discuter leur impact pratique et sociétal.
Parole, multimodalité et interprétabilité Défis spécifiques liés à l’explication de modèles pour la reconnaissance et la génération de la parole, ainsi que pour les systèmes multimodaux combinant texte, image, son ou vidéo.
Interprétabilité par design des modèles Nouvelles approches où l’explicabilité est intégrée dès la conception des modèles, plutôt qu’ajoutée a posteriori.
Interprétabilité et conception de modèles Approches où l'inteprétabilité sert à concevoir de nouveux modèles et architectures