Planning

Tuesday, March 17, 2026

Time Event (+)
09:30 - 09:45 Introduction - GT TAL-i  
09:45 - 11:00 (+)  
09:45 - 10:00 › Interpreto: An Explainability Library for Transformers - Thomas Mullor, IRT Saint Exupéry - Institut de Recherche Technologique, https://arxiv.org/abs/2512.09730  
10:00 - 10:15 › Améliorer les encodeurs croisés par l'interprétabilité - Mathias Vast, Institut des Systèmes Intelligents et de Robotique, ChapsVision, https://arxiv.org/abs/2602.16299  
10:15 - 10:30 › ConceptGuard: Neuro-Symbolic Safety Guardrails via Sparse Interpretable Jailbreak Concepts - Darpan Aswal, Laboratoire MICS, Université Paris-Saclay, https://arxiv.org/pdf/2508.16325  
10:30 - 10:45 › Interprétations de modèles pré-entraînés pour le traitement de la parole et de l'audio à l'aide d'auto-encodeurs parcimonieux - Théo Mariotte, Laboratoire d'Informatique de l'Université du Mans, https://arxiv.org/pdf/2509.24793  
10:45 - 11:00 › Représentation Deleuzienne de concepts - Clément Cornet, Département Intelligence Ambiante et Systèmes Interactifs  
11:00 - 11:20 Coffee break  
11:20 - 12:30 (+)  
11:20 - 12:30 › Apporter l'explicabilité du NLP aux secteurs critiques : étude de cas sur les NOTAMs en aéronautique - Vincent Mussot, IRT Saint Exupéry - Institut de Recherche Technologique - François Hoofd, IRT Saint Exupéry - Institut de Recherche Technologique  
11:20 - 12:30 › Candidature "DRIV-EX : Explications contre-factuelles pour LLMs appliqués à la conduite autonome" - Amaia CARDIEL, Laboratoire d'Informatique de Grenoble, https://arxiv.org/abs/2603.00696  
11:20 - 12:30 › Analyse des biais de tokenisation de Whisper - Nicolas Ballier, ALTAE, https://hal.science/hal-04911934v1/document  
11:20 - 12:30 › Mesurer l'interprétabilité des représentations neuronales du locuteur - Félix Saget, Laboratoire d'Informatique de l'Université du Mans, https://inria.hal.science/hal-05302071v1  
11:20 - 12:30 › Votre Définition Fait-Elle la Différence ? Sensibilité au Prompt vs Connaissance Interne pour l'Analyse des Réseaux Sociaux par LLMs - Marc-Alexis Azais, Laboratoire Informatique, Image et Interaction - EA 2118  
11:20 - 12:30 › Observation des concepts sémantiques issus du préentraînement qu'un modèle de langage mobilise classifier des NOTAMs: Explicabilité pour la certification de systèmes critiques - Camille Barboule, Dependable, Explainable and Embeddable Learning, AIRBUS Protect  
11:20 - 12:30 › Probing Semantic and Prosodic Representations in the Mimi Neural Audio Code - Artem Saloev, ALTAE, https://github.com/artemsaloev/Speech-Prososdy-2026  
11:20 - 12:30 › What Matters to an LLM? Behavioral and Computational Evidences from Summarization - Yongxin Zhou, Laboratoire d'Informatique de Grenoble, https://arxiv.org/abs/2602.00459  
11:20 - 12:30 › Biais de genre encodés et exprimés dans les LLM : étude conjointe - Nour BOUCHOUCHI, LIP6, https://editions-rnti.fr/?inprocid=1003067  
11:20 - 12:30 › Vers un agent conversationnel interprétable pour l'entretien clinique en médecine du sommeil - Veronika PARKHOMENKO, Sommeil, Addiction et Neuropsychiatrie [Bordeaux]  
11:20 - 12:30 › Explaining mechanisms of unfairness in automatic speech recognition - Felix Herron, Laboratoire d'Informatique de Grenoble  
12:30 - 14:00 Lunch  
14:00 - 15:00 Learning, evaluating, and exploring interpretable lexical embeddings - Nicolas Dugué  
15:00 - 15:20 Coffee break  
15:20 - 16:35 (+)  
15:20 - 15:35 › Les propositions atomiques : un pont entre approches neuronales et symboliques pour l'interprétabilité par construction - Luc Pommeret, Sciences et Technologies des Langues - LISN  
15:35 - 15:50 › Vers une explicabilité des résumés orientés par aspects : stabilité sémantique, prompting et évaluation multi-dimensionnelle des LLMs - Carl Hatoum, Laboratoire Hubert Curien,  
15:50 - 16:05 › De l'interprétabilité mécaniste à l'inférence statistique : vers une science rigoureuse de l'explication - Maxime Méloux, Laboratoire d'Informatique de Grenoble, https://arxiv.org/abs/2512.18792  
16:05 - 16:20 › AnCoGen : Analyse, Contrôle et Génération de la Parole avec un Auto-Encodeur Masqué - Samir Sadok, Inria at Univ. Grenoble Alpes, CNRS, LJK, France, https://arxiv.org/pdf/2501.05332  
16:20 - 16:35 › Dynamique d'apprentissage des LLMs via l'interprétabilité mécanistique : deux régimes, distributions de concepts et dimension intrinsèque - Raphael Bernas, Mathématiques et Informatique pour la Complexité et les Systèmes, https://github.com/Raphael-Bernas/concept_dynamic/blob/main/Bernas_Raphael_Report_NC.pdf  
16:35 - 17:00 Ending - GT TAL-i  
Loading... Loading...