› Interpreto: An Explainability Library for Transformers - Thomas Mullor, IRT Saint Exupéry - Institut de Recherche Technologique, https://arxiv.org/abs/2512.09730
09:45-10:00 (15min)
› Améliorer les encodeurs croisés par l'interprétabilité - Mathias Vast, Institut des Systèmes Intelligents et de Robotique, ChapsVision, https://arxiv.org/abs/2602.16299
10:00-10:15 (15min)
› Interprétations de modèles pré-entraînés pour le traitement de la parole et de l'audio à l'aide d'auto-encodeurs parcimonieux - Théo Mariotte, Laboratoire d'Informatique de l'Université du Mans, https://arxiv.org/pdf/2509.24793
10:30-10:45 (15min)
› Représentation Deleuzienne de concepts - Clément Cornet, Département Intelligence Ambiante et Systèmes Interactifs
10:45-11:00 (15min)
› Apporter l'explicabilité du NLP aux secteurs critiques : étude de cas sur les NOTAMs en aéronautique - Vincent Mussot, IRT Saint Exupéry - Institut de Recherche Technologique - François Hoofd, IRT Saint Exupéry - Institut de Recherche Technologique
11:20-12:30 (1h10)
› Candidature "DRIV-EX : Explications contre-factuelles pour LLMs appliqués à la conduite autonome" - Amaia CARDIEL, Laboratoire d'Informatique de Grenoble, https://arxiv.org/abs/2603.00696
11:20-12:30 (1h10)
› Analyse des biais de tokenisation de Whisper - Nicolas Ballier, ALTAE, https://hal.science/hal-04911934v1/document
11:20-12:30 (1h10)
› Mesurer l'interprétabilité des représentations neuronales du locuteur - Félix Saget, Laboratoire d'Informatique de l'Université du Mans, https://inria.hal.science/hal-05302071v1
11:20-12:30 (1h10)
› Votre Définition Fait-Elle la Différence ? Sensibilité au Prompt vs Connaissance Interne pour l'Analyse des Réseaux Sociaux par LLMs - Marc-Alexis Azais, Laboratoire Informatique, Image et Interaction - EA 2118
11:20-12:30 (1h10)
› Observation des concepts sémantiques issus du préentraînement qu'un modèle de langage mobilise classifier des NOTAMs: Explicabilité pour la certification de systèmes critiques - Camille Barboule, Dependable, Explainable and Embeddable Learning, AIRBUS Protect
11:20-12:30 (1h10)
› Probing Semantic and Prosodic Representations in the Mimi Neural Audio Code - Artem Saloev, ALTAE, https://github.com/artemsaloev/Speech-Prososdy-2026
11:20-12:30 (1h10)
› What Matters to an LLM? Behavioral and Computational Evidences from Summarization - Yongxin Zhou, Laboratoire d'Informatique de Grenoble, https://arxiv.org/abs/2602.00459
11:20-12:30 (1h10)
› Biais de genre encodés et exprimés dans les LLM : étude conjointe - Nour BOUCHOUCHI, LIP6, https://editions-rnti.fr/?inprocid=1003067
11:20-12:30 (1h10)
› Vers un agent conversationnel interprétable pour l'entretien clinique en médecine du sommeil - Veronika PARKHOMENKO, Sommeil, Addiction et Neuropsychiatrie [Bordeaux]
11:20-12:30 (1h10)
› Explaining mechanisms of unfairness in automatic speech recognition - Felix Herron, Laboratoire d'Informatique de Grenoble
11:20-12:30 (1h10)
› Les propositions atomiques : un pont entre approches neuronales et symboliques pour l'interprétabilité par construction - Luc Pommeret, Sciences et Technologies des Langues - LISN
15:20-15:35 (15min)
› Vers une explicabilité des résumés orientés par aspects : stabilité sémantique, prompting et évaluation multi-dimensionnelle des LLMs - Carl Hatoum, Laboratoire Hubert Curien,
15:35-15:50 (15min)
› De l'interprétabilité mécaniste à l'inférence statistique : vers une science rigoureuse de l'explication - Maxime Méloux, Laboratoire d'Informatique de Grenoble, https://arxiv.org/abs/2512.18792
15:50-16:05 (15min)
› AnCoGen : Analyse, Contrôle et Génération de la Parole avec un Auto-Encodeur Masqué - Samir Sadok, Inria at Univ. Grenoble Alpes, CNRS, LJK, France, https://arxiv.org/pdf/2501.05332
16:05-16:20 (15min)
› Dynamique d'apprentissage des LLMs via l'interprétabilité mécanistique : deux régimes, distributions de concepts et dimension intrinsèque - Raphael Bernas, Mathématiques et Informatique pour la Complexité et les Systèmes, https://github.com/Raphael-Bernas/concept_dynamic/blob/main/Bernas_Raphael_Report_NC.pdf
16:20-16:35 (15min)