Détail du poste Établissement : Université de Tours École doctorale : Mathématiques, Informatique, Physique Théorique et Ingénierie des Systèmes - MIPTIS Laboratoire de recherche : Laboratoire d'Informatique Fondamentale et Appliquée de Tours Direction de la thèse : Arnaud SOULET ORCID 0000000183356069 Début de la thèse : 2026-10-01 Date limite de candidature : 2026-05-20T23:59:59 Les grands modèles de langage (LLM) offrent des performances remarquables, mais présentent des biais issus des données d'entraînement et des inégalités sociales. Les méthodes actuelles de détection reposent sur des tests ciblés nécessitant de définir à l'avance les biais étudiés, ce qui limite la découverte de biais inattendus. Cette thèse propose de quantifier et de classer les biais des LLM en s'appuyant sur des graphes de connaissances. Les faits issus de ces graphes seront transformés en requêtes afin d'analyser les réponses des modèles et d'identifier des biais potentiels de manière plus systématique. Un défi majeur réside dans la taille de ces graphes, rendant impossible une exploration exhaustive. Le travail consistera donc à sélectionner les requêtes les plus informatives pour détecter efficacement les biais tout en limitant le coût d'interrogation. L'objectif est de mieux comprendre et caractériser les biais des LLM. Les progrès récents des grands modèles de langage (LLM) se sont révélés très prometteurs dans diverses applications de l'intelligence artificielle (IA) [1, 8]. Cependant, malgré leurs capacités remarquables, les LLM présentent souvent des biais inhérents qui peuvent affecter leurs résultats, ce qui constitue l'une de leurs principales limites [6]. Ces biais, qui trouvent leur origine dans les distorsions inhérentes aux jeux de données d'entraînement, ainsi que dans les inégalités sociétales systémiques [2], soulignent la nécessité de disposer de méthodes avancées pour détecter, analyser et atténuer leur impact, afin de garantir des systèmes d'IA plus équitables et plu