Recherchez une offre d'emploi

Thèse Équité en Conditions de Faibles Ressources pour les Grands Modèles de Langage Évaluation et Atténuation des Biais en Boîte Noire H/F - 75

Description du poste

Établissement : Institut Polytechnique de Paris Télécom SudParis
École doctorale : Ecole Doctorale de l'Institut Polytechnique de Paris
Laboratoire de recherche : SAMOVAR - Services répartis, Architectures, Modélisation, Validation, Administration des Réseaux
Direction de la thèse : LUCA BENEDETTO ORCID 0000000251134696
Début de la thèse : 2026-09-01
Date limite de candidature : 2026-03-31T23:59:59

Ces dernières années, les grands modèles de langage (Large Language Models, LLMs) modernes se sont révélés très efficaces pour un large éventail de tâches, et l'on observe désormais une tendance à les utiliser dans une variété de domaines, notamment l'éducation [11, 2], la santé [12] ou encore les systèmes de recommandation [5, 20]. Certains modèles commerciaux sont disponibles gratuitement ou moyennant un abonnement modeste, et ne requièrent aucune compétence technique. Leur accessibilité, souvent via des interfaces à faible friction ne nécessitant aucune expertise, a accéléré leur adoption dans des contextes non contrôlés et non standardisés (par exemple, des étudiants s'exerçant avec ChatGPT). Même si cette faible barrière à l'entrée présente des avantages potentiels, de nombreuses recherches ont documenté les biais manifestés par les modèles d'IA ([7, 8, 13]), qui peuvent avoir des conséquences dans plusieurs domaines d'application (recommandations d'emploi [15], tri de CV [19], éducation [18], etc.).

Si cette accessibilité croissante contribue à la démocratisation de l'IA, de nombreuses études ont également mis en évidence l'existence de biais systémiques et émergents dans les LLMs. Pour répondre à ces enjeux, le domaine de l'équité en IA s'est fortement développé ces dernières années, et il existe désormais des méthodes d'identification et d'atténuation des biais qui montrent une certaine efficacité [9]. outefois, la notion d'équité dépend fortement du domaine d'application, et un modèle jugé sûr pour une tâche peut adopter un comportement biaisé dans une autre. De plus, la majorité des modèles s'alignent sur des normes et des risques centrés sur l'anglais, ce qui soulève des questions quant à l'adéquation culturelle des stratégies de mitigation [14, 1].

L'évaluation et l'atténuation des biais devraient donc être réalisées pour chaque tâche avant l'utilisation de modèles pré-entraînés, mais cela implique un coût important : l'équité n'est pas gratuite en termes de calcul [4], et les méthodes actuelles d'évaluation et, en particulier, de réduction des biais sont très gourmandes en ressources [16, 6, 9]. Malheureusement, la grande majorité des adopteurs de l'IA disposent de ressources limitées et sont donc incapables de mettre en place des pipelines complets d'audit et de mitigation. Ils dépendent alors des stratégies appliquées par les entreprises et laboratoires qui entraînent les modèles commerciaux ou à poids ouverts. En pratique, cela contredit le récit de la démocratisation de l'IA : si l'accès aux modèles est effectivement démocratisé, l'accès à une IA sûre ne l'est pas, créant ainsi un fossé d'équité.

Ce projet cible directement ce fossé, avec pour objectif de développer des techniques d'évaluation et de mitigation des biais en conditions de faibles ressources, utilisables par de petits acteurs ne disposant pas de budgets importants, afin de réellement démocratiser l'équité en IA. Ici, le faible niveau de ressources n'est pas défini par la disponibilité de données pour une langue donnée, mais par un ensemble de contraintes techniques : coût computationnel minimal, accès limité au modèle, modifications du modèle réduites voire inexistantes, et effort humain minimal. L'originalité de ce travail réside dans la focalisation sur les environnements à faibles ressources et dans l'étude du compromis tripartite entre coût de mitigation, réduction des biais et précision des tâches, alors que la majorité des travaux précédents ne se concentrent que sur deux de ces dimensions.

Je postule sur HelloWork

Offres similaires

Agent Commercial en Immobilier H/F

  • Efficity

  • Paris 15e - 75

  • Indépendant

  • 21 Mars 2026

Agent Commercial en Immobilier H/F

  • Efficity

  • Paris 17e - 75

  • Indépendant

  • 21 Mars 2026

Agent Commercial en Immobilier H/F

  • Efficity

  • Paris 18e - 75

  • Indépendant

  • 21 Mars 2026

Déposez votre CV

Soyez visible par les entreprises qui recrutent à Paris.

J'y vais !

Chiffres clés de l'emploi à Paris

  • Taux de chomage : 9%
  • Population : 2165423
  • Médiane niveau de vie : 28570€/an
  • Demandeurs d'emploi : 205650
  • Actifs : 1177663
  • Nombres d'entreprises : 490838

Sources :


Un site du réseaux :

Logo HelloWork