Thèse Sécurisation des Modèles d'Intelligence Artificielle dans l'Internet Of Medical Things Iomt H/F - Doctorat.Gouv.Fr
- CDD
- Doctorat.Gouv.Fr
Les missions du poste
Établissement : Université Paris Cité École doctorale : Ecole Doctorale d'Informatique, Télécommunications et Electronique Laboratoire de recherche : Centre Borelli Direction de la thèse : Osman SALEM ORCID 0000000320769733 Début de la thèse : 2026-10-01 Date limite de candidature : 2026-05-01T23:59:59 L'Internet of Medical Things (IoMT) révolutionne la santé en connectant des dispositifs médicaux (capteurs, wearables, implants) pour une collecte et une analyse en temps réel des données physiologiques. Cette infrastructure est le pilier de la médecine personnalisée, de la télémédecine et du suivi à distance des patients. L'intégration croissante de l'intelligence artificielle (IA) dans ces dispositifs décuple leur potentiel en permettant la détection précoce de pathologies, l'analyse de signaux complexes et l'aide à la décision clinique.Cependant, cette synergie entre l'IA et l'IoMT crée de nouvelles vulnérabilités critiques. Les modèles d'IA déployés deviennent des cibles privilégiées pour des cyberattaques spécifiques. Un adversaire pourrait, par exemple, tromper un modèle avec des données adversariales pour masquer un symptôme, empoisonner les données d'apprentissage pour fausser les diagnostics, ou voler le modèle pour reconstruire des données patients sensibles (via des attaques par inférence). Ces menaces, incluant aussi l'injection de portes dérobées (backdoors), compromettent directement la sécurité des patients, la confidentialité de leurs données et la fiabilité des diagnostics.
Face à ce constat, l'objectif général de cette thèse est de concevoir, développer et évaluer des mécanismes de sécurité robustes pour protéger les modèles d'IA tout au long de leur cycle de vie dans les environnements contraints de l'IoMT. Il s'agit de garantir que l'intelligence embarquée reste un atout et non une faille.
Les travaux s'articuleront autour de plusieurs objectifs scientifiques clés :
Analyse de risque : Caractériser et modéliser finement les vulnérabilités des modèles d'IA (supervisé, non-supervisé, par renforcement) spécifiques au contexte des données biomédicales (temporelles, hétérogènes, critiques).
Détection d'attaques : Proposer des mécanismes légers de détection d'attaques (adversariales, empoisonnement) capables de fonctionner à la périphérie du réseau (edge computing) pour identifier en temps réel une tentative de compromission.
Apprentissage robuste : Développer des techniques d'apprentissage automatique intrinsèquement robustes, comme l'apprentissage distribué (Federated Learning) sécurisé ou l'utilisation de données adversariales pour l'entraînement, tout en respectant les contraintes de calcul, de mémoire et d'énergie des dispositifs IoMT.
Protection de la vie privée : Intégrer des mécanismes de protection dès la conception (privacy-by-design), tels que la confidentialité différentielle (differential privacy) ou l'agrégation sécurisée (secure aggregation), pour empêcher les fuites d'informations sensibles à partir des modèles ou des gradients.
Validation expérimentale : Évaluer les solutions proposées sur des jeux de données médicaux réels et/ou via des simulations réalistes d'architectures IoMT, en mesurant leur efficacité sécuritaire, leur précision diagnostique et leur empreinte système.
Axes de recherche explorés
Pour atteindre ces objectifs, plusieurs axes de recherche pourront être explorés, tels que : la robustesse aux attaques adversariales sur les signaux biomédicaux, la sécurisation de l'apprentissage fédéré pour l'IoMT, la détection d'attaques par méta-apprentissage, l'application de la confidentialité différentielle à des modèles séquentiels, et la conception d'architectures de confiance pour l'inférence à la périphérie. L'Internet of Medical Things (IoMT) désigne l'ensemble des dispositifs médicaux connectés
(capteurs physiologiques, wearables, dispositifs implantables, systèmes de télésurveillance
médicale) permettant la collecte et l'analyse de données de santé en temps réel. Ces
technologies jouent un rôle central dans la médecine personnalisée, la télémédecine et le suivi
à distance des patients.
L'intégration croissante de modèles d'intelligence artificielle (IA) dans ces dispositifs permet
notamment la détection précoce de maladies, l'analyse de signaux physiologiques et
l'assistance à la décision médicale. Toutefois, cette intégration introduit de nouvelles surfaces
d'attaque.
Les modèles d'IA déployés dans les IoMT peuvent être vulnérables à plusieurs types d'attaques,
notamment :
- Attaques adversariales sur les données physiologiques,
- Empoisonnement des données d'apprentissage (data poisoning),
- Extraction ou vol de modèles (model stealing),
- Attaques d'inférence (membership inference, model inversion),
- Injection d'une porte dérobée (backdoor)
- Compromission de la chaîne de traitement des données médicales.
Ces vulnérabilités peuvent compromettre la sécurité des patients, la confidentialité des données
médicales et la fiabilité des diagnostics assistés par IA. L'objectif de cette thèse est de concevoir des mécanismes de sécurité pour protéger les modèles
d'IA utilisés dans les environnements IoMT.
Les objectifs scientifiques incluent notamment :
- l'analyse des vulnérabilités des modèles d'IA déployés dans les dispositifs IoMT ;
- la conception de mécanismes de détection d'attaques visant les modèles d'apprentissage
automatique ;
- le développement de techniques d'apprentissage robuste adaptées aux contraintes des
IoMT ;
- l'intégration de mécanismes de protection de la vie privée dans les processus
d'apprentissage ;
- l'évaluation expérimentale sur des plateformes IoMT réelles ou simulées. Axes de recherche possibles
Plusieurs axes pourront être explorés :
1. Robustesse des modèles d'IA face aux attaques adversariales dans les données
biomédicales.
2. Sécurisation de l'apprentissage distribué (Federated Learning) pour les dispositifs
médicaux connectés.
3. Détection d'attaques sur les modèles d'IA via des techniques d'apprentissage
automatique.
4. Protection de la confidentialité des données médicales (differential privacy, secure
aggregation).
5. Architecture de confiance pour les systèmes IoMT basés sur l'IA.
Le profil recherché
Le candidat devra être titulaire d'un Master 2 (ou équivalent) en informatique, avec une spécialisation en intelligence artificielle, cybersécurité ou systèmes embarqués. Une solide formation en apprentissage automatique (deep learning, réseaux de neurones) est indispensable. Des compétences en sécurité des systèmes d'information et en cryptographie appliquée constituent un atout majeur. Une bonne maîtrise de Python et des frameworks d'IA (PyTorch, TensorFlow) est requise. Enfin, le candidat devra faire preuve de rigueur scientifique, d'autonomie et d'un intérêt marqué pour les enjeux pluridisciplinaires (santé, éthique, réglementation).