Publicité en cours de chargement...

Publicité en cours de chargement...

Publicité en cours de chargement...

Premières recommandations de la CNIL en matière d’IA : quels exemples appliqués au secteur de la santé ?

03 mai 2024 - 16:57,
Tribune - Alice Robert et Alexandre Fievee
La CNIL a émis, ce mois-ci, ses premières recommandations en matière de développement de systèmes d’intelligence artificielle[1]. Avec pour objectif « d’aider les professionnels à concilier innovation et respect des droits des personnes », ces recommandations s’appliquent pleinement au secteur de la santé, comme en témoignent plusieurs exemples donnés par l’autorité de contrôle. 

 Par Alice Robert et Alexandre Fievee, Derriennic Associés

1. Une première série de recommandations en matière d’IA attendues et circonscrites

La CNIL a été interrogée par plusieurs acteurs sur l’application du RGPD à l’IA et, plus particulièrement, aux systèmes d’IA génératives. Dans ce cadre, la CNIL a émis des premières recommandations sur le développement des systèmes d’IA, présentées sous forme de 7 fiches pratiques (lesquelles seront complétées après consultation publique).

Le périmètre de ces recommandations est donc limité à la phase de développement des systèmes d’IA, sous réserve qu’elle « implique » le traitement de données personnelles soumis au RGPD.  Cette phase de développement du système d’IA comprend la conception du système, la constitution de la base de données, l’apprentissage et, parfois, l’intégration, indique la CNIL.

Sans rentrer dans la description et l’analyse de chacune de ces fiches qui s’appliquent, de façon générale, à tous les secteurs dont le secteur de la santé, certaines d’entre elles nous livrent des précisions et/ou des exemples concrets, particulièrement instructifs en santé. 

2. Quelques cas concrets appliqués au secteur de la santé

2.1. Développement d’un système d’IA et recherche scientifique

Parce qu’il n’est pas toujours évident de déterminer si le développement d’un système d’IA poursuit un objectif de recherche scientifique, la CNIL rappelle, de façon générale, ce qu’on entend par traitement de données relevant de la « recherche scientifique ». La CNIL propose ainsi « un faisceau de critères » permettant de déterminer si un traitement de données ayant pour objectif la recherche, relève bien de la recherche scientifique. 

Ces critères sont notamment (i) le mode de financement du programme de recherche (par exemple, un financement par l’Agence Nationale de la Recherche), ou, en particulier pour la recherche scientifique privée, (ii) l’analyse et la réunion de cinq critères que sont la nouveauté, la créativité, l’incertitude, la systématicité (« C’est par exemple le cas des exigences méthodologiques particulières pour les traitements mis en œuvre à des fins de recherche, d’étude ou d’évaluation dans le domaine de la santé ») et la transférabilité/la reproductibilité.

En matière de recherche scientifique, la CNIL montre une certaine souplesse quant aux objectifs (finalités) d’un traitement à déterminer au stade du développement d’un système d’IA, « compte tenu des difficultés que les chercheurs peuvent avoir à cerner [toutes les finalités] dès le début de leurs travaux ». La CNIL admet effectivement que le responsable de traitement puisse ne pas indiquer l’ensemble du ou des objectif(s) poursuivi(s), et apporter, au fur et à mesure de l’avancement du projet concerné, des informations plus précises sur ces objectifs.

Par ailleurs, la CNIL revient sur les conditions de réutilisation d’un jeu de données, initialement constitué à des fins recherche scientifique, à d’autres fins dans le cadre du développement d’un système d’IA :   

  • L’anonymisation préalable des données ; ou
  • Le respect de l’exigence de la compatibilité entre la finalité initiale du jeu de données et la nouvelle et ce, dans le respect du RGPD (information des personnes sur la nouvelle finalité, identification d’une base légale…). 

2.2. Développement d’un système d’IA en santé et responsabilité des parties prenantes

Dans le cadre du développement d’un système d’IA, plusieurs acteurs peuvent influer sur le pourquoi (objectif/finalités) et le comment (moyens mis en œuvre) d’un traitement de données personnelles. 

A cet égard, la CNIL prend l’exemple de centres hospitaliers universitaires qui développent un système d’IA pour l’analyse de données d’imagerie médicale et qui, dans ce cadre, décident d’utiliser un protocole identique d’apprentissage fédéré (dont l’objectif est d’exploiter des données pour lesquels chaque centre est « responsable de traitement » distinct, sans que chaque centre ne s’en rende mutuellement destinataire). Dans un tel cas, les centres hospitaliers sont considérés par la CNIL comme « responsables conjoints du traitement » d’apprentissage fédéré dans la mesure où ils déterminent ensemble (i) l’objectif du traitement, à savoir l’entrainement d’un système d’IA médicale et également (ii) les moyens de ce traitement, consistant en la mise en place d’un protocole et la détermination des données exploitées.

2.3. Développement d’un système d’IA en santé et mesures de protection des données personnelles dès la conception

La CNIL détaille la façon dont les mesures de protection des données personnelles pourraient être mises en place « au regard de leur influence sur les performances techniques – théoriques et opérationnelles » du système d’IA en développement. Pour la CNIL, ces mesures seront considérées comme « bénéfiques » en raison (i) de « leur capacité à réduire les conséquences d’une éventuelle perte de confidentialité des données » et (ii) de « la possibilité éventuelle d’utiliser le modèle entrainé en phase opérationnelle sur des données ayant fait l’objet de mesures de protection identique ». 

La CNIL nous livre un exemple en santé concernant le développement d’un système d’IA d’aide au diagnostic. Selon l’autorité de contrôle, le risque de perte de confidentialité de données, en l’occurrence sur l’âge des patients, peut être « réduit drastiquement » en jouant simplement sur la définition des types de données à traiter (choisir un champ [mois- année] ou [année] au lieu de [jour-mois-année]) et, « cela sans préjudice sur la capacité de généralisation de son système ».

Ces premiers éclairages vont être prochainement enrichis par la CNIL. A suivre…


[1] Délibération n° 2024-011 du 18 janvier 2024 portant adoption d'une recommandation sur l'application du règlement général sur la protection des données au développement des systèmes d'intelligence artificielle, publiée le 12 avril 2024 au Journal Officiel.

Avez-vous apprécié ce contenu ?

A lire également.

Illustration Le futur de l’IA : Big Crunch, Big Freeze ou TVA ?

Le futur de l’IA : Big Crunch, Big Freeze ou TVA ?

12 mai 2026 - 06:50,

Tribune

-
Cédric Cartau

C’est un fait : nous finirons tous cramés comme des merguez ou gelés comme des ours polaires.

Illustration Cyber-résilience hospitalière : renforcer détection et réponse sans surcharger ses ressources

Cyber-résilience hospitalière : renforcer détection et réponse sans surcharger ses ressources

11 mai 2026 - 11:24,

Actualité

- Fabrice Deblock, DSIH

Le secteur de la santé n’est plus une cible secondaire, mais un objectif récurrent pour le cybercrime organisé. Entre les exigences de NIS2 et l’interconnexion croissante des systèmes, la seule détection ne suffit plus à contenir les risques. Les établissements doivent désormais renforcer leur capac...

Centre hospitalier de Moulins-Yzeure : conserver une capacité de coordination lorsque la crise survient

05 mai 2026 - 07:15,

Actualité

- Fabrice Deblock, DSIH

Plan Blanc, cyberattaque, intoxication… Les établissements de santé doivent piloter des crises impliquant SAMU, services, direction de garde et partenaires extérieurs. Au CH de Moulins-Yzeure, les solutions CrisiSoft structurent l’alerte, le suivi des ressources et la coordination territoriale.

Illustration Fuites de données en France : inquiétant, désabusé…ou espoir ?

Fuites de données en France : inquiétant, désabusé…ou espoir ?

28 avril 2026 - 08:10,

Tribune

-
Cédric Cartau

En 2025, la France a détenu le record du nombre de fuites de données personnelles (ramené à la population), tout pays de l’OCDE confondu.

Lettre d'information.

Ne manquez rien de la e-santé et des systèmes d’informations hospitaliers !

Inscrivez-vous à notre lettre d’information hebdomadaire.