Publicité en cours de chargement...

Publicité en cours de chargement...

Publicité en cours de chargement...

L’IA en santé : début des grandes manœuvres

01 juin 2021 - 03:27,
Tribune - Cédric Cartau
L’Union européenne, toujours prompte à dégainer le réglementaire, même (et surtout) pour les trucs qui n’existent pas encore, a manifestement décidé de réglementer l’IA – et là, c’est pour la bonne cause. Face aux risques inhérents à ce type de technologie, la Commission a proposé un cadre juridique sous la forme d’un projet de règlement (Artificial Intelligence Act), qui entrera en vigueur dans un délai compris entre deux et quatre années et sera associé à un plan coordonné d’actions.

Marguerite Brac de La Perrière, avocate associée au cabinet Lerins, vient de publier sur le site de l’Apssis[1] un état des lieux fouillé sur l’avancementdes réflexions, le découpage, les concepts, etc. On ne peut pas jouer les riffs de Higway to Hell mieux qu’Angus Young ni frapper sur terre battue mieux que Nadal, inutile d’essayer d’expliquer mieux que Marguerite qui fait autorité sur le sujet : allez donc lire le papier avant de continuer. Le texte est dense et concerne de nombreux domaines (documentation, qualité, appréciation des risques, etc.), mais ce qui nous intéresse ici relève plutôt de leur impact pour les organisations. Il y en a pas mal à court et à moyen terme, si tant est que l’on puisse les lister. Petite tentative, forcément non exhaustive.

Le premier point qui frappe, tant il transparaît dans tous les paragraphes de l’étude, c’est la similitude avec le RGPD. Appréciation des risques – à la fois avant la mise en fonctionnement et pendant l’activité de l’IA –, obligation de documenter le système et de mettre en place une gouvernance, on est à la fois en terrain connu (le RGPD, justement, les a déjà instaurées) et en même temps nos épaules risquent de s’affaisser un peu plus : encore un truc à faire à iso-moyens. Les RSSI/DPO auront tout intérêt à disposer de processus bien huilés, histoire de pouvoir encaisser la charge.

Le deuxième élément saillant est la question du jeu de données avec lequel l’IA est entraînée, puisqu’une IA n’est rien ou presque sans une énorme base de données pour lui faire « apprendre » les règles (si tant est qu’une IA puisse apprendre, mais c’est un autre sujet). Bien entendu, sur le plan purement technique, il faudrait idéalement des jeux de données nominatifs pour entraîner une IA, mais sur le plan du respect de la vie privée, c’est rarement possible : on navigue alors entre les notions de données anonymisées et pseudonymisées. Ces concepts étaient distincts il y a une dizaine d’années, mais on sait maintenant à la suite de différents travaux (voir Luc Rocher[2]) que le concept de pseudonymisation est un leurre dans la majorité des cas. À la suite d’une émission télévisée récente[3], il est apparu que non seulement certains Data Brokers savent pertinemment que les données prétendument pseudonymisées qu’ils recueillent ne le sont pas, mais qu’en plus ils les croisent sans vergogne à des fins avouées de réidentification, sans même d’ailleurs chercher à s’en cacher. En tant que DPO, j’aimerais vivement connaître la position de la Cnil sur ce point. Ce qui est certain, c’est que la plupart des projets de recherche vont être particulièrement complexes à mettre au point, tant cette question de l’anonymat est centrale.

Enfin, le dernier élément qui transparaît de l’étude de Marguerite concerne les précautions inhérentes à l’usage de l’IA : mise en place de systèmes de détection et de correction plus ou moins automatisées des erreurs, affichage clair des limites des résultats produits, formation des utilisateurs/opérateurs, etc. Nous avons tous en tête ces IA que l’on a entraînées à la maîtrise du langage en les gavant de discussions récupérées sur des forums… et qui ont fini par tenir des propos suprémacistes ; on a tous en tête les accidents de circulation, parfois mortels, commis par des IA de pilotage de véhicules (le dernier en date avec une Tesla) à la suite de cas limites pour les algorithmes de décision.

J’exagère à peine (un peu quand même, mais si peu) en disant qu’un pilote de ligne « ne fait qu’appuyer sur des boutons » dans le cockpit[4]. Avec les dispositifs de dernière génération embarqués (pilotes automatiques, GPS, etc.), pour certains vols effectivement, à part les phases critiques de décollage et d’atterrissage, la navigation ressemble pas mal à du pianotage de clavier. Mais un pilote sert à bien autre chose : la présence humaine dans le cockpit n’est justement pas destinée à gérer ce que la machine sait faire de manière autonome. L’humain sert à contrôler, piloter (c’est le cas de le dire), valider les résultats, les données en entrée, les éventuelles boules de rétroaction qui partent en cacahuète, etc.

En filigrane se dessine une mutation prévisible de certains métiers du soin. C’est déjà le cas dans les laboratoires de biologie, dont les résultats sont systématiquement validés par des logiciels flirtant avec l’IA depuis des années. Ce sera bientôt le tour des radiologues, des pharmaciens, puis de tous ceux qui interviennent au chevet du patient. Certains chirurgiens pensent déjà que dans quelques décennies ils n’opéreront plus avec leur main, mais avec un joystick : la rupture de paradigme risque d’être plus importante encore, et peut-être n’opéreront-ils plus du tout pour se « contenter » de vérifier que l’IA au bout du bistouri ne bugue pas.


[1] https://www.apssis.com/actualite-ssi/519/quel-cadre-pour-les-systemes-d-ia-dans-le-secteur-de-la-sante.htm 

[2] https://www.rocher.lc/ 

[3] https://www.france.tv/france-2/cash-investigation/2450927-nos-donnees-personnelles-valent-de-l-or.html 

[4] Les pilotes professionnels me pardonneront cet exemple qui ne sert qu’à illustrer le propos ; le métier de pilote est bien entendu beaucoup plus complexe.

Avez-vous apprécié ce contenu ?

A lire également.

Illustration Horizon Santé 360 : Innovons ensemble pour notre souveraineté en santé

Horizon Santé 360 : Innovons ensemble pour notre souveraineté en santé

02 oct. 2025 - 10:31,

Communiqué

- La Poste Santé & Autonomie

Rendez-vous le 9 octobre 2025 à Paris pour la 3ᵉ édition d’Horizon Santé 360, l'événement annuel de La Poste Santé & Autonomie.

Illustration Le Data Act : une nouvelle ère pour la gouvernance des données de santé

Le Data Act : une nouvelle ère pour la gouvernance des données de santé

30 sept. 2025 - 07:15,

Tribune

-
Marguerite Brac de La Perrière

Le 12 septembre 2025 a marqué une étape décisive dans la stratégie européenne de la donnée avec l’entrée en application du Data Act (Règlement UE 2023/2854). Ce texte, pilier du marché unique de la donnée, vise à encadrer l’accès, le partage et la portabilité des données générées par les produits ...

Illustration « Intelligence artificielle au service de la santé » : quelle stratégie nationale règlementaire ?

« Intelligence artificielle au service de la santé » : quelle stratégie nationale règlementaire ?

29 sept. 2025 - 20:33,

Tribune

-
Alexandre FIEVEÉ &
Alice ROBERT

Partant du constat que l’IA est un « levier de transformation majeur » pour le système de santé français et qu’il est nécessaire d’organiser son développement en tenant compte de paramètres clés tels que la confiance et la clarté du paysage règlementaire et éthique, une stratégie interministérielle ...

Illustration Domaine 2 du programme CaRE : une matinée pour se faire accompagner

Domaine 2 du programme CaRE : une matinée pour se faire accompagner

29 sept. 2025 - 11:30,

Actualité

- Valentine Bellanger, DSIH

Dans le cadre de son Tour de France, Orange Cyberdefense propose des matinales de rencontres et d’échanges autour d’une thématique très attendue : le Domaine 2 du programme CaRE (1). L’objectif : maîtriser les prérequis du programme CaRE et se faire accompagner pour bénéficier des soutiens financier...

Lettre d'information.

Ne manquez rien de la e-santé et des systèmes d’informations hospitaliers !

Inscrivez-vous à notre lettre d’information hebdomadaire.