Publicité en cours de chargement...

Publicité en cours de chargement...

Publicité en cours de chargement...

Intelligence artificielle, algorithmes d’aide à la décision et à la thérapeutique, comment la garantie humaine doit-elle être mise en œuvre ? quelles exigences pour les utilisateurs professionnels de santé ?

16 mai 2022 - 12:24,
Tribune - Marguerite Brac de La Perrière
Dans ce premier volet, Me Marguerite Brac de La Perrière présente, les obligations des professionnels utilisant des outils d’intelligence artificielle (IA), dans le cadre d’actes de prévention, de diagnostic ou de soins, ont été présentées.

Les outils d’intelligence artificielle (IA) ont pénétré l’hôpital, améliorant l’organisation des soins et les conditions de prise en charge avec diverses applications : structuration des connaissances médicales, aide au diagnostic, aide à la décision, traitements personnalisés, triage, planification chirurgicale, interventions assistées, suivi à distance, prothèses intelligentes, fluidification administrative et coordination automatisée… 

Parmi ces applications, celles cristallisant le plus de craintes sont celles susceptibles de remplacer le médecin dans la réalisation d’actes médicaux diagnostiques et thérapeutiques. En effet, comment s’assurer que les résultats fournis par les algorithmes ne soient utilisés que comme une aide, et n’aboutissent pas à une perte d’autonomie des médecins et/ou à un appauvrissement de l’acte médical ? Comment donner aux médecins les moyens d’apprécier les résultats, et, le cas échéant, de s’en départir ? 

C’est pour apporter un premier cadre face à ces risques, qu’ont été adoptées les dispositions de la Loi Bioéthique (introduites à l’art. L4001-3 CSP) visant à la supervision humaine, ou garantie humaine, imposant : 

- d’une part, au professionnel de santé d’informer le patient du recours à un outil d’IA dans le cadre d’un acte de prévention, de diagnostic ou de soins, et le cas échéant du résultat qui en résulte, 

- d’autre part, au concepteur de l’algorithme de s’assurer de l’explicabilité de son fonctionnement pour les utilisateurs. 

La première exigence pose une obligation d’information du patient par le professionnel de santé. Elle permet ainsi l’instauration d’un échange entre le médecin et son patient sur l’utilisation d’une IA et le résultat associé, et donc par la même, invite le médecin à motiver à l’égard du patient son choix de suivre la recommandation de l’IA ou de s’en départir, et à s’approprier l’acte médical diagnostique ou thérapeutique. 

La seconde exigence vise à s’assurer que le médecin dispose des informations nécessaires et suffisantes pour comprendre le fonctionnement du système d’IA, et ainsi à lui permettre de s’approprier le résultat, et de s’en écarter.

Enfin, le texte pose une obligation de traçabilité de la décision augmentée, visant à permettre aux professionnels intervenant dans la prise en charge, d’être en mesure d’évaluer la pertinence de l’acte, « augmenté » par l’IA, d’un médecin, et de s’assurer qu’il a bénéficié de l’autonomie nécessaire par rapport à l’algorithme.

À lire aussi : Intelligence artificielle, algorithmes d’aide à la décision et à la thérapeutique : quelles exigences pour les utilisateurs des établissements de santé ?

Le projet de règlement européen (dont l’adoption est annoncée sous peu), visant au développement d’un marché unique d’applications d’IA légales, sûres et dignes de confiance, encadre également cette supervision humaine, notamment dans le cadre de l’utilisation d’IA à haut risque - dont en particulier les IA constituant ou intégrées à des dispositifs médicaux - fixant des exigences de : 

Transparence et fourniture d’informations aux utilisateurs « pour permettre aux utilisateurs d’interpréter les résultats du système et de l’utiliser de manière appropriée », et ce au moyen d’une notice d’utilisation précisant la destination d’usage, les performances, la fiabilité, les bornes et limites ; 

-Contrôle humain dès la conception pour permettre un contrôle effectif par des personnes physiques pendant la période d’utilisation du système d’IA. Les utilisateurs devant en particulier être en mesure d’appréhender les capacités et limites du système d’IA à haut risque pour en interpréter correctement les résultats, de surveiller correctement son fonctionnement, et d’éviter les biais d’automatisation.

Le corolaire est une obligation pour les utilisateurs d’utiliser les systèmes d’IA conformément aux notices d’utilisation accompagnant les systèmes, à exercer un contrôle sur les données d'entrée, et à veiller à ce que ces dernières soient pertinentes au regard de la destination du système d’IA à haut risque.
Il en résulte également des obligations à la charge de l’établissement, qui seront traitées dans un prochain numéro…

Rappelons quand même, dans l’attente, que la violation de ces exigences fera encourir des sanctions pouvant aller jusqu’à 20 millions d’euros une fois le texte adopté.


L'auteur

Marguerite Brac de La Perrière est avocate, associée chez Lerins & BCW, experte en Santé Numérique. Elle accompagne les acteurs de la santé dans leur conformité réglementaire, leur développement et leur croissance, notamment en matière de traitements de données, de réutilisation des données, et de contrats. [email protected]

Avez-vous apprécié ce contenu ?

A lire également.

Illustration Le DPI Sillage obtient le référencement Ségur V2

Le DPI Sillage obtient le référencement Ségur V2

23 fév. 2026 - 19:34,

Communiqué

- Numih France

Ce vendredi 20 février 2026, l’Agence du Numérique en Santé (ANS) a confirmé le référencement Ségur V2 du Dossier Patient Informatisé Sillage 26.1* (Couloir Hôpital DPI) développé par Numih France. Sillage compte désormais parmi les DPI référencés Ségur V2 au niveau national, dans un contexte où la ...

Illustration 100 M€ pour faire changer d’échelle la prévention numérique en santé

100 M€ pour faire changer d’échelle la prévention numérique en santé

23 fév. 2026 - 19:24,

Actualité

- Rédaction, DSIH

Un fonds d’investissement de 100 M€ vient d’être lancé pour accélérer la prévention en santé grâce au numérique, avec l’ambition de faire émerger et de massifier des solutions digitales capables de soulager un système de santé sous tension. Porté par Bpifrance et plusieurs acteurs institutionnels, c...

Illustration Aligner la stratégie IA avec le projet d’établissement, le projet médical et le SDSI : une exigence de cohérence et de performance

Aligner la stratégie IA avec le projet d’établissement, le projet médical et le SDSI : une exigence de cohérence et de performance

23 fév. 2026 - 19:09,

Tribune

-
Arnaud HAVE

L’Intelligence Artificielle transforme les organisations, les pratiques professionnelles et les parcours patients. Pourtant, trop d’initiatives émergent encore sous forme d’expérimentations isolées, plutôt que comme la résultante d’une vision stratégique globale. Or, une stratégie IA découle des ori...

Illustration Dedalus intègre la solution Vulgaroo dans InVitro Patient Portal V5.5 et annonce un partenariat stratégique

Dedalus intègre la solution Vulgaroo dans InVitro Patient Portal V5.5 et annonce un partenariat stratégique

23 fév. 2026 - 18:57,

Communiqué

- Dedalus

Dedalus, acteur européen majeur des logiciels pour les établissements de santé et les laboratoires de biologie médicale et d’anatomopathologie annonce un partenariat stratégique avec Vulgaroo, startup française spécialisée dans la vulgarisation des documents médicaux pour les patients.

Lettre d'information.

Ne manquez rien de la e-santé et des systèmes d’informations hospitaliers !

Inscrivez-vous à notre lettre d’information hebdomadaire.