Publicité en cours de chargement...
Intelligence artificielle, algorithmes d’aide à la décision et à la thérapeutique, quelles informations fournir aux patients ? comment y satisfaire ?
Comme explicité en filigrane dans les derniers volets, s’il y a un maître mot concernant l’intelligence artificielle, et aussi paradoxal que cela puisse paraître, c’est l’humain, lequel doit rester au cœur de chaque étape de la conception, du développement et du déploiement de tout système d’intelligence artificielle, ce que garantit le référentiel légal et le droit mou.
C’est ainsi que l’OMS a, il y a bientôt un an, défini six principes pour que, dans tous les pays, l’IA en matière de santé œuvre dans l’intérêt public, dont en particulier l’autonomie de l’être humain, et la transparence.
« L’IA est un outil qui devrait se mettre au service des personnes et constituer une force positive pour la société afin d’accroître, en définitive, le bien-être de l’être humain. », tels sont la justification et les objectifs de la proposition de règlement relatif à l’intelligence artificielle, pleinement inscrite dans la stratégie numérique globale de la Commission en ce qu’elle contribue à promouvoir des technologies au service des personnes. La proposition établit ainsi un cadre cohérent, efficace et proportionné destiné à garantir que l’IA soit développée de manière à respecter les droits des personnes et à gagner la confiance de ceux-ci.
Les obligations en matière de transparence sont ainsi destinées à permettre aux personnes d’exercer leur droit à un recours effectif et à la transparence.
C’est dans le même sens qu’ont été adoptés les principes européens pour l’éthique du numérique en santé par la France en sa qualité de présidente du Conseil de l’Union Européenne, en particulier le 4ème : « lorsqu’une intelligence artificielle est mise en œuvre, le maximum a été fait pour qu’elle soit explicable et sans biais discriminatoire ».
De même, les dispositions de la Loi de Bioéthique, transposées au sein du code de la santé publique, ont posé le principe d’une une obligation d’information du patient par le professionnel de santé concernant :
- l’utilisation, « pour un acte de prévention, de diagnostic ou de soin, d‘un dispositif médical comportant un traitement de données algorithmique dont l'apprentissage a été réalisé à partir de données massives » ;
- l’interprétation qui en résulte, ceci signifiant que le patient doit également bénéficier d’un éclairage lui permettant de l’apprécier.
Les informations mises à disposition des patients au sein des établissements de santé, notamment au sein des politiques de confidentialité, devront donc être complétées, selon les services utilisateurs d’IA, d’informations spécifiques à fournir par les professionnels de santé aux patients, concernant l’utilisation d’un système d’IA, notamment son contexte d’utilisation, sa destination, sa fiabilité, ses performances, et ses spécifications concernant les données utilisées.
Enfin, la personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire, et ce, au titre du RGPD, faisant ainsi écho au contrôle humain consacré au projet de règlement relatif à l’IA.
Chacun l’aura compris, la transparence, et donc l’information, est la principale obligation des concepteurs à l’égard des utilisateurs, et des utilisateurs à l’égard des patients.
Rappelons que les sanctions encourues en matière de protection des données et en matière d’intelligence artificielle sont similaires, les dernières pouvant toutefois s’élever jusqu’à 20 000 000 € s’agissant des exigences relatives à la transparence.
L'auteur
Marguerite Brac de La Perrière est avocate, associée du cabinet Lerins, experte en Santé Numérique.
Elle accompagne les acteurs de la santé dans leur conformité réglementaire, leur développement et leur croissance, notamment en matière de traitements de données, de réutilisation des données, et de contrats informatiques.
[email protected]
Avez-vous apprécié ce contenu ?
A lire également.

2026 : la fin de l’Espace, du Temps et de la Vie privée
27 jan. 2026 - 08:37,
Tribune
-Cédric Cartau analyse comment le Fichier national automatisé des empreintes génétiques (Fnaeg), initialement conçu pour lutter contre la criminalité sexuelle, est devenu en moins de 30 ans un outil de fichage de masse. En s’appuyant sur l’essor de la recherche par parentèle, il interroge les conséqu...

Test PCRA et exercice de gestion de crise combinés : le pragmatisme au service de l'efficience
26 jan. 2026 - 15:06,
Tribune
-Dans un contexte de cybermenace persistant, l'amélioration de la résilience est devenue une obligation pour les organisations de santé. Le programme CaRE, accompagne les établissements dans cette obligation au travers d’un axe majeur : s'équiper et se former face à la menace numérique. Dans la conti...

Tire la cyber-chevillette, la cyber-bobinette cherra : une analyse légèrement décalée des contes de fées par un RSSI
19 jan. 2026 - 23:09,
Tribune
-D’accord, d’accord, je ne suis pas l’inventeur du concept. En 2018, sous la direction de Marine Ranouil et Nicolas Dissaux, paraissait l’ouvrage Il était une fois… Analyse juridique des contes de fées. Plus récemment, en 2022, Alice Cartau et votre serviteur ont mené dans les colonnes de DSIH une te...

Les Hôpitaux Confluence structurent leurs données de santé avec E-Confluence
16 jan. 2026 - 11:39,
Actualité
- Rédaction, DSIHLes Hôpitaux Confluence poursuivent leur transformation numérique avec la mise en place de E-Confluence, une plateforme dédiée à l’organisation et à l’exploitation des données de santé produites par leurs établissements. Cet outil marque une nouvelle étape dans la structuration des informations clin...
