Publicité en cours de chargement...

Publicité en cours de chargement...

Intelligence artificielle, algorithmes d’aide à la décision et à la thérapeutique : quelles exigences pour les utilisateurs des établissements de santé ?

24 mai 2022 - 09:49,
Tribune - Marguerite Brac de La Perrière
Dans le précédent volet, les obligations des professionnels utilisant des outils d’intelligence artificielle (IA), dans le cadre d’actes de prévention, de diagnostic ou de soins, ont été présentées. L’objet du présent papier est de s’intéresser aux obligations des établissements de santé en cas de recours à un éditeur fournissant un système d’IA.

Tout d’abord, avant toute utilisation des systèmes d’IA générant des traitements de données à caractère personnel, il appartient à l’établissement de santé, en sa qualité de responsable du traitement au sens du RGPD, de s’assurer que l’éditeur du système, en sa qualité de sous-traitant, présente les garanties suffisantes quant à la mise en œuvre des mesures techniques et organisationnelles appropriées de manière que le traitement réponde aux exigences du RGPD. En ce sens, tout établissement de santé doit requérir de la part de l’éditeur un plan d’assurance sécurité et/ou un projet d’analyse d’impact sur le périmètre fonctionnel concerné, ainsi que la documentation technique pertinente, en tenant compte des risques spécifiques des systèmes d’IA par rapport à des systèmes d’information classiques, les capacités d’apprentissage automatique augmentant la « surface d’attaque » de ces systèmes, en introduisant de nombreuses nouvelles vulnérabilités (voir le dossier Linc Cnil).

Bien sûr, chaque système d’IA doit permettre le respect des mesures de la PGSSI-S et être hébergé par un hébergeur certifié de données de santé en Europe ou, en cas de recours à un prestataire américain, faire l’objet de dispositions supplémentaires de nature à exclure la possibilité d’accès aux données des services de renseignements américains.

Pour mémoire, les marchés et/ou contrats à conclure doivent inclure un « data processing agreement » définissant les caractéristiques des traitements confiés et les engagements de l’éditeur, notamment à l’égard du recours à des sous-traitants ultérieurs, ainsi que l’annexe Hébergement de données de santé requise par la réglementation.

Outre les mesures de sécurité propres au système d’IA utilisé, les mesures de sécurité habituelles pour un traitement utilisant des données personnelles ou ayant des conséquences pour les personnes doivent être mises en place et, le cas échéant, évaluées dans le cadre d’une analyse d’impact.

Une attention particulière doit être portée aux conditions de réutilisation éventuelle des données traitées à l’aide du système d’IA par l’éditeur aux fins d’amélioration de l’algorithme, dont la maîtrise incombe à l’établissement seul décisionnaire.

Article connexeIntelligence artificielle, algorithmes d’aide à la décision et à la thérapeutique, comment la garantie humaine doit-elle être mise en œuvre ? quelles exigences pour les utilisateurs professionnels de santé ?

Par ailleurs et classiquement, l’établissement de santé devra s’assurer du bon niveau de marquage CE médical : classe II a) en matière d’aide au diagnostic ou d’aide à la thérapeutique conformément au règlement relatif aux dispositifs médicaux, et non classe I comme certains dispositifs d’aide au diagnostic mis sur le marché.

Enfin, la conformité aux exigences du projet de règlement sur l’intelligence artificielle doit être établie dans la documentation technique relative au système d’IA à haut risque. La notice d’utilisation doit permettre aux utilisateurs de l’établissement non seulement d’interpréter les résultats du système et de l’utiliser de manière appropriée, c’est-à-dire conformément à sa destination d’usage, mais aussi d’être en mesure d’exercer un contrôle humain.

Rappelons que les sanctions encourues en matière de protection des données et en matière d’intelligence artificielle sont similaires, les dernières pouvant toutefois s’élever jusqu’à 30 millions d’euros s’agissant des exigences relatives à la gouvernance des données.


L’auteure

Avocate associée du cabinet Lerins & BCW, Marguerite Brac de La Perrière est experte en santé numérique.
Elle accompagne les acteurs de la santé dans leur conformité réglementaire, leur développement et leur croissance, notamment en matière de traitement ou de réutilisation des données et de contrats.
[email protected] 

Avez-vous apprécié ce contenu ?

A lire également.

Illustration Un code de bonnes pratiques pour les modèles d'IA à usage général

Un code de bonnes pratiques pour les modèles d'IA à usage général

15 juil. 2025 - 16:57,

Actualité

-
Marguerite Brac de La Perrière

Entré en vigueur le 1er août 2024, le Règlement sur l'Intelligence Artificielle (AI Act) vise à créer un cadre juridique uniforme pour le développement, la mise sur le marché, la mise en service et l’utilisation de systèmes d'IA dans le respect des valeurs de l’Union. Parmi les systèmes d'IA encadré...

Illustration Le numérique médico-social : mutation systémique et levier d’humanité

Le numérique médico-social : mutation systémique et levier d’humanité

08 juil. 2025 - 01:07,

Actualité

- DSIH

Longtemps resté en périphérie des politiques publiques du numérique en santé, le secteur médico-social entre aujourd’hui dans une phase de transformation profonde. C’est cette bascule, inédite et structurante, que décrivent Olivier Babinet et Manon Lorenzo dans leur ouvrage Le virage du numérique en...

Illustration Données de santé et intelligence artificielle : la France lance sa stratégie nationale pour accélérer l’innovation en santé

Données de santé et intelligence artificielle : la France lance sa stratégie nationale pour accélérer l’innovation en santé

07 juil. 2025 - 23:57,

Actualité

- DSIH

Le ministre chargé de la Santé et de l’Accès aux soins, Yannick Neuder, a réuni ce 1er juillet un Comité stratégique exceptionnel pour présenter les premières étapes de la stratégie nationale sur l’intelligence artificielle (IA) et l’utilisation secondaire des données de santé. Objectif : structurer...

Illustration Numérique responsable : GreenTech Forum 2025 : Cloud, IA, datacenters… vers une normalisation incontournable pour évaluer l’empreinte du numérique

Numérique responsable : GreenTech Forum 2025 : Cloud, IA, datacenters… vers une normalisation incontournable pour évaluer l’empreinte du numérique

07 juil. 2025 - 23:39,

Communiqué

- GreenTech Forum

À l’heure où la sobriété numérique s’impose comme un enjeu stratégique et réglementaire, GreenTech Forum 2025, organisé les 4 et 5 novembre prochains au Palais des Congrès de Paris, mettra au cœur de ses échanges les grands leviers de transformation du numérique responsable. De l’impact croissant de...

Lettre d'information.

Ne manquez rien de la e-santé et des systèmes d’informations hospitaliers !

Inscrivez-vous à notre lettre d’information hebdomadaire.