Publicité en cours de chargement...

Publicité en cours de chargement...

La Garantie Humaine dans le projet de règlement sur l’IA de la Commission européenne !

22 avril 2021 - 12:35,
Tribune - Ethik-IA
Le principe de Garantie Humaine de l’IA (Human Oversight) est introduit à l’article 14 du projet de règlement sur l’intelligence artificielle diffusé ce jour par la Commission européenne. Ce faisant, l’article 14 donne une portée applicative générale pour l’ensemble des champs et secteurs d’usage de l’IA à ce principe proposé en 2017 par Ethik-IA dans le domaine de la santé et qui n’a cessé, depuis lors, de faire l’objet de reconnaissances de plus en plus larges. Ce principe s’inscrit dans une logique de régulation positive visant à soutenir le développement de l’intelligence artificielle en France et en Europe, dans un cadre permettant d’en réguler les risques éthiques. 

Ce principe de Garantie Humaine de l’IA et du numérique en santé, introduit et porté par Ethik-IA depuis 2017, avait d’ores déjà été reconnu dans les avis 129 et 130 du CCNE et dans l’article 11 du projet de loi bioéthique[1]. 

Dans le contexte du droit bioéthique français, ce principe de Garantie Humaine induit pour tous les utilisateurs et concepteurs de solutions d’IA en santé :

  • La mise en œuvre d’une information préalable du patient sur le recours à l’IA dans sa prise en charge ;
  • Le déploiement d’une supervision humaine de la solution d’IA « en vie réelle » dans des conditions de traçabilité. 

Un projet pilote de « Collège de Garantie Humaine » avait ainsi pu être mis en œuvre fin 2020 par Ethik-IA sous égide de l’Union française pour la santé bucco-dentaire (UFSBD) pour exercer une supervision humaine d’un dispositif d’IA de prise en charge dans le domaine bucco-dentaire en EHPAD (dans le cadre d’un protocole de financements innovants article 51 LFSS). 

L’article 14 du projet de règlement de la Commission européenne sur l’IA instituant ce principe se situe dans le droit fil de ces démarches pilotes et de ces recommandations.  

Le paragraphe 1 de cet article énonce ainsi que les solutions d’intelligence artificielle doivent être conçues et développées de façon à pouvoir être superviser par des Humains. Le paragraphe suivant précise que la supervision humaine permettra de prévenir ou de minimiser les risques pour la santé, la sécurité ou les droits fondamentaux pouvant émerger d’un système d’IA susceptible de présenter un niveau de risque élevé. Par cet énoncé, le projet de règlement consacre ainsi la nécessité d’une garantie humaine pour un déploiement éthique de l’IA.

Le paragraphe 3 donne ainsi des indications sur la mise en application de la supervision humaine de l’IA. En effet, la garantie humaine doit être identifiée et construite par le fournisseur avant sa mise sur le marché ou sa mise en service et/ou identifiée par le fournisseur et pouvant être mise en œuvre par l’utilisateur, et ce, toujours en amont de sa mise sur le marché ou de sa mise en service. Cette garantie humaine doit pouvoir faire l’objet d’un suivi en vie réelle de l’intelligence artificielle

Les mesures prévues au paragraphe 3 de cet article fixent un certain nombre d’objectifs d’information autour de cette Garantie Humaine : comprendre entièrement les capacités et limites du système d’IA et d’être capable de surveiller l’opération de façon à ce que les risques d’anomalies, de dysfonctionnements et de performance inattendus puissent être détectés ; d’être conscient des risques liés aux IA d’aide à la décision ; d’être capable d’interpréter correctement le résultat de l’IA à haut risque et, si nécessaire, de ne pas tenir compte de ce résultat, le remplacer ou l’ignorer ; et enfin de pouvoir interrompre l’IA à tout moment. 

On retrouve donc dans cet article 14 du projet de règlement européen les deux axes essentiels de l’article 11 et des méthodologies construites par Ethik-IA depuis 2017 dans le champ de la santé : 

  • L’information des utilisateurs de la solution d’IA ;
  •  La supervision humaine de l’IA dans sa phase de conception et, dans une logique d’amélioration continue de la qualité, dans son utilisation en vie réelle. 

[1] Ce texte finit actuellement son parcours législatif devant le Parlement pour une entrée en vigueur en France à la fin de ce premier semestre. 

Avez-vous apprécié ce contenu ?

A lire également.

Illustration Des recommandations pour la mise à disposition des dispositifs médicaux logiciels sur les plateformes d'applications (app stores)

Des recommandations pour la mise à disposition des dispositifs médicaux logiciels sur les plateformes d'applications (app stores)

18 août 2025 - 10:39,

Actualité

-
Marguerite Brac de La Perrière

Dans le contexte d'applications médicales logicielles à destination de patients de plus en plus nombreuses, le groupe de coordination en matière de dispositifs médicaux (MDCG) a récemment publié un document MDCG 2025-4, destiné à répertorier les obligations des fabricants mais aussi des intermédia...

Illustration Inauguration du cross care data lab ©

Inauguration du cross care data lab ©

04 août 2025 - 14:15,

Tribune

- Jacques HUBERT & Selim HAOUCHINE, GHT Moselle-Est

Porté par les Hôpitaux de Sarreguemines et le GHT de Moselle-Est, le projet Cross Care Data Lab est une pépinière d’entreprises nouvelle génération, véritable écosystème, entièrement dédiée à l’innovation numérique, à la cybersécurité et à l’intelligence artificielle appliqué à la santé.

Illustration Le consortium AGORiA Santé en partenariat avec BIOGROUP obtient la 1ère autorisation de la CNIL permettant d’associer des données de biologie et du SNDS (système national des données de santé)

Le consortium AGORiA Santé en partenariat avec BIOGROUP obtient la 1ère autorisation de la CNIL permettant d’associer des données de biologie et du SNDS (système national des données de santé)

22 juil. 2025 - 10:23,

Communiqué

- Biogroup & Agoria Santé

le 21 juillet 2025 – Le consortium AGORiA Santé est autorisé par la CNIL (Commission nationale de l'informatique et des libertés) à enrichir sa plateforme, entrepôt de données de santé système fils SNDS, avec des données d’analyses de biologie médicales issues du réseau BIOGROUP. Créé en 2021, le co...

Illustration Un code de bonnes pratiques pour les modèles d'IA à usage général

Un code de bonnes pratiques pour les modèles d'IA à usage général

15 juil. 2025 - 16:57,

Actualité

-
Marguerite Brac de La Perrière

Entré en vigueur le 1er août 2024, le Règlement sur l'Intelligence Artificielle (AI Act) vise à créer un cadre juridique uniforme pour le développement, la mise sur le marché, la mise en service et l’utilisation de systèmes d'IA dans le respect des valeurs de l’Union. Parmi les systèmes d'IA encadré...

Lettre d'information.

Ne manquez rien de la e-santé et des systèmes d’informations hospitaliers !

Inscrivez-vous à notre lettre d’information hebdomadaire.