La Garantie Humaine dans le projet de règlement sur l’IA de la Commission européenne !
Ce principe de Garantie Humaine de l’IA et du numérique en santé, introduit et porté par Ethik-IA depuis 2017, avait d’ores déjà été reconnu dans les avis 129 et 130 du CCNE et dans l’article 11 du projet de loi bioéthique[1].
Dans le contexte du droit bioéthique français, ce principe de Garantie Humaine induit pour tous les utilisateurs et concepteurs de solutions d’IA en santé :
- La mise en œuvre d’une information préalable du patient sur le recours à l’IA dans sa prise en charge ;
- Le déploiement d’une supervision humaine de la solution d’IA « en vie réelle » dans des conditions de traçabilité.
Un projet pilote de « Collège de Garantie Humaine » avait ainsi pu être mis en œuvre fin 2020 par Ethik-IA sous égide de l’Union française pour la santé bucco-dentaire (UFSBD) pour exercer une supervision humaine d’un dispositif d’IA de prise en charge dans le domaine bucco-dentaire en EHPAD (dans le cadre d’un protocole de financements innovants article 51 LFSS).
L’article 14 du projet de règlement de la Commission européenne sur l’IA instituant ce principe se situe dans le droit fil de ces démarches pilotes et de ces recommandations.
Le paragraphe 1 de cet article énonce ainsi que les solutions d’intelligence artificielle doivent être conçues et développées de façon à pouvoir être superviser par des Humains. Le paragraphe suivant précise que la supervision humaine permettra de prévenir ou de minimiser les risques pour la santé, la sécurité ou les droits fondamentaux pouvant émerger d’un système d’IA susceptible de présenter un niveau de risque élevé. Par cet énoncé, le projet de règlement consacre ainsi la nécessité d’une garantie humaine pour un déploiement éthique de l’IA.
Le paragraphe 3 donne ainsi des indications sur la mise en application de la supervision humaine de l’IA. En effet, la garantie humaine doit être identifiée et construite par le fournisseur avant sa mise sur le marché ou sa mise en service et/ou identifiée par le fournisseur et pouvant être mise en œuvre par l’utilisateur, et ce, toujours en amont de sa mise sur le marché ou de sa mise en service. Cette garantie humaine doit pouvoir faire l’objet d’un suivi en vie réelle de l’intelligence artificielle.
Les mesures prévues au paragraphe 3 de cet article fixent un certain nombre d’objectifs d’information autour de cette Garantie Humaine : comprendre entièrement les capacités et limites du système d’IA et d’être capable de surveiller l’opération de façon à ce que les risques d’anomalies, de dysfonctionnements et de performance inattendus puissent être détectés ; d’être conscient des risques liés aux IA d’aide à la décision ; d’être capable d’interpréter correctement le résultat de l’IA à haut risque et, si nécessaire, de ne pas tenir compte de ce résultat, le remplacer ou l’ignorer ; et enfin de pouvoir interrompre l’IA à tout moment.
On retrouve donc dans cet article 14 du projet de règlement européen les deux axes essentiels de l’article 11 et des méthodologies construites par Ethik-IA depuis 2017 dans le champ de la santé :
- L’information des utilisateurs de la solution d’IA ;
- La supervision humaine de l’IA dans sa phase de conception et, dans une logique d’amélioration continue de la qualité, dans son utilisation en vie réelle.
[1] Ce texte finit actuellement son parcours législatif devant le Parlement pour une entrée en vigueur en France à la fin de ce premier semestre.
Avez-vous apprécié ce contenu ?
A lire également.

Le DLP, ou l’archétype du techno-solutionnisme béat
20 avril 2026 - 10:27,
Tribune
-On n’est pas exactement dans un matraquage publicitaire de haute intensité, mais cela revient tout de même assez régulièrement, comme la grippe de saison ou les allergies aux plastiques des tongs d’été. En tout cas, régulièrement, il se trouve un commercial lambda pour nous ressortir une offre préte...

La cyber face au défi des modèles mentaux
14 avril 2026 - 08:41,
Tribune
-Un modèle mental, c’est un prisme au travers duquel nous regardons la réalité. Des lunettes filtrantes si vous préférez.

Comment quantifier un risque
31 mars 2026 - 08:06,
Tribune
-Après avoir expliqué qu’une PSSI et une appréciation des risques ne servaient à rien (ici 1) -mais un peu quand même -, intéressons-nous à un autre sujet brûlant qui déchaîne les passions, pire que JR (2) et la fin du Prisonnier (3) : la quantification du risque.

Publication d’un corpus inédit de comptes rendus médicaux fictifs en open data pour accélérer l’IA en santé
26 mars 2026 - 19:08,
Actualité
- Rédaction, DSIHDans un contexte réglementaire européen exigeant, qui garantit un accès et un partage sécurisés des données de santé, le projet PARTAGES apporte une réponse opérationnelle aux défis posés à l’IA en santé. Coordonné par la Plateforme des données de santé (Health Data Hub) et réunissant 32 partenaires...
