Publicité en cours de chargement...

Les systèmes d'IA désormais régulés !

12 déc. 2023 - 09:53,
Tribune - Marguerite Brac de La Perrière
L'IA Act ou législation sur l'intelligence artificielle a abouti à un accord politique au terme de 38 heures d'échanges. Ce sont quatre années de travail qui aboutissent, 4 années à tenter de trouver un équilibre entre contrôle des risques liés aux technologies de l'IA, et développement de l'innovation. 

 Par Marguerite Brac de La Perrière, Avocate associée du Cabinet Fieldfisher, Numérique & Santé


Jusqu'au terme des discussions, les opposants ont fait valoir leurs craintes liées au fait de réguler en Europe, ce qui ne le serait pas ou moins dans le reste du monde, et ainsi de brider l'innovation et/ou de créer une distorsion de concurrence défavorable à l'Europe.

En matière de santé, les systèmes d'IA constituent des IA à haut risques - outre des dispositifs médicaux -, ce qui entraînera donc l'application d'exigences spécifiques en ce qui concerne la qualité des jeux de données utilisés, la documentation technique et la tenue de registres, la transparence et la fourniture d’informations aux utilisateurs, le contrôle humain, ainsi que la robustesse, l’exactitude et la cybersécurité. 

1. Documentation et gouvernance des données

A cet égard, concrètement, les fournisseurs devront assurer la tenue de registres et la mise à disposition d’une documentation technique contenant les informations nécessaires pour évaluer la conformité du système d’IA avec les exigences pertinentes. Ces informations devront notamment porter sur les caractéristiques générales, les capacités et les limites du système, sur les algorithmes, les données et les processus d’entraînement, d’essai et de validation utilisés, ainsi que sur le système de gestion des risques mis en place. La documentation technique devra être tenue à jour.

À découvrirLes référentiels ISO, pas si simples

En ce qui concerne l’accès aux données et à la documentation, les autorités de surveillance du marché devront avoir pleinement accès aux jeux de données d’entraînement, de validation et de test utilisés par le fournisseur, y compris par l’intermédiaire d’interfaces de programmation d’applications (API) ou d’autres moyens et outils techniques appropriés permettant d’octroyer un accès à distance. Lorsque cela est nécessaire pour évaluer la conformité du système d’IA à haut risque, et sur demande motivée, les autorités de surveillance du marché pourront même accéder au code source du système d’IA.

2. Transparence et supervision humaine

La transparence des fournisseurs à l'égard des utilisateurs sera requise pour les systèmes d’IA à haut risque, afin de leur permettre d’interpréter les résultats produits par le système et de les utiliser de manière appropriée, justifiant que les systèmes d’IA à haut risque soient accompagnés d’une documentation et d’instructions d’utilisation pertinentes, y incluant des informations concises et claires, notamment en ce qui concerne les risques potentiels, le degré d’exactitude et les critères de mesure de l’exactitude. Cette information est fondamentale pour permettre aux utilisateurs d'exercer leur supervision humaine. 

Ces différents principes entérinent, au niveau européen, les dispositions françaises issues de la loi de bioéthique du 2 août 2021. 

3. Robustesse technique et cybersécurité 

Les systèmes d’IA à haut risque devront produire des résultats d’une qualité constante tout au long de leur cycle de vie et assurer un niveau approprié d’exactitude, de robustesse et de cybersécurité conforme à l’état de l'art. 

La robustesse technique est une exigence essentielle pour les systèmes d’IA à haut risque, qui devront être résilients contre les risques liés aux limites du système (par exemple les erreurs, les défauts, les incohérences, les situations inattendues) ainsi que contre les actions malveillantes qui pourraient compromettre la sûreté du système d’IA et entraîner un comportement préjudiciable ou indésirable. 

De même, la cybersécurité jouera un rôle crucial pour garantir la résilience des systèmes d’IA face aux tentatives de détourner leur utilisation, leur comportement, leurs performances ou de compromettre leurs propriétés de sûreté par des tiers malveillants exploitant les vulnérabilités du système. Les cyberattaques contre les systèmes d’IA peuvent faire usage de ressources spécifiques à l’IA, telles que des jeux de données d’entraînement (empoisonnement de données) ou des modèles entraînés, ou exploiter les vulnérabilités des ressources numériques du système d’IA ou de l’infrastructure technologique sous-jacente. 

4. Calendrier et sanctions

Gageons que les exigences applicables aux dispositifs médicaux, et celles définies en France en termes de sécurité concernant les services numériques en santé offriront une avance aux fournisseurs d'IA en santé, dans la perspective de la mise en conformité, laquelle doit désormais intervenir sous 24 mois pour les systèmes d'IA à haut risque, étant rappelé que les infractions pourront faire l’objet d’amendes administratives pouvant aller jusqu’à 30 000 000 EUR ou, jusqu’à 6 % de son chiffre d’affaires annuel mondial total réalisé au cours de l’exercice précédent, le montant le plus élevé étant retenu.

Avez-vous apprécié ce contenu ?

A lire également.

Illustration Le CHU de Montpellier mobilise 14,9 M€ pour structurer un projet d’intelligence artificielle hospitalière

Le CHU de Montpellier mobilise 14,9 M€ pour structurer un projet d’intelligence artificielle hospitalière

29 jan. 2026 - 13:01,

Actualité

- Rédaction, DSIH

Le CHU de Montpellier a fait état de la mobilisation d’un financement de 14,9 millions d’euros dans le cadre du programme France 2030 pour développer un projet d’intelligence artificielle hospitalière, baptisé Alliance Santé IA. L’initiative vise à structurer des usages d’intelligence artificielle à...

Illustration Mon espace santé veut devenir un pivot de la prévention personnalisée et de la coordination des soins

Mon espace santé veut devenir un pivot de la prévention personnalisée et de la coordination des soins

29 jan. 2026 - 12:07,

Actualité

- Rédaction, DSIH

Quatre ans après son lancement, Mon espace santé franchit une nouvelle étape. Après avoir concentré ses efforts sur l’alimentation massive et sécurisée des données de santé, le carnet de santé numérique public entend désormais se positionner comme un outil central de prévention personnalisée et de c...

Illustration D4Evolution 2026 : la transformation numérique et l’IA au service de l’efficience opérationnelle, de la qualité des soins et du bien-être des soignants

D4Evolution 2026 : la transformation numérique et l’IA au service de l’efficience opérationnelle, de la qualité des soins et du bien-être des soignants

29 jan. 2026 - 11:46,

Actualité

- Par Pauline Nicolas

La 8ème édition de l’évènement annuel de Dedalus France, qui s’est tenue à Paris le 22 janvier, était placée sous l’égide de l’efficience opérationnelle. Dès l’ouverture de cette journée, Guillem Pelissier, Directeur Général France de Dedalus, a porté un message clair : « Il faut concevoir le numéri...

Illustration D4 Evolution 2026 : Efficience, gouvernance et hôpital augmenté, Dedalus dévoile ses priorités pour 2026

D4 Evolution 2026 : Efficience, gouvernance et hôpital augmenté, Dedalus dévoile ses priorités pour 2026

28 jan. 2026 - 09:25,

Communiqué

- Dedalus

À l’occasion de son événement D4 Evolution, rendez-vous annuel consacré à l’innovation en santé numérique, Dedalus France annonce un renforcement de sa gouvernance avec la nomination d’Amel Mokrani Bois au poste de Chief Revenue Officer. Une arrivée qui s’inscrit dans une dynamique de structuration ...

Lettre d'information.

Ne manquez rien de la e-santé et des systèmes d’informations hospitaliers !

Inscrivez-vous à notre lettre d’information hebdomadaire.