Intelligence artificielle, les premières échéances
Écouter l'article

Une entrée progressive en application est prévue, avec des échéances comprises entre le 2 février dernier et le 2 août 2027, dont les premières sont déjà intervenues.
Maîtrise de l'IA
Le 2 février 2025 sont entrées en application les dispositions portant obligation de "maîtrise de l'IA" imposant aux fournisseurs et déployeurs de systèmes d'IA à prendre des mesures pour garantir, dans toute la mesure du possible, un niveau suffisant de maîtrise de l’IA pour leur personnel et les autres personnes s’occupant du fonctionnement et de l’utilisation des systèmes d’IA pour leur compte, en prenant en considération leurs connaissances techniques, leur expérience, leur éducation et leur formation, ainsi que le contexte dans lequel les systèmes d’IA sont destinés à être utilisés, et en tenant compte des personnes ou des groupes de personnes à l’égard desquels les systèmes d’IA sont destinés à être utilisés.
A ce titre, il appartient à toutes les organisations de :
- mettre en œuvre des sessions de sensibilisation et formation du personnel, en sous-groupes, afin de tenir compte de leurs profils, et
- de mettre en place une documentation de nature à permettre la maîtrise de l'IA, a minima une AI Policy, ou Charte IA, et d'assurer son opposabilité auprès du personnel.
Pratiques interdites
Le 2 février 2025 également, ce sont les pratiques interdites en matière d'IA qui doivent être identifiées et bannies des organisations.
Leur mise sur le marché, mise en service ou utilisation sont proscrites, ces activités devant être appréciées de manière extensive selon les guidelines publiées par la Commission. En effet, et à titre d'exemples, le champ d'application matériel de l'IA Act couvre les pratiques liées à la mise sur le marché, la mise en service et l'utilisation, quel que soit le moyen de fourniture, à titre onéreux ou gratuit, en vue de sa première utilisation telle que destinée par le fournisseur. Dans le même sens, l'utilisation doit être comprise comme incluant toute utilisation abusive d'un système d'IA, "raisonnablement prévisible" ou non. Les pratiques d'IA interdites doivent être considérées en relation avec systèmes d'IA classés à haut risque, les derniers pouvant constituer des IA interdites et inversement selon leurs caractéristiques spécifiques, selon l'évaluation et la gestion des risques réalisées par le fournisseur.
Cette interdiction des IA à risques inacceptables suppose ainsi, au sein de chaque organisation constituant un déployeur, une cartographie des IA et la qualification des systèmes d'IA au regard des dispositions de l'IA Act et de ces éclairages.
Le non-respect de l’interdiction des pratiques en matière d’IA fait l’objet des plus lourdes amendes administratives prévues à l'IA Act, pouvant aller jusqu’à 35 000 000 EUR ou jusqu’à 7 % de son chiffre d’affaires annuel mondial total réalisé au cours de l’exercice précédent, le montant le plus élevé étant retenu. Si à date, l'autorité de contrôle n'est pas encore désignée, il est conseillé de gravir les marches de l'IA Act dès à présent.
Pour les échéances suivantes, et l'implémentation des exigences et obligations, la suite dans quelques semaines…

Marguerite Brac de La Perrière
Avocate, Numérique & Santé
Avez-vous apprécié ce contenu ?
A lire également.

Comment quantifier un risque
31 mars 2026 - 08:06,
Tribune
-Après avoir expliqué qu’une PSSI et une appréciation des risques ne servaient à rien (ici 1) -mais un peu quand même -, intéressons-nous à un autre sujet brûlant qui déchaîne les passions, pire que JR (2) et la fin du Prisonnier (3) : la quantification du risque.

Publication d’un corpus inédit de comptes rendus médicaux fictifs en open data pour accélérer l’IA en santé
26 mars 2026 - 19:08,
Actualité
- Rédaction, DSIHDans un contexte réglementaire européen exigeant, qui garantit un accès et un partage sécurisés des données de santé, le projet PARTAGES apporte une réponse opérationnelle aux défis posés à l’IA en santé. Coordonné par la Plateforme des données de santé (Health Data Hub) et réunissant 32 partenaires...

L’arnaque à l’arrêt de travail comme source de réflexion
14 avril 2025 - 21:57,
Tribune
-Soupçonné d’avoir mis en place un site Web permettant d’acheter de « faux » arrêts de travail en quelques clics et pour 9 euros seulement, un jeune homme de 22 ans originaire des Landes est sous le coup d’une accusation et de poursuites diverses. Les faux arrêts de travail étaient générés automatiqu...

Health Data Hub et Microsoft : un cadre juridique clarifié, une souveraineté à construire
23 mars 2026 - 09:58,
Actualité
- Rédaction, DSIHEn validant l’autorisation donnée au Health Data Hub pour traiter des données de santé hébergées par Microsoft en France, le Conseil d’État consolide le cadre posé par la CNIL dans sa décision du 20 mars 2026, relative à l’autorisation CNIL 2025‑013 (délibération n° 2025‑013 du 13 février 2025, proj...
