Publicité en cours de chargement...

Publicité en cours de chargement...

Des lignes directrices sur la portée des obligations applicables aux modèles d'IA à usage général (1)

29 juil. 2025 - 11:09,
Actualité-
Marguerite Brac de La Perrière

Écouter l'article

0:000:00
Illustration Des lignes directrices sur la portée des obligations applicables aux modèles d'IA à usage général (1)
Le règlement (UE) 2024/1689 (AI Act), entré en vigueur le 1er août 2024, vise à encadrer le développement et l’utilisation de l’intelligence artificielle dans l’Union européenne, en conciliant innovation technologique et protection des droits fondamentaux.

Dans ce cadre, les modèles d’IA à usage général (General-Purpose AI Models – GPAI) occupent une place centrale, en raison de leur capacité à être intégrés dans une multitude de systèmes et d’applications.

Afin de contribuer à la bonne application de ces dispositions, un code de bonnes pratiques des modèles d'IA à usage général a été publié le 10 juillet 2025[2] pour aider l'industrie à se conformer aux règles de l'AI Act relatives aux modèles d'IA à usage général.

Ce sont maintenant des lignes directrices[3] qui ont été publiées le 18 juillet 2025 par la Commission européenne, avec pour objectif d’expliciter les obligations prévues par l'AI Act à l’égard des fournisseurs de GPAI, à l’approche de l’entrée en vigueur du chapitre V du règlement, le 2 août 2025.

Définition des GPAI

Un modèle est qualifié de GPAI s’il présente une généralité significative, c’est-à-dire s’il est capable d’exécuter un large éventail de tâches distinctes, indépendamment de la manière dont il est mis sur le marché. La Commission propose un critère indicatif : un modèle est présumé être un GPAI s’il a été entraîné avec une puissance de calcul supérieure à 10²³ FLOP et s’il est capable de générer du langage (texte ou audio), du texte à partir d’images ou de vidéos.

GPAI présentant un risque systémique

Certains GPAI peuvent être classés comme présentant un risque systémique, en raison de leurs capacités à fort impact ou de leur potentiel d’effet négatif à grande échelle sur la société, la sécurité ou les droits fondamentaux.

Un modèle est présumé présenter un risque systémique s’il a été entraîné avec plus de 10²⁵ FLOP. La Commission peut également désigner un modèle comme tel sur la base de critères qualitatifs. Les fournisseurs de ces modèles sont soumis à des obligations renforcées : évaluation continue des risques, notification des incidents graves, mesures de cybersécurité, etc.

Cycle de vie du modèle

Le cycle de vie d’un GPAI commence dès la phase de pré-entraînement à grande échelle et inclut toutes les étapes ultérieures, y compris les ajustements postérieurs à la mise sur le marché. Les obligations documentaires, de transparence et de conformité s’appliquent tout au long de ce cycle.

Fournisseurs et mise sur le marché

Est considéré comme fournisseur toute entité qui développe ou fait développer un modèle et le met sur le marché sous son nom ou sa marque. La notion de mise sur le marché est large : elle inclut la mise à disposition via API, bibliothèques, cloud, intégration dans des systèmes, etc.

Les modificateurs en aval peuvent devenir fournisseurs s’ils modifient significativement un modèle, notamment si la puissance de calcul utilisée pour la modification dépasse un tiers de celle du modèle initial.

Exemptions pour les modèles open source

Certains GPAI publiés sous licence libre et open source peuvent bénéficier d’exemptions à certaines obligations (documentation technique, désignation de représentant, etc.), à condition que :

- Le modèle ne présente pas de risque systémique.

- Les paramètres, pondérations, architecture et informations d’usage soient rendus publics.

-  Il n’y ait aucune forme de monétisation directe ou indirecte.

Les obligations relatives au respect du droit d’auteur et à la transparence sur les données d’entraînement restent applicables.

Conformité et supervision

Les obligations du chapitre V de l'AI Act entreront en vigueur le 2 août 2025. Les modèles déjà sur le marché à cette date devront être mis en conformité au plus tard le 2 août 2027.

Le Bureau de l’IA est chargé de la supervision, de l’enquête et de l’application des règles. Il adoptera une approche collaborative, mais pourra imposer des mesures correctives et infliger des amendes[4] à partir :

- du 2 août 2026 en ce qui concerne les nouveaux modèles et

- du 2 août 2027 en ce qui concerne les modèles existants.

Les sanctions encourues sont de 3% du CA annuel mondial total réalisé au cours de l'exercice précédent, ou 15 millions €, que l'infraction ait été commise de manière délibérée ou par négligence.

Les fournisseurs peuvent démontrer leur conformité en adhérant au code de bonnes pratiques publié par la Commission[5].

L’objectif est de veiller à ce que les modèles d’IA à usage général mis sur le marché européen, y compris les plus puissants, soient sûrs et transparents.

Une nouvelle étape importante en vue de la conformité des modèles d'IA à usage général à l'IA Act et donc aux valeurs de l'Union, en amont de l'entrée en vigueur des dispositions de l'AI Act relatives aux modèles d'IA à usage général dans quelques jours…

photo de Brac de La Perrière
Marguerite Brac de La Perrière

Avez-vous apprécié ce contenu ?

A lire également.

Illustration Des recommandations pour la mise à disposition des dispositifs médicaux logiciels sur les plateformes d'applications (app stores)

Des recommandations pour la mise à disposition des dispositifs médicaux logiciels sur les plateformes d'applications (app stores)

18 août 2025 - 10:39,

Actualité

-
Marguerite Brac de La Perrière

Dans le contexte d'applications médicales logicielles à destination de patients de plus en plus nombreuses, le groupe de coordination en matière de dispositifs médicaux (MDCG) a récemment publié un document MDCG 2025-4, destiné à répertorier les obligations des fabricants mais aussi des intermédia...

Illustration Dernier billet philosohico-cyber avant la plage

Dernier billet philosohico-cyber avant la plage

21 juil. 2025 - 10:00,

Tribune

-
Cédric Cartau

À l’approche des congés d’été, l’heure est à la réflexion — et pas seulement sur la température de l’eau ou le bon dosage de crème solaire. Entre arnaques bancaires de plus en plus sophistiquées, dérives technologiques, illusions cyber-industrielles et lacunes dans la gouvernance publique, ce billet...

Illustration Un code de bonnes pratiques pour les modèles d'IA à usage général

Un code de bonnes pratiques pour les modèles d'IA à usage général

15 juil. 2025 - 16:57,

Actualité

-
Marguerite Brac de La Perrière

Entré en vigueur le 1er août 2024, le Règlement sur l'Intelligence Artificielle (AI Act) vise à créer un cadre juridique uniforme pour le développement, la mise sur le marché, la mise en service et l’utilisation de systèmes d'IA dans le respect des valeurs de l’Union. Parmi les systèmes d'IA encadré...

Illustration Le numérique médico-social : mutation systémique et levier d’humanité

Le numérique médico-social : mutation systémique et levier d’humanité

08 juil. 2025 - 01:07,

Actualité

- DSIH

Longtemps resté en périphérie des politiques publiques du numérique en santé, le secteur médico-social entre aujourd’hui dans une phase de transformation profonde. C’est cette bascule, inédite et structurante, que décrivent Olivier Babinet et Manon Lorenzo dans leur ouvrage Le virage du numérique en...

Lettre d'information.

Ne manquez rien de la e-santé et des systèmes d’informations hospitaliers !

Inscrivez-vous à notre lettre d’information hebdomadaire.