Publicité en cours de chargement...

Publicité en cours de chargement...

Un code de bonnes pratiques pour les modèles d'IA à usage général

15 juil. 2025 - 16:57,
Actualité-
Marguerite Brac de La Perrière

Écouter l'article

0:000:00
Illustration Un code de bonnes pratiques pour les modèles d'IA à usage général
Entré en vigueur le 1er août 2024, le Règlement sur l'Intelligence Artificielle (AI Act) vise à créer un cadre juridique uniforme pour le développement, la mise sur le marché, la mise en service et l’utilisation de systèmes d'IA dans le respect des valeurs de l’Union. Parmi les systèmes d'IA encadrés, figure le modèle d'IA à usage général défini comme celui "qui présente une généralité significative et est capable d’exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont le modèle est mis sur le marché, et qui peut être intégré dans une variété de systèmes ou d’applications en aval (.)".

Le chapitre V de l'AI Act consacré aux modèles d'IA à usage général, définissant notamment les obligations de ses fournisseurs, entre en application dès le 2 août 2025.

Si ce chapitre est l'un des premiers à entrer en application, c'est parce que les fournisseurs de modèles d’IA à usage général ont un rôle et une responsabilité particuliers tout au long de la chaîne de valeur de l’IA : les modèles qu’ils fournissent peuvent constituer la base d’une série de systèmes en aval, souvent fournis par des fournisseurs en aval, qui nécessitent une bonne compréhension des modèles et de leurs capacités (i) pour permettre l’intégration de ces modèles dans leurs produits et (ii) pour remplir les obligations qui leur incombent en vertu de l'AI Act.

Pour ce faire, les fournisseurs de modèles d’IA à usage général sont tenus :

- d'élaborer et tenir à jour la documentation technique du modèle, y compris son processus d’entraînement et d’essai et les résultats de son évaluation[1], aux fins de la fournir, sur demande, au Bureau de l’IA et aux autorités nationales compétentes,

- d'élaborer, tenir à jour et mettre à disposition des informations et de la documentation à l’intention des fournisseurs de systèmes d’IA qui envisagent d’intégrer le modèle d’IA à usage général dans leurs systèmes d’IA afin de :

o   permettre aux fournisseurs de systèmes d’IA d’avoir une bonne compréhension des capacités et des limites du modèle d’IA à usage général et de se conformer aux obligations qui leur incombent en vertu du règlement IA et
o   fournir des informations minimum[2],

-  mettre en place une politique visant à se conformer au droit de l’Union en matière de droit d’auteur et droits voisins,
-  élaborer et mettre à la disposition du public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à usage général.

Afin de contribuer à la bonne application de ces dispositions, le règlement prévoit que le Bureau de l'IA doit encourager et faciliter l’élaboration de codes de bonnes pratiques destinés à définir les moyens permettant de fournir les informations requises à la lumière des évolutions du marché et des technologies[3].

C'est dans ce contexte que le Bureau de l’IA a invité les fournisseurs de modèles d’IA à usage général, les autorités nationales compétentes à participer à l’élaboration d'un code de bonnes pratiques, avec le soutien d'organisations de la société civile, de l’industrie, du monde universitaire et d’autres parties prenantes concernées, telles que les fournisseurs en aval et les experts indépendant.

Le code de bonnes pratiques des modèles d'IA à usage général a finalement été publié le 10 juillet 2025 (avec plus de 2 mois de retard), pour aider l'industrie à se conformer aux règles de l'AI Act relatives aux modèles d'IA à usage général entrant en application le 2 août 2025.

Les fournisseurs doivent ainsi notifier sans délai au Bureau de l'IA les modèles d'IA à usage général présentant un risque systémique qui seront mis sur le marché de l'UE.

Les règles deviennent "exécutoires" par le Bureau de l’IA[4] :

- un an plus tard en ce qui concerne les nouveaux modèles (2 août 2026) et 
- deux ans plus tard (2 août 2027) en ce qui concerne les modèles existants.

Les sanctions encourues sont de 3% du CA annuel mondial total réalisé au cours de l'exercice précédent, ou 15 millions €, que l'infraction ait été commise de manière délibérée ou par négligence.

L’objectif est de veiller à ce que les modèles d’IA à usage général mis sur le marché européen, y compris les plus puissants, soient sûrs et transparents.

Le Code se compose de trois chapitres : la transparence et le droit d’auteur qui concernent tous les fournisseurs de modèles d’IA à usage général, et le chapitre sur la sûreté et la sécurité qui ne concerne qu’un nombre limité de fournisseurs de modèles à risque systémique.

S'agissant des obligations de transparence, un formulaire[5] intégré au code comprend toutes les informations à documenter destinées :

-  à leur demande (i) au bureau de l'IA (AIO), (ii) aux autorités nationales compétentes (ANC),
-  de manière spontanée (iii) aux fournisseurs en aval (DP), à savoir les fournisseurs de systèmes d'IA qui ont l'intention d'intégrer le modèle d'IA à usage général dans leurs systèmes d'IA.

Une étape importante pour assurer la conformité des modèles d'IA à usage général à l'IA Act et donc aux valeurs de l'Union, avant les guidelines supposées être publiées en amont de l'entrée en vigueur des dispositions de l'AI Act relatives aux modèles d'IA à usage général…


[1] au minimum les informations énoncées à l'Annexe XI du RIA

[2] énoncés à l’annexe XII

[3] Art. 56 AI Act

photo de Brac de La Perrière
Marguerite Brac de La Perrière

Avez-vous apprécié ce contenu ?

A lire également.

Illustration Inauguration du cross care data lab ©

Inauguration du cross care data lab ©

04 août 2025 - 14:15,

Tribune

- Jacques HUBERT & Selim HAOUCHINE, GHT Moselle-Est

Porté par les Hôpitaux de Sarreguemines et le GHT de Moselle-Est, le projet Cross Care Data Lab est une pépinière d’entreprises nouvelle génération, véritable écosystème, entièrement dédiée à l’innovation numérique, à la cybersécurité et à l’intelligence artificielle appliqué à la santé.

Illustration Le consortium AGORiA Santé en partenariat avec BIOGROUP obtient la 1ère autorisation de la CNIL permettant d’associer des données de biologie et du SNDS (système national des données de santé)

Le consortium AGORiA Santé en partenariat avec BIOGROUP obtient la 1ère autorisation de la CNIL permettant d’associer des données de biologie et du SNDS (système national des données de santé)

22 juil. 2025 - 10:23,

Communiqué

- Biogroup & Agoria Santé

le 21 juillet 2025 – Le consortium AGORiA Santé est autorisé par la CNIL (Commission nationale de l'informatique et des libertés) à enrichir sa plateforme, entrepôt de données de santé système fils SNDS, avec des données d’analyses de biologie médicales issues du réseau BIOGROUP. Créé en 2021, le co...

Illustration Le numérique médico-social : mutation systémique et levier d’humanité

Le numérique médico-social : mutation systémique et levier d’humanité

08 juil. 2025 - 01:07,

Actualité

- DSIH

Longtemps resté en périphérie des politiques publiques du numérique en santé, le secteur médico-social entre aujourd’hui dans une phase de transformation profonde. C’est cette bascule, inédite et structurante, que décrivent Olivier Babinet et Manon Lorenzo dans leur ouvrage Le virage du numérique en...

Illustration Mobisoins Patient : quand soignants et éditeur innovent ensemble au service du patient

Mobisoins Patient : quand soignants et éditeur innovent ensemble au service du patient

08 juil. 2025 - 00:49,

Actualité

- Maellie Vezien, DSIH

À l’heure où les soins hospitaliers se déploient de plus en plus à domicile, l’implication du patient dans son parcours de santé devient essentielle. Mais comment favoriser son autonomie tout en garantissant une prise en charge sécurisée ? C’est le défi que relèvent l’HAD Vendée et Dicsit Informatiq...

Lettre d'information.

Ne manquez rien de la e-santé et des systèmes d’informations hospitaliers !

Inscrivez-vous à notre lettre d’information hebdomadaire.