Publicité en cours de chargement...

Publicité en cours de chargement...

Publicité en cours de chargement...

IA générative et sécurité : retour sur des recommandations de l’ANSSI

08 juil. 2024 - 11:35,
Tribune - Alice Robert et Alexandre Fievee
Innover et optimiser dans le secteur de la santé, grâce à l’IA générative : oui, mais avec sécurité ! L’ANSSI a récemment émis des recommandations visant à « sensibiliser les administrations et les entreprises aux risques liés à l’IA générative, ainsi qu’à promouvoir les bonnes pratiques à mettre en œuvre ». Professionnels de santé, établissements de santé, établissements médico-sociaux, industriels, vous êtes tous concernés !

 Par Alice Robert et Alexandre Fievee, Derriennic Associés


L’IA générative, à savoir « un sous-ensemble de l’intelligence artificielle, axé sur la création de modèles qui sont entraînés à générer du contenu (texte, images, vidéos, etc.) à partir d’un corpus spécifique de données d’entraînement »[1], présente des enjeux indéniables en santé, notamment dans l’accompagnement de l’activité des professionnels de santé ou encore l’optimisation de la recherche.

La mise en œuvre d’un tel outil n’est toutefois pas sans soulever des problématiques de différentes natures : vie privée et protection des données personnelles, propriété intellectuelle, secret des affaires, éthique, sécurité, etc.

L’ANSSI s’est récemment penchée sur l’aspect sécurité de l’IA générative et a formulé une trentaine de recommandations.

Sans se livrer à une analyse exhaustive de ces recommandations, un échantillonnage met en lumière l’importance d’agir avec prudence, en ayant une vision à la fois transversale et adaptée à chaque situation. 

  • Mise en œuvre d’une IA générative : des mesures de sécurité spécifiques à intégrer par phase

Mettre en œuvre une IA générative, implique, selon l’ANSSI, trois phases cycliques : entrainement, intégration et déploiement, production.

Au-delà de la nécessité de mener une analyse de risques particulière en amont de la première phase, compte tenu notamment de la spécificité des attaques en matière d’IA générative, il est fondamental de travailler sur des mesures de sécurité spécifiques à chacune de ces trois phases. En effet, l’ANSSI souligne que chaque phase peut concerner des environnements et des utilisateurs particuliers.

Pour évaluer les mesures de sécurité à mettre en place, l’ANSSI recommande aussi de tenir compte : 

- Des interactions entre les différents systèmes : intégrations internes et externes de l’IA générative avec un SI existant ;

- Des différentes parties prenantes à l’IA générative, selon l’organisation du partage de responsabilité retenue (sans oublier la sous-traitance associée). 

  • Conception d’une IA générative : des réflexes de prudence à adopter

Parmi les recommandations données par l’ANSSI, on peut relever la nécessité de réaliser une évaluation du niveau de confiance des sources de données externes utilisées dans l’IA générative ou encore de recourir à des modèles d’IA sécurisés, à l’état de l’art.

L’ANSSI recommande également de tenir compte des enjeux de la confidentialité, en particulier, face à la complexité de l’accès à une IA générative sur l’application « du besoin d’en connaître » des utilisateurs. Par exemple, des données sensibles (i) peuvent figurer dans des requêtes d’utilisateur et les réponses associées et (ii) alors faire l’objet d’un stockage temporaire au stade du traitement, et potentiellement d’une utilisation afin de réentrainement du modèle. Ce faisant « la question du besoin d’en connaître doit ainsi se reposer à chaque réentraînement du modèle, y compris sur des données issues de l’usage du modèle en production ». 

L’ANSSI insiste sur le fait que l’IA générative « ne doit pas pouvoir prendre des décisions critiques ayant un impact fort sur le métier ou la protection des biens et des personnes, sans un contrôle humain ». « L'usage automatisé de systèmes d'IA pour des actions critiques sur le SI » doit ainsi être proscrit conduisant à une définition et une configuration strictes des rôles et droits des administrateurs. 

Par ailleurs, il convient de prévoir « un mode dégradé des services métier sans système d'IA ». Il s’agit de mettre en place « au minimum une procédure de contournement du système d’IA pour les utilisateurs » et ce, « afin de prévenir des dysfonctionnements ou des incohérences dans les réponses apportées par le modèle d’IA ».

  • Utilisation d’IA génératives tierces : « des points de vigilance à prendre compte »

L’ANSSI revient sur l’importance de ne pas transmettre de données sensibles aux « services d’IA générative tiers grand public » (exemples : ChatGPT, Gemini, Copilot, DeepL, etc.). L’utilisation d’outils d'IA générative sur Internet à des fins professionnelles et impliquant des données sensibles (y compris pour « générer des jeux de données synthétiques pour l’entrainement et le fine-tuning d’un modèle d’IA ») est ainsi à bannir.

En outre, l’ANSSI recommande de revoir régulièrement (i) la configuration des droits d’accès des IA génératives tierces sur les données/applications métiers avec lesquelles elle peut établir, par défaut, une connexion pouvant être très large, mais (ii) également les mises à jour tant fonctionnelles que sécuritaires de l’outil et ses incidences éventuelles sur les besoins d’en connaître des utilisateurs. 

Chaque acteur concerné en santé est donc invité à suivre ces « bonnes pratiques » de sécurité, lesquelles viennent ainsi s’ajouter aux « référentiels de conformité » à respecter dans la mise en œuvre ou l’utilisation d’une IA générative (parmi lesquels l’IA Act, le RGPD ; les recommandations de la CNIL, etc.).

Source : https://cyber.gouv.fr/publications/recommandations-de-securite-pour-un-systeme-dia-generative


[1] Définition de l’ANSSI dans son guide.

Avez-vous apprécié ce contenu ?

A lire également.

Illustration Publication d’un corpus inédit de comptes rendus médicaux fictifs en open data pour accélérer l’IA en santé

Publication d’un corpus inédit de comptes rendus médicaux fictifs en open data pour accélérer l’IA en santé

26 mars 2026 - 19:08,

Actualité

- Rédaction, DSIH

Dans un contexte réglementaire européen exigeant, qui garantit un accès et un partage sécurisés des données de santé, le projet PARTAGES apporte une réponse opérationnelle aux défis posés à l’IA en santé. Coordonné par la Plateforme des données de santé (Health Data Hub) et réunissant 32 partenaires...

Illustration Health Data Hub et Microsoft : un cadre juridique clarifié, une souveraineté à construire

Health Data Hub et Microsoft : un cadre juridique clarifié, une souveraineté à construire

23 mars 2026 - 09:58,

Actualité

- Rédaction, DSIH

En validant l’autorisation donnée au Health Data Hub pour traiter des données de santé hébergées par Microsoft en France, le Conseil d’État consolide le cadre posé par la CNIL dans sa décision du 20 mars 2026, relative à l’autorisation CNIL 2025‑013 (délibération n° 2025‑013 du 13 février 2025, proj...

Illustration Imprivata lance Agentic Identity Management pour sécuriser et gouverner les agents IA dans le secteur de la santé

Imprivata lance Agentic Identity Management pour sécuriser et gouverner les agents IA dans le secteur de la santé

11 mars 2026 - 09:52,

Communiqué

- Imprivata

Imprivata, fournisseur leader de solutions de gestion des identités et des accès pour le secteur de la santé et les industries critiques, vient de dévoiler Agentic Identity Management, de nouvelles capacités conçues pour sécuriser et gouverner les agents IA dans les environnements de soins de santé ...

Illustration Un projet de guide sur l’IA en santé soumis à consultation par la HAS et la CNIL

Un projet de guide sur l’IA en santé soumis à consultation par la HAS et la CNIL

09 mars 2026 - 09:23,

Actualité

- Rédaction, DSIH

Issu d’un travail pluridisciplinaire, le projet de guide intitulé « IA en contexte de soins » vise à apporter des éclairages aux professionnels de santé concernant leurs obligations et les bonnes pratiques à adopter. Le document est soumis à consultation publique jusqu’au 16 avril 2026.

Lettre d'information.

Ne manquez rien de la e-santé et des systèmes d’informations hospitaliers !

Inscrivez-vous à notre lettre d’information hebdomadaire.