Publicité en cours de chargement...
IA générative et sécurité : retour sur des recommandations de l’ANSSI
Par Alice Robert et Alexandre Fievee, Derriennic Associés
L’IA générative, à savoir « un sous-ensemble de l’intelligence artificielle, axé sur la création de modèles qui sont entraînés à générer du contenu (texte, images, vidéos, etc.) à partir d’un corpus spécifique de données d’entraînement »[1], présente des enjeux indéniables en santé, notamment dans l’accompagnement de l’activité des professionnels de santé ou encore l’optimisation de la recherche.
La mise en œuvre d’un tel outil n’est toutefois pas sans soulever des problématiques de différentes natures : vie privée et protection des données personnelles, propriété intellectuelle, secret des affaires, éthique, sécurité, etc.
L’ANSSI s’est récemment penchée sur l’aspect sécurité de l’IA générative et a formulé une trentaine de recommandations.
Sans se livrer à une analyse exhaustive de ces recommandations, un échantillonnage met en lumière l’importance d’agir avec prudence, en ayant une vision à la fois transversale et adaptée à chaque situation.
- Mise en œuvre d’une IA générative : des mesures de sécurité spécifiques à intégrer par phase
Mettre en œuvre une IA générative, implique, selon l’ANSSI, trois phases cycliques : entrainement, intégration et déploiement, production.
Au-delà de la nécessité de mener une analyse de risques particulière en amont de la première phase, compte tenu notamment de la spécificité des attaques en matière d’IA générative, il est fondamental de travailler sur des mesures de sécurité spécifiques à chacune de ces trois phases. En effet, l’ANSSI souligne que chaque phase peut concerner des environnements et des utilisateurs particuliers.
Pour évaluer les mesures de sécurité à mettre en place, l’ANSSI recommande aussi de tenir compte :
- Des interactions entre les différents systèmes : intégrations internes et externes de l’IA générative avec un SI existant ;
- Des différentes parties prenantes à l’IA générative, selon l’organisation du partage de responsabilité retenue (sans oublier la sous-traitance associée).
- Conception d’une IA générative : des réflexes de prudence à adopter
Parmi les recommandations données par l’ANSSI, on peut relever la nécessité de réaliser une évaluation du niveau de confiance des sources de données externes utilisées dans l’IA générative ou encore de recourir à des modèles d’IA sécurisés, à l’état de l’art.
L’ANSSI recommande également de tenir compte des enjeux de la confidentialité, en particulier, face à la complexité de l’accès à une IA générative sur l’application « du besoin d’en connaître » des utilisateurs. Par exemple, des données sensibles (i) peuvent figurer dans des requêtes d’utilisateur et les réponses associées et (ii) alors faire l’objet d’un stockage temporaire au stade du traitement, et potentiellement d’une utilisation afin de réentrainement du modèle. Ce faisant « la question du besoin d’en connaître doit ainsi se reposer à chaque réentraînement du modèle, y compris sur des données issues de l’usage du modèle en production ».
L’ANSSI insiste sur le fait que l’IA générative « ne doit pas pouvoir prendre des décisions critiques ayant un impact fort sur le métier ou la protection des biens et des personnes, sans un contrôle humain ». « L'usage automatisé de systèmes d'IA pour des actions critiques sur le SI » doit ainsi être proscrit conduisant à une définition et une configuration strictes des rôles et droits des administrateurs.
Par ailleurs, il convient de prévoir « un mode dégradé des services métier sans système d'IA ». Il s’agit de mettre en place « au minimum une procédure de contournement du système d’IA pour les utilisateurs » et ce, « afin de prévenir des dysfonctionnements ou des incohérences dans les réponses apportées par le modèle d’IA ».
- Utilisation d’IA génératives tierces : « des points de vigilance à prendre compte »
L’ANSSI revient sur l’importance de ne pas transmettre de données sensibles aux « services d’IA générative tiers grand public » (exemples : ChatGPT, Gemini, Copilot, DeepL, etc.). L’utilisation d’outils d'IA générative sur Internet à des fins professionnelles et impliquant des données sensibles (y compris pour « générer des jeux de données synthétiques pour l’entrainement et le fine-tuning d’un modèle d’IA ») est ainsi à bannir.
En outre, l’ANSSI recommande de revoir régulièrement (i) la configuration des droits d’accès des IA génératives tierces sur les données/applications métiers avec lesquelles elle peut établir, par défaut, une connexion pouvant être très large, mais (ii) également les mises à jour tant fonctionnelles que sécuritaires de l’outil et ses incidences éventuelles sur les besoins d’en connaître des utilisateurs.
Chaque acteur concerné en santé est donc invité à suivre ces « bonnes pratiques » de sécurité, lesquelles viennent ainsi s’ajouter aux « référentiels de conformité » à respecter dans la mise en œuvre ou l’utilisation d’une IA générative (parmi lesquels l’IA Act, le RGPD ; les recommandations de la CNIL, etc.).
Source : https://cyber.gouv.fr/publications/recommandations-de-securite-pour-un-systeme-dia-generative
[1] Définition de l’ANSSI dans son guide.
Avez-vous apprécié ce contenu ?
A lire également.

Éthicovigilance numérique : premiers signaux d’alerte dans la santé connectée
24 avril 2025 - 15:14,
Actualité
- DSIHLa Délégation au numérique en santé (DNS) publie le premier rapport d’activité de la Plateforme d’éthicovigilance du numérique en santé, un dispositif inédit lancé fin 2023 pour recueillir les signalements d’usagers et de professionnels confrontés à des enjeux éthiques liés aux technologies de santé...

Contourner les règles, faille cyber éternelle et consubstantielle à l’espèce humaine
21 avril 2025 - 19:07,
Tribune
-Récemment, un post sur LinkedIn racontait l’histoire suivante : un enseignant soucieux de repérer les élèves qui faisaient rédiger leur copie par ChatGPT transmettait ses consignes sous forme de fichiers PDF dans lesquels il incluait des morceaux de texte en caractères blancs, donc invisibles pour l...
Rubrik nommé partenaire de l’année par Microsoft pour le secteur de la santé et des sciences de la vie
02 juil. 2024 - 16:16,
Communiqué
- RubrikRubrik, le spécialiste de la sécurité des données Zéro Trust, annonce avoir été nommé Partenaire Microsoft de l'année 2024 pour le domaine des soins de santé et des sciences de la vie. L'entreprise a été distinguée parmi les meilleurs partenaires de Microsoft au niveau mondial pour avoir fait preuve...
La cyber : revue d’actualité un tantinet énervée
09 juil. 2024 - 09:33,
Tribune
- Cédric CartauEntre la poire et le fromage, je clique au hasard sur les liens de mon navigateur, et j’en ramène quelques news, dont certaines ont le don de me faire monter en pression – je parle de cyber, OK ?