Publicité en cours de chargement...
Libres propos sur l’intelligence artificielle (volet 2)
Si les retombées économiques et financières s’annoncent prometteuses, les enjeux éthiques se révèlent fondamentaux.
À cet égard, la mission d’information sur la révision de la loi de bioéthique consacre, dans son rapport, un chapitre entier à l’intelligence artificielle (IA) et préconise l’introduction dans la loi de la « garantie humaine » du numérique en santé et « l’explicabilité des algorithmes ».
Présentée comme le socle du développement de l’IA, la « garantie humaine » est définie par le Comité consultatif national d’éthique et des sciences de la vie (CCNE) comme étant « la garantie d’une supervision humaine de toute utilisation du numérique en santé, et l’obligation d’instaurer pour toute personne le souhaitant et à tout moment, la possibilité d’un contact humain en mesure de lui transmettre l’ensemble des informations la concernant dans le cadre de son parcours de santé ». Cette « garantie humaine » nécessiterait de « préserver la maîtrise finale du professionnel de santé, en interaction avec le patient, pour prendre les décisions appropriées en fonction de chaque situation spécifique ».
Lors de son audition, le député Cédric Villani a expliqué que le médecin devrait « pouvoir connaître les facteurs déterminants qui, parmi la multitude des données prises en compte par l’algorithme, ont fait pencher la balance du diagnostic d’un côté ou de l’autre », d’après son rapport sur l’IA.
C’est précisément toute la difficulté !
Le système d’IA fonctionne comme une boîte noire, dans la mesure où la connaissance des éléments introduits dans la machine ne permet pas, même à celui qui a mis au point le système, de préjuger des combinaisons réalisées entre eux. Ce qui se passe à l’intérieur est complexe. La validité de la réponse et sa crédibilité reposent sur la confiance portée envers le système.
Le problème de fond, c’est que le système devient tellement complexe et autonome que l’humain ne peut pas vérifier directement sa réponse. Il faut en amont certifier que le système fonctionne bien.
Or, tester un système qui construit seul ses solutions n’est pas chose aisée. Il ne s’agit pas de valider une liste de cas, un par un, mais d’examiner un système conçu pour répondre à une infinité de situations différentes…alors que l’infinité ne se teste pas en séquence. La croissance de l’autonomie du système s’accompagne d’une baisse du contrôle de l’humain sur l’outil qu’il utilise (mais c’était bien l’intention initiale !).
Non seulement le comportement de l’IA devient a prioriimprédictible, mais il peut même demeurer a posterioriinexplicable ou très difficilement explicable.
En donnant des réponses ou en prenant des décisions, sans être capable de les justifier, l’IA en devient opaque.
Lorsqu’un algorithme prend une décision, le processus décisionnel devrait pourtant être transparent : on devrait par exemple savoir comment la décision a été prise. Peut-être certains éléments n’ont-ils pas été pris en compte ? Au contraire, certains éléments non pertinents ont-ils été pris en compte ? Peut-être le traitement même des éléments est-il biaisé sans que l’intéressé ne soit informé de ce biais ?
Si les décisions humaines ne sont pas nécessairement transparentes, il est toujours techniquement possible de dialoguer avec un humain. C’est bien plus difficile avec un algorithme fondé sur l’IA forte.
Ainsi, avant d’être juridiques, les enjeux de l’IA sont d’abord de nature éthique.
Par Me Omar YAHIA
SELARL YAHIA Avocats
Barreau de Paris
www.yahia-avocats.fr
Avez-vous apprécié ce contenu ?
A lire également.

Les Hôpitaux Confluence structurent leurs données de santé avec E-Confluence
16 jan. 2026 - 11:39,
Actualité
- Rédaction, DSIHLes Hôpitaux Confluence poursuivent leur transformation numérique avec la mise en place de E-Confluence, une plateforme dédiée à l’organisation et à l’exploitation des données de santé produites par leurs établissements. Cet outil marque une nouvelle étape dans la structuration des informations clin...

Le CHRU de Nancy lance DataStan, son Entrepôt de Données de Santé, pour une recherche responsable, sécurisée et transparente
14 jan. 2026 - 14:37,
Actualité
- Rédaction, DSIHLe CHRU de Nancy mettra en service, au cours du premier trimestre 2026, DataSTAN, son Entrepôt de Données de Santé (EDS). Ce projet, initié il y a plus de cinq ans, a pour objectif de faciliter les projets de recherche sur données de santé dans un cadre réglementaire et sécurisé, au bénéfice des pat...

TEHDAS2 : chantiers décisifs pour l’Espace européen des données de santé en 2026-2027
12 jan. 2026 - 22:25,
Actualité
- Rédaction, DSIHLa deuxième consultation publique du projet TEHDAS2 s’est clôturée le 30 novembre 2025, après avoir recueilli les contributions sur onze lignes directrices techniques clés. Portés par un consortium de 29 pays européens sous coordination finlandaise (Sitra), ces travaux visent à accompagner la mise e...
Ouverture de l’appel à projets de la deuxième phase du programme Hop’en 2
12 jan. 2026 - 22:00,
Actualité
- Damien DuboisLe 7 janvier 2026, le ministère chargé de la Santé a annoncé le lancement de la deuxième phase du programme Hop’en. Les candidatures sont ouvertes jusqu’au 13 février prochain.
