Publicité en cours de chargement...
Libres propos sur l’intelligence artificielle (volet 2)
Si les retombées économiques et financières s’annoncent prometteuses, les enjeux éthiques se révèlent fondamentaux.
À cet égard, la mission d’information sur la révision de la loi de bioéthique consacre, dans son rapport, un chapitre entier à l’intelligence artificielle (IA) et préconise l’introduction dans la loi de la « garantie humaine » du numérique en santé et « l’explicabilité des algorithmes ».
Présentée comme le socle du développement de l’IA, la « garantie humaine » est définie par le Comité consultatif national d’éthique et des sciences de la vie (CCNE) comme étant « la garantie d’une supervision humaine de toute utilisation du numérique en santé, et l’obligation d’instaurer pour toute personne le souhaitant et à tout moment, la possibilité d’un contact humain en mesure de lui transmettre l’ensemble des informations la concernant dans le cadre de son parcours de santé ». Cette « garantie humaine » nécessiterait de « préserver la maîtrise finale du professionnel de santé, en interaction avec le patient, pour prendre les décisions appropriées en fonction de chaque situation spécifique ».
Lors de son audition, le député Cédric Villani a expliqué que le médecin devrait « pouvoir connaître les facteurs déterminants qui, parmi la multitude des données prises en compte par l’algorithme, ont fait pencher la balance du diagnostic d’un côté ou de l’autre », d’après son rapport sur l’IA.
C’est précisément toute la difficulté !
Le système d’IA fonctionne comme une boîte noire, dans la mesure où la connaissance des éléments introduits dans la machine ne permet pas, même à celui qui a mis au point le système, de préjuger des combinaisons réalisées entre eux. Ce qui se passe à l’intérieur est complexe. La validité de la réponse et sa crédibilité reposent sur la confiance portée envers le système.
Le problème de fond, c’est que le système devient tellement complexe et autonome que l’humain ne peut pas vérifier directement sa réponse. Il faut en amont certifier que le système fonctionne bien.
Or, tester un système qui construit seul ses solutions n’est pas chose aisée. Il ne s’agit pas de valider une liste de cas, un par un, mais d’examiner un système conçu pour répondre à une infinité de situations différentes…alors que l’infinité ne se teste pas en séquence. La croissance de l’autonomie du système s’accompagne d’une baisse du contrôle de l’humain sur l’outil qu’il utilise (mais c’était bien l’intention initiale !).
Non seulement le comportement de l’IA devient a prioriimprédictible, mais il peut même demeurer a posterioriinexplicable ou très difficilement explicable.
En donnant des réponses ou en prenant des décisions, sans être capable de les justifier, l’IA en devient opaque.
Lorsqu’un algorithme prend une décision, le processus décisionnel devrait pourtant être transparent : on devrait par exemple savoir comment la décision a été prise. Peut-être certains éléments n’ont-ils pas été pris en compte ? Au contraire, certains éléments non pertinents ont-ils été pris en compte ? Peut-être le traitement même des éléments est-il biaisé sans que l’intéressé ne soit informé de ce biais ?
Si les décisions humaines ne sont pas nécessairement transparentes, il est toujours techniquement possible de dialoguer avec un humain. C’est bien plus difficile avec un algorithme fondé sur l’IA forte.
Ainsi, avant d’être juridiques, les enjeux de l’IA sont d’abord de nature éthique.
Par Me Omar YAHIA
SELARL YAHIA Avocats
Barreau de Paris
www.yahia-avocats.fr
Avez-vous apprécié ce contenu ?
A lire également.

MentalTech, vers un Observatoire français de la e-santé mentale
02 juin 2025 - 22:20,
Actualité
- Damien Dubois, DSIHLe 21 mai, le collectif MentalTech a annoncé l’arrivée de dix nouveaux membres et dévoilé sa feuille de route 2025 avec pour ambition de s’affirmer comme l’Observatoire de la e-santé mentale.

Vu à SantExpo 2025 : le CHU d’Amiens obtient l’accord officiel des archives départementales pour son Système d’Archivage Electronique avec la solution HYDMedia de Dedalus
26 mai 2025 - 15:41,
Actualité
- Pauline Nicolas, DSIHLors d’une session au sein de l’auditorium Dedalus, Jacques Delamarre, Responsable Parcours Patient au CHU d’Amiens a témoigné de la genèse qui a conduit à l’adoption de la solution SAE HYDMedia de Dedalus dans son établissement et des principaux apports de cette solution. Un SAE doit intégrer un l...

L’Académie de l’IA en santé de la FEHAP
26 mai 2025 - 11:27,
Actualité
- Damien Dubois, DSIHLe 21 mai 2025, lors de SantExpo, la FEHAP a annoncé le déploiement opérationnel de son plan d’actions pour son Académie de l’IA en santé.

CHU de Montpellier : « Pionnier de l’IA générative, notre hôpital traduit cette innovation dans toutes ses missions »
23 mai 2025 - 11:50,
Actualité
- Mathilde Debry, DSIHSantExpo 2025 – Paris. Le 22 mai, la directrice générale du CHU de Montpellier Anne Ferrer a détaillé dans une interview pourquoi et comment l’IA générative gagne progressivement toutes les strates de son établissement.