Publicité en cours de chargement...
Libres propos sur l’intelligence artificielle (volet 1)
Les établissements de santé et les professionnels de santé (comme la société tout entière) se trouvent en effet confrontés à un changement de paradigme provoqué par des données chaque jour plus volumineuses, complexes (génomiques, physiologiques, biologiques, cliniques, sociales, etc.), hétérogènes (textes, valeurs numériques, signaux, images 2D et 3D, séquences génomiques, etc.). C’est sans filtre que cette avalanche se déverse sur les acteurs concernés qui doivent dès lors intégrer de plus en plus de variables à leur pratique.
D’où l’apparition de l’expression « big data » (BD), désignant des ensembles de données devenus si volumineux qu’ils dépassent les capacités humaines et informatiques d’analyses classiques. Cette révolution se caractérise par le triptyque des 3V : vitesse, variété et volume.
Nécessaires mais non suffisantes, les données doivent être exploitées à l’aide d’un outil, l’algorithme, qui peut se définir comme la description d’une suite finie et non ambiguë d’étapes (ou d’instructions) permettant d’obtenir un résultat à partir d’éléments fournis en entrée. L’exemple particulièrement évocateur de la recette de cuisine est éloquent car la recette permet d’obtenir un plat à partir d’ingrédients.
L’algorithme peut être exprimédans un langage informatique, transcrit en un programme, lequel peut ensuite être exécutédans un logiciel ou compilé sous la forme d’une application. Un seul logiciel peut avoir recours à plusieurs algorithmes.
La véritable révolution tient, d’une part, à la percée des nouvelles technologies d’analyse associées aux BD et, d’autre part, à l’automatisation de certaines décisions prospectives en s’appuyant sur une expérience rétrospective connue. Ce sont les fameux algorithmes de machine learningqui se présentent comme des systèmes d’aide à la décision médicale (SADM) en se basant sur l’apprentissage de données rétrospectives dont le résultat est connu.
À ce stade, on distingue l’apprentissage automatique de l’apprentissage profond.
L’apprentissage automatique (ou machine learning) n’est qu’une technique d’IA, parmi d’autres. Il serait d’ailleurs plus juste de parler « d’expérience artificielle » puisqu’elle bâtit des modèles corrélationnels à partir des observations passées. On voit déjà une première limite entre corrélation et causalité.
L’apprentissage profond (oudeep learning) en est une variante très sophistiquée, inspirée du fonctionnement d’un réseau organique de neurones. Il est alors question d’IA dès lors qu’un algorithme est conçu de telle sorte qu’il est en mesure d’évoluer dans le temps, en fonction des données qui lui sont fournies.
La conjonction d’un réseau de neurones profond et de données d’apprentissage massives rend, en effet, le comportement de l’IA infiniment plus complexe qu’un système automatisé traditionnel.
Sur le terrain, les résultats découlant de la mise en œuvre de l’IA se révèlent déjà prometteurs.
Des logiciels aux performances sensiblement similaires à celles des radiologues, dermatologues ou encore oncologues ont ainsi pu être développés grâce à de grands volumes de données rétrospectives. Par exemple, des revues rapportent qu’une équipe de l’université de Stanford, aux Etats-Unis, a conçu un outil capable de détecter les signes d’un cancer de la peau, avec une spécificité et une sensibilité équivalentes à celles des dermatologues. Les chercheurs se sont appuyés sur un logiciel créé par Google capable d’analyser le contenu de près de 130.000 images, en les classant par catégories. À travers l’étude, l’IA a « appris » à faire la différence entre plus de 2.000 pathologies. La fiabilité du logiciel a égalé celle des spécialistes en identifiant des tumeurs malignes et des taches bénignes dans respectivement 96 et 90% des cas contre 95 et 76%.
On pourrait multiplier les exemples de ce type.
Mais en Europe, et plus particulièrement en France, se posent des interrogations juridiques (et éthiques). L’IA représente un véritable défi pour le droit tant de la protection des données que celui de la responsabilité, sans parler de la relation soignant/soigné.
Concrètement, qui serait responsable si le robot chirurgical provoquait une lésion irréparable au patient ? Peut-on reprocher au médecin d’avoir utilisé et de s’être fié à un système d’IA ? Imaginons une personne handicapée suivie à domicile qui se verrait poussée par un robot devenu agressif, provoquant des fractures : que se passerait-il ?
De nombreuses questions émergent. Mais ce sera l’objet d’un prochain volet.
Par Me Omar YAHIA
SELARL YAHIA Avocats
Barreau de Paris
www.yahia-avocats.fr
Avez-vous apprécié ce contenu ?
A lire également.

Un guide pratique qui simplifie tout (vraiment!)
29 avril 2025 - 11:12,
Communiqué
- Collectif SI MS BretagneLe Collectif Système d’Information Médico-Social de Bretagne dévoile son guide pratique du numérique pour les structures sociales et médico-sociales.

Les SI de santé : c’est tout de même assez dingue en 2025 que…
28 avril 2025 - 21:51,
Tribune
-Forcément, dans la cyber on voit passer quasiment tous les projets IT d’une organisation : en principe, ils doivent tous suivre une étape d’homologation, sans parler de ceux qui mettent en œuvre des traitements RGPD enclenchant mécaniquement et a minima une inscription à un registre interne.

Ouverture des appels à projets d’ESMS numérique
28 avril 2025 - 21:34,
Actualité
- DSIH, Damien DuboisEn cours de généralisation, le programme ESMS numérique a fait l’objet d’une instruction ministérielle le 16 avril portant sur les appels à projets régionaux et nationaux.

Les outils numériques sont-ils réellement adaptés aux patients ayant plusieurs maladies chroniques ?
28 avril 2025 - 11:08,
Communiqué
- AP-HPLes applications numériques en santé sont conçues pour surveiller, traiter et accompagner les patients, mais elles ne tiennent souvent pas compte de ceux atteints de plusieurs maladies chroniques. Une étude, menée par le Pr Viet-Thi Tran (Université Paris Cité / AP-HP) et Ngan Thi Thuy Phi (Universi...