Publicité en cours de chargement...

Publicité en cours de chargement...

Publicité en cours de chargement...

Quelle responsabilité juridique pour l’IA – la vision juridique, partie 2

11 juin 2019 - 11:37,
Tribune - Marguerite Brac de La Perrière
Dans une première partie, nous avons examiné la question du régime juridique des voitures autonomes. Intéressons-nous maintenant au régime de responsabilité pour les algorithmes.

A titre liminaire, la garantie légale des vices cachés au titre de laquelle « Le vendeur est tenu de la garantie à raison des défauts cachés de la chose vendue qui la rendent impropre à l'usage auquel on la destine, ou qui diminuent tellement cet usage que l'acheteur ne l'aurait pas acquise, ou n'en aurait donné qu'un moindre prix, s'il les avait connus [1] »pourrait trouver à s’appliquer mais ne semble pas évidente à invoquer dans la mesure où elle suppose en particulier que le défaut ait existé à la date d’achat -ce qui en matière d’algorithme apprenant est incertain-.

Restent plusieurs régimes de responsabilité pouvant fonder des actions, en fonction du contexte, notamment selon que la victime a une relation contractuelle ou non avec le concepteur ou producteur, et selon le degré d’autonomie de l’algorithme. En premier lieu, la responsabilité contractuelle. Dans l’hypothèse d’une relation contractuelle, « le débiteur est condamné, s'il y a lieu, au paiement de dommages et intérêts soit à raison de l'inexécution de l'obligation, soit à raison du retard dans l'exécution, s'il ne justifie pas que l'exécution a été empêchée par la force majeure.» [2]
Dans cette hypothèse, la responsabilité et l’obligation de réparation d’un éventuel préjudice est fonction des stipulations contractuelles, notamment celles définissant les prérequis, le service attendu et les conditions d’utilisation, et celles délimitant la responsabilité des parties et la réparation du préjudice.
Le cas d’usage serait celui, par exemple, d’un établissement souscrivant à un service SaaS d’aide à la décision médicale, dont l’utilisation conduirait à la survenance un dommage. Le patient pourrait engager la responsabilité de l’établissement, lequel pourrait alors engager une action récursoire en responsabilité contractuelle du fournisseur du service, dans les limites du contrat conclu avec lui. A nouveau, la rédaction et lecture attentive des stipulations contractuelles est de rigueur.  

En second lieu, la responsabilité délictuelle. En dehors de toute relation contractuelle, c’est la responsabilité civile délictuelle de droit commun qui pourrait s’appliquer : « On est responsable non seulement du dommage que l'on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l'on a sous sa garde.» [3]. La première question est celle de savoir si l’algorithme est assimilable à une chose que l’on a sous sa garde.
Dans l’affirmative, la responsabilité ferait peser le poids de la réparation sur le gardien de la chose, lequel est celui qui est investi des pouvoirs d’usage, de direction et de contrôle.
Ainsi, l’utilisateur de l’algorithme, comme de n’importe quelle chose, pourrait voir sa responsabilité engagée en cas de sinistre survenant dans le cadre de son utilisation.
Toutefois ce serait nier la spécificité de l’algorithme tenant à son autonomie, à son intelligence artificielle justement. Comment un utilisateur dépossédé, même partiellement, de son pouvoir de contrôle et de direction pourrait-il être tenu pour responsable de sa défaillance ?
Il faudrait donc distinguer la garde de la structure (l’algorithme ?), et celle du comportement de l’algorithme. Resterait alors à déterminer qui du concepteur de l’algorithme, du développeur de l’algorithme, et de l’utilisateur – duquel l’objet aurait tiré son apprentissage – détenait effectivement la garde du comportement au moment du sinistre.

Enfin, dernier axe d’analyse, la responsabilité du fait des produits défectueux. Au titre de la responsabilité du fait des produits défectueux, prévue aux articles 1245 et suivants nouveaux du code civil, la victime du dommage causé par un objet connecté serait fondée à agir contre le « producteur », sans avoir à identifier le véritable responsable du sinistre.
Toutefois, il faudrait préalablement trancher les questionnements ayant trait à l’application de ce régime aux biens immatériels. En effet, le texte dispose « Le producteur est responsable du dommage causé par un défaut de son produit, qu'il soit ou non lié par un contrat avec la victime.» [4], mais définit le produit comme un bien meuble [5].
A supposer que cette problématique soit résolue, une victime pourrait librement engager la responsabilité du producteur, lequel est très largement défini puisqu’il peut aussi bien s’agir du fabricant du produit fini ou d’une partie composante, du producteur d’une matière première, de celui qui appose sa marque et même, et dans l’hypothèse où le « producteur » ainsi défini ne pourrait être identifié, du vendeur ou du fournisseur du produit défectueux. L’indemnisation de la victime supposerait alors qu’elle démontre le caractère défectueux du produit, c’est-à-dire son incapacité à offrir la sécurité à laquelle elle pouvait légitimement s’attendre, et le fait qu’il soit à l’origine du dommage.
Cependant l’algorithme évoluant au fil de l’utilisation qu’en fait son utilisateur, l’origine du dommage pourrait ne pas être l’algorithme mais son utilisation par l’utilisateur. Or, dès lors que le défaut du produit est postérieur au moment de sa mise en circulation, le recours au régime de la responsabilité du fait des produits défectueux est exclu. De même encore, l’article 1245-10 nouveau du code civil écarte la responsabilité de plein droit du producteur, lorsque l’état des connaissances scientifiques et techniques au moment où le produit a été mis en circulation ne permettait pas de déceler le défaut du produit. Les fabricants des objets innovants pourraient utilement se prévaloir de cette exclusion du risque de développement.

Pour conclure, si les régimes de responsabilité actuels peuvent a priori fonder des actions en responsabilité, leur mise en œuvre s’annonce pour le moins délicate. Aussi, l’instauration d’un régime de responsabilité propre – telle qu’il se dessine pour les véhicules autonomes – et auquel seraient attachées des garanties d’assurance spécifiques, pourrait offrir une meilleure lisibilité et sécurité juridique.

L'auteur 

Margeurite-Brac-de-la-PerriereMarguerite Brac de La Perrière
Avocate, directrice du département santé numérique
Lexing Alain Bensoussan Avocats


[1] Art. 1641 code civil

[2] Art.1231-1 code civil 

[3] Art. 1242 code civil 

[4] Art. 1245 code civil 

[5] Art. 1245-2 code civil

Avez-vous apprécié ce contenu ?

A lire également.

Illustration L’IA générative en santé : un outil prometteur, à utiliser de manière responsable

L’IA générative en santé : un outil prometteur, à utiliser de manière responsable

30 oct. 2025 - 11:15,

Communiqué

- HAS

Face à l’expansion rapide des systèmes d’intelligence artificielle (IA) générative – tels que Mistral AI, CoPilot ou ChatGPT – la HAS publie ses premières clés pour un usage responsable de ces technologies dans les secteurs sanitaire, social et médico-social. Ce guide concis et pédagogique, destiné ...

Illustration Horizon Santé 360 : des promesses concrètes de l’innovation en santé

Horizon Santé 360 : des promesses concrètes de l’innovation en santé

27 oct. 2025 - 11:04,

Actualité

- Pauline Nicolas, DSIH

Après une matinée centrée sur la souveraineté et les perspectives stratégiques du groupe La Poste Santé & Autonomie et de ses expertises, l’après-midi d’Horizon Santé 360 a laissé place à la mise en pratique avec ateliers riches et inspirants où l’innovation a pu se déployer tout autant qu’être soum...

Illustration « Restons maîtres de notre destin » - La souveraineté, l’innovation et la résilience du système de santé comme thématiques clés de la matinée Horizon Santé 360

« Restons maîtres de notre destin » - La souveraineté, l’innovation et la résilience du système de santé comme thématiques clés de la matinée Horizon Santé 360

20 oct. 2025 - 15:51,

Actualité

- Par Pauline Nicolas, DSIH

La 3ème édition d’Horizon Santé 360 s’est ouverte le jeudi 9 octobre 2025 et a réuni plus de 550 acteurs du secteur de la santé (établissements de santé, industrie pharmaceutique, institutionnels, consultants, industriels, start-up). Cette journée a débuté par une conférence introductive de Dominiqu...

RGPD et cyber : l’ouverture de la chasse à la bécasse et à la galinette cendrée[1]

20 oct. 2025 - 13:47,

Tribune

-
Cédric Cartau

En l’espace d’une semaine, je tombe sur deux « news » de la planète RGPD/RSSI, à propos desquelles on se demande comment les organisations impliquées ont bien pu « en arriver là » – sans conséquences gravissimes, heureusement.

Lettre d'information.

Ne manquez rien de la e-santé et des systèmes d’informations hospitaliers !

Inscrivez-vous à notre lettre d’information hebdomadaire.