Publicité en cours de chargement...
Un cadre éthique pour le développement de l’IA
19 déc. 2017 - 09:16,
Actualité
- DSIH,@lehalleSa présidente, Isabelle Falque-Pierrotin (photo ci-contre), en a rappelé l’objectif : « Garantir que l’intelligence artificielle augmente l’homme plutôt qu’elle ne le supplante et participe à l’élaboration d’un modèle français de gouvernance éthique de l’IA. Nous devons collectivement faire en sorte que ces nouveaux outils soient à la main humaine, à son service, dans un rapport de transparence et de responsabilité. »
Loyauté et vigilance
La Commission affirme à cette occasion deux principes fondateurs qui devront cadrer le développement des IA : loyauté et vigilance.
Reprenant une définition du Conseil d’État(2) (« la loyauté consiste à assurer de bonne foi le service de classement ou de référencement, sans chercher à l’altérer ou à le détourner à des fins étrangères à l’intérêt des utilisateurs »), la Cnil insiste sur l’utilité de son élargissement en précisant la notion d’« intérêt des utilisateurs » et en prenant en compte une dimension collective. Mais elle s’interroge également sur une terminologie, « loyauté des algorithmes », qui perd, avec la montée en puissance du machine learning, « une part de sa portée dès lors que l’algorithme se comporte d’une façon qui reste opaque à ses concepteurs ».
Quant au principe de vigilance, il vise à maîtriser l’instabilité et l’imprévisibilité des algorithmes dans la durée, mais aussi à contrebalancer une confiance excessive et une déresponsabilisation qui seraient favorisées par leur caractère de « boîte noire ».
Au-delà des principes, sixrecommandations opérationnelles sont déclinées (en encadré).
Ces réflexions vont nourrir la mission Villani qui a prévu de remettre ses conclusions début février. Rappelons que cette mission a vocation à éclairer le gouvernement dans l’élaboration d’une stratégie française en matière d’intelligence artificielle.
Lors de la présentation de son rapport d’étape, fin novembre, elle précisait sa vision d’un « enjeu éthique crucial pour le développement de l’IA. De lui dépendra en grande partie l’acceptation de ces technologies par les citoyens. La mission s’intéressera donc aux modalités d’une gouvernance de l’éthique de l’IA et s’attachera à décliner quelques propositions ».
Le Conseil national de l’Ordre des médecins ne sera pas non plus en reste pour alimenter de ses recommandations pouvoirs publics, professionnels et citoyens dans leur ensemble : adoptées mi-décembre, elles seront diffusées fin janvier.
Six recommandations opérationnelles
- Former à l’éthique tous les acteurs-maillons de la « chaîne algorithmique » (concepteurs, professionnels, citoyens) : l’alphabétisation au numérique doit permettre à chaque humain de comprendre les ressorts de la machine ;
- Rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs ;
- Travailler le design des systèmes algorithmiques au service de la liberté humaine, pour contrer l’effet « boîtes noires » ;
- Constituer une plateforme nationale d’audit des algorithmes ;
- Encourager la recherche sur l’IA éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général ;
- Renforcer la fonction éthique au sein des entreprises (par exemple, l’élaboration de comités d’éthique, la diffusion de bonnes pratiques sectorielles ou la révision de chartes de déontologie peuvent être envisagées).
(1)
(2) Dans Le numérique et les droits fondamentaux, étude annuelle, 2014.