L’IA, fossoyeur de l’IT ? Pas si simple, et certainement pas tout de suite

Sauf que cela ne s’est pas passé comme cela : le goulot d’étranglement dans la chaîne de production n’était pas (plus) la machine, mais l’humain qui la supervise, et un ouvrier n’a jamais que 2 yeux et 2 mains. Au final, il a fallu former tous les ouvriers à de nouvelles méthodes de travail, adapter les métiers à tisser aux possibilités de l’ouvrier qui les pilotait et cela a pris plusieurs décennies.
Dans le domaine du codage, on lit çà et là que l’IA va tuer le métier de développeur, et l’Histoire semble furieusement se répéter. La qualité du code produite par l’IA, qui certes s’améliore, est truffée de bugs et l’on ne peut pas faire contrôler le travail d’une IA par une autre IA car elles sont toutes les deux gouvernées par les mêmes paradigmes, soumises aux mêmes biais et donc laisseront passer les mêmes bugs.
Dans le domaine de l’humain qui pilote une IA produisant du code, le parallèle est assez saisissant : les humains vont se transformer de « codeurs » à « superviseurs », contrôlant le code produit plus qu’ils ne le produisent eux-mêmes. Il y a certes la question de l’assemblage de blocs de plus en plus gros (l’IA déchargeant le développeur des tâches répétitives et chronophages). On a déjà vécu cette transition lorsque l’on est passé des L1G (langages de première génération) aux L2G, puis aux L4G, et au final malgré toutes les promesses des concepteurs d’outils de développement, on finit par en demander 4 fois plus au développeur dont les outils lui permettent de doubler sa cadence, aucune raison que cela soit différent avec l’IA.
Comme pour les métiers à tisser, l’enjeu de formation dans le secteur de l’IT consiste à faire muter les compétences des primo-apprenants, et ce n’est pas gagné si l’on a en tête que le système scolaire n’est pas exactement un modèle d’agilité. La question est d’autant plus cruciale que les ouvriers du XIXe siècle avaient pour eux une expérience construite en se frottant à une machine, puis à deux, avant de voir arriver la troisième : là il s’agit de former des primo-apprenants qui, par définition, n’ont pas d’expérience, à une tâche de contrôle. Le voilà le véritable enjeu, du moins pour certaines professions dans l’IT.
Récemment, je tombe sur l’interview d’un ancien ministre de l’Éducation nationale qui racontait en plateau que, comme les emplois allaient tous disparaître, il fallait apprendre le grec et le latin pour meubler les longues journées à ne plus avoir à travailler. Bon, la bonne nouvelle c’est que c’est un ancien ministre qui a priori n’aura plus l’occasion de mettre en œuvre ce genre d’ineptie : comme à chaque fois, comme à chaque révolution technique, des métiers vont disparaître, d’autres vont très fortement muter (développeurs, radiologues, artistes musicaux, etc.), et d’autres vont apparaître, et le premier enjeu est de rapidement identifier lesquels et d’adapter le système éducatif (l’identification des critères pour identifier ces familles est un débat très complexe, qui nécessiterait des articles dédiés).
À la fin des années 90, avec l’irruption des L4G, on nous a bassiné qu’il n’y allait plus avoir besoin de développeurs : il n’y en a jamais eu autant.
À la fin des années 80, avec l’irruption de l’informatique dans la banque, un célèbre article annonçait que la banque serait la sidérurgie des années 2000 (au sens secteur sinistré) : il n’y a jamais eu autant d’employés dans les banques et le secteur n’a jamais généré autant de chiffre d’affaires.
Au début du XIXe siècle, le mouvement des luddites cassait les machines à tisser au motif qu’elles détruisaient l’emploi ouvrier. Une controverse célèbre eut lieu entre Ricardo et Sismondi, le premier défendant le progrès et la croissance, le second lui opposant cette vision célèbre dite de « la manivelle de Sismondi » : si au final il suffit avec l’automatisation au roi d’Angleterre de l’époque de tout produire en tournant une simple manivelle depuis sa chambre, cela en était fini de l’économie.
Je vous laisse deviner qui s’est largement planté et qui a vu juste, même 2 siècles plus tard.
Bref, comme à chaque fois, la question n’est pas de savoir si le travail va disparaître (vous et moi mangerons les pissenlits par la racine que le travail n’aura pas disparu) mais comment la production de valeur va-t-elle se déplacer, qui va la capter, comment elle sera redistribuée et comment l’anticiper. Comme à chaque fois.

Cédric Cartau
Avez-vous apprécié ce contenu ?
A lire également.

Dernières actualités juridiques en matière d’IA
31 mars 2026 - 08:26,
Tribune
-Adopté le 13 juin 2024, le Règlement européen sur l'intelligence artificielle (RIA) vise à garantir que les systèmes d'intelligence artificielle commercialisés ou utilisés dans l'Union européenne respectent les droits fondamentaux des citoyens, tout en favorisant l'innovation.

L'hôpital Saint Joseph et Galeon lancent le défi d’un déploiement DPI en 9 mois
10 mars 2026 - 09:23,
Communiqué
- GaleonL’Hôpital Saint Joseph de Marseille et l’éditeur Galeon annoncent le démarrage officiel du déploiement du Dossier Patient Intelligent (DPI) à l’échelle de l’établissement. Ce projet d’envergure s’accompagne d’un défi rare dans le secteur de lasanté : une migration complète du système d’information c...

Les grandes tendances des systèmes d’information hospitaliers en 2026
09 mars 2026 - 09:40,
Tribune
-L’an dernier, nous présentions plusieurs tendances des systèmes d’information hospitaliers : cybersécurité, convergence des SI dans les GHT, données de santé, intelligence artificielle ou interopérabilité.

L’Occident se fracasse sur Seedance – la cyber face au paradigme de Robin des Bois
24 fév. 2026 - 08:18,
Tribune
-Impossible de le rater si on s’intéresse un minimum aux évolutions de l’IA : le logiciel Seedance(1), IA spécialisée dans la génération de vidéo d’un réalisme époustouflant, déclenche la colère des Majors américaines : Warner, Disney, Netflix, etc.
