Intelligence artificielle : construire la confiance, renforcer les compétences
Écouter l'article

Une adoption en pleine accélération
L’IA est déjà, ou sera très prochainement, présente dans la quasi-totalité de nos établissements de santé. Selon le baromètre de la Fédération hospitalière de France (FHF), 35 % des établissements déclarent aujourd’hui utiliser des solutions d’IA en production, tandis que 90 % prévoient un déploiement d’ici à trois ans, contre seulement 10 % qui n’envisagent pas d’y recourir.
Mais ce déploiement massif s’accompagne de nombreuses interrogations. Une enquête conduite en 2025 par Hub France IA auprès de 1 000 utilisateurs met en évidence les principaux freins : sécurité et cybersécurité (63,2 %), fiabilité et performances (56,5 %), absence de régulation claire (50,4 %), manque de compétences spécialisées (47 %), coûts et complexité d’intégration (41,8 %).
Comme toute enquête d’opinion, ces résultats ne visent pas à établir une vérité absolue, mais reflètent avant tout les perceptions et les craintes des utilisateurs. Ils traduisent les peurs face à une technologie encore en construction.
Fiabilité et compétences, les deux piliers de la confiance
Deux obstacles méritent une attention particulière : la fiabilité des systèmes d’IA et le déficit de compétences spécialisées. Aucune méthode, aucun outil n’est fiable à 100 %, qu’il s’agisse du champ médical ou, plus largement, des sciences. C’est la connaissance approfondie de leurs limites et de leurs conditions d’usage qui rend leur application pertinente et sûre. Or, cette maîtrise repose sur la formation des professionnels chargés d’utiliser ou de superviser ces systèmes. Sans compétences solides, difficile de développer la confiance nécessaire.
En France, le référentiel national de compétences numériques en santé, entré en vigueur en 2024, prévoit 28 heures de formation pour 12 professions de santé — médecins, pharmaciens, sage-femmes, dentistes, infirmiers, kinésithérapeutes, orthophonistes, orthoptistes, etc. Mais, à ce jour, l’intelligence artificielle n’y figure pas encore comme module systématique. De plus, ces professionnels rejoindront nos structures au plus tôt en 2028.
Former les professionnels déjà en poste
L’enjeu est désormais de former les professionnels déjà en poste dans les établissements, de manière agile et adaptée aux réalités de chaque métier : du soin à l’encadrement, jusqu’aux instances de gouvernance. Chaque acteur doit disposer de repères solides pour en faire un usage pertinent :
- Le soignant doit concilier respect du RGPD et secret professionnel
- Le médecin doit questionner les données d’entraînement afin de repérer d’éventuels biais
- Le directeur doit intégrer les enjeux réglementaires et stratégiques dans sa gouvernance
Ce n’est qu’une fois les professionnels sensibilisés et outillés à tous les niveaux que l’on pourra viser un usage éclairé de l’IA dans les soins, engager des débats de fond sur les enjeux éthiques et réglementaires, et développer des projets d’IA véritablement au service de l’humain.
Dans cette perspective, Weliom propose des parcours de formation à l’IA spécifiquement axés sur les métiers : du soignant au responsable qualité, de l’encadrement aux directeurs des systèmes d’information et des établissements. Il s’agit de formations condensées et ciblées, conçues pour accompagner les professionnels tout en aiguisant leur esprit critique.
Il n’est plus temps de s’interroger sur le bien-fondé de l’IA, mais bien de comprendre comment l’intégrer dans le respect de nos valeurs, car elle est déjà dans nos établissements et au chevet de nos patients.

Nausica MAIORCA
Manager chez Weliom
Avez-vous apprécié ce contenu ?
A lire également.

La cyber face au défi des modèles mentaux
14 avril 2026 - 08:41,
Tribune
-Un modèle mental, c’est un prisme au travers duquel nous regardons la réalité. Des lunettes filtrantes si vous préférez.

Comment quantifier un risque
31 mars 2026 - 08:06,
Tribune
-Après avoir expliqué qu’une PSSI et une appréciation des risques ne servaient à rien (ici 1) -mais un peu quand même -, intéressons-nous à un autre sujet brûlant qui déchaîne les passions, pire que JR (2) et la fin du Prisonnier (3) : la quantification du risque.
Refuser de donner son mot de passe lors d’un arrêt maladie serait seulement un problème de désobéissance ? Bullshit.
22 sept. 2025 - 22:16,
Tribune
-Vous l’avez certainement vu passer, cet article [1] d’acteurspublic.fr qui commente la décision d’un tribunal administratif et qui affirme que « Refuser de donner son mot de passe lors d’un arrêt maladie peut être assimilé à de la désobéissance ». Sauf que l’histoire est un tantinet plus complexe e...

Imprivata, éditeur international de solutions de gestion des accès, se développe sur le marché français pour répondre à la demande croissante en matière de sécurité et de conformité
22 sept. 2025 - 22:42,
Communiqué
- ImprivataImprivata, un éditeur international de logiciels, spécialisé dans la gestion des accès et des identités numériques pour le secteur de la santé et d’autres secteurs critiques, vient d’annoncer son expansion en France afin de répondre au besoin croissant d’améliorer leur sécurité et de se conformer au...
