Publicité en cours de chargement...
Utiliser les outils à bon escient, dans la sécurité des systèmes d'information autant qu'ailleurs
Un des arguments des tenants de cette méthode (en dehors du nombre de jours qu’ils vont vous facturer s’il s’agit de consultants) est qu’avec une «bonne» méthode (au hasard EBIOS) on est certain de ne rater aucun risque. C’est deux fois faux: sur le plan conceptuel et empiriquement.
Sur le plan conceptuel d’abord, parce que toute méthode part de postulats (axiomes) pour inférer des résultats. Or, le choix de postulats et de la façon d’inférer exclut forcément des cas à la marge ou «dans les trous de la raquette». Rien d’étonnant à cela: une méthode, c’est un point de vue, une approche d’un problème. Et selon le point de vue, on ne voit pas tous la même chose.
Empiriquement surtout. À titre personnel j’ai eu l’occasion, dans quelques cas ciblés, de dérouler à la fois une EBIOS et une méthode «de bon sens» (et totalement conforme ISO 27005). Dans certains cas, c’est EBIOS qui ratisse le plus large, dans d’autres non.
Toutes les grandes catastrophes technologiques depuis un siècle auraient échappé à une analyse formalisée, et ceci pour trois raisons. Tout d’abord, les méthodes formelles ne sont pas calibrées pour calculer l’impact de la survenance simultanée de deux événements. C’est ce qui s’est passé à Fukushima: la centrale nucléaire était construite pour résister à un tsunami et à un séisme, mais pas aux deux simultanément. Ensuite, l’expérience montre que la probabilité d’occurrence des catastrophes est presque toujours sous-estimée. Au début du nucléaire civil, la probabilité de sinistre sur un réacteur avait été chiffrée à 1 pour 1 million (soit sur un parc mondial de 500 réacteurs une panne tous les 2000 ans) alors qu’il y a eu en moins de 70 ans trois pannes majeures.
Enfin, le facteur humain est toujours ignoré. Sans la bêtise d’un technicien qui a envoyé de l’air dans le tunnel au lieu de faire l’inverse, il n’y aurait peut-être pas eu autant de morts dans l’incendie du tunnel du mont Blanc.
Pour finir, je ne résiste pas au plaisir de caser l’argument ultime: toute méthode est un système formel, et depuis Gödel on sait que les systèmes formels sont incomplets (c’est-à-dire non-autojustifiables dans le cas présent).
Presses de l'EHESP (www.presses.ehesp.fr) en mai 2012
Avez-vous apprécié ce contenu ?
A lire également.

L’Occident se fracasse sur Seedance – la cyber face au paradigme de Robin des Bois
24 fév. 2026 - 08:18,
Tribune
-Impossible de le rater si on s’intéresse un minimum aux évolutions de l’IA : le logiciel Seedance(1), IA spécialisée dans la génération de vidéo d’un réalisme époustouflant, déclenche la colère des Majors américaines : Warner, Disney, Netflix, etc.

L’approche Calimero de la filière logicielle : quand un responsable passe à côté des enjeux industriels et regarde le doigt plutôt que la lune
10 fév. 2026 - 08:14,
Tribune
-Je suis tombé sur une interview [1] de très bon niveau sur BFM Business : celle de Michel Paulin, président de la filière Logiciels et solutions numériques de confiance, ancien patron d’OVHcloud et de SFR, sur les rapports entre la souveraineté numérique, le rôle de l’État et de la commande publique...

Pourquoi le parcours patient n’existe pas (encore)
02 fév. 2026 - 21:08,
Tribune
-Le parcours patient est devenu un mot-clé, presque un slogan. Il est omniprésent dans les discours stratégiques, les projets d’établissement et les feuilles de route numériques. Pourtant, dans les hôpitaux, il reste largement invisible. Les patients ressentent des ruptures, des lenteurs, des incohér...

2026 : la fin de l’Espace, du Temps et de la Vie privée
27 jan. 2026 - 08:37,
Tribune
-Cédric Cartau analyse comment le Fichier national automatisé des empreintes génétiques (Fnaeg), initialement conçu pour lutter contre la criminalité sexuelle, est devenu en moins de 30 ans un outil de fichage de masse. En s’appuyant sur l’essor de la recherche par parentèle, il interroge les conséqu...
