Inondations : Les données aussi
29 jan. 2018 - 15:29,
Tribune
- Thierry DumoulinAu secours, ça déborde !!
L’époque où le stockage des données bureautiques posait problème est largement dépassée. Les millions de fichiers Excel, Word ou Powerpoint sont des petits joueurs face aux images médicales, aux enregistrements audio, vidéo ou « électro » produits quotidiennement par les professionnels de nos hôpitaux. Qu’ils soient radiologues, généticiens, biologistes, chercheurs ou simplement responsables de la sécurité, leurs spécialités génèrent annuellement des dizaines voire des centaines de tera-octets de données qu’il faut stocker, sécuriser et surtout conserver. C’est là que les problèmes commencent.
Et si on faisait le ménage
Pas si simple. Qui a eu l’occasion de migrer une application métier historique vers une nouvelle application le sait bien. Aucun utilisateur, aucune Maîtrise d’Ouvrage n’est prête à renoncer à une reprise intégrale de ses anciennes données. Et quand les problèmes de transcription sémantique rendent impossible le transport des données d’un système vers l’autre on finit par conserver l’ancienne application « en lecture seule », au cas où ….
Evidemment, on se dit qu’on pourrait fixer une date limite : moins de 10 ans, 20 ans, 30 ans ?
Pas si simple
Archiver une base de données ou un fichier indéfiniment, finalement, ça ne pose pas vraiment de problème, en tout cas techniquement, mais surtout parce que les coûts ne sont pas assumés par les demandeurs mais par la DSI. On a beau expliquer que pour relire dans 50 ans un fichier ou une base de données il faudra archiver aussi l’application, ses licences (perpétuelles bien sûr), l’OS dans la bonne version et pour faire tourner tout ça, disposer d’une machine « vintage » en état de marche, rien n’y fait. On peut proposer d’archiver les données dans un format pérenne type PDF-A mais là encore cela nécessite des choix et des arbitrages que les métiers ne sont pas toujours prêt à faire, faute de temps.
Si vous pensez vous en sortir avec la réglementation, ce n’est pas gagné non plus. Je ne vois décemment pas un DSI dire à ses clients internes : la loi dit 10 ans donc moi j’efface tout après 10 ans et un jour !
La valeur de la donnée
L’informaticien basique que je suis se disait donc encore récemment que tout cela était du gâchis car en dehors de quelques cas spécifiques, très peu de données auraient encore de la valeur dans 30 ou 50 ans. C’était compter sans le Big Data !! Toutes ces masses de données qui finissent par s’empiler sans dessus-dessous dans nos baies de stockages, une fois leurs utilisateurs partis en retraite, pourront connaître une nouvelle vie à l’occasion d’un traitement qui détectera des signaux faibles dans cette masse gigantesque d’octets apparemment sans intérêt. Certes on ne sait pas encore faire cela sur des images ou des fichiers audio mais les méthodes d’apprentissage profond développées par les chercheurs en IA le feront certainement prochainement.
Pauvre planète
Du coup je ne vois pas comment sauver la planète de ces flots de données qui nécessitent de plus en plus de matières premières et d’énergie. Y aura-t-il un Noë pour nous construire une arche ? Peut-être… Le RGPD a prévu la fonction de DPO : Data Protection Officer. Pourquoi ne pas créer un DAO : Data Archiving Officer dont la mission serait de déterminer la valeur intrinsèque des données et la pérennité dans le temps de cette valeur. Dure mission certes, surtout qu’après lui…le déluge !
L'auteur :
Thierry Dumoulin est responsable du département Infrastructures numériques et services de proximité au CHU de Nantes. Ingénieur diplômé de l’École centrale de Nantes, où il intervient dans le cursus informatique, il a débuté sa carrière chez un grand constructeur avant de rejoindre les hôpitaux en 1997. Ses différentes missions (direction de projets, démarche qualité…) l’ont conduit à aborder un très large éventail de problématiques dans le domaine du numérique : aspects applicatifs, technologiques, méthodologiques et organisationnels, sécurité des SI.