Dark Data : pourquoi le traitement des données doit changer radicalement

Tous les ans, à l'approche de la nouvelle année, les évolutions pour l'année à venir sont colportées, parfois avec plus, parfois avec moins de pertinence. Toutefois, lorsqu'il s'agit d'aborder le phénomène très répandu et risqué des dark data, les tendances habituelles ne peuvent pas être simplement reconduites. Pourquoi en est-il ainsi ?

Déplacer les données vers le cloud - ou vers un trou noir ? Les dark data deviennent de plus en plus un problème. (Image symbolique / Unsplash.com)

La période de l'Avent n'est pas seulement celle du vin chaud. Les prévisions, les perspectives et les pronostics ont également le vent en poupe pendant les semaines précédant Noël. Mais presque toujours, ils ne font qu'extrapoler ce qui s'est déjà dessiné au cours de l'année écoulée. Avec le thème des Dark Data, il s'agit plutôt de mettre à l'envers les convictions courantes et de les éclairer d'un œil critique. C'est ce qu'a fait l'entreprise Aparavi, basée à Zoug, un fournisseur de solutions pour l'intelligence des données et l'automatisation :

  1. Le cloud avale tout si nécessaire : Cette approche n'est pas seulement ignorante, elle est également coûteuse, peu durable et potentiellement dangereuse. Celui qui se contente de déplacer ses pools de données non structurées débordantes vers le cloud ne résout aucun problème, il ne fait que le déplacer quelque part - au sens propre du terme.
  2. Beaucoup aide beaucoup : Plus une entreprise stocke de données, mieux c'est. Ce sont tous des trésors de données, non ? Mais non ! Elles peuvent être un fardeau à plus d'un titre. Une entreprise assise sur des téraoctets de données non structurées ne peut pas savoir tout ce qui s'y cache. Et une grande partie d'entre elles sont superflues et potentiellement à risque en raison de données personnelles et d'informations critiques pour la sécurité.
  3. La durabilité, c'est quand le gaspillage n'est pas visible : Les pools de données non structurées qui débordent nécessitent des téraoctets d'espace de stockage. Mais ceux-ci sont invisibles dans la propre cave ou cachés chez le fournisseur d'accès et ne provoquent pas d'émissions visibles. En fait, il est dommage qu'il n'y ait pas de stations de mesure du CO2 aux carrefours de données particulièrement fréquentés. On comprendrait alors rapidement que le big data est aussi un big waste - et qu'il faut enfin agir. 
  4. La sécurité, c'est quand il ne s'est encore rien passé : Les informations alarmantes sur les violations de données, même au sein de groupes cotés en bourse, ne réveillent étonnamment pas les gens, mais les endorment. Comme si cela réduisait la probabilité d'être soi-même pris. Erreur ! Personne ne sait exactement quels risques de sécurité et de conformité se cachent dans les pools de données non structurés. Si l'on veut à nouveau dormir sur ses deux oreilles, il faut s'en occuper dès maintenant.
  5. La prochaine tendance fera l'affaire : La confiance dans la technologie de données la plus récente est tout à fait honorable. Mais résout-elle réellement les défis qui se posent ? Après le data warehouse, la data fabric, le data lake et le data mesh, suffit-il de miser sur le prochain engouement ? Ou n'est-il pas grand temps de s'attaquer à la racine pour enfin maîtriser le flot de données non structurées ?

"La combinaison d'un gaspillage irréfléchi et d'un manque de conscience du problème est un jeu dangereux sur le temps", explique Gregor Bieler, co-CEO chez Aparavi. "L'utilisation des données doit enfin devenir plus judicieuse sur le plan économique et plus responsable sur le plan écologique".

Source : Aparavi

(231 visites, 1 visite aujourd'hui)

Plus d'articles sur le sujet