jeudi 19 juin 2014

Trop plein : le défi du stockage de données numériques en croissance exponentielle (Interview Atlantico)

1. Selon Eric De Witte, manager pour la Belgique d'EMC, une entreprise américaine de logiciels et de stockage de données, la quantité de données numériques existantes "double tous les deux ans (voir ici) […], le besoin en stockage de données augmente de 30% " pour les entreprises. Risque-ton d'arriver à saturation ? Les dispositifs actuels sont-ils suffisants ?
Je ne crois que nous arrivions à saturation. Ce débat existait déjà au début des années 2000 avec l’essor des vidéos en ligne et des téléchargements compulsifs des internautes. On s’inquiétait déjà à l’époque de la capacité de stockage des ordinateurs individuels (quelques dizaines de giga octets à l’époque !) et des serveurs des entreprises qui n’ont pas connu de « point critique », comme maintenant d’ailleurs. Le besoin de stockage augmente, mais les avancées technologiques également. Les disques durs de plusieurs tera octets sont aujourd’hui disponibles pour tous à un prix relativement accessible. Je ne parle même pas des entreprises spécialisées dans le stockage ou dont l’économie repose sur ce dernier (moteurs de recherche, cloud…) qui ont accès à des technologies de stockage plus perfectionnées et plus sûres que pour le grand public. 


2. Le stockage est une chose, mais qu’en est-il des flux ? La population mondiale étant de plus en plus connectée, ceux-ci ne risquent-ils pas de dépasser les capacités de nos infrastructures ?
En effet, la situation est un peu différente pour ce qui est de la gestion des flux (transfert de données d'un point A à un point B via de nombreux relais dans le secteur informatique). La croissance soutenue d'acquisition des smartphones par de nouveaux utilisateurs oblige à accroître les capacités de transfert de données pour les opérateurs. Cependant, ces derniers ne veulent et ne peuvent être les seuls à supporter cette modernisation de leurs infrastructures, d'où une redéfinition du modèle économique entre ceux qui acheminent le contenu et ceux qui le créent. Cela crée des tensions et risque à moyen terme de créer de brèves situations d'engorgement (chacun se renvoyant la balle pour investir dans des technologies nécessitant des années de développement), même si je persiste à penser que les structures / normes existantes sont solides et largement encore évolutives. Il y aura quelques craintes au maximum, mais rien de bloquant.


3. Comment se fait-il que les données numériques – images, fichiers vidéo…  - augmentent d'une façon aussi exponentielle ? Par quels processus concrets passe-t-on ?
Le poids des données numériques augmente pour deux raisons principales : la volonté de l’internaute d’en avoir toujours plus (même s’il ne les utilise pas toujours…combien de personnes téléchargent des fichiers qu’elles ne consultent pas par la suite ?) et la qualité de celles-ci qui augmente constamment. En une décennie, des progrès considérables ont été faits concernant l’audio (encodage de meilleure qualité), la vidéo (passage de résolution faible à une résolution full HD par exemple) et la photographie (poids des fichiers accrus pour une meilleure qualité, cf les fichiers RAW par exemple) afin de répondre aux demandes consommateurs qui aspirent à des produits fournissant des fichiers de meilleure qualité. Les constructeurs de matériel hi tech ont suivi la tendance, améliorant les disques durs aussi bien au niveau de leur fiabilité que de leur capacité. Il est aujourd’hui commun d’avoir plusieurs disques durs de stockage chez soi, voire même de disposer d’outils de sauvegarde permettant d’assurer la pérennité de ses données. 
Rappelons d’ailleurs que pour une bonne partie des fichiers dont dispose l’internaute, leur obtention est liée à la qualité de leur connexion internet. Plus cette dernière est puissante, plus l’internaute peut aisément télécharger des fichiers de plusieurs giga octets en quelques heures, là où le temps de téléchargement s’estimait en jours auparavant. 


4. Si, comme les données dont nous disposons permettent de le déduire, la taille de l'univers numérique est multipliée par dix entre 2013 et 2020 (soit 4,4 à 44 milliards de GB), sera-ton encore capable de les gérer et de les stocker ? Pourquoi ?
Je serais assez prudent concernant l’estimation avancée, dans la mesure où les utilisations des outils numériques vont évoluer fortement dans les prochaines années avec la possibilité d’une consommation accrue de données ou bien au contraire une mutualisation renforcée des services. Avec l’augmentation des débits d’Internet, la délocalisation de nos fichiers se renforcera et permettra d’économiser l’achat de disques durs supplémentaires, moyennant l’abonnement à un service de cloud par exemple, bien qu’une telle perspective ne va pas sans poser de problèmes en matière de contrôle de ses données. De récentes avancées technologiques, tant en matière de vitesse de traitement des données (augmentation de la puissance des processeurs via une finesse de gravure accrue et un système de cœurs multiples) que de stockage de ces dernières (des disques durs de plusieurs dizaines de tera octets sont à l’étude, de même que des tests assez probants sont conduits sur du stockage à bande magnétique avec des capacités surprenantes !) me laissent à penser que cela ne sera pas un problème en 2020. 
Certes, des changements risquent de s’opérer avec la nécessité de pouvoir aisément faire le tri au milieu de toutes les données accumulées. On peut penser que le coût des unités de stockage sera fluctuant (comme ça avait été le cas lors du tsunami en Thaïlande qui concentrait une part majeure de la construction des disques durs dans le monde), et qu’il ira à la hausse à mesure que la demande augmentera. Rappelons que certains composants informatiques contiennent des métaux rares et que des solutions alternatives devront être envisagées par les constructeurs pour répondre à la demande.  


5. Devrons-nous changer nos comportements de consommation et de partage de fichiers ? Quel pourrait être l'impact économique ?
Les géants des NTIC incitent de plus en plus les internautes à stocker leurs données en ligne, leur vantant l’accessibilité partout dans le monde, la fiabilité de leurs infrastructures. Néanmoins, il ne faut pas négliger l’ « effet Snowden » qui rappelle aux internautes que la délocalisation de leurs données n’est pas un acte anodin et que cela peut avoir des conséquences difficilement imaginables encore maintenant…
Par ailleurs, un vrai débat aujourd’hui se fait jour concernant la prise en charge financière des infrastructures permettant d’échanger des fichiers numériques, les opérateurs souhaitant que les sociétés comme Google avec Youtube participent à l’augmentation de la capacité des réseaux. Les FAI, aux Etats-Unis pour l’instant mais le mouvement pourrait s’étendre à d’autres pays, se laisseraient bien tenter par l’idée d’un Internet à plusieurs vitesses. La notion d’ « illimité » demeurerait, mais passé une certaine quantité de données récupérées, l’utilisateur verrait sa vitesse de téléchargement diminuée, ce qui aurait un impact évident sur la quantité de fichiers récupérés. Ainsi, des formules « premium » (moyennant un abonnement dont le prix serait fixé à un volume de données) seraient mises en place pour permettre à certains de continuer à consommer à des niveaux importants des données numériques. 
En tout cas, le coût du stockage, longtemps ignoré par le consommateur et certaines administrations, va devenir un enjeu majeur des prochaines avec l’essor du Big Data et la nécessité de se « réapproprier » ses données, en d’autres termes d’en avoir le contrôle en les stockant à un endroit connu et accessible. Les fabricants d’unités de stockage ont un bel avenir devant eux, à condition qu’ils inventent des composants à même de répondre à la demande croissante et inexorable de consommation de données. 


Aucun commentaire:

Enregistrer un commentaire