Dans un monde où les volumes d’informations à stocker explosent, où conserver les données les moins souvent consultées sans faire exploser les coûts ? Les entreprises privilégient de nouveaux supports pour ce type de stockage.
Les archivistes conseillent depuis bien longtemps aux entreprises de trier les documents papier à conserver en trois grands groupes : les archives courantes, régulièrement consultées, sont stockées sur des linéaires à proximité ; les archives intermédiaires, à faible consultation, sont remisées un peu plus loin ; et les archives mortes (ou dormantes), qui ont peu de chance d’être lues de nouveau, sont palettisées et filmées avant d’être expédiées vers des entrepôts situés dans des localités où le prix du foncier est très bas…
En ce qui concerne le stockage des données numériques, les processus sont pour l’heure un peu moins rodés. Mais au rythme où croissent les volumes de données, structurées et non-structurées, les entreprises se montrent de plus en plus intéressées par les technologies de stockage à froid. Le but est d’identifier les données « inactives » afin de les isoler sur des supports de stockage moins coûteux (disques durs capacitifs, bandes magnétiques…) que les baies de serveurs primaires (où sont stockées les données les plus « chaudes », très souvent consultées). Le « cold storage » permet aussi de libérer ces baies primaires particulièrement réactives (solutions flash, clusters de stockage…) du poids des données inactives. Et ainsi de les rendre plus performantes pour les traitements les plus fréquents.
Stockage « hyperscale » ou appliances ?
Comment ces données froides sont-elles identifiées ? Soit « manuellement », par un administrateur des systèmes de stockage. Soit par le biais d’un logiciel de classement automatique des informations en plusieurs niveaux de stockage – les informations qui nécessitent des extractions rapides et régulières vont sur le niveau 1, tandis que les plus rarement consultées rejoignent des baies de niveau 2 ou 3 ou des « clouds » privés de sauvegarde en ligne…
Car à l’heure du big data, les données doivent rester à portée de mains, si possible dans de grands réservoirs de données pouvant être sondés grâce à des outils open source conçus pour le stockage massif et l’analyse, comme Hadoop ou Elastic Search par exemple. Pour ce faire, l’entreprise a le choix entre deux possibilités. La première – peu chère mais aussi peu performante puisque les temps d’accès aux données peuvent être très longs – consiste à stocker les données froides sur les espaces de stockage « hyperscale » des fournisseurs de cloud public. La seconde – plus sécurisée et nettement plus en vogue actuellement – consiste à les rassembler dans une ou plusieurs « appliances » (boîtiers) de stockage massivement distribuées. Et ce, en consolidant virtuellement toutes les ressources mises à disposition pour le stockage froid en une seule et unique capacité de stockage distribuée massive.
>>> Pour plus d’information, rendez-vous sur Tech Page One