Choisir un support de stockage pour le long terme

Written By: Ontrack

Date Published: 21 juin 2018

Choisir un support de stockage pour le long terme

Depuis toujours de l'informatique la question qui se pose est: quel est le meilleur média pour stocker des données sur le long terme. Dans les années soixante et soixante-dix du siècle dernier, lorsque les entreprises achetaient leurs premiers ordinateurs, elles n’avaient pas le choix du support de stockage. Celui-ci dépendait de ce que les fabricants offraient.

Les systèmes mainframe IBM ou HP qui, par exemple, faisaient tous les calculs financiers d'une petite usine, étaient si énormes qu'ils remplissaient facilement une seule pièce. Dans de nombreux cas, l'employé utilisait un logiciel du fabricant pour calculer le chiffre d'affaires, les dépenses ou les salaires. La RAM des ordinateurs était vraiment petite, les programmes et les bandes magnétiques ont donc commencé à être utilisées pour stocker le résultat de ces calculs.

Des cartes perforées à la bande magnétique

De nos jours tout le monde pense que c'était la première méthode pour stocker des données informatiques. Ce qui n’ai pas le cas : le  premier support de stockage informatique utilisé était la carte perforée. Les caractères et figures étaient traduites dans un code binaire et ensuite poinçonnés dans une carte perforée standardisée. Cette carte perforée était ensuite lue par le dispositif informatique. Une autre variante était la bande perforée. Des bandes de papier qui comportaient des trous qui représentaient les données binaires.

Ce support de stockage a été utilisé jusqu'à la fin des années soixante par IBM ou Texas Instruments jusqu'à ce que la bande magnétique soit introduite vers 1966 et ait été largement acceptée par les clients. Alors que cette carte perforée peut durer de  50 à 100 ans (cela dépend du papier), l'espace de stockage lui est limité : une carte perforée unique stocke 80 octets. Un million de cartes perforées ne stockeraient donc que 80 Mo de données, alors que toutes ces cartes pourraient atteindre 170 mètres de hauteur si on les empilait et pèseraient au total 2500 kg !

Les bandes des années cinquante jusqu'à aujourd'hui

Les premières bandes magnétiques qui sont apparues sur le marché étaient les bandes 7 pistes d'IBM pour ordinateurs centraux IBM 701 et IBM 702 en 1954. Mais le problème avec ces ordinateurs était qu'ils étaient limités dans leur utilisation et ne pouvaient pas couvrir la gamme complète d’applications disponibles par IBM.

Avec l'introduction du System / 360, cela a changé, tout comme la taille de la bande utilisée : elle était maintenant de 12,7 mm (½ pouce) et 8 pistes pouvaient être stockées sur une bobine. Jusqu'à présent, près de 50 formats de bandes différentes ont été introduit sur le marché, la LTO 8 étant la dernière version introduite en date. Ce qui est commun à tous ces formats est que les données sont stockées linéairement sur la bande.

Le média sur bande est encore utilisé aujourd'hui même si chaque année sa mort est annoncée. Cependant, les producteurs de bandes font la promotion de leurs produits en ventant une durabilité d'au moins 30 ans avec une manipulation et un stockage appropriés. La plupart des experts indiquent que la vérité se situe autour de 50 ans. Des techniciens en récupération de données chez Ontrack ont même récupéré des données de bandes 7 pistes qui avaient 60 ans.

Il n’y a eu aucun grand changement jusqu'au début des années 80, lorsque les premiers ordinateurs de bureau ont été introduits par des fabricants comme Apple, Atari, Commodore, Osborne, Radio Shack, Tandy, IBM, NEC, Sinclair, Panasonic et d'autres. Avec ces appareils plus petits, stocker des données est devenu à nouveau un problème. C'est alors que les disques durs et les disquettes sont entrés en jeu...

Le disque dur et son évolution dans le temps

La bande magnétique a un inconvénient majeur: il s'agit d'un support de stockage linéaire. Cela signifie qu'il faut un certain temps pour atteindre l'endroit où sont sont stockées les données sur la bande. C'est pourquoi le disque dur a été créé ; il fallait une méthode de stockage plus rapide et efficace. En fait, c'est le même développeur qui a inventé le disque dur il y a près de 62 ans et la bande.

Pour ordinateur IBM

Il s'agissait du premier ordinateur livré avec l'unité de stockage IBM 350 équipée de deux disques durs internes. Les disques étaient assez gros: ils mesuraient chacun 60 cm et ne pouvaient stocker que 4375 Mo au total. L'ordinateur central n'était pas bon marché: il fallait le louer pour 3200 dollars par mois ! Stocker des données sur ce premier disque dur commercial coûtait 750 $ par mois. Le système a été suivi par l‘IBM Ramac 1301 en 1962 et ses utilisateurs pouvaient stocker jusqu'à 28 Mo de données.

Mais avec l'invention d‘appareils plus petits - le PC - à la fin des années soixante-dix, le besoin d'espace de stockage a augmenté. Les données étaient généralement stockées sur des cassettes compactes (elles ressemblaient à des cassettes compactes audio normales mais possédées une bande magnétique à l'intérieur de celle-ci pour stocker des données).

Le premier disque dur pouvait contenir environ 5 Mo de données et a été introduit par une société qui fût rebaptisée Seagate Technology en 1980, point de départ de la success story du disque dur. Le Seagate ST-506 était le premier disque dur au format 5,25 pouces. De 1980 à 1992, l'espace de stockage d‘un HDD est passé de 5 Mo à 2 Go. De nos jours, les disques durs peuvent être chargés d’hélium et stocker jusqu'à 14 To de données.

Mais qu’est ce qu’un disque dur ?

Un disque dur est un dispositif de stockage électro-mécanique qui utilise le stockage magnétique pour stocker et récupérer des informations numériques à partir d'un ou plusieurs plateaux tournants revêtus d’une couche magnétique. Le film ferromagnétique à la surface du plateau change de direction quand l'électricité est fournie. Sont alors représentés des "1" ou des "0" et ils peuvent être lus. Tous ces zéros et uns représentent un bit de données binaires et un schéma de codage détermine comment la donnée utilisateur est représentée par les transitions magnétiques.

Les principaux avantages des disques durs sont qu'ils sont devenus très bon marché et contiennent une grande quantité de données. Avec l'introduction du RAID, les disques durs se sont encore plus démocratisés puisqu'il est désormais possible non seulement de stocker aléatoirement des données sur un tas de disques indépendants, mais aussi d'avoir un ou plusieurs disques de rechange pour récupérer ses données en cas de défaillance d’un disque.

La plupart des fabricants estime que la durée de vie d'un HDD est de 5 ans. Cependant, cela dépend de son utilisation: la plupart des disques durs peuvent facilement stocker des données pendant 10 ans, mais les utilisateurs doivent vérifier fréquemment si leurs données sont toujours disponibles et s’il n’y a pas d’erreur logiciel ou mécanique. Si le disque dur n'est pas fréquemment utilisé, il y a toujours des chances que les données soient toujours là après plus de 10 ans. Cependant, il est possible que des données puissent être perdues en raison du risque de disparition du magnétisme au cours des années.

Disque SSD : Quelle est la différence?

Les SSD sont eux totalement différents: ils ne sont constitués que de puces électroniques placées sur un circuit imprimé. Habituellement, un SSD classique contient une puce contrôleur et plusieurs puces de stockage. La puce contrôleur contrôle la façon dont les données sont stockées sur la puce de stockage. Une autre différence est que les puces de stockage ne durent qu‘un certain nombre de cycles de lecture et d'écriture. Tout simplement, plus vous écrivez sur le disque, plus vite le SSD sera usé. C'est la raison pour laquelle la plupart des fabricants ont mis en place des technologies à l'intérieur des puces contrôleurs afin de répartir de manière égale la charge d'écriture des données sur toutes les puces de stockage.

La même chose se vérifie pour les clés USB aussi composées de ces puces Flash NAND de basse qualité. Elles aussi, ne durent qu'un certain temps, alors que leur durée de vie en lecture / écriture est généralement beaucoup plus faible que celle d’un SSD.

La durée de stockage sur un disque SSD est estimée à 10 ans. Vous pouvez facilement vérifier la durée de vie de vos appareils en utilisant des outils spéciaux que vous pouvez télécharger gratuitement sur de nombreux sites de fabricants.

Même si les deux types de disques peuvent atteindre une durée de vie de 10 ans, ils diffèrent beaucoup en ce qui concerne la récupération de données. Vu que le disque dur (HDD) existe depuis de nombreuses années, les fournisseurs de services de récupération de données professionnels utilisent également les outils et les processus de récupération de données aboutis. Au fil des ans, ils ont constitué une importante base de connaissance sur la façon de récupérer les données d’un disque dur. Avec les SSD, la situation est différente. Le problème principal ici n'est pas que la technologie est difficile, mais que chaque fabricant peut utiliser d’énormes quantités de puces contrôleur et de stockage de variétés différentes.

Cela dit, il est "plus facile" de récupérer des données d'un SSD d’une marque connue que d'un produit inconnu, où parfois des outils de récupération perfectionnés peuvent ne pas fonctionner à 100%. Mais, il n'est pas judicieux d'utiliser des disques SSD pour le stockage de toute façon, ils sont plus chers par rapport aux HDD, et la récupération de données est beaucoup plus compliquée même si le dur est plus rapide. Utiliser des SSD pour le stockage, c'est comme posséder une Ferrari et rouler à 20 km/h.

De la disquette au support optique

Avec l’apparition des premiers PC de bureau, des ordinateurs Apple et des programmes graphiques avancés, le besoin en capacités de stockage plus importantes se fit très vite sentir, même pour les consommateurs courants et les utilisateurs de petites et moyennes entreprises. La capacité de stockage de ce support magnétique était très faible avec seulement 1,44 Mo d’espace de données pour une disquette de 3,5 pouces introduite en1984, la même année que le Macintosh d’Apple. Les premières disquettes ont été inventées en 1971, d’une taille de 8 pouces et ne pouvant stocker que 80 kilooctets, en lecture seule uniquement. Les premiers utilisateurs de disquettes étaient en mesure de stocker des données sur celles-ci pouvaient sauvegarder 256 KB de données. Bien que les disquettes soient toujours disponibles à l’achat, elles sont à présent de simples objets collectors pour les ordinateurs anciens. Certains fabricants prétendent qu’une disquette peut durer entre dix et vingt années si elle est stockée correctement. Cependant, certains de ces supports ne durent qu’entre trois et cinq années. Cela dépend simplement de la qualité initiale du produit.

Partager des données graphiques ou de mise en page d’un fabricant à un autre était quasiment impossible. Par conséquent, une autre solution devait être trouvée pour les appareils de stockage portables. C’est pourquoi les lecteurs ZIP Iomega ont connu un large succès dans les années 90. En bref, les lecteurs de disquettes étaient des périphériques externes dotés de disques durs magnétiques simples recouverts d’une couche de plastique. Ces lecteurs étaient faciles à manipuler, plutôt légers, et avec des capacités de stockage de 100, 200 ou 750 Mo au total pour chaque support. Toutefois, de nombreux utilisateurs n’étaient apparemment pas très soigneux avec le périphérique externe et le support lui-même. Ainsi, beaucoup parmi ceux-ci se sont plaints du « Click of death » des lecteurs ZIP, qui était tout simplement dû à un choc reçu par les têtes de lecture, un problème courant lorsqu’un disque dur est tombé au sol, a été écrasé, ou a reçu des coups. Ceci n’est cependant pas la raison principale pour laquelle le succès de ces appareils a pris fin, mais plutôt l’apparition du CD-ROM, bientôt suivie par celle du DVD.

Le succès du CD et du DVD

Le Compact Disk (CD) fit sa première apparition au Salon de l’audiovisuel de 1977 en tant que support de stockage optique pour le son et la musique. C’était le résultat de plusieurs années de recherche dans le but d’enregistrer des sons de manière efficace. Avec le début de l’ère numérique au début des années 70, deux sociétés – Sony et Philips – ont cherché un moyen d’enregistrer et distribuer la musique sur un support plus léger et plus petit que les anciens disques vinyle ou cassettes. En 1979 Philips fit la démonstration du premier disque optique et du premier lecteur de CD audio. Le diamètre final était de 12 cm et la résolution avait été augmentée, passant de 14 bits à 16 bits. Cet effort combiné de Philips et Sony a permis de définir une nouvelle norme mondiale. Une décennie fut cependant nécessaire pour que le CD prenne la place du disque vinyle. Au début des années 90, le disque vinyle n’était quasiment plus utilisé pour la publication de nouveaux albums musicaux. La même chose s’est produite avec le stockage de données. Avec l’apparition des jeux multimédia et leurs quantités de données de plus en plus importantes, les producteurs publièrent leurs jeux sur CD pour la première fois en 1991.

Normalement, un CD audio ou un CD de données est fabriqué dans une usine spéciale, une usine de pressage. Le producteur confie ses données (audio) à l’usine de pressage, où est ensuite créé un disque matrice. La quantité requise est ensuite copiée à partir de ce disque matrice. Un CD typique peut contenir jusqu’à 80 minutes de musique ou 650 MB de données.

À l’évidence, toute personne ayant une conception sérieuse des affaires ne se présenterait pas dans une usine de pressage de CD pour stocker ses données personnelles ou professionnelles sur ce genre de disque produit pour le commerce. C’est pourquoi le CD-R connut un succès énorme peu de temps après la révolution apportée par le CD audio. Une société japonaise inventa ce format en 1988. Philips et Kodak s’associèrent pour devenir les premiers producteurs de disques de données optiques à l’échelle commerciale et introduisirent le premier CD-R et le premier CD image au salon Photokina Photografic en 1992.

Le but principal d’un CD-R est de stocker des données, qu’il s’agisse de musique mastérisée en numérique ou des fichiers d’une base de données ou d’une application. La technologie qui se cache derrière le CD-R est la suivante : le disque est fait de polycarbonate sur lequel plusieurs couches différentes sont appliquées. L’un de ces couches est faite d’une teinture organique spéciale. Lorsque des données sont gravées sur le CD-R, les propriétés d’absorption et de réflexion du plus petit élément de cette teinture (les creux) sont modifiées par le laser. Lorsque les données sont lues, un autre laser plus petit utilise la réflexion modifiée de la couche de réflexion métallique (dorée, ou plus souvent, argentée) qui se trouve au-dessus de la couche de teinture pour la convertir en signaux électriques, également appelés bits et octets. Afin de protéger la teinture et la couche de réflexion du CD-R, une autre couche transparente complète la face enregistrable du disque.

Bien qu’un CD-R (ou un CD sorti d’une usine de pressage) dispose d’un espace de 650 Mo, ce qui est suffisant pour 10 à 12 pistes standard de musique, ce n’est pas suffisant pour les films ou les logiciels de très grande taille. Ainsi, le DVD fut inventé et introduit sur le marché en septembre 1995. Un an plus tôt, deux formats en concurrence furent introduits par Sony et Philips d’un côté, et par Toshiba de l’autre. Ceci amena une confusion dans l’esprit des consommateurs quant au format qu’ils devaient se procurer pour leurs films : un CD multimédia (MMCD) de chez Sony / Philips ou un lecteur à super densité (SD) de chez Toshiba. Quoi qu’il en soit, une « guerre des formats » telle que celle rencontrée entre les lecteurs VHS et Betamax à la fin des années 70 devait être évitée. Deux autres formats, le CD vidéo et le disque laser connurent également un échec commercial. C’est pourquoi un accord a été trouvé entre les différentes sociétés pour mettre au point un nouveau format, le Digital Video Disc, ou Digital Versatile Disc (DVD) qui allait devenir la nouvelle norme.

La technologie utilisée pour le DVD est quasiment la même que celle du CD

Sachant que le DVD a été inventé pour stocker davantage de données sur un disque du même diamètre, l’espace disponible sur le support devait être utilisé de façon plus efficace. C’est pourquoi la distance entre les creux et les bosses, de même que leurs tailles, devaient être réduites. Ainsi, davantage de données pouvaient être stockées sur le disque. Par ailleurs, un lecteur/enregistreur de DVD est doté d’un laser plus sensible pour la lecture et l’écriture des données, qu’il s’agisse de plusieurs fichiers ou d’un film entier. Un DVD standard peut stocker 4,7 Go de données. Toutefois, d’autres évolutions ont par la suite mené au DVD à double couche (DVD-R DL). Cela peut être soit deux couches se trouvant sur la même face (DVD-9) et pouvant contenir jusqu’à 8,5 Go de données, soit, dans le cas d’un DVD-RAM, deux couches de données de 4,7 Go sur chaque face avec un total de 4 couches de données et 9,4 Go d’espace (DVD-10). D’autre part, il existe aussi sur le marché le DVD-RAM (DVD-17) qui est également doté de quatre couches de données et peut contenir jusqu’à 18 Go de données. Mais ce dernier format ne s’est pas imposé au-delà du marché japonais.

La durée de vie typique d’un DVD est presque la même que celle d’un CD : un DVD durera, s’il est stocké correctement, entre deux et cinq années, bien que les fabricants affirment que les données stockées sur un DVD peuvent durer entre 10 et 20 années.

L’invention la plus récente à s’être imposée sur le marché est le blu-ray. Comme son nom le suggère, le blu-ray utilise un laser bleu dont la lumière d’onde est plus courte. Ainsi, les données peuvent être écrites plus proches les unes des autres sur le disque et le point du laser est beaucoup plus petit. En outre, le taux de transfert a également été considérablement augmenté afin que les données puissent être lues beaucoup plus rapidement. Un disque blu-ray se présente en deux versions : avec simple couche et avec double couche. Le disque à simple couche peut stocker jusqu’à 25 GB de données, tandis que celui à double couche peut stocker jusqu’à 50 Go. Les disques Blu-Ray à triple ou quadruple couche peuvent stocker jusqu’à 128 GB de données (en se basant sur ce que l’on appelle le format BDXL), mais aussi bien l’enregistreur qui peut graver les disques BD-R XL que les supports vierges ne sont courants ni aux États-Unis, ni en Europe, et doivent être achetés au Japon.

Depuis l’invention du CD, de nombreux autres concepts de support optique ont été présentés au public, tels que le système de stockage de données holographique ou le stockage optique 3D, pour lequel une troisième dimension est introduite au support de stockage, mais ces concepts n’ont jamais été lancés sur le marché.

Sachant que les disquettes sont devenues très rares, personne ou presque ne disposant aujourd’hui d’un lecteur de disquettes en état de marche, ce support de stockage ne présente que des inconvénients. Celui-ci ne permet de stocker qu’une très petite quantité de données et le support nécessite un matériel ancien (devenu cher à l’achat) pour fonctionner.

Le support optique peut en revanche s’avérer un support de stockage supplémentaire, à la fois pour les consommateurs et les petites et moyennes entreprises souhaitant juste stocker une petite quantité de données comme sauvegarde. Le support optique doit toujours être stocké dans un boîtier adapté et dans l’obscurité. Par ailleurs, le disque doit être manipulé avec précaution afin d’éviter les rayures et la poussière qui peuvent détruire les couches de données sous la couche de sécurité transparente. Il est judicieux de vérifier les données régulièrement et de les migrer vers un support optique après 2 ou 3 années.

Le cloud pour le stockage

Le cloud est partout dans l’actualité depuis quelque temps maintenant. Mais que veut-on dire par cloud ? Cloud est un synonyme de « Cloud computing », ce qui, pour faire simple, signifie que vous utilisez internet comme passerelle vers un fournisseur de services qui propose différents produits et services informatiques. Pendant plus d’une décennie, l’éditeur de logiciels Adobe vendait ses programmes d’édition graphique dans une boîte de DVD ou en téléchargement que vous, en tant qu’utilisateur, deviez acheter et installer sur votre ordinateur de bureau ou d’entreprise. Depuis plusieurs années maintenant, Adobe a changé sa façon de vendre ses outils logiciels : à présent, vous utilisez et installez simplement un petit logiciel client sur votre PC, tandis que l’application réelle est hébergée et exécutée dans un centre de données Adobe (ou loué par Adobe). Microsoft a copié cette approche avec sa suite logicielle Office dans le cloud – Office 365, il y a quelques années également. Ce concept de prestation de services sur internet est appelé « Software as a Service » (SaaS). L’une des premières sociétés à utiliser ce concept cloud était salesforce.com, qui proposait son logiciel CRM entièrement basé sur internet pour la première fois en 1999.

Il n’est pas étonnant de constater qu’un grand nombre des offres de services basées sur le cloud sont apparues pour la première fois au milieu des années 2000. C’est à cette période que les vitesses du réseau et d’internet sont devenues beaucoup plus rapides aux États-Unis, sans besoin de disposer d’une connexion internet par câble coûteuse. Avec des connexions internet plus rapides et plus fiables, de nombreuses offres sont devenues réalité : Infrastructure as a Service, Computing as a Service, Data center as a service, ainsi que de nombreuses autres offres. En bref : de nos jours, quasiment n’importe quel service informatique dont vous avez besoin peut être proposé et distribué sur internet.

Ceci est également vrai pour le stockage de données. Avec le stockage sur le cloud, les consommateurs aussi bien que les entreprises peuvent stocker toutes leurs données dans le cloud. « Cloud » signifie ici : espace de stockage sur des systèmes de stockage déterminés dans un centre de données à partir d’un fournisseur de stockage sur le cloud (ou loué à l’un des grands acteurs sur le marché tels qu’Amazon, Microsoft, Google, etc.). Les données sont conservées, gérées, sauvegardées à distance et rendues disponibles aux utilisateurs via internet. En général, les fournisseurs de stockage sur le cloud facturent les utilisateurs sur la base de leur consommation mensuelle. Bien que le coût du Go ait considérablement baissé au cours des dernières années, de nombreux fournisseurs de services facturent des coûts supplémentaires liés aux coûts de fonctionnement, ce qui peut donner une facture importante à la fin du mois.

Tandis que l’utilisation du cloud pour le stockage de données peut être avantageux pour les sociétés et les consommateurs souhaitant juste stocker une quantité de données gérable chez un fournisseur de stockage sur le cloud, l’utilisation de cette méthode de stockage pour une quantité de données énorme ou pour une archive complète n’est pas une bonne idée.

Les problèmes liés au cloud pour l’archivage de longue durée

Le problème principal ici est comment transférer toutes les données dans les deux sens par le biais d’internet. Dans la plupart des cas, le débit internet est encore trop lent pour transférer d’énormes données, et un tel transfert nécessiterait probablement des jours, si ce n’est des mois ou des années, pour arriver au centre de données du fournisseur de stockage sur le cloud. C’est pourquoi les fournisseurs de services les plus importants du marché proposent d’autres solutions pour transférer les données vers le centre de données : ils utilisent d’énormes serveurs de stockage mobiles et des commutateurs et câbles réseau rapides pour copier les données sur leurs serveurs. Après avoir copié les données, ils se rendent au centre de données et copient de nouveau les données sur les systèmes de stockage. Cette option est souvent uniquement valable pour transférer les données vers le centre de données, mais pas pour récupérer les données. Ainsi, la suppression des données archivées est et sera dans quelques années une tâche coûteuse, longue et laborieuse.

Un autre défi lors de l’utilisation du stockage sur le cloud est lié aux fuites de données. Bien que les fournisseurs soient fiables quant à la sécurité de vos données, les centres de données sont gérés par des humains, et les humains font des erreurs. Donc même lorsqu’ils proposent des contrats commerciaux stipulant que la sécurité est garantie, il existe toujours une exception à la règle. Ceci est également vrai pour l’accessibilité du service. La plupart des services offrent un taux d’accessibilité de 99,8 %, mais cela ne signifie pas que vous pouvez accéder à vos données à tout moment. Comme dans tous les centres de données, les serveurs peuvent tomber en panne, soit à la suite d’une erreur humaine, soit à cause d’une panne logicielle ou matérielle. Et vous ne pouvez pas accéder à

Newsletter

KLDiscovery Ontrack Sarl, 2, impasse de la Noisette, 91370 Verrières-le-Buisson, France (voir tous nos bureaux)