L’avenir du stockage en 2015 et au-delà

Stockage : La technologie de stockage se développe dans deux dimensions : la manière dont elle fonctionne et celle dont elle est utilisée. 2015 sera une année marquée par des améliorations majeures dans ces deux dimensions, même si elles seront évolutives plutôt que révolutionnaires.

La concurrence entre les systèmes de stockage sur disque dur et sur mémoire Flash continuera de susciter des développements dans les deux technologies. La mémoire Flash l’emporte s’agissant des performances et bénéficie des améliorations prédites par la loi de Moore en termes de coût par bit, mais elle présente des limitations croissantes en matière de cycle de vie et de fiabilité. Sa progression sera déterminée par la découverte de solutions bien structurées à ces problèmes. Le stockage sur disque dur, quant à lui, a l’avantage en termes de coût et de capacité. Le maintien de ces avantages motive principalement sa feuille de route.

Disques durs

Les développements concernant le disque dur continuent de combiner une hausse de la capacité avec des performances stables ou supérieures à un moindre coût. Par exemple, Seagate a introduit début 2014 un disque de 6 To qui peaufinait les techniques existantes, avant d’annoncer à la fin de l’année un disque de 8 To basé sur la technologie d’enregistrement magnétique en bardeaux (SMR). Cette technologie permet aux pistes du disque de se chevaucher, éliminant la partie vide qui servait précédemment à les séparer. La densité supérieure ainsi obtenue est compensée par la nécessité de réécrire de multiples pistes à la fois. Cela ralentit quelques opérations d’écriture, mais en échange d’une hausse de 25 % de la capacité et sans nécessiter de restructuration onéreuse des techniques de fabrication.

Si la technologie SMR est un succès commercial, elle accélérera l’adoption d’une autre technique, à savoir le traitement des signaux d’enregistrement magnétique à deux dimensions (TDMR). Cette dernière devient nécessaire lorsque les pistes sont tellement fines et/ou rapprochées que la tête de lecture capte le bruit et les signaux des pistes adjacentes lorsqu’elle essaie de récupérer les données voulues. Un certain nombre de techniques peuvent résoudre ce problème, notamment de multiples têtes qui lisent des portions de multiples pistes simultanément pour permettre au disque de soustraire mathématiquement les signaux d’interférence entre les pistes.

Les technologies qui amèneront la densité par aire du disque dur au-delà de la limite actuelle d’environ 1 téraoctet par pouce carré incluent l’enregistrement magnétique en bardeaux, à deux dimensions et assisté par la chaleur. Image : Hitachi/IEEE

Une troisième amélioration majeure dans la densité du disque dur est l’enregistrement magnétique assisté par la chaleur (HAMR). Cette technologie utilise des disques dont les têtes sont équipées de lasers qui chauffent la piste juste avant l’enregistrement des données. Cela produit des zones magnétisées plus petites et mieux définies avec moins d’interférences mutuelles. Seagate avait promis des disques HAMR pour cette année, mais admet aujourd’hui que 2017 semble plus réaliste.

En attendant, Hitachi a amélioré la capacité de ses disques haut de gamme en les remplissant d’hélium. Ce gaz possède une viscosité nettement inférieure à celle de l’air, si bien que les plateaux peuvent être rapprochés encore plus.

Si toutes ces techniques sont adoptées, c’est parce que les innovations précédentes (enregistrement perpendiculaire plutôt que longitudinal, par exemple, où les bits sont empilés comme des biscuits dans un paquet au lieu de résider sur un plateau) arrivent en bout de course. En combinant toutes les idées ci-dessus, l’industrie des disques durs s’attend à pouvoir produire environ trois ou quatre années de croissance continue de la capacité, tout en maintenant un différentiel de prix avec la mémoire Flash.

Mémoire Flash

La mémoire Flash est en train de changer rapidement, avec de nombreuses innovations qui passent d’un déploiement à petite échelle à un déploiement généralisé. Des entreprises telles qu’Intel et Samsung prédisent des avancées majeures dans le domaine de la mémoire NAND 3D, où l’architecture basique d’un transistor par cellule de la mémoire Flash est empilée dans des blocs en trois dimensions au sein d’un processeur. Intel, en conjonction avec son partenaire Micron, prédit 48 Go par microplaquette l’année prochaine en combinant la mémoire NAND 3D sur 32 couches avec les cellules à niveaux multiples (MLC), qui doublent le stockage par transistor. L’entreprise affirme que, d’ici 2018, il en résultera des disques SSD de 1 To qui conviendront aux formats mobiles et seront beaucoup plus concurrentiels par rapport aux disques durs grand public (qui restent cinq fois moins chers à cette capacité), ainsi que des disques SSD de catégorie entreprise de 10 To.

Une autre technologie qui devrait gagner en maturité en 2015 est la mémoire Flash en cellules à trois niveaux (TLC). Les cellules de mémoire Flash d’origine étaient souvent décrites comme ayant deux niveaux de tension : l’un pour les données 1 et l’autre pour les données 0. Cela n’est pas tout à fait exact : il est plus juste d’imaginer les cellules comme ayant une plage de tensions, avec n’importe quelle tension d’une sous-plage correspondant à 1 et n’importe laquelle d’une autre sous-plage correspondant à 0. Ces plages peuvent être assez étendues et être très éloignées l’une de l’autre, ce qui permet au circuit environnant d’appliquer très simplement les tensions suffisantes au moment de l’écriture et de gérer facilement les résultats désordonnés lors de la lecture.

Les cellules à niveaux multiples (MLC) comportent quatre plages de tension qui correspondent à 00, 01, 10 et 11, soit l’équivalent de deux cellules à un seul niveau, ce qui double la densité dans le même espace. Elles entraînent une difficulté supplémentaire considérable, car le circuit de support doit être beaucoup plus précis lors de la lecture et de l’écriture et les variations dans les performances des cellules en conséquence de la production ou du vieillissement sont beaucoup plus importantes. Les opérations de lecture et écriture ralentissent, la durée de vie raccourcit et les erreurs se multiplient. Toutefois, avec deux fois la capacité pour la même taille (comprendre le même coût), ces problèmes peuvent être surmontés.

Les cellules TLC comportent huit niveaux de tension par cellule, correspondant à 000 jusqu’à 111. Cela ne représente que 50 % de données en plus par rapport aux cellules MLC, mais la physique est considérablement plus compliquée. C’est pourquoi, même si la technologie TLC est intégrée dans certains produits depuis au moins cinq ans, elle n’a pas le prix ni les performances pour être concurrentielle.

Samsung combine les technologies NAND TLC et 3D pour produire le 850 EVO, un disque SSD grand public présentant une capacité jusqu’à 1 To et une garantie de cinq ans. Un 850 EVO de 1 To coûte environ 525 euros. Image : CNET

La grande différence pour 2015 est la maturation de la technologie de pilote pour surmonter les problèmes de fiabilité, de durée de vie et de rapidité de la technologie TLC. Comme avec les communications et processeurs avant-gardistes, la clé du déploiement économique est d’anticiper, de caractériser et de corriger les erreurs. Une approche du fabricant de contrôleurs Silicon Motion superpose trois systèmes basiques de gestion des erreurs.

Le premier est le contrôle de parité à faible densité (LDPC), qui encode les données qui entrent dans la mémoire de telle sorte que beaucoup d’erreurs rencontrées lors de la lecture peuvent être détectées et corrigées d’une manière fiable mathématiquement et, surtout, sans introduire une surcharge de traitement inacceptable. Ce système a été inventé dans les années 1960, mais était impraticable avec le matériel de l’époque. Dans les années 1990, il a commencé à être adopté et se retrouve désormais dans le Wi-Fi, l’Ethernet à 10 Gbit/s et la télévision numérique. À ce titre, il caractérise l’étendue des techniques et des difficultés d’ingénierie provenant du stockage extérieur.

Le moteur LDPC ajoute également un système de suivi des niveaux de tension au sein des blocs TLC. Les caractéristiques électriques des structures de semi-conducteur dans les blocs de mémoire changent sur le court terme à cause de la température et sur le long terme à cause du vieillissement. En s’adaptant à ces conditions au lieu de les rejeter, la durée de vie peut être prolongée et les erreurs réduites.

Enfin, le pilote a un mécanisme de type RAID sur la puce qui peut détecter les erreurs irrécupérables d’une page et basculer vers une autre.

Cette superposition de technologies compense les caractéristiques moins souhaitables de TLC et la rend de plus en plus rentable. La technologie TLC pâtit toujours de problèmes majeurs qui limiteront son applicabilité, tels qu’une limite nettement plus basse sur les opérations d’écriture pendant sa durée de vie ; en conséquence, elle pourrait être utilisée de préférence pour les archives à écriture unique et à accès rapide, comme le stockage dans le cloud des données des consommateurs.

Stockage d’entreprise

La stratégie de stockage d’entreprise la plus réussie continuera d’être celle qui utilise à la fois les technologies de disque dur et de mémoire Flash : au cours des cinq prochaines années, les disques durs seront encore bien loin des performances des disques à mémoire Flash, tandis que les disques à mémoire Flash seront encore bien loin de la capacité requise pour stocker les données d’entreprise traditionnelles, sans parler des hausses gigantesques prédites lorsque l’internet des objets commencera à stocker des informations issues des milliards d’appareils connectés que l’on nous promet.

Le stockage d’entreprise continue d’évoluer rapidement vers un modèle hybride, où des modèles de développement, des architectures et des techniques similaires sont appliqués à la fois à l’intérieur et en dehors des limites traditionnelles de l’entreprise entre le matériel qu’elle possède et gère et les services qu’elle utilise dans le cloud.

Pour le stockage, cela signifie une transition vers des systèmes virtualisés et distribués, tirant profit des environnements logiciels disponibles pour rendre les systèmes de stockage volumineux et flexibles faciles à gérer et à dimensionner, ainsi que des hausses des performances du réseau et des interfaces de stockage pour s’éloigner de la traditionnelle combinaison de systèmes de stockage de masse NAS/SAN et du stockage à couplage étroit dans le serveur pour des impératifs spécifiques de hautes performances.

Le débat fait rage concernant l’appellation à donner à la transition vers le maillage de multiples nœuds de stockage connectés à de multiples serveurs, présentant une vue unifiée aux applications et systèmes de gestion. Qu’on l’appelle « centre de traitements défini par logiciels », « SAN sur serveur », « stockage 100 % logiciel » ou n’importe quel autre terme spécifique des fournisseurs, la transition vers le stockage distribué virtualisé est motivée par le coût, la simplicité d’utilisation et la rapidité de déploiement. En identifiant quelle catégorie d’applications utilise quelle catégorie de données, ces systèmes peuvent transposer automatiquement la charge de travail et le stockage sur la configuration optimale et faire bon usage du stockage sur mémoire Flash ultrarapide et à couplage étroit ou sur des disques de plus grande capacité et plus distants, que ce soit au sein d’une entreprise ou via le cloud computing.

L’archivage des informations rarement consultées, les jeux de données massifs et les impératifs de calcul hautes performances continueront de nécessiter une attention particulière, mais nous pouvons nous attendre à ce que les définitions de ce qui les différencie des charges de travail générales des entreprises évoluent et à ce que l’applicabilité du stockage traditionnel pour ces tâches s’améliore.

Stockage futur

L’avenir ne montre aucun signe de nouvelle technologie de rupture pour briser le duopole disque dur/mémoire Flash.

Le problème majeur auquel se heurtent toutes les technologies de stockage radicalement différentes est le marché extrêmement concurrentiel pour les techniques existantes. En un sens, c’est comme un marché banalisé : vaste et fonctionnant avec de très faibles marges. Il est donc difficile pour une nouvelle idée d’évoluer suffisamment rapidement pour récupérer les coûts de recherche, développement et fabrication dans un délai raisonnable.

Pourtant, le marché du stockage existant est relativement différent d’un marché banalisé, dans le sens où il exige et obtient des développements technologiques continus via la concurrence dans deux dimensions : entre les fabricants de disques et entre les supports rotatifs et SSD. C’est un environnement concurrentiel dans lequel chaque niche est exploitée, si bien qu’un nouveau venu doit avoir un avantage très net pour pouvoir tirer son épingle du jeu.


Comparaison entre les technologies de mémristor, mémoire à changement de phase (PCM), mémoire vive à couple de transfert de spin (STT-RAM), DRAM, mémoire Flash et disque dur.

L’expérience montre que c’est quelque chose qui arrive rarement, voire jamais. En dehors de domaines spécialisés tels que l’archivage à long terme, les supports rotatifs et les disques SSD à mémoire Flash ont damé le pion à tous leurs rivaux, de la mémoire à tores à la mémoire à bulles, en passant par la mémoire holographique, la mémoire vive ferroélectrique, la mémoire polymérique, la mémoire à changement de phase, et bien d’autres. La plupart de ces technologies comportent des avantages, réalisés ou théoriques, sur la mémoire Flash ou le disque dur, et beaucoup restent en développement sous une forme ou une autre. Aucune n’est toutefois parvenue à établir un marché de masse pouvant générer de l’argent. Même la dernière technologie en date, le stockage sur mémristor, n’a pas de feuille de route réaliste qui montre qu’elle s’arrogera une part de marché significative dans les dix prochaines années, d’autant que d’ici là, sous sa forme actuelle, le stockage sur disque dur et sur mémoire Flash sera loin devant dans toutes les métrologies.

Même sans révolution en perspective, l’avenir prévisible du stockage est à l’image de son histoire : plus rapide, plus sûr, moins cher et plus volumineux.