Data Center
Infrastructure, Servers, Network, Storage
Disques durs et SSD, trois mythes tenaces
Les disques durs demeureront des supports essentiels pour le stockage des données, assure Vincent Oostlander, Director EMEA Solutions Sales, Seagate. Et de briser trois mythes.
« Les disques durs sont de l’histoire ancienne », « le tout-flash, seule solution pour le centre de données de demain »… « Voilà des exemples de prédictions que les partisans de la technologie flash émettent depuis déjà plus de dix ans, mais qui ne se sont toujours pas concrétisées jusqu’ici », estime Vincent Oostlander, Director EMEA Solutions Sales, Seagate.
On ne saurait nier le fait que le stockage flash est particulièrement bien adapté à des applications qui exigent hautes performances et vitesses élevées. Parallèlement, le chiffre d’affaires généré par les ventes de dispositifs flash et de baies all-flash augmente. Mais cela ne se produit pas au détriment des disques durs.
Avec l’essor du cloud et de l’IA, on constate que les opérateurs de centres de données, eux non plus, ne peuvent plus se passer des disques durs qui stockent la majorité des Eo (exa-octets) de par le monde. Par ailleurs, les analystes s’attendent à ce que l’importance des disques durs ne cesse d’augmenter. Sur le terrain, il n’est pas non plus question de choix exclusif : les disques durs et les dispositifs flash ont toujours travaillé en totale synergie au sein des centres de données.
De toute évidence, les disques durs demeureront des supports essentiels pour le stockage des données.
Mythe n° 1 : le prix des SSD est pratiquement égal à celui des disques durs
Comparés aux SSD, les disques durs offrent un net avantage de coût par To (téraoctet) et demeurent dès lors la pierre angulaire du stockage dans les centres de données. Des études effectuées par IDC, TRENDFOCUS et Forward confirment par ailleurs que les disques durs demeurent la solution la plus économique pour la majorité des tâches professionnelles.
La différence de prix par To entre SSD et disques durs pour entreprises devrait continuer de se situer aux alentours de 6:1 au moins jusqu’en 2027. La différence est la plus flagrante dans les centres de données où les coûts d’acquisition des équipements, mais également les prix de l’énergie, des connexions réseau et de la puissance de calcul penchent fortement en faveur du coût total de possession des disques durs.
Mythe n° 2 : les stocks NAND peuvent remplacer le volume total de disques durs
L’idée selon laquelle le secteur des mémoires NAND serait en mesure de remplacer le volume total de disques durs est non seulement optimiste, mais serait aussi tout simplement impossible à concrétiser d’un point de vue financier et logistique. Selon le rapport NAND Market Monitor publié au quatrième trimestre 2023, l’ensemble du secteur NAND a produit 3,1 Zo (zeta-octets) de données entre 2015 et 2023, devant pour ce faire investir la somme vertigineuse de 208 milliards de dollars en CapEx — soit environ 47% du chiffre d’affaires total généré.
Par comparaison, le secteur des disques durs couvre, de manière économiquement efficace, la toute grande majorité (90%) des besoins en stockage des centres de données. Si on compare la production en octets des NAND avec le secteur des disques durs (basés sur la technologie Seagate), il s’avère que les disques durs sont tout simplement beaucoup plus efficaces lorsqu’il s’agit de procurer des Zo aux centres de données.
L’industrie flash serait-elle en mesure de remplacer totalement la production de disques durs d’ici 2028 ? Un rapport de Yole Intelligence indique que le secteur NAND investira environ 73 milliards USD entre 2025 et 2027. On estime que 963 Eo pourront ainsi être produits, en l’occurrence des SSD professionnels et d’autres produits NAND destinés aux tablettes et téléphones. Cela représente un investissement d’environ 76 USD par To de capacité de stockage flash. Si on applique le même coût financier par bit, il faudrait consacrer pas moins de 206 milliards USD supplémentaires en investissements afin d’atteindre les 2,723 Zo de capacité de disque dur que l’on s’attend à commercialiser en 2027. Cela représente un total de près de 279 milliards en investissements pour un marché-cible total d’environ 25 milliards. Soit une perte de 10:1. Un tel investissement apparaît comme improbable pour un secteur qui doit faire face à des recettes incertaines.
Mythe n° 3 : seules les baies tout-flash répondent aux exigences de performances des tâches de traitement contemporaines
L’infrastructure de stockage des entreprises est généralement constituée d’un cocktail de types de supports. Leur but est ainsi d’optimiser les coûts et les besoins en capacité et performances associés aux charges de traitement. Les fournisseurs de solutions tout-flash conseillent aux entreprises de « simplifier” et de “se préparer aux défis de l’avenir” en optant pour des dispositifs flash hautes performances. Sinon, prétendent-ils, les entreprises courent le risque de ne plus être en mesure de satisfaire les exigences en hautes performances des charges de traitement actuelles.
Trois raisons expliquent que cette logique n’a aucun sens. Tout d’abord, la grande majorité des charges de traitement contemporaines n’ont nullement besoin des avantages de performances du flash. La plupart des données dans le monde sont stockées dans le cloud et dans de grands centres de données. Dans ces environnements, seule une petite fraction des charges de traitement a besoin d’un pourcentage de performances substantiel. Selon IDC, il faut y voir la raison pour laquelle, au cours de ces cinq dernières années, les disques durs ont assumé près de 90% du stockage chez les prestataires de services cloud et dans l’enceinte des centres de données de très grande envergure (hyperscale). Dans certains cas, il n’est même pas nécessaire d’inclure les systèmes tout-flash dans l’éventail de solutions hautes performances. Des systèmes de stockage hybrides existent qui opèrent tout aussi bien sinon même plus rapidement que le tout-flash.
Deuxième raison : les centres de données, comme nous l’avons déjà souligné, doivent réfléchir à leur CTP lorsqu’ils prennent des décisions en matière d’infrastructure. Un équilibre doit être trouvé entre les coûts, d’une part, et les capacités et performances, de l’autre. En d’autres termes, ils doivent opter pour le support le plus efficace en termes de coûts, en fonction des exigences de leurs charges de traitement. Les disques durs et les matrices hybrides (alliant disques durs et SSD) offrent la meilleure solution pour la plupart des stockages en entreprise et dans le cloud.
Enfin, les partisans du flash font preuve de précipitation lorsqu’ils affirment qu’une baie tout-flash est plus simple, dans une architecture multi-couches, qu’une combinaison de différents types de supports. De nombreux systèmes de stockage hybrides utilisent une architecture définie par logiciel qui a fait ses preuves et qui intègre et combine de manière transparente, dans des unités uniques, les points forts de différents types de supports. Les architectures évolutives de centres de données de type cloud privé ou public utilisent des systèmes de fichiers ou du stockage défini par logiciel afin de gérer les charges de traitement dédiées au stockage de données réparties dans une série de sites et de régions. Les solutions AFA (All-Flash Arrays) et SSD conviennent parfaitement pour des charges de traitement puissantes et intensives en lecture. Mais c’est une erreur de généraliser des scénarios spécifiques ou des implémentations de petite envergure à l’ensemble du marché et au contexte hyperscale où les AFA sont une manière onéreuse et inutile d’effectuer ce que les disques durs assurent d’ores et déjà pour un CTP bien plus bas.
Bref, il est facile de déconstruire les trois mythes évoqués. Nous pouvons donc affirmer avec certitude que, dans un avenir proche, les disques durs continueront de stocker la toute grande majorité des données existant dans le monde !