
La démocratisation des baies flash se poursuit
Si chacun s’accorde sur les qualités de la technologie flash en termes de performance, de densité et de résilience, la bataille fait rage pour savoir ce qui est réellement important pour les utilisateurs finaux.
Mai 2024Par Oscar Barthe
Historiquement cantonné aux charges de travail les plus gourmandes en ressources, le stockage flash arrive aujourd’hui à une certaine maturité sur le marché français et s’impose dans de plus en plus de cas d’usage.
Logiquement, l’offre s’est étoffée du côté des fabricants qui tentent de se différencier sur un marché très concurrentiel et adoptent des stratégies différentes en fonction des clients et des secteurs ciblés. Ainsi, si beaucoup s’accordent à dire que la technologie flash pourrait remplacer l’intégralité des disques mécaniques d’ici à cinq ans parmi les grands comptes et les ETI, les entreprises de taille plus modeste sont encore à une phase d’adoption et privilégient des solutions dites hybrides.
Il est intéressant de voir comment chaque fournisseur souhaite apporter une réponse qui puisse convenir à chacun. « La question de la performance n’en est plus vraiment une car elle est acquise pour tout le monde. Sur les systèmes flash, la différenciation va se faire sur tout ce que l’on peut proposer autour », déclare Jonathan Bourhis, Country Manager de Pure Storage en France.
Pour la plupart des fabricants, l’enjeu de la technologie flash, et particulièrement du stockage, a été de proposer une expérience d’utilisation se rapprochant de celle du cloud. « Chez beaucoup de clients, la technologie flash devient une commodité qui doit pouvoir être consommée indifféremment on-premises ou off-premises », résume Philippe Charpentier, directeur technique France de NetApp, qui a justement déployé ses offres de stockage sur les solutions d’AWS, d’Azure et de Google Cloud pour proposer une expérience la plus transparente possible.
« Sur les systèmes flash, la performance est acquise, la différenciation se fait sur tout ce que l’on peut proposer autour »
Jonathan Bourhis, Country Manager de Pure Storage en France

Miser sur les performances et sur la simplicité
Chez Dell Technologies, un effort similaire a été réalisé avec l’offre Apex, qui propose non seulement des modes de consommation de l’infrastructure sur site à la demande, mais aussi des capacités de débordement sur les clouds des principaux fournisseurs américains. « La technologie est aujourd’hui acquise. L’enjeu est de simplifier son utilisation pour les entreprises », estime Marc Royer, qui gère le portefeuille des données non structurées et analytiques.
En parallèle, ce sont les architectures flash elles-mêmes qui évoluent pour garantir cette simplicité. Afin de permettre aux clients de modifier facilement leurs architectures, les fabricants adoptent des architectures scale-out dans lesquelles peuvent être aisément ajoutés des disques. « Nous sommes entrés dans une aire de consommation de flash qui doit répondre à de plus en plus de besoins au sein
des entreprises, et doivent donc pouvoir suivre l’évolution des volumes de données », constate Michel Parent, Category Manager sur l’offre Alletra pour HPE.
Pour répondre aux enjeux suscités, HPE a fait le choix d’adopter pour Alletra une architecture Dase (disaggregated-shared everything), popularisée par Vast Data. Celle-ci repose sur des baies de contrôleurs stateless auxquelles aucun stockage n’est directement attaché et qui gèrent indifféremment des volumes au sein d’autres baies, toutes en full flash.
Sans revoir complètement leurs architectures, les fabricants ont reconsidéré leurs technologies pour proposer des solutions les plus simples possibles à utiliser ou à faire évoluer. Par exemple, chez Huawei, cela passe notamment par le déploiement d’un type de contrôleur actif-actif parallèle. « Nous avons
nos deux contrôleurs sur chaque baie, auxquels sont couplées des fonctions de load balancing afin d’avoir toujours un usage optimal de la capacité de stockage tout en garantissant une disponibilité et des performances maximales », explique Olivier Fix, IT Solutions Manager.
Outre l’architecture, les fabricants misent sur les technologies propres à flash pour répondre aux besoins des clients. « Pour de la performance pure, nous allons privilégier des unités de stockage utilisant le format TLC avec le standard NVMe alors que pour du capacitif, nous nous appuierons sur des disques QLC et du Sata, qui offrent des performances moindres mais bien plus d’espace », explique Bernard Chu, directeur général de Qnap France.

« Pour les clients, la technologie flash doit pouvoir être consommée indifféremment
Philippe Charpentier, directeur technique France
on- ou off-premises »
de NetApp
Cette approche est aujourd’hui partagée par la plupart des acteurs du marché qui déclinent leurs gammes autour de ces technologies. « Nous sommes aujourd’hui capables de proposer des offres flash capacitives avec des coûts très attractifs tout en gardant des niveaux de performance et de résilience bien supérieurs à ce qu’il est possible d’avoir avec des disques traditionnels », détaille Raouf Daghbouche, Storage Technical Specialist GA France chez Lenovo.
À noter que pour répondre aux besoins des entreprises de taille modeste n’ayant pas les budgets des grands comptes, l’approche hybride avec des disques rotatifs et du SSD reste privilégiée chez certains acteurs.
C’est notamment le cas pour le fabricant de NAS Synology qui propose des baies hybrides pouvant accueillir des disques durs traditionnels ou flash. « Nous allons optimiser le cache SSD pour obtenir un équilibre entre performances et coûts car, pour certains usages, il peut être préférable d’utiliser encore des HDD », explique Ibrahim Hanachi, Key Account Manager chez Synology.
Cette stratégie est partagée par Qnap. « Si du côté des grandes entreprises, le passage au full flash devient presque une évidence, dans les petites, nous sommes dans une phase d’adoption progressive. Nous devons leur donner la possibilité d’évoluer à leur rythme sans qu’elles aient besoin de changer tout leur système de stockage », insiste Bernard Chu.
D’autres fabricants misent sur la spécialisation de leurs offres. Notamment Asus ou Gigabyte, qui proposent des serveurs flash intégrés embarquant beaucoup de GPU et de puissance pour des cas d’usage spécifiques. « En apportant de très fortes densités de puissance et de stockage, nous pouvons répondre efficacement à des usages autour de l’IA ou pour des simulateurs de vol », explique Mathieu Morel, chef de produit serveur chez Asus France.
Le double enjeu de l’IA et de la RSE
Le stockage flash a la capacité de répondre à deux des principaux défis, intimement liés, qui préoccupent les entreprises : l’intelligence artificielle et l’impact environnemental de l’IT. La technologie flash s’est d’abord démocratisée pour les charges de travail les plus performantes. Les acteurs redoublent d’efforts pour apporter des solutions capables de supporter les charges de travail liées à l’IA.

Outre l’adoption des standards les plus performants de NVMe et l’utilisation massive de la technologie TLC, la plupart nouent des partenariats avec Nvidia pour assurer un support optimal de leurs solutions par le fondeur de Santa Clara. « Il faut assurer une efficacité de nos solutions mais aussi une interopérabilité optimale avec toute la stack qui va autour de l’IA, on-premises et dans le cloud », explique Philippe Charpentier de NetApp.
En outre, en augmentant la densité du stockage, la technologie flash permet de contenir beaucoup plus de données dans des espaces plus réduits. « Nous ne vendons plus de la capacité de stockage mais des mètres carrés économisés dans les data centers », explique Jonathan Bourhis de Pure Storage. Selon les configurations, il affirme qu’il est possible d’être cinq fois plus performant en divisant par deux les coûts et l’impact des data centers.