Dans le cadre d’une poussée vers les charges de travail d’intelligence artificielle (IA), HPE a mis à niveau ses baies de stockage Alletra MP pour connecter le double du nombre de serveurs et fournir 4 fois plus de capacité dans le même espace rack.
Un an après son lancement initial, Alletra MP dispose désormais de quatre nœuds de contrôle par châssis au lieu de deux, chacun doté d’un processeur AMD Epyc à huit, 16 ou 32 cœurs. Ses nœuds de données 2U sont désormais également devenus 1U, avec 10 SSD de 61,44 To pour une capacité maximale de 1,2 Po en 2U. Auparavant, les nœuds de données Alletra MP contenaient 20 SSD de 7,68 To ou 15,36 To (soit jusqu’à 300 To par nœud).
Cette augmentation du nombre de nœuds signifie qu’Alletra MP peut désormais se connecter à 2 fois plus de serveurs et leur donner 4 fois plus de capacité pour le même espace rack de centre de données, et une consommation d’énergie similaire, selon HPE.
« Nous appelons cette nouvelle génération Alletra MP pour l’IA », a déclaré Olivier Tant, expert HPE Alletra MP NAS.
« En effet, nous pensons qu’il est parfaitement adapté pour remplacer les solutions de stockage basées sur GPFS ou BtrFS, complexes à déployer, mais souvent utilisées pour les charges de travail d’IA. Nous pensons également que nos baies sont plus efficaces que celles de DDN pour le HPC ou d’Isilon pour les charges de travail multimédias.
La version d’accès par bloc SAN fonctionne comme la version d’accès aux fichiers NAS avec des commutateurs ROCE 100 Gbit/s qui permettent à n’importe quel nœud de contrôleur d’accéder à n’importe quel nœud de données.
« L’énorme avantage de notre solution par rapport à la concurrence est que tous les nœuds du cluster communiquent entre eux », a déclaré Tant. « En d’autres termes, nos concurrents sont limités, par exemple, à 16 nœuds de stockage dont trois seront utilisés par des données redondantes pour le codage d’effacement. Cela représente 15 à 20 % de la capacité. Nous pouvons déployer un cluster de 140 nœuds dont trois sont utilisés pour la redondance via le codage d’effacement. Nous ne perdons qu’environ 2 % de capacité, et c’est un véritable avantage économique.»
La recette secrète : un ROCE de 100 Gbit/s commute entre les nœuds
« Notre solution est également plus performante, car, paradoxalement, nous n’utilisons pas de cache au niveau du contrôleur », explique Michel Parent, expert NAS HPE Alletra MP. « Avec une connectivité NVMe/ROCE de 100 Gbit/s sur tous les éléments de la baie, le cache devient contre-productif.
“Le cache n’accélère rien, et ralentit en fait la baie avec des opérations incessantes de copie et de vérification”, a-t-il ajouté. Selon Parent, aucune autre baie de stockage sur le marché n’utilise NVMe/ROCE à des vitesses aussi élevées que 100 Gbit/s par port.
Les hôtes utilisent Ethernet ou Infiniband (compatible avec Nvidia GPUDirect) pour accéder au nœud de contrôleur le plus proche d’eux. Pendant les écritures, ce nœud effectue un codage d’effacement et partage les données requises vers d’autres nœuds SSD. Du point de vue des hôtes du réseau, tous les nœuds de contrôleur exposent les mêmes volumes de fichiers et bloquent les LUN.
En mode NAS – dans lequel Alletra MP utilise le système d’accès aux fichiers de Vast Data – il existe un cache composé de fast flash SCM de Kioxia. Ce tampon sert d’espace de travail pour dédupliquer et compresser les données des fichiers.
“Notre système de réduction des données est l’un des plus performants, selon différents benchmarks”, a déclaré Tant. « Tous les doublons dans les données sont éliminés. Ensuite, un algorithme trouve les blocs qui se ressemblent le plus et les compresse, et c’est très efficace.
Les seules parties des fichiers partagées entre plusieurs nœuds sont celles qui résultent du codage par effacement. De préférence, un fichier sera relu depuis le SSD qui contient l’ensemble.
Plus précisément, lors d’une lecture, le contrôleur transmet la requête au premier nœud SSD choisi par le switch le plus disponible. Chaque nœud de données contient l’index de tout le contenu du cluster. Si le nœud ne contient pas les données à lire, il envoie les exigences du contrôleur au nœud qui les contient.
Dans la version SAN, le mécanisme est similaire sauf qu’il fonctionne par bloc plutôt qu’au niveau fichier.
Avec une telle architecture, qui repose davantage sur la vitesse des commutateurs que sur celle des contrôleurs, il devient simple de passer d’un nœud à un autre si l’on ne répond pas assez vite sur son port Ethernet.
Une baie pour plusieurs types de stockage
Les SSD NVMe sont les plus rapides pour reconstruire un fichier à partir de blocs de données, car chaque liaison de 100 Gbit/s dans Alletra MP est aussi rapide, voire plus rapide, que la connexion réseau entre la baie et le serveur d’applications. Dans les baies concurrentes qui n’utilisent pas de commutateurs entre le contrôleur et les nœuds SSD dédiés, il est habituel d’essayer d’optimiser pour des cas d’utilisation particuliers.
«Je suis convaincu de l’avantage économique d’Alletra MP par rapport à ses concurrents», a déclaré Tant. « Dans un projet d’IA, une entreprise doit normalement mettre en place un pipeline de données. Cela signifie qu’une baie de stockage très performante en écriture collecte la sortie de ces charges de travail. Ensuite, vous copiez son contenu sur une baie de stockage dotée de performances de lecture pour entraîner le modèle à l’apprentissage automatique. Ensuite, vous stockez le modèle résultant dans un tableau hybride pour l’utiliser.
« Avec Alletra MP, vous ne disposez que d’une seule baie aussi rapide pour les écritures que pour le ML et pour l’utilisation du modèle », a-t-il déclaré.