L’intelligence artificielle (IA) est actuellement au sommet d’une vague. Et Nvidia l’est sans doute aussi. Ainsi, lors de son événement GTC 2024 la semaine dernière, de nombreux acteurs du stockage ont sauté sur l’occasion pour faire connaître leurs liens avec le géant de l’unité de traitement graphique (GPU).
Les réponses des fournisseurs de stockage se sont concentrées sur la résolution du goulot d’étranglement des entrées/sorties (E/S) afin que les données puissent être transmises efficacement à un grand nombre de GPU (très coûteux).
Ces efforts ont couvert toute la gamme des intégrations, via les microservices Nvidia – notamment NeMo pour la formation et NIM pour l’inférence – jusqu’à la validation des produits de stockage avec les offres d’infrastructure d’IA de Nvidia (telles que BasePOD), et à des offres d’infrastructure d’IA complètes comme celles de HPE.
Un autre objectif évident dans les annonces récentes a été le développement de pipelines et d’architectures matérielles de génération augmentée de récupération (RAG). RAG vise à valider les découvertes de l’IA en les intégrant à des informations externes fiables, en partie pour lutter contre les soi-disant hallucinations.
Quel était le message principal de Nvidia lors du GTC 2024 ?
Au cœur du message de Nvidia au GTC 2024, délivré par le PDG Jensen Huang, se trouve un changement dans l’industrie informatique basé sur les charges de travail de l’IA et leur tendance à la génération de données plutôt qu’à la récupération de données. Bien sûr, l’IA nécessite pas mal de récupération, car les données sont aspirées dans les cycles d’entraînement.
Au cœur du développement de produits chez Nvidia se trouvent des GPU et leurs processeurs plus grands et plus puissants, avec sa nouvelle puce Blackwell fonctionnant sur 200 milliards de transistors et la capacité de gérer un billion de paramètres de modèles de langage étendus (LLM) à un coût et une consommation d’énergie bien inférieurs à ceux de son prédécesseur. prédécesseur.
Cette puissance de calcul et ces GPU sont intégrés par Nvidia dans les systèmes de serveurs – OGX et DGX (et le HGX OEM) – ainsi que dans les architectures de référence et les offres d’infrastructure clé en main – BasePOD et SuperPOD.
Nous examinons ici quelques annonces de fournisseurs de stockage autour de Nvidia GTC 2024.
Cohésion
Le fournisseur de sauvegarde Cohesity a annoncé qu’il proposerait les microservices Nvidia NIM et l’intégration de Nvidia AI Enterprise dans sa plate-forme de données multicloud Gaia. Cohesity Gaia permet d’utiliser les données de sauvegarde et d’archivage pour constituer une source de données de formation puis une source d’intelligence d’entreprise.
Cohesity a également annoncé que Nvidia était devenu investisseur.
Réseaux DataDirect
DataDirect Networks (DDN), spécialiste de longue date du stockage pour le calcul haute performance (HPC), a annoncé AI400X2 Turbo, qui est destiné aux charges de travail d’IA et offre une amélioration de 33 % de la bande passante par rapport à son AI400X2 dans le même facteur de forme en raison d’une augmentation de la mémoire et d’une meilleure la mise en réseau.
DDN est un acteur majeur parmi les fournisseurs de services proposant du GPU en tant que service. Sa capacité à saturer les GPU l’a vu passer du statut de fournisseur de stockage HPC à celui d’acteur clé du stockage IA.
L’AI400X2 Turbo a une bande passante maximale de 120 Go/s, contre 90 Go/s pour l’AI400X2.
Dell
Dell a dévoilé sa Dell AI Factory, qui se présente sous la forme d’une pile intégrée couvrant les ordinateurs de bureau, les ordinateurs portables et les serveurs PowerEdge XE9680, le stockage PowerScale F710, les logiciels et les services validés avec l’infrastructure IA de Nvidia et la structure réseau Ethernet Spectrum-X.
Dell AI Factory peut être acheté via des abonnements Apex avec paiement à l’utilisation.
HPE
HPE a annoncé la disponibilité de systèmes de calcul d’IA générative (GenAI) avec des composants Nvidia et de calcul Cray AMD, des systèmes informatiques d’entreprise GenAI avec des composants Nvidia, une architecture de référence RAG qui utilise les microservices NeMo de Nvidia, prévoit d’utiliser les microservices NIM de Nvidia pour les charges de travail d’inférence et les futurs produits basés sur sur la plateforme Blackwell de Nvidia.
Le système GenAI d’entreprise de HPE se concentre sur le réglage et l’inférence des modèles d’IA et est préconfiguré autour des serveurs ProLiant DL380a, des GPU Nvidia L40S, des DPU BlueField-3 et du réseau Ethernet Spectrum-X, ainsi que du logiciel d’apprentissage automatique et d’analyse de HPE.
L’architecture de référence RAG comprend les microservices NeMo Retriever de Nvidia, le logiciel HPE Ezmeral Data Fabric et GreenLake for File Storage, qui est le matériel Alletra MP et le logiciel de stockage de données VAST.
Hitachi Vantar
Hitachi Vantara a lancé Hitachi iQ, qui fournit des systèmes d’IA spécifiques à l’industrie qui utilisent les GPU Nvidia DGX et HGX avec le stockage de l’entreprise.
Hitachi iQ sera disponible au deuxième trimestre 2024 et inclura la certification Nvidia BasePOD avec une gamme d’options GPU Nvidia, la prise en charge du logiciel Nvidia AI Enterprise, ainsi que la dernière version de Hitachi Content Software for File (HCFS) – le logiciel de système de fichiers WekaFS rebaptisé WekaIO. – avec des nœuds de stockage accélérés pour les charges de travail d’IA.
NetApp
NetApp a dévoilé le microservice Nvidia NeMo Retriever, une offre logicielle RAG qui se connecte directement au stockage cloud hybride des clients OnTap. Il est disponible pour les clients OnTap qui s’abonnent à la plateforme logicielle Nvidia AI Enterprise et permet à LLM d’accéder aux données non structurées d’une entreprise sans avoir à créer un référentiel séparé.
Stockage pur
Pure Storage a annoncé avoir créé un pipeline RAG qui utilise les microservices basés sur Nvidia NeMo de concert avec les GPU Nvidia et son stockage.
Également sur le territoire RAG, Pure Storage a annoncé des RAG pour des secteurs industriels spécifiques – destinés uniquement aux services financiers pour l’instant, mais qui suivront dans le secteur de la santé et du secteur public.
Pure a également annoncé avoir obtenu la validation de son stockage avec l’infrastructure de serveur Nvidia OVX, qui s’ajoute à la compatibilité de calcul Nvidia DGX BasePod existante annoncée l’année dernière.
Weka
Le fabricant de NAS cloud hybride parallèle Weka a annoncé le lancement d’une appliance matérielle certifiée pour fonctionner avec l’infrastructure de centre de données DGX SuperPod AI de Nvidia.
Le WEKApod utilise le dernier PCIe 5 et est livré avec des performances de 18,3 millions d’opérations d’entrée/sortie par seconde (IOPS) et 765 Go/s dans un seul cluster de 1 Po (pétaoctet) à huit nœuds.
Weka est un partenaire certifié pour Nvidia DGX BasePod et a annoncé lors du salon qu’il ferait partie de la validation pour Nvidia OVX.