Fabricant de copeaux Nvidia a publié une nouvelle superpuce qui, selon elle, sera turbocompressée intelligence artificielle. Est-ce le début d’une nouvelle révolution industrielle gourmande en énergie ?
Ce n’était pas un concert – Taylor Swift était introuvable. Pourtant, des milliers de personnes ont rempli une arène à San Jose, en Californie, pour écouter et applaudir le 18 mars. La star de ce spectacle était Jensen Huangqui était sur scène pour présenter une nouvelle puce qui serait lancée plus tard dans l’année. Sa performance de deux heures a depuis été regardée par près de 27 millions de personnes sur YouTube.
Huang, PDG et co-fondateur de Nvidia, s’est présenté dans sa veste en cuir noire habituelle lors de la conférence annuelle des développeurs de l’entreprise. Bien que son nom ne soit pas encore connu au-delà de la communauté technologique, Nvidia a récemment provoqué des vagues après que sa capitalisation boursière ait dépassé les 2 000 milliards de dollars (1 840 milliards d’euros), ce qui en fait la troisième société cotée en bourse aux États-Unis derrière Microsoft et Apple.
Tout cela est lié aux semi-conducteurs de l’entreprise, appelés unités de processeur graphique (GPU). Nvidia est un concepteur de puces et sous-traite la fabrication de puces à des fabricants experts. Son matériel était initialement utilisé pour les jeux vidéo, mais la société a trouvé d’autres options comme l’extraction de crypto-monnaie, la modélisation 3D et les véhicules autonomes.
Plus important encore, ils ont décidé d’intégrer leurs puces dans des systèmes d’intelligence artificielle générative (GAI), une forme d’intelligence artificielle auto-apprenante capable de générer du texte, des images ou d’autres médias.
À première vue, la technologie réservée à l’intelligence artificielle (IA) peut sembler un chemin court, mais les possibilités offertes par cette technologie ont pris d’assaut le monde depuis l’introduction de ChatGPT en novembre 2022. Aujourd’hui, les plus gros clients de Nvidia sont des titans du cloud computing. et les entreprises qui créent des modèles d’IA.
Le nouveau Superpuce Blackwell
Grâce à son savoir-faire, Nvidia a la chance de propulser cette technologie transformatrice. Actuellement, elle détient environ 80 % du marché mondial de ces puces d’IA.
La nouvelle puce présentée en Californie s’appelle Blackwell. Avec 208 milliards de transistors, il s’agit d’une mise à niveau de la puce H100 de la société, qui, selon Huang, est actuellement la plus avancée. GPU en production. La puce de nouvelle génération est 30 fois plus rapide dans certaines tâches que son prédécesseur.
Pour développer Blackwell, la société a dépensé environ 10 milliards de dollars, selon Huang. Chaque puce coûtera entre 30 000 et 40 000 dollars. La société espère que son nouveau produit renforcera son emprise sur le marché des puces IA.
Comment fonctionne la technologie ?
La puce Blackwell fait partie d’un système avancé qui, selon la société, peut être utilisé « pour une IA générative à l’échelle de plusieurs milliards de paramètres ». Les puces divisent les tâches en petits morceaux. Ce traitement parallèle permet d’effectuer les calculs plus rapidement.
La nouvelle puce possède un certain nombre de fonctionnalités qui réduisent à la fois la latence et la consommation d’énergie, explique Bibhu Datta Sahoo, professeur au Center for Advanced Semiconductor Technologies de l’Université de Buffalo.
Entre autres fonctionnalités, la puce Blackwell permet de connecter de nombreux GPU afin que les grands modèles d’IA puissent être entraînés avec une empreinte carbone plus faible. Et il intègre une décompression accélérée de la plupart des principaux formats de données, ce qui permet de déplacer le traitement des données à partir de différents types de puces.
Lorsqu’on lui a demandé si la puce pourrait changer le monde, Sahoo a déclaré à DW qu’il était difficile de le dire avec autant d’équipes travaillant sur des choses qui pourraient révolutionner la formation des modèles d’IA. Néanmoins, “la puce Blackwell constitue un très bon pas dans la bonne direction”.
Plus de puissance, moins d’énergie
Pour Huang, le changement ne peut pas venir assez vite, soulignant que l’informatique générale s’essouffle et que l’informatique accélérée a atteint un tournant. Le monde assiste au début d’une nouvelle révolution industrielle, a-t-il déclaré à San José. Il faut trouver des moyens créatifs d’évoluer tout en réduisant les coûts afin que la société puisse « consommer de plus en plus d’informatique tout en étant durable ».
Pour que cela soit possible, les centres de données doivent se développer et devenir plus puissants. Mais certains craignent que les puces IA gourmandes en énergie ne fassent qu’augmenter la consommation d’énergie et mettre à rude épreuve les réseaux. Nvidia voit le problème et affirme que sa nouvelle puce – bien que plus puissante – est plus économe en énergie.
Les experts sont d’accord. Sur la base des données disponibles, la puce Blackwell peut réduire la consommation d’énergie d’un facteur 3 à 4 par rapport à la génération précédente de GPU pour la formation de grands modèles d’IA, a déclaré Sahoo.
Cette efficacité énergétique est particulièrement importante « compte tenu du fait que la consommation électrique des centres de données aux États-Unis devrait atteindre 35 GW d’ici 2030, contre 17 GW en 2022 ».
Le chemin à parcourir n’est pas sans obstacles
Malgré tous les progrès réalisés dans la construction de puces puissantes pour la prochaine génération d’IA, certains ont des doutes et craignent une bulle financière alors que les investisseurs affluent.
Jusqu’à présent, les fabricants de matériel d’IA ont connu le plus grand boom. Cela est naturel puisque l’infrastructure sous-jacente doit être en place avant que le logiciel puisse être utilisé. Maintenant que l’infrastructure est en place, la technologie peut se développer.
Pour consolider sa position, Nvidia accélère ses investissements dans ses offres de réseaux et de logiciels pour connecter et gérer son matériel de superpuces.
Mais l’avenir nous réserve un certain nombre d’autres défis. La demande croissante de semi-conducteurs pourrait mettre à rude épreuve les chaînes d’approvisionnement mondiales. Le plus précaire est le fait qu’une grande partie de la fabrication de puces est basée à Taiwan.
Finalement, la concurrence n’attend pas ce qui se passe. De grands rivaux comme Intel et AMD ainsi que les startups Cerebras et Groq travaillent tous sur leurs propres puces. Même les plus gros clients de Nvidia – Amazon, Google et Microsoft – se lancent dans le secteur de la conception de puces.
Dans un secteur où la taille compte et où les nouvelles technologies sont rapidement obsolètes, rester au sommet sera une course coûteuse.
Ce n’était pas un concert – Taylor Swift était introuvable. Pourtant, des milliers de personnes ont rempli une arène à San Jose, en Californie, pour écouter et applaudir le 18 mars. La star de ce spectacle était Jensen Huangqui était sur scène pour présenter une nouvelle puce qui serait lancée plus tard dans l’année. Sa performance de deux heures a depuis été regardée par près de 27 millions de personnes sur YouTube.
Huang, PDG et co-fondateur de Nvidia, s’est présenté dans sa veste en cuir noire habituelle lors de la conférence annuelle des développeurs de l’entreprise. Bien que son nom ne soit pas encore connu au-delà de la communauté technologique, Nvidia a récemment provoqué des vagues après que sa capitalisation boursière ait dépassé les 2 000 milliards de dollars (1 840 milliards d’euros), ce qui en fait la troisième société cotée en bourse aux États-Unis derrière Microsoft et Apple.
Tout cela est lié aux semi-conducteurs de l’entreprise, appelés unités de processeur graphique (GPU). Nvidia est un concepteur de puces et sous-traite la fabrication de puces à des fabricants experts. Son matériel était initialement utilisé pour les jeux vidéo, mais la société a trouvé d’autres options comme l’extraction de crypto-monnaie, la modélisation 3D et les véhicules autonomes.
Plus important encore, ils ont décidé d’intégrer leurs puces dans des systèmes d’intelligence artificielle générative (GAI), une forme d’intelligence artificielle auto-apprenante capable de générer du texte, des images ou d’autres médias.
À première vue, la technologie réservée à l’intelligence artificielle (IA) peut sembler un chemin court, mais les possibilités offertes par cette technologie ont pris d’assaut le monde depuis l’introduction de ChatGPT en novembre 2022. Aujourd’hui, les plus gros clients de Nvidia sont des titans du cloud computing. et les entreprises qui créent des modèles d’IA.
Le nouveau Superpuce Blackwell
Grâce à son savoir-faire, Nvidia a la chance de propulser cette technologie transformatrice. Actuellement, elle détient environ 80 % du marché mondial de ces puces d’IA.
La nouvelle puce présentée en Californie s’appelle Blackwell. Avec 208 milliards de transistors, il s’agit d’une mise à niveau de la puce H100 de la société, qui, selon Huang, est actuellement la plus avancée. GPU en production. La puce de nouvelle génération est 30 fois plus rapide dans certaines tâches que son prédécesseur.
Pour développer Blackwell, la société a dépensé environ 10 milliards de dollars, selon Huang. Chaque puce coûtera entre 30 000 et 40 000 dollars. La société espère que son nouveau produit renforcera son emprise sur le marché des puces IA.
Comment fonctionne la technologie ?
La puce Blackwell fait partie d’un système avancé qui, selon la société, peut être utilisé « pour une IA générative à l’échelle de plusieurs milliards de paramètres ». Les puces divisent les tâches en petits morceaux. Ce traitement parallèle permet d’effectuer les calculs plus rapidement.
La nouvelle puce possède un certain nombre de fonctionnalités qui réduisent à la fois la latence et la consommation d’énergie, explique Bibhu Datta Sahoo, professeur au Center for Advanced Semiconductor Technologies de l’Université de Buffalo.
Entre autres fonctionnalités, la puce Blackwell permet de connecter de nombreux GPU afin que les grands modèles d’IA puissent être entraînés avec une empreinte carbone plus faible. Et il intègre une décompression accélérée de la plupart des principaux formats de données, ce qui permet de déplacer le traitement des données à partir de différents types de puces.
Lorsqu’on lui a demandé si la puce pourrait changer le monde, Sahoo a déclaré à DW qu’il était difficile de le dire avec autant d’équipes travaillant sur des choses qui pourraient révolutionner la formation des modèles d’IA. Néanmoins, “la puce Blackwell constitue un très bon pas dans la bonne direction”.
Plus de puissance, moins d’énergie
Pour Huang, le changement ne peut pas venir assez vite, soulignant que l’informatique générale s’essouffle et que l’informatique accélérée a atteint un tournant. Le monde assiste au début d’une nouvelle révolution industrielle, a-t-il déclaré à San José. Il faut trouver des moyens créatifs d’évoluer tout en réduisant les coûts afin que la société puisse « consommer de plus en plus d’informatique tout en étant durable ».
Pour que cela soit possible, les centres de données doivent se développer et devenir plus puissants. Mais certains craignent que les puces IA gourmandes en énergie ne fassent qu’augmenter la consommation d’énergie et mettre à rude épreuve les réseaux. Nvidia voit le problème et affirme que sa nouvelle puce – bien que plus puissante – est plus économe en énergie.
Les experts sont d’accord. Sur la base des données disponibles, la puce Blackwell peut réduire la consommation d’énergie d’un facteur 3 à 4 par rapport à la génération précédente de GPU pour la formation de grands modèles d’IA, a déclaré Sahoo.
Cette efficacité énergétique est particulièrement importante « compte tenu du fait que la consommation électrique des centres de données aux États-Unis devrait atteindre 35 GW d’ici 2030, contre 17 GW en 2022 ».
Le chemin à parcourir n’est pas sans obstacles
Malgré tous les progrès réalisés dans la construction de puces puissantes pour la prochaine génération d’IA, certains ont des doutes et craignent une bulle financière alors que les investisseurs affluent.
Jusqu’à présent, les fabricants de matériel d’IA ont connu le plus grand boom. Cela est naturel puisque l’infrastructure sous-jacente doit être en place avant que le logiciel puisse être utilisé. Maintenant que l’infrastructure est en place, la technologie peut se développer.
Pour consolider sa position, Nvidia accélère ses investissements dans ses offres de réseaux et de logiciels pour connecter et gérer son matériel de superpuces.
Mais l’avenir nous réserve un certain nombre d’autres défis. La demande croissante de semi-conducteurs pourrait mettre à rude épreuve les chaînes d’approvisionnement mondiales. Le plus précaire est le fait qu’une grande partie de la fabrication de puces est basée à Taiwan.
Finalement, la concurrence n’attend pas ce qui se passe. De grands rivaux comme Intel et AMD ainsi que les startups Cerebras et Groq travaillent tous sur leurs propres puces. Même les plus gros clients de Nvidia – Amazon, Google et Microsoft – se lancent dans le secteur de la conception de puces.
Dans un secteur où la taille compte et où les nouvelles technologies sont rapidement obsolètes, rester au sommet sera une course coûteuse.