TAIPEI – Le discours d’ouverture de Computex de Nvidia, qui a ouvert la journée “d’avant-match” du lundi pour le plus grand salon informatique d’Asie (sa première grande édition en personne depuis 2019), a été un tour de force d’innovations en matière d’IA et de centres de données. Et, si vous croyez au mot du PDG de Nvidia, Jensen Huang, ces mesures toucheront toutes les entreprises et tous les secteurs dans les années à venir. (Wall Street semblerait être d’accord.) C’est parce que l’IA générative est sur le point d’infiltrer les entreprises et les disciplines qui n’ont pas été touchées par les initiatives d’IA jusqu’à présent. La nouvelle technologie en vogue est également sur le point de transformer le développement logiciel tel que nous le connaissons.
Le matériel de Nvidia et d’autres initiatives sont des éléments clés des changements qui se produisent aujourd’hui dans l’espace de l’IA. L’informatique accélérée est un thème sur lequel Huang est revenu à maintes reprises dans le discours d’ouverture. Nvidia définit l’informatique accélérée comme “l’utilisation de matériel spécialisé pour accélérer considérablement le travail, souvent avec un traitement parallèle qui regroupe les tâches fréquentes”. Il est utilisé dans des domaines exigeants tels que l’apprentissage automatique, l’analyse de données et les simulations, et les GPU sont un accélérateur commun robuste qui place Nvidia au cœur du marché.
(Crédit : John Burek)
Huang a noté que cette présentation était son premier discours en personne depuis le début de la pandémie de COVID-19 (“Souhaitez-moi bonne chance!”) Et il avait abondance refoulé jusqu’à présent : le discours d’ouverture a duré 2 heures complètes et nécessiterait plus de déballage que la remorque d’une équipe de football entière pleine d’équipement. Nous l’avons réduit à huit faits saillants.
1. « L’informatique accélérée est une informatique durable »
Huang a donné une certaine perspective sur l’essor et la puissance du calcul GPU en ce qui concerne les modèles d’IA et les capacités qui sont maintenant sur le marché. Compte tenu de la demande insatiable de puissance de calcul pour former des modèles d’IA, il a utilisé 10 millions de dollars comme référence. Alors qu’il n’y a pas si longtemps, cet argent vous achetait 960 serveurs basés sur CPU, consommant 11 gigawattheures d’énergie pour former un grand modèle de langage d’IA (LLM), le même argent vous achèterait maintenant 48 serveurs basés sur GPU utilisant environ un tiers de l’énergie… et avec la capacité de former un énorme 44 LLM.
(Crédit : Computex)
À l’inverse, pour «faire juste le travail», comme il l’a dit, deux serveurs GPU avec la capacité de former un LLM vous coûteraient désormais environ 400 000 $ au lieu des 10 millions de dollars d’origine. C’est l’ampleur du changement que nous avons constaté, dit-il, en termes de puissance de calcul pour le traitement de l’IA en arrière-plan.
2. “Tout ce qui a une structure, nous pouvons apprendre cette langue”
Parlant en termes généraux de l’IA et du pivot soudain qui peut sembler, aux observateurs extérieurs, être venu du ciel comme un éclair en termes d’impact, Huang postule que l’industrie a atteint un point de basculement qui a été atteint au confluent de l’apprentissage en profondeur et de l’informatique distribuée.
“Tout ce qui a une structure, nous pouvons apprendre ce langage”, note Huang. “Nous pouvons désormais appliquer l’informatique à tant de domaines qui étaient impossibles auparavant.” les types d’information.
Les grandes percées qui ont propulsé l’IA dans la conscience du public sont peut-être des robots de discussion faciles à utiliser comme ChatGPT, mais les applications d’IA “à contenu croisé” suggèrent un impact encore plus radical : transformer le texte en vidéo, la vidéo en texte, ou texte en musique. Le PDG de Nvidia a donné quelques exemples viscéraux. Dans l’un, il a mis en place un bloc de texte qu’une IA a instantanément transformé en une femme apparemment réelle disant ses mots sur vidéo. Dans une autre démo, il a généré un flux de musique traditionnelle atmosphérique sur le thème de Taiwan simplement à partir d’une description vocale du type de musique qu’il voulait entendre. Au-delà de cela, il a utilisé une invite pour créer les paroles d’une chanson de type jingle, que l’IA a ensuite mise en musique, et alors a permis une version générée différemment pour que le public puisse l’utiliser dans un accompagnement.
(Crédit : Computex)
Ce qui revient à dire : certaines des principales barrières qui ont été supprimées dans cette dernière vague d’IA sont les frontières entre les types d’informations et la possibilité d’utiliser l’un pour manipuler l’autre. Les implications sont profondes quand on pense à certains des autres croisements possibles : texte, code, même ADN.
3. ACE-ing Personnages réalistes dans le jeu
Huang a détaillé le Nvidia Avatar Cloud Engine, ou Nvidia ACE, pour les développeurs de jeux. Cette technologie est conçue pour que les développeurs puissent exploiter afin de générer et de personnaliser des personnages IA dans le jeu. Les modèles de personnages sont pré-formés et seront prêts à générer un dialogue basé sur des histoires sur lesquelles l’IA peut s’appuyer, pour générer un sentiment de cohérence et de réalisme. (Les directives dans le cadre ACE maintiendront les conversations sur le point et pertinentes pour le jeu.) L’idée ici est qu’en fin de compte, aux bords d’un jeu PC donné, les personnages non joueurs peuvent être gérés par des interactions générées par l’IA comme celles-ci. , plutôt que des progressions scénarisées.
Ce propriétaire de magasin, dans l’exemple de Nvidia, donne une conversation en arrière-plan générée par l’IA et pertinente pour l’intrigue du jeu :
Bien sûr, cela peut sembler un peu guindé, mais il est encore tôt. De plus, ACE intègre des technologies qui incluent Omniverse Audio2Face de la société pour animer les expressions des PNJ.
4. “Grace Hopper” est entrée dans le chat
La “superpuce” GH200 de Nvidia, également connue sous le nom de “Grace Hopper”, est en production, a annoncé Huang. (Grace Hopper rassemble le processeur Nvidia “Grace” basé sur Arm et le GPU “Hopper” H100 de Nvidia sur des interconnexions à grande vitesse sur un seul package.) Conçu pour prendre en charge le calcul accéléré, le GH200 comprend un processeur Arm à 72 cœurs , 96 Go de mémoire HBM3 et 576 Go de mémoire graphique.
(Crédit : Computex)
Huang a vanté plus de 200 milliards de transistors sur le GH200 et a également mentionné que les centres de données japonais de Softbank intégreraient Grace Hopper dans ses opérations.
5. Un supercalculateur avec ‘Grace’
Suite aux développements de Grace Hopper, Huang a détaillé le Nvidia DGX GH200. Il s’agit d’une solution de supercalculateur à grande échelle basée sur le GH200 pour la formation à l’IA générative et les LLM, attendue d’ici la fin de l’année. Au final, 256 Grace Hoppers GH200 sont connectés dans un DGX GH200. Des groupes de huit sont reliés entre eux via NVLink. Ensuite, à leur tour, 32 de ces groupes, connectés via une couche de commutateurs, créent essentiellement un grand GPU à l’échelle d’un supercalculateur, comme l’a appelé Huang. Un DGX GH200 aura 150 miles de câble à fibre optique, aura plus de 2 000 ventilateurs et, selon Huang, pèsera «quatre éléphants» (40 000 livres).
Recommandé par nos rédacteurs
(Crédit : Computex)
Ce supercalculateur promet d’être un monstre pour les applications IA génératives, avec 144 To de mémoire GPU partagée et même capable d’exécuter une pile de communications virtuelles 5G entièrement logicielle. Il devrait être capable d’atteindre des performances à l’échelle exaflopique et sera utilisé dans les modèles de langage les plus complexes ainsi que dans des environnements tels que les moteurs de «recommandation» algorithmiques à forte demande et les réseaux de neurones. Nvidia travaille avec Google, Meta et Microsoft pour permettre à ces géants d’accéder au DGX GH200 afin de faire progresser la recherche de pointe sur l’IA.
6. Spectrum-X : établir des connexions avec l’IA
Avec toutes ces avancées du calcul accéléré, les avancées de l’interconnectivité parallèle ne pourraient-elles pas être loin derrière ? La plate-forme Spectrum-X, une évolution d’Ethernet, est conçue pour les demandes extrêmes de bande passante du calcul accéléré et de l’IA. Il s’agit d’une technologie sans perte de paquets (sans perte) que la société a surnommée “le premier Ethernet haute performance au monde pour l’IA”.
(Crédit : Computex)
Huang a présenté les premiers fruits de l’initiative Spectrum-X sous la forme du commutateur Spectrum-4, avec 51 Tbits par seconde de bande passante. Le Spectrum-4 utilise une matrice massive mesurant 90 mm de côté et consommant 500 watts ; Huang en a hissé un pour montrer l’échelle. “Pour la toute première fois, nous apportons les capacités de calcul haute performance au marché Ethernet”, a-t-il noté. Cela fonctionne avec les puces Bluefield de Nvidia pour la hiérarchisation du trafic réseau.
7. Une initiative de normalisation des serveurs
Au plus profond de la deuxième heure, il y a la spécification du serveur MGX. Nvidia a annoncé cet ensemble de directives, qui constituent une architecture de référence pour la construction de serveurs adaptés à la formation à l’IA et à d’autres besoins de haute performance. Une multitude d’acteurs majeurs de l’espace serveur (parmi lesquels ASRock, Asus, Gigabyte, Pegatron, QCT et Supermicro) sont sur le point de se joindre à MGX. Les serveurs basés sur MGX décriront les architectures informatiques de base, puis proposeront des variantes prédéfinies pour des charges de travail spécifiques dans la formation de modèles, le travail de conception et les applications de calcul en périphérie. Les conceptions de serveurs basées sur MGX devraient commencer à apparaître plus tard cet été à partir de piliers de serveurs tels que QCT et Supermicro.
8. Oh, quelqu’un veut acheter un GPU ?
Quelque chose peut-il être une « réflexion après coup » si c’est l’une des premières choses que vous avez mentionnées dans votre discours géant ? Sous les GeForce phares sur ordinateur de bureau, les GeForce RTX 4090 et RTX 4080, il y a la GeForce RTX 4060 Ti qui a fait ses débuts il y a quelques semaines. Huang a brièvement présenté un échantillon (la carte Nvidia RTX typique de Founders Edition du millésime tardif) et a mentionné qu’elle est maintenant en production par des partenaires à Taïwan en très grand volume.
(Crédit : Computex)
Il a également hissé un échantillon d’ordinateur portable RTX, un modèle léger de 14 pouces du genre actuellement sur le marché, basé sur un GPU “Ada Lovelace”, exécutant des jeux à lancer de rayons à 60 ips, le vantant comme plus puissant que les PlayStations les plus haut de gamme.
Recevez nos meilleures histoires !
Inscrivez vous pour Quoi de neuf maintenant pour recevoir nos meilleures histoires dans votre boîte de réception tous les matins.
Cette newsletter peut contenir des publicités, des offres ou des liens d’affiliation. L’inscription à une newsletter indique votre consentement à notre Conditions d’utilisation et politique de confidentialité. Vous pouvez vous désabonner des newsletters à tout moment.