Toutes les actualités Nvidia annoncées par Jensen Huang au Computex

Aimé par Jensen Huang Pour apporter l’intelligence artificielle à chaque centre de données, The Nvidia Le co-fondateur et PDG a déclaré aujourd’hui lors de Computex à Taipei. Lors de la première allocution publique de Huang en près de quatre ans, il a fait plusieurs annonces, notamment les dates de sortie des puces, son supercalculateur DGX GH200 et des partenariats avec de grandes entreprises. Voici toutes les nouvelles de la keynote de deux heures.

1. Le GPU GForce RTX 4080 Ti de Nvidia pour les joueurs est maintenant en pleine production et « produit en série » avec des partenaires à Taiwan.

2. Huang a annoncé le Nvidia Avatar Cloud Engine (ACE) for Games, un service de fonderie de modèles AI personnalisable avec des modèles pré-formés pour les développeurs de jeux. Cela donnera aux PNJ un caractère supplémentaire grâce à des interactions linguistiques alimentées par l’IA.

3. Le modèle informatique Nvidia Kuta sert désormais quatre millions de développeurs et plus de 3 000 applications. Cuda a vu plus de 40 millions de téléchargements, dont 25 millions de téléchargements l’année dernière seulement.

4. La production à grande échelle du serveur GPU HGX H100 a commencé et « est fabriquée par des entreprises partout à Taïwan », a déclaré Huang. Il a également affirmé qu’il s’agissait du premier ordinateur au monde doté d’un moteur à transformateur.

5. Huang a qualifié l’acquisition par Nvidia en 2019 du fabricant de puces de supercalculateurs Mellanox pour 6,9 milliards de dollars de « l’une des plus grandes décisions stratégiques ».

6. La production de la prochaine génération de GPU Hopper débutera en août 2024, exactement deux ans après le début de la production de la première génération.

READ  Vent calme ce soir. Les nuages ​​et les risques de pluie augmenteront demain.

7. Le GH200 Grace Hopper de Nvidia est maintenant en pleine production. Le SuperChip 4 PetaFIOPS TE exploite 72 processeurs ARM, 96 Go de mémoire HBM3 et 576 GPU connectés via une connectivité puce à puce. Huang l’a décrit comme le premier processeur informatique accéléré au monde, qui possède également une mémoire géante : « C’est un ordinateur, pas une puce ». Il est conçu pour les applications de centres de données à haute résistance.

8. Si la mémoire de Grace Hopper ne suffit pas, Nvidia a une solution : le DGX GH200. Il a été créé en connectant d’abord huit Grays Hoppers à trois commutateurs NVLINK, puis en connectant les pods ensemble à 900 Go. Enfin, 32 sont connectés avec une autre couche de commutateurs pour connecter un total de 256 puces grises à trémie. Le moteur de transformation ExaFLOPS qui en résulte agit comme un GPU géant avec 144 To de mémoire GPU. Grace Hopper est si rapide qu’elle peut exécuter la couche 5G dans le logiciel, a déclaré Huang. Google Cloud, Meta et Microsoft seront les premières entreprises à accéder au DGX GH200 et à explorer ses capacités.

9. Nvidia et SoftBank ont ​​conclu un partenariat pour introduire la puce Grace Hopper dans les nouveaux centres de données distribués de SoftBank au Japon. Hébergez des applications IA génératives et sans fil sur une plate-forme de serveur commune pour plusieurs locataires, réduisant ainsi les coûts et la consommation d’énergie.

10. Le partenariat SoftBank-Nvidia est basé sur l’architecture de référence Nvidia MGX, qui est actuellement utilisée par des entreprises à Taiwan. Il fournit un cadre de référence modulaire qui permet aux fabricants d’ordinateurs de créer plus de 100 variantes de serveur pour l’IA, le calcul accéléré et les applications omniverses. Les coentreprises comprennent ASRock Rack, Asus, Gigabyte, Pegatron, QCT et Supermicro.

READ  "Je suis ici parce que je suis noir"

11. Huang a annoncé la plate-forme de mise en réseau accélérée Spectrum-X pour accélérer les nuages ​​​​basés sur Ethernet. Il dispose d’un commutateur Spectrum 4 avec 128 ports à 400 Go/s et 51,2 T/s. Le commutateur est conçu pour exécuter un nouveau type d’Ethernet et est conçu de bout en bout pour le routage adaptatif, l’isolation des performances et l’informatique intégrée, a déclaré Huang. Il possède un pseudo intelligent BlueField 3 qui se connecte à un commutateur Spectrum 4 pour contrôler la congestion.

12. WPP, la plus grande agence de publicité au monde, s’est associée à Nvidia pour créer un moteur de contenu basé sur Nvidia Omniverse. Il sera capable de créer des photos et du contenu vidéo à utiliser dans la publicité.

13. La plate-forme robotique Nvidia Isaac ARM est désormais disponible pour tous ceux qui souhaitent construire des robots et dispose d’une pile complète allant des puces aux capteurs. Isaac ARM démarre sur une puce appelée Nova Orin et est la première pile de référence complète pour la robotique, a déclaré Huang.

Grâce à son importance dans l’informatique IA, les actions de Nvidia ont grimpé en flèche au cours de l’année écoulée et ont actuellement une valorisation boursière d’environ 960 milliards de dollars, ce qui en fait l’une des sociétés les plus précieuses au monde (uniquement Apple, Microsoft, Saudi Aramco, Alphabet et Amazon se classent plus haut).

Les affaires chinoises sont à l’arrêt

Il ne fait aucun doute que les sociétés chinoises d’intelligence artificielle surveillent de près le silicium de pointe que Nvidia apporte à la table. Pendant ce temps, ils craignent une nouvelle série d’interdictions de puces aux États-Unis qui menacent de saper leurs progrès dans l’IA générative, qui nécessitera beaucoup plus de puissance de calcul et de données que les générations précédentes d’IA.

READ  Commerce de Luis Arraez Marlins

L’année dernière, le gouvernement américain a interdit à Nvidia de vendre ses unités de traitement graphique A100 et H100 à la Chine. Les deux puces sont utilisées pour former de grands modèles de langage tels que le GPT-4 d’OpenAI. Le H100, sa puce de dernière génération basée sur l’architecture de calcul GPU Hopper de Nvidia avec son moteur Transformer intégré, connaît une demande particulièrement forte. Par rapport à l’A100H100 peut fournir une formation IA 9 fois plus rapide et une inférence IA 30 fois plus rapide dans les LLM.

La Chine est évidemment un énorme marché à ne pas manquer. L’interdiction d’exporter des puces a coûté 400 millions de dollars à Nvidia en ventes potentielles au cours du seul troisième trimestre de l’année dernière. Cela a laissé Nvidia essayer de vendre une puce plus lente à la Chine qui respecterait les règles américaines de contrôle des exportations. Mais à long terme, la Chine cherchera des alternatives encore plus fortes, et l’interdiction rappelle brutalement à la Chine de devenir autosuffisante dans les secteurs technologiques clés.

Comme Huang l’a dit récemment Entretien Avec le Financial Times : « Si [China] Impossible d’acheter aux États-Unis, ils le fabriquent eux-mêmes. L’Amérique doit donc être prudente. La Chine est un marché très important pour le secteur technologique.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *