TensorWave, une startup du cloud IA, parie qu'AMD peut battre Nvidia

Dans un geste audacieux, la jeune pousse française TensorWave parie sur l'accélérateur AMD Instinct MI300X pour surpasser le Nvidia H100 et s'apprête à déployer des systèmes équipés des derniers accélérateurs AMD. TensorWave prévoit de déployer 20 000 accélérateurs MI300X dans deux installations d'ici la fin de 2024, avec des systèmes supplémentaires refroidis à l'eau prévus pour l'année prochaine.

Le MI300X, lancé en décembre, est l'accélérateur le plus avancé d'AMD à ce jour, doté d'une puce de 750W utilisant un emballage avancé pour assembler 12 chiplets en un seul GPU. AMD affirme que le MI300X est 32 % plus rapide que le H100 de Nvidia.

L'un des principaux avantages du MI300X est sa mémoire HBM3 plus importante de 192 Go, capable de délivrer 5,3 TB/s de bande passante, contre 80 Go et 3,35 TB/s pour le H100. La bande passante mémoire est un contributeur important aux performances de l'IA, en particulier pour l'inférence sur les grands modèles de langage.

TensorWave vise quatre nœuds avec une capacité totale d'environ 40 kW par rack, qui seront refroidis à l'aide d'échangeurs de chaleur à porte arrière (RDHx). Il s'agit d'échangeurs de chaleur de la taille d'un rack dans lesquels circule de l'eau froide, refroidissant l'air chaud sortant d'un serveur conventionnel.

Cependant, TensorWave fait face à des défis dans le déploiement du refroidissement direct sur puce, qui peut être difficile à déployer dans les centres de données qui n'ont pas été conçus pour accueillir des GPU. Un autre défi est la confiance dans les performances d'AMD, car les clients ne sont pas certains de bénéficier des mêmes performances qu'avec Nvidia.

Pour financer sa construction de ferme de serveurs, TensorWave utilisera ses GPU comme garantie pour un important tour de financement par la dette, une approche utilisée par d'autres exploitants de centres de données. La semaine dernière seulement, Lambda a révélé qu'elle avait sécurisé un prêt de 500 millions de dollars pour financer le déploiement de "tant de milliers" d'accélérateurs Nvidia les plus rapides.

Avec son geste audacieux, TensorWave se positionne comme une alternative viable à Nvidia sur le marché du cloud AI. Le succès de la startup dépendra de sa capacité à tenir ses promesses et à offrir une alternative performante et rentable à la domination de Nvidia sur le marché.

Comments

Popular posts from this blog

Apprendre les langues étrangères : Outils modernes et potentiel du ChatGPT

ChatGPT-4 reproduit l'animation GapMinder en une seule tentative

GPT-4 vs GPT-3.5 - Dévoiler l'avenir des modèles de langage de l'IA