Les puces AMD peuvent désormais effectuer le travail d'IA effectué par Nvidia Tech

Dernièrement, il semble que ce soit le monde de Nvidia, et tout le monde – et certainement tous les acteurs de la technologie et de l’industrie explosive de l’IA – y vit. Entre son entrée sur le marché au bon moment, une recherche matérielle de pointe et un écosystème logiciel robuste adapté à ses GPU, la société domine le développement de l’IA et le marché boursier. Son dernier rapport sur les résultats a révélé aujourd'hui que les ventes trimestrielles ont triplé, faisant grimper encore plus le cours de son action.
Néanmoins, AMD, son rival de longue date, continue de s'efforcer de s'implanter dans l'IA, en disant aux constructeurs derrière les technologies clés dans l'espace naissant qu'ils peuvent également travailler sur le matériel AMD.
"Je voulais juste rappeler à tout le monde que si vous utilisez PyTorch, TensorFlow ou JAX, vous pouvez utiliser vos notebooks ou vos scripts, ils fonctionneront simplement sur AMD", a déclaré Ian Ferreira, directeur principal d'AMD, lors de la conférence Microsoft Build 2024 plus tôt. Mercredi. « Idem avec les moteurs d'inférence. BLLM et Onyx fonctionnent également directement. »
La société a utilisé son temps sur scène pour montrer des exemples de la façon dont les GPU AMD peuvent exécuter de manière native de puissants modèles d'IA tels que Stable Diffusion et Microsoft Phi, effectuant efficacement des tâches de formation à forte intensité de calcul sans dépendre de la technologie ou du matériel de Nvidia.
L'hôte de la conférence, Microsoft, a renforcé le message en annonçant la disponibilité de machines virtuelles basées sur AMD sur sa plate-forme de cloud computing Azure, utilisant les GPU MI300X accélérés de la société. Les puces ont été annoncées en juin dernier, ont commencé à être commercialisées au cours de la nouvelle année et ont été récemment implémentées dans le service OpenAI de Microsoft Azure et dans l'infrastructure de Hugging Face.
Bibliothèques ML prises en charge par AMD. Image : Microsoft. YoutubeLa technologie CUDA exclusive de Nvidia, qui comprend un modèle de programmation complet et une API spécialement conçue pour les GPU Nvidia, est devenue la norme industrielle pour le développement de l'IA. Le message principal d'AMD était donc que ses solutions pouvaient s'intégrer directement dans les mêmes flux de travail.
Une compatibilité transparente avec les systèmes d'IA existants pourrait changer la donne, car les développeurs peuvent désormais exploiter le matériel moins coûteux d'AMD sans remanier leur base de code.
"Bien sûr, nous comprenons que vous avez besoin de plus que de simples frameworks, vous avez besoin d'un tas de choses en amont, vous avez besoin d'un tas de matériel d'expérimentation, de formation distribuée - tout cela est activé et fonctionne sur AMD", a assuré Ferreira.
Il a ensuite démontré comment AMD gère différentes tâches, depuis l'exécution de petits modèles comme ResNet 50 et Phi-3 jusqu'au réglage précis et à la formation de GPT-2, le tout en utilisant le même code que celui utilisé par les cartes Nvidia.
Image : Microsoft. YoutubeL’un des principaux avantages vantés par AMD est la capacité à gérer efficacement de grands modèles de langage.
"Vous pouvez charger jusqu'à 70 milliards de paramètres sur un GPU, dont huit sur cette instance", a-t-il expliqué. "Vous pouvez charger huit Lama 70B différents, ou prendre un gros modèle comme le Llama-3 400Bn et le déployer sur une seule instance."
Contester la domination de Nvidia n’est pas une tâche facile, car la société basée à Santa Clara, en Californie, a farouchement protégé son territoire. Nvidia a déjà engagé des poursuites judiciaires contre des projets tentant de fournir des couches de compatibilité CUDA pour des GPU tiers comme ceux d'AMD, arguant que cela violait les conditions de service de CUDA. Cela a limité le développement de solutions open source et a rendu plus difficile pour les développeurs d’adopter des alternatives.
La stratégie d'AMD pour contourner le blocus de Nvidia consiste à tirer parti de son framework open source ROCm, qui concurrence directement CUDA. La société a fait des progrès significatifs à cet égard, en s'associant à Hugging Face, le plus grand référentiel mondial de modèles d'IA open source, pour prendre en charge l'exécution de code sur le matériel AMD.
Ce partenariat a déjà donné des résultats prometteurs, AMD offrant un support natif et des outils d'accélération supplémentaires tels que l'exécution de modèles ONNX sur des GPU alimentés par ROCm, Optimum-Benchmark, DeepSpeed ​​pour les GPU alimentés par ROCm utilisant Transformers, GPTQ, TGI, etc.
Ferreira a également souligné que cette intégration est native, éliminant le besoin de solutions tierces ou d'intermédiaires qui pourraient rendre les processus moins efficaces.
"Vous pouvez prendre vos ordinateurs portables existants, vos scripts existants, et les exécuter sur AMD, et c'est important, car beaucoup d'autres accélérateurs nécessitent un transcodage et toutes sortes de scripts de pré-compilation", a-t-il déclaré. « Nos produits fonctionnent immédiatement, et c'est vraiment très rapide. »
Si la décision d'AMD est sans aucun doute audacieuse, détrôner Nvidia constituera un défi considérable. Nvidia ne se repose pas sur ses lauriers, innove continuellement et rend difficile la migration des développeurs vers une nouvelle infrastructure à partir du standard de facto CUDA.
Cependant, grâce à son approche open source, ses partenariats stratégiques et l'accent mis sur la compatibilité native, AMD se positionne comme une alternative viable pour les développeurs à la recherche de plus d'options sur le marché du matériel d'IA.
Edité par Ryan Ozawa.

Newsletter généralement intelligente

Un voyage hebdomadaire en IA raconté par Gen, un modèle d'IA générative.