Les puces AMD correspondent aux capacités technologiques de Nvidia Corp en matière d'intelligence artificielle (IA)
Les puces AMD sont sur le point de revendiquer une part de l'énorme succès de Nvidia Corp dans les projets d'intelligence artificielle (IA). Advanced Micro Devices (AMD) rejoint les petites entreprises qui tentent d'arracher des parts de marché à Nvidia Corp dans les projets d'IA.
Récemment, Nvidia a figuré dans les déclarations technologiques de tous, en particulier dans le secteur explosif de l'IA. Nvidia, dirigée par Jansen Huang, exploite une entrée programmée sur le marché, une recherche matérielle de qualité supérieure et un écosystème logiciel adapté aux GPU.
Les puces AMD rivalisent avec Nvidia Corp dans le domaine de l'intelligence artificielle
L'écosystème supérieur positionne Nvidia Corp vers le développement de l'IA, ce qui se manifeste par le rallye boursier. Les projections du marché se sont avérées correctes, les résultats de Nvidia du premier trimestre montrant que les ventes ont triplé, ce qui a déclenché une hausse du cours de l'action de 1 000 $ après les heures de négociation.
Le fabricant de puces Nvidia a réitéré son engagement à s'implanter solidement dans le domaine de l'IA. Son rival de longue date, AMD, a informé les développeurs que son matériel peut désormais prendre en charge le travail de l'IA.
Un cadre supérieur d'AMD, Ian Ferreira, a exhorté ceux qui utilisent TensorFlow, PyTorch et Jax à utiliser leurs ordinateurs portables pour fonctionner sur AMD. S'exprimant lors de la conférence Microsoft Build 2024, le dirigeant a salué le matériel AMD comme répondant aux niveaux des moteurs d'inférence.
Ferreira a expliqué au public comment les GPU AMD pouvaient exécuter nativement les puissants modèles d'IA. Le dirigeant a indiqué qu'il pouvait exécuter Microsoft Phi et Stable Diffusion et exécuter efficacement les tâches de formation intensives en calcul sans dépendre de la technologie et du matériel de Nvidia.
L'hôte de la conférence, Microsoft, renforcerait le message d'AMD en déclarant que les machines virtuelles basées sur AMD étaient disponibles sur la plateforme de cloud computing Azure via les GPU MI300X accélérés de l'entité.
AMD a dévoilé les GPU MI300X au milieu de l'année dernière, bien qu'il ait commencé à les expédier cette année. Les puces ont déjà réussi le test de l'infrastructure de Hugging Face et du service OpenAI de Microsoft Azure.
Le message d'AMD annonçait qu'il était prêt à s'aligner sur la technologie exclusive CUDA de Nvidia, désormais la norme industrielle pour le développement de l'intelligence artificielle. La technologie CUDA comprend un modèle de programmation complet et une API intégrée adaptée aux GPU Nvidia.
Les puces AMD présentent une compatibilité transparente avec les systèmes d'IA
Le message d'AMD transmis mercredi 22 mai affirmait que ses solutions pouvaient s'intégrer parfaitement aux workflows d'intelligence artificielle.
AMD réalisant une compatibilité transparente avec les systèmes d'IA actuels change la donne. Cela permettrait aux développeurs d'exploiter son matériel moins cher sans remanier la base de code.
Ferreira a reconnu que les besoins de l'industrie dépassent tout cadre. Le dirigeant a admis être conscient de l'expérimentation et de la formation distribuée qui s'est avérée viable et activée sur AMD.
Ferreira illustre comment AMD gère désormais diverses tâches sur de petits modèles tels que Phi-3 et ResNet 50. En outre, AMD peut affiner et entraîner GPT-2 en utilisant le code exécuté par les cartes Nvidia.
L'avantage essentiel d'AMD réside dans l'amélioration de l'efficacité dans la gestion des grands modèles de langage.
Ferreira a indiqué qu'on peut charger 70 milliards de paramètres dans un seul GPU. Il a ajouté qu'on peut atteindre huit Llama 70B uniques chargés. De plus, on pourrait prendre un grand modèle de langage tel que LLama-3 400 milliards déployé sur une instance.
La tentative de s'attaquer à Nvidia est une question délicate, étant donné que la société californienne protège farouchement son territoire.
Dans des accusations récemment portées contre les projets qui tentent d'offrir des couches de compatibilité CUDA à des GPU tiers, tels qu'AMD, Nvidia Corp a allégué qu'elle violait les conditions de service.
L'action en justice limite la fourniture de solutions open source, rendant ainsi difficile pour les développeurs d'adopter des alternatives.
AMD cherche à contourner le blocus imposé par Nvidia en exploitant le framework open source ROCm qui rivalise directement avec CUDA.
Les puces AMD sont une alternative intéressante à la technologie Nvidia Corp
La société a récemment fait des progrès grâce à une alliance avec Hugging Face. Ce dernier est le plus grand référentiel mondial de modèles d'IA open source et devrait offrir le support nécessaire pour exécuter du code sur le matériel.
Le partenariat a permis à AMD d'offrir un support natif et des outils d'accélération ultérieurs aux modèles ONNX.
Les modèles ONNX fonctionnent actuellement sur les GPU alimentés par ROCm. Et une référence optimale. Les bénéficiaires s'étendent aux GPU DeepSpeed pour ROCm qui utilisent TGI, GPTQ et Transformers.
Ferreira a souligné que l'intégration est native, éliminant l'essence des solutions tierces et des intermédiaires qui nuisent souvent à l'efficacité.
Ferreira a indiqué qu'AMD n'impose pas le transcodage puisque d'autres accélérateurs sont obligatoires sur les scripts de précompilation. Au lieu de cela, ses éléments fonctionnent immédiatement et rapidement.
Bien qu'audacieuse, la décision d'AMD constitue un défi considérable étant donné que Nvidia Corp innove continuellement, ce qui rend difficile pour les développeurs d'envisager une infrastructure alternative à la norme de facto CUDA.
Néanmoins, l'approche open source soutenue par des partenariats stratégiques adaptés à la compatibilité native positionnera sûrement AMD comme une alternative intéressante aux développeurs qui recherchent des options sur le marché du matériel d'IA.
com
com si vous avez des questions articles sponsorisés et contenu des communiqués de presse) et les opinions exprimées dans ces types de publications ne reflètent pas les vues de ce site Web
