io.net est pionnier dans la prise en charge des puces de silicium d'Apple, améliorant ainsi la puissance du GPU pour les applications d'apprentissage automatique

  • Le fournisseur de services cloud io.net lance la prise en charge du clustering de puces de silicium d'Apple.
  • Cela permet aux utilisateurs Apple de déployer une puissance de calcul inutilisée en quelques secondes.
  • Cela pourrait-il alimenter le prochain grand mouvement technologique IA/ML ?

net lance la prise en charge du clustering de puces de silicium d'Apple.

  • Cela permet aux utilisateurs Apple de déployer une puissance de calcul inutilisée en quelques secondes.
  • Cela pourrait-il alimenter le prochain grand mouvement technologique IA/ML ?
  • permettant aux utilisateurs Apple de distribuer leur puissance de calcul inutilisée sur le réseau qui déploie et gère des clusters GPU décentralisés à la demande dans le réseau IO, la couche d'infrastructure des GPU géo-distribués, devient le premier fournisseur de services cloud à offrir un tel support aux puces de la série M d'Apple.

    étendre le développement d'applications d'apprentissage automatique (ML) et de programmes d'intelligence artificielle (IA).

    « Il s'agit d'un grand pas en avant dans la démocratisation de l'accès à des ressources informatiques puissantes et ouvre la voie à des millions d'utilisateurs Apple pour gagner des récompenses pour leur contribution à la révolution de l'IA. »

    io.net est pionnier dans la prise en charge des puces de silicium d'Apple, améliorant ainsi la puissance du GPU pour les applications d'apprentissage automatique

    leur donnant accès à encore plus de capacité de calcul renforçant ainsi la croissance de ces technologies.

    avec ces puces combinant CPU, GPU et Neural Engine amélioré sur une seule puce. Cela se traduit par une latence plus faible et une efficacité de traitement des données plus élevée, adaptée aux applications ML et IA.

    Enfin, la puissante gamme de puces M3 fournira en outre une architecture avancée, qui devrait améliorer la vitesse et l'efficacité de l'exécution des modèles d'apprentissage automatique.