La démo de Google Gemini n'est pas aussi en temps réel que celle décrite-Tokenhell


  • La démo Gemini AI de Google révèle des réponses scriptées, mettant en évidence l’écart entre la technologie actuelle et les aspirations futures
  • AMD défie Nvidia dans la course au matériel d’IA, bénéficiant du soutien de leaders technologiques comme Microsoft et Oracle
  • SAG-AFTRA aborde l’éthique de l’IA dans le divertissement, en exigeant le consentement et une compensation équitable pour l’utilisation des ressemblances des artistes

La récente démonstration par Google de son modèle Gemini AI a attiré une attention particulière grâce à ses apparentes capacités multimodales. Cependant, un examen plus attentif révèle une autre histoire derrière cette impressionnante vitrine. Alors que la vidéo suggérait une interaction audio en temps réel, le processus était ancré dans des réponses textuelles et des scénarios pré-arrangés.

Disséquer la démonstration des Gémeaux

Dans la vidéo très discutée, Gemini interagissait avec l’environnement de l’utilisateur, identifiait des objets et participait à des jeux tels que la pierre, le papier et les ciseaux. Cependant, il ne s’agissait pas d’une démonstration en direct des capacités du modèle.

Selon un porte-parole de Google, le processus impliquait l’utilisation d’images fixes provenant des images, avec des invites textuelles guidant les réponses. La voix entendue dans la démo n’était pas la réaction en temps réel de Gemini mais une narration de réponses textuelles pré-générées. Cette révélation souligne les limites actuelles de la technologie de l’IA malgré son potentiel d’avancées futures.

La démo de Google Gemini n'est pas aussi en temps réel que celle décrite-Tokenhell

L’écart entre le potentiel de l’IA et la réalité actuelle

Oriol Vinyals de Google DeepMind a admis que la vidéo représentait les futures expériences des utilisateurs avec Gemini plutôt qu’un affichage de son état actuel. Cette situation met en évidence un thème commun dans l’industrie de l’IA : l’écart entre le potentiel passionnant de la technologie de l’IA et ses capacités actuelles. Même si la démonstration s’est déroulée moins en temps réel qu’on ne le pensait, elle témoigne néanmoins des progrès significatifs dans la recherche sur l’IA.

AMD défie Nvidia dans le matériel IA

AMD se concentre sur le matériel qui alimente l’IA et prend une décision audacieuse avec ses accélérateurs Instinct MI300. Ce développement positionne AMD comme un concurrent sérieux face à Nvidia dans le domaine de l’informatique IA. Des acteurs clés tels que Microsoft, Oracle et Supermicro ont exprimé leur soutien à la nouvelle technologie d’AMD, signalant un changement dans le paysage du matériel utilisé pour le développement de l’IA.

La dernière version matérielle d’AMD gagne rapidement du terrain. Les entreprises envisagent d’intégrer ces accélérateurs dans leurs serveurs et plateformes cloud. L’adoption croissante de la technologie AMD indique un écosystème en pleine croissance qui pourrait offrir des options plus diversifiées aux développeurs d’IA, remettant en question la domination de longue date de Nvidia sur le marché.

Réglementer l’IA dans l’industrie du divertissement

L’IA a suscité d’importants débats dans l’industrie du divertissement, en particulier parmi les acteurs et les interprètes. L’accord ratifié par les membres de la SAG-AFTRA avec l’Alliance des producteurs de films et de télévision constitue un développement historique. L’accord exige un consentement explicite et une rémunération appropriée pour les artistes lorsque leurs portraits sont utilisés dans du contenu généré par l’IA.

L’accord SAG-AFTRA est crucial pour répondre aux préoccupations concernant l’IA dans le secteur du divertissement. Cela reflète la tentative de l’industrie de concilier l’adoption de nouvelles technologies avec les normes éthiques et les droits des artistes interprètes ou exécutants. Ce développement vise à protéger les droits et à façonner l’avenir de l’intégration de l’IA dans les processus créatifs.

Contribution de Meta à l’IA  : imagination et filigrane

Meta, un autre acteur clé du paysage de l’IA, a lancé Imagine, une application Web de conversion de texte en image. Ce développement est important car Meta prévoit d’incorporer le filigrane numérique pour étiqueter le contenu synthétique généré par son logiciel. La technologie de filigrane, qui reste invisible à l’œil humain, peut être détectée par un modèle correspondant. Cette fonctionnalité vise à accroître la transparence et la traçabilité du contenu généré par l’IA.

Imagine est alimenté par Emu, qui peut créer des vidéos animées 2D et courtes 3D. Cet outil représente un bond en avant dans la création de contenu basée sur l’IA, permettant aux utilisateurs de générer des images et des vidéos basées sur des invites textuelles. L’introduction du filigrane est une réponse aux préoccupations croissantes concernant l’authenticité et l’origine du contenu généré par l’IA.

com

com si vous avez des questions articles sponsorisés et contenu des communiqués de presse) et les opinions exprimées dans ces types de publications ne reflètent pas les vues de ce site Web