Meta ajoute l’IA à ses applications et lance un générateur d’images autonome
Le modèle en grand langage largement méconnu Meta AI – un assistant virtuel conçu pour générer des images photoréalistes et fournir des réponses détaillées aux requêtes des utilisateurs – est désormais « plus utile, avec des réponses plus détaillées sur mobile et des résumés plus précis des résultats de recherche », selon les médias sociaux. géant annoncé aujourd’hui.
Dans un article de blog, Meta a révélé plus de 20 nouvelles fonctionnalités basées sur l’IA qui étaient ajoutées à ses applications pour tout mettre à niveau, des fonctions de recherche aux expériences de médias sociaux en passant par les communications professionnelles.
« Nous faisons évoluer Meta AI, en ajoutant de nouvelles fonctionnalités à l’expérience de messagerie tout en l’exploitant en coulisses pour alimenter également des capacités intelligentes », a déclaré Meta.
La société lance également Imagine en tant que générateur d’images autonome qui exploite la puissance d’EMU (le modèle natif de texte en image de Meta) pour permettre aux utilisateurs de créer plus facilement une grande variété d’images, similaire à DALL-E 3 ou Stable Diffusion. Conçue à l’origine pour fonctionner dans des applications de chat, cette fonctionnalité a été déclinée en un outil Web pour concurrencer plus directement les meilleurs modèles du secteur.
Pour sa place de marché intégrée, Meta offre également aux fournisseurs et aux vendeurs la possibilité de tirer parti de l’IA générative pour améliorer l’expérience utilisateur. L’idée est « d’offrir aux utilisateurs de divers marchés anglophones des options de suggestions de commentaires générées par l’IA et de suggestions de sujets de discussion communautaire en groupe, de diffuser des résultats de recherche et même d’améliorer la copie de produits dans les magasins », indique-t-il.
Imagine with Meta et d’autres expériences d’IA générative ne sont cependant pas disponibles au Brésil, au Mexique ou en Argentine, selon un article officiel de Meta publié en portugais.
Pour promouvoir la transparence du contenu généré par l’IA, Meta annonce qu’elle mettra en œuvre un « filigrane invisible » sur les images générées avec ses outils d’IA. Bien que le filigrane ne soit pas une méthode particulièrement robuste pour identifier le contenu généré par l’IA, cette décision devrait contribuer à répondre aux préoccupations concernant l’utilisation abusive potentielle de l’IA dans la génération de contenu.
Ces nouvelles capacités d’IA reçoivent déjà des critiques positives.
« Je ne suis pas un expert mais les générations ont l’air bien », a déclaré Julien Chaumond, cofondateur de Huggingface, la plus grande communauté mondiale d’IA Open Source. « Nous sommes en 2023 et je ne m’attendais pas à devoir à nouveau me connecter à Facebook sur mon ordinateur. »
Dans son annonce, Meta a souligné le déploiement continu d’expériences d’IA dans ses applications, la sortie de la famille Llama de grands modèles de langage et les avancées de la recherche telles que Emu Video et Emu Edit.
Ceux-ci continueront d’améliorer les fonctionnalités des produits Meta au cours de l’année à venir, a déclaré la société, en particulier le matériel nécessaire pour alimenter les applications AR et VR.
Meta AI est également utilisé pour améliorer l’expérience utilisateur sur Facebook et Instagram. Pour les créateurs de contenu, Meta teste les réponses suggérées générées par l’IA dans les messages directs à l’aide de son générateur de texte LlaMA.
Cette fonctionnalité est conçue pour faciliter une communication plus efficace entre les créateurs et leur public en rédigeant des réponses qui correspondent au style de communication des créateurs.
L’IA est également impliquée dans la création de salutations personnalisées, la modification de publications et la fourniture de suggestions de contenu dans diverses sections de ces plateformes, notamment les groupes et la place de marché.
Meta a déclaré que son modèle d’IA dispose d’une mémoire à long terme, ce qui le rend encore plus performant et utile, résolvant le principal problème des longues interactions avec les assistants d’IA ou les personnages qui s’appuient sur les LLM : perdre la trace des informations à mesure qu’un utilisateur interagit avec lui.
Meta intégrera également le Multi-round Automatic Red-Teaming (MART) dans ses modèles d’IA. Cette technologie forme un modèle contradictoire pour aider Meta à détecter les contenus offensants, frauduleux ou nuisibles en mettant essentiellement les modèles en concurrence les uns contre les autres tout en évoluant et en devenant plus performants.
Comme Decrypt l’a signalé précédemment, Meta a récemment dissous son équipe « IA responsable », choisissant plutôt de décentraliser cette tâche vers les différents départements impliqués dans le développement de l’IA.
Les modèles d’IA de Meta ont déjà été formés sur des milliards de publications sur les réseaux sociaux.
Edité par Ryan Ozawa.