Les gens classent mieux la production de l’IA Open Source que les jeux commerciaux

  • Les passionnés d'IA préfèrent les outils open source aux outils commerciaux
  • Le modèle Mixtral 8x7B de Mistral AI se classe parmi les meilleurs LLM et surpassent des géants de l'industrie comme GPT-3.5 d'OpenAI
  • Mixtral utilise une architecture MoE et excelle dans plusieurs langues grâce à sa nature open source, marquant une victoire pour la communauté de l'IA open source

Les passionnés d'intelligence artificielle préfèrent travailler avec des outils open source plutôt qu'avec des outils commerciaux propriétaires, selon une enquête en cours menée auprès de plus de 100 000 personnes interrogées.

L'émergence du Mixtral 8x7B de Mistral AI, un modèle open source, a eu un impact significatif dans le domaine de l'IA. Léger et puissant, Decrypt l'a nommé parmi les meilleurs LLM de 2023. Mixtral a attiré beaucoup d'attention pour ses performances remarquables dans divers tests de référence, notamment Chatbot Arena, qui offre une approche unique centrée sur l'humain pour évaluer les LLM.

Le classement Chatbot Arena, une liste participative, exploite plus de 130 000 votes d'utilisateurs pour calculer les notes Elo des modèles d'IA. Par rapport à d'autres méthodes qui tentent de normaliser les résultats pour être plus objectifs, l'arène opte pour une approche plus « humaine », demandant aux gens de choisir aveuglément entre deux réponses fournies par LLMS non identifiés. Ces réponses peuvent sembler non conventionnelles selon certaines normes, mais peuvent être évaluées intuitivement par de véritables utilisateurs humains.

Les gens classent mieux la production de l’IA Open Source que les jeux commerciaux

Mixtral a une position impressionnante, surpassant les géants de l'industrie comme Claude 2.1 d'Anthropíc, GPT-3.5 d'OpenAI, qui alimente la version gratuite de ChatGPT et Gemini de Google, un LLM multimodal qui a été vendu comme le chatbot le plus puissant pour défier la domination de GPT-4.

Classement de Chatbot Arena. Le LLM de Mistral AI se classe 6e dans la liste. Image  : Visage câlinL'un des différenciateurs notables de Mixtral est d'être le seul LLM open source dans le top 10 de Chatbot Arena. Cette distinction n'est pas seulement une question de classement ; cela représente un changement important dans l’industrie de l’IA vers des modèles plus accessibles et axés sur la communauté. Comme le rapporte Decrypt, Mistral AI a déclaré que son modèle « surclasse LlaMA 2 70B sur la plupart des benchmarks avec une inférence 6 fois plus rapide et correspond ou surpasse GPT 3.5 sur la plupart des benchmarks standards ». comme MMLU, Arc-C ou GSM.

Le secret du succès de Mixtral réside dans son architecture « Mixture of Experts » (MoE). Cette technique utilise plusieurs modèles experts virtuels, chacun spécialisé dans un sujet ou un domaine distinct. Face à un problème, Mixtral sélectionne les experts les plus pertinents parmi son pool, ce qui permet d'obtenir des résultats plus précis et plus efficaces.

« À chaque couche, pour chaque jeton, un réseau de routeurs choisit deux de ces groupes (les « experts ») pour traiter le jeton et combiner leurs résultats de manière additive », a expliqué Mistral dans l'article récemment publié par le LLM. « Cette technique augmente le nombre de paramètres d'un modèle tout en contrôlant le coût et la latence, car le modèle n'utilise qu'une fraction de l'ensemble total de paramètres par jeton. »

De plus, Mixtral se distingue par sa maîtrise multilingue. Le modèle excelle dans des langues telles que le français, l’allemand, l’espagnol, l’italien et l’anglais, démontrant sa polyvalence et son vaste potentiel. Sa nature open source, sous licence Apache 2.0, permet aux développeurs d'explorer, de modifier et d'améliorer librement le modèle, favorisant ainsi un environnement collaboratif et innovant.

Le succès de Mixtral n’est évidemment pas seulement une question de prouesse technologique ; cela marque une victoire petite mais importante pour la communauté de l’IA open source. Peut-être que, dans un avenir pas si lointain, la question ne sera plus de savoir quel modèle est arrivé en premier, ou lequel a plus de paramètres ou de capacités contextuelles, mais lequel trouve vraiment un écho auprès des gens.