Google va lancer de nouveaux outils d'IA dans la course contre ChatGPT et Microsoft
Google (NASDAQ : GOOGL) est sur le point de publier de nouveaux outils d’IA à usage général pour « aider les gens à atteindre leur plein potentiel ». Face à la concurrence féroce de projets comme OpenAI/ChatGPT et Microsoft (NASDAQ : MSFT), la société annonce qu’elle dévoilera « PaLM 2 », une mise à jour majeure de son grand modèle de langage PaLM (LLM) ainsi que de nouvelles fonctionnalités pour Search, son Bard outil de collaboration personnel et logiciel de reconnaissance d’images Google Lens.
L’intelligence artificielle (IA) étant désormais l’un des mots à la mode les plus en vogue de l’informatique, il y a eu une course entre les géants de la technologie pour améliorer leurs outils en ligne avec les avancées les plus avant-gardistes. Déjà, les utilisateurs ont remarqué les réponses de l’IA incluses dans les résultats de recherche et les nouvelles fonctionnalités de chat interactif ajoutées aux réseaux sociaux.
PaLM est axé sur la médecine et les soins de santé, et la dernière itération s’appelle « Med-PaLM 2 ». Google affirme qu’il a été le premier LLM à atteindre un niveau de test « expert » sur l’ensemble de données MedQA de questions basées sur l’examen de licence médicale aux États-Unis, avec un score de 85 %.
Les capacités d’IA commenceront à se diffuser dans d’autres services Google tels que Gmail, Meet et les applications Google Docs telles que Slides et Sheets. Google indique que ceux-ci sont encore en phase de test et seront limités à un « petit nombre d’utilisateurs » pour le moment.
Google a également créé un ensemble de « principes d’IA » pour garantir que ses services sont utiles et « sûrs » pour tout le monde. Elle a dressé une liste de sept règles clés : « Soyez socialement bénéfique ; Éviter de créer ou de renforcer des préjugés injustes ; Être construit et testé pour la sécurité ; Soyez responsable envers les gens; Incorporer les principes de conception de confidentialité ; Maintenir des normes élevées d’excellence scientifique ; et Être mis à disposition pour des utilisations conformes à ces principes. L’entreprise s’est engagée à ne pas poursuivre les technologies d’IA susceptibles de « causer un préjudice global », de produire des armes ou des outils de surveillance, ou d’enfreindre les lois. Bard lui-même est réservé aux utilisateurs de plus de 18 ans.
Qu’est-ce qu’un « grand modèle de langage » ?
Communément appelés «LLM», les grands modèles de langage sont des outils de réseau neuronal conçus pour une utilisation générale ou au moins un large éventail de cas d’utilisation. Comme son nom l’indique, ils sont formés sur des échantillons de données de texte extrêmement volumineux, en utilisant une méthode de tokenisation pour mapper des échantillons de texte avec des nombres entiers afin de déterminer les meilleures réponses. Les ensembles de données qu’ils utilisent seraient bien trop volumineux pour être consommés et digérés par un être humain au cours de sa vie.
Étant donné la nécessité de « former » les LLM sur des milliards d’échantillons et les coûts de calcul (en argent et en ressources), leur construction est une tâche extrêmement coûteuse. En tant que telle, cette tâche est devenue le domaine des plus grandes entreprises technologiques.
Les progrès dans les capacités de LLM ont été plus rapides que prévu. Ceci est inhabituel dans l’industrie technologique et est responsable d’une grande partie du battage médiatique autour de l’IA en 2022-23. Certains LLM ont démontré leur capacité à « apprendre de nouvelles tâches sans formation » et à construire leurs propres « modèles mentaux » des mondes qu’ils décrivent. Celles-ci sont loin d’être parfaites, et bien que Google et OpenAI soulignent régulièrement la nature développementale des LLM et de l’IA, les erreurs, les préjugés perçus et les « hallucinations » pures et simples faites par les chatbots reçoivent souvent autant d’attention que les succès. ChatGPT renverra souvent des réponses différentes à la même invite et a parfois démontré une tendance à « flatter » ses utilisateurs humains en reflétant leurs opinions individuelles. Les utilisateurs ont également tenté de « jailbreaker » les LLM en leur demandant d’agir hors de leur caractère ou de ne pas tenir compte de certaines parties de leurs données de formation.
Des appels pour que ces technologies soient affinées pour la « sécurité » sont venus des gouvernements et de la société dans son ensemble. Les tentatives passées de diffuser des outils de conversation au grand public ont vu de nombreux testeurs travailler immédiatement pour générer les réponses les plus sensationnelles – à l’ère actuelle, cela signifie généralement des réponses considérées comme offensantes ou racistes, apparemment violentes, trop anthropomorphes, voire misanthropes. Cependant, les efforts déployés par les entreprises soucieuses de leur image pour affiner les réponses au chat ont conduit à des accusations de parti pris sociopolitique en faveur de « récits approuvés » et à un soupçon rampant que les données et les réponses de formation à l’IA sont « modifiées » pour donner des réponses considérées comme acceptables. aux intérêts finançant le développement.
Les définitions de ce qui est « acceptable » sont souvent subjectives par nature, et les processus de développement des données de formation et des réponses ont été opaques, en grande partie en raison de la confidentialité et de la concurrence entre les entreprises privées – et quelles que soient leurs relations gouvernementales.
IA et blockchain
Des chercheurs en IA, dont Konstantinos Sgantzos, Ian Grigg et Mohamed Al Hemairy, ont plaidé pour l’utilisation d’une blockchain avec de grandes capacités de traitement de données telles que BSV pour former des LLM (conçus pour faciliter des conversations à consonance naturelle), stocker des éléments pour former des machines plus avancées. Les processus d’apprentissage, voire de constituer la base d’une Intelligence Artificielle Générale (IAG). Les véritables AGI sont encore à l’heure actuelle un concept hypothétique et seraient capables d’égaler les capacités cognitives des humains et/ou des animaux – ou de les surpasser.
« La ressemblance du câblage du cerveau humain avec la topologie actuelle du graphique du réseau Bitcoin est remarquable », ont-ils écrit dans un article de 2022. En plus de servir de plate-forme de stockage fiable et permanente pour les données de formation, les développeurs pourraient également utiliser le langage Bitcoin Script pour créer des «perceptrons» (la représentation calculable d’un neurone) en tant que contrats avec état pour vérifier les informations. Xiaohui Liu et son équipe de sCrypt ont déjà fourni des démonstrations de base de cette capacité en utilisant la blockchain BSV pour exécuter l’automate cellulaire « Game of Life ».
La plupart des blockchains, avec des capacités d’évolution limitées, seraient incapables de traiter les transactions contractuelles ou de gérer les très grandes quantités de données nécessaires à ces tâches. BSV a une capacité d’évolution illimitée et, comme c’est le cas, pourrait probablement devenir un outil clé pour développer l’IA à des niveaux de coût plus accessibles.
CoinGeek Weekly Livestream : L’avenir de l’art généré par l’IA sur Aym
le guide de ressources ultime pour en savoir plus sur Bitcoin – tel qu’envisagé à l’origine par Satoshi Nakamoto – et la blockchain.