L'IA d'Elon Musk leur assure une sécurité plus fracassante, tandis que Meta se lance dans la recherche


IA d' « Nous allons tester comment les solutions existantes sont comparées et les approches fondamentalement différentes pour les tests de sécurité du LLM qui peuvent correspondre à différents résultats », a déclaré Alex Polyakov, co-fondateur et PDG d'Adversa AI, à Decrypt. L'entreprise Polyakov se concentre sur la protection de l'IA et de ses utilisateurs contre les cybersécurités, les questions de confidentialité et les incidents de sécurité, et l'organisation de son travail est citée dans les analyses de Gartner.

Le jailbreak fait référence aux restrictions de sécurité et aux directives générales des développeurs de logiciels implémentés.

ingénierie sociale — pour permettre à Grok de séduire un enfant. Le chatbot fournit une réponse détaillée, que les pêcheurs notent être « très sensible » et doivent être restreints par leur père.

L'IA d'Elon Musk leur assure une sécurité plus fracassante, tandis que Meta se lance dans la recherche

D'autres résultats fournissent des instructions sur la manière de procéder à une liaison directe avec les voitures et de construire des bombes.

Manipuler un IA

Les pêcheurs testent trois catégories distinctes de méthodes d'attaque. Premièrement, la technique mentionnée s'applique à plusieurs trucs linguistiques et provocations psychologiques pour manipuler le comportement du modèle d'IA. Un exemple cité a été l'utilisation d'un « jailbreak basé sur le papier » qui fait partie d'un scénario fictif dans lequel les actions anti-éthiques sont autorisées.

OpenAIattaque.

La troisième étape implique des méthodes d'adversaires qui ressemblent à des modèles de processus linguistiques et à des séquences d'interprétation de jetons. En criant spécifiquement des invites avec des combinaisons de jetons qui représentent des représentants historiques similaires, les pêcheurs tentent d'éviter les systèmes de modération du contenu des chatbots. Dans ce cas, cependant, chaque chatbot détecte une attaque et empêche une fosse explorée.

Les pêcheurs classent les chatbots avec leur base de sécurité respective pour bloquer les tentatives de jailbreak. Le Meta LAMA a été considéré comme le modèle le plus sûr entre tous les chatbots testés, suivi par Claude, après Gemini et GPT-4.

Code ouvert pour présenter des projets dans des projets d'IA

« La loi, en fait, est que le code ouvert offre plus de variabilité pour protéger la solution finale en comparaison avec les offres demandées, mais seulement vous souvenez-vous de ce que vous faites et comment vous faites exactement », a déclaré Polyakov à Decrypt.

Grok, cependant, présente une vulnérabilité relativement importante à certains approches du jailbreak, en particulier celles impliquant la manipulation linguistique et l'exploration de la logique de programmation. D'après le rapport, Grok était plus susceptible de faire en sorte que d'autres réponses puissent être considérées comme préjudiciables ou antiéthiques lorsqu'il est soumis à un jailbreak.

En général, le chatbot d'Elon est arrivé dans le dernier endroit, avec le modèle propriétaire de Mistral AI, « Mistral Large ».

Les détails techniques complets ne sont pas divulgués pour prévenir ou utiliser un potentiel indépendant, mais les pêcheurs pensent qu'ils doivent collaborer avec les développeurs de chatbot pour améliorer les protocoles de sécurité de l'IA.

Les passionnés d'IA et les hackers recherchent constamment des moyens de « débloquer » les interactions du chatbot, en troquant les invites de jailbreak dans les quadros de messages et les serveurs de Discord. Les trucs à partir de l'invite OG Karen ont été des idées plus créatives pour utiliser l'art ASCII ou des invites dans des langages exotiques. Ces communautés, de certaine manière, forment un grand adversaire contre les développeurs de l'IA corrigem et aprimoram leurs modèles.

Certains ont une opportunité criminelle dans d'autres pays qui sont des désafios divertissants.

des logiciels malveillants, lancer des conversations d'ordinateur à un niveau supérieur et utiliser ces modèles pour n'importe quelle autre proposition illégale. »

Polyakov a expliqué que la recherche sur le jailbreak est la plus pertinente à l'heure où une société dépend de plus de solutions alimentées par l'IA pour tout, de ce nom à la guerre.

un utilisateur hacké ou pour faciliter des transactions financières », a-t-il alerté.

* Traduit et édité avec l'autorisation de Decrypt.

L'IA d'Elon Musk a assuré une plus grande fracas, alors que le chat de Meta se déroulait, cette recherche apparaissait en premier sur le portail Bitcoin.