OpenAI et Microsoft bloquent les pirates ChatGPT en Chine et en Corée du Nord

  • OpenAI et Microsoft ont bloqué cinq cyberattaques affiliées à des États contre ChatGPT en Chine, en Corée du Nord, en Iran et en Russie.
  • Les pirates ont tenté d'utiliser GPT-4 pour des activités malveillantes telles que le phishing et la génération de scripts.
  • OpenAI renforce la cybersécurité de ses modèles d'IA et collabore avec d'autres organisations pour lutter contre les menaces numériques.

Le développeur de ChatGPT, OpenAI, a déclaré s'être associé au principal investisseur Microsoft pour contrecarrer cinq cyberattaques « affiliées à l'État ».

Les cyberattaques, a déclaré mercredi OpenAI, provenaient de deux groupes affiliés à la Chine – Charcoal Typhoon et Salmon Typhoon – ainsi que de Crimson Sandstorm, affilié à l'Iran, d'Emerald Sleet, affilié à la Corée du Nord, et de Forest Blizzard, affilié à la Russie.

Les groupes ont tenté d'utiliser GPT-4 pour la recherche sur les entreprises et les outils de cybersécurité, le débogage de code, la génération de scripts, les campagnes de phishing, la traduction de documents techniques, l'évasion de la détection des logiciels malveillants et la recherche sur les communications par satellite et la technologie radar, a déclaré OpenAI. Les comptes ont été clôturés après avoir été identifiés.

OpenAI et Microsoft bloquent les pirates ChatGPT en Chine et en Corée du Nord

« Nous avons dérangé cinq acteurs affiliés à l'État qui cherchaient à utiliser les services d'IA pour soutenir des cyberactivités malveillantes », a déclaré OpenAI dans un article de blog, qui partage également « l'approche de l'entreprise pour détecter et perturber ces acteurs afin de promouvoir le partage d'informations et transparence concernant leurs activités.

« La grande majorité des gens utilisent nos systèmes pour améliorer leur vie quotidienne, des tuteurs virtuels pour les étudiants aux applications capables de retranscrire le monde pour les personnes malvoyantes », a déclaré OpenAI. « Comme c’est le cas pour de nombreux autres écosystèmes, il existe une poignée d’acteurs malveillants qui nécessitent une attention soutenue afin que tous les autres puissent continuer à en bénéficier. »

Bien qu'OpenAI ait réussi à stopper ces cas, l'entreprise a reconnu l'impossibilité de mettre fin à chaque utilisation abusive.

Suite à une vague de deepfakes et d’escroqueries générées par l’IA après le lancement de ChatGPT, les décideurs politiques ont intensifié leur surveillance des développeurs d’IA générative. En septembre, OpenAI a annoncé une initiative visant à renforcer la cybersécurité autour de ses modèles d’IA, notamment en se tournant vers des « équipes rouges » tierces pour trouver des failles dans la sécurité d’OpenAI.

Malgré l'investissement d'OpenAI dans la cybersécurité et la mise en œuvre de mesures pour empêcher ChatGPT de répondre par des réponses malveillantes, racistes ou dangereuses, les pirates ont trouvé des moyens de jailbreaker le programme et de faire exactement cela au chatbot. En octobre, des chercheurs de l'Université Brown ont découvert que l'utilisation de langues moins courantes comme le zoulou et le gaélique pouvait contourner les restrictions de ChatGPT.

OpenAI a souligné la nécessité de garder une longueur d'avance sur l'évolution des menaces et a souligné son approche pour sécuriser ses modèles d'IA, y compris la transparence, la collaboration avec d'autres développeurs d'IA et l'apprentissage des cyberattaques du monde réel.

La semaine dernière, plus de 200 organisations, dont OpenAI, Microsoft, Anthropic et Google, se sont jointes à l'administration Biden pour former l'AI Safety Institute et le US AI Safety Institute Consortium (AISIC), visant à développer l'intelligence artificielle en toute sécurité et à lutter contre les deepfakes générés par l'IA. et répondre aux problèmes de cybersécurité.

écosystème numérique et améliorons l'expérience de tous les autres », a déclaré OpenAI.