OpenAI et Microsoft sévissent contre les pirates utilisant ChatGPT

  • OpenAI et Microsoft travaillent ensemble pour contrer les pirates utilisant ChatGPT.
  • Les pirates soutenus par des États ont utilisé ChatGPT pour trouver des vulnérabilités dans les systèmes à des fins criminelles, ciblant notamment les institutions financières, de santé et d’enseignement.
  • Ces groupes ont également utilisé l'IA générative pour créer des campagnes de phishing et suivre les activités des agences de sécurité régionales.
  • Pour limiter leurs opérations, le rapport souligne la collaboration entre agences de sécurité et le recours à une blockchain d’entreprise pour garantir la qualité et la propriété des données tout en assurant leur immuabilité.

OpenAI affirme avoir étouffé les opérations de cinq acteurs menaçants affiliés à l'État qui exploitaient ChatGPT pour trouver des vulnérabilités dans les systèmes à des fins criminelles.

Dans son blog d'entreprise, OpenAI a révélé un partenariat avec Microsoft Threat Intelligence (NASDAQ : MSFT) pour sévir contre les organisations de piratage soutenues par l'État, parmi lesquelles figuraient les acteurs de la menace affiliés à la Chine, Charcoal Typhoon et Salmon Typhoon, l'Iranien Crimson Sandstorm et l'affilié russe. Blizzard forestier.

Les acteurs malveillants s'appuieraient sur ChatGPT et d'autres services OpenAI pour détecter les erreurs de codage dans l'architecture des entreprises avant d'installer des logiciels malveillants et autres chevaux de Troie. Leurs principales cibles sont les établissements financiers, de santé et d’enseignement.

OpenAI et Microsoft sévissent contre les pirates utilisant ChatGPT

Les entités soutenues par la Chine auraient utilisé OpenAI pour traduire des documents techniques, déboguer du code et obtenir des informations sur les outils de cybersécurité utilisés par les institutions financières. Le rapport d'OpenAI a indiqué une tendance à utiliser des outils d'IA générative pour créer des campagnes de phishing et suivre les activités des agences de sécurité régionales.

Le groupe Emerald Sleet, affilié à la Corée du Nord, aurait utilisé les services d'OpenAI pour des tâches de script et des campagnes de phishing axées sur la région Asie-Pacifique. OpenAI a également révélé que Forest Blizzard s'est tourné vers ChatGPT pour des recherches sur la technologie d'imagerie radar et la communication par satellite.

OpenAI a depuis pris des mesures contre les comptes affiliés aux syndicats de piratage soutenus par l'État qui interagissent avec ses plateformes, notamment en les plaçant sur la liste noire et en les bannissant purement et simplement. Cependant, il a minimisé l’impact de ses services sur les entités de piratage soutenues par l’État, semblables aux outils préexistants non alimentés par l’IA.

« Nous avons fermé les comptes associés à des acteurs menaçants affiliés à l’État », peut-on lire dans le rapport. « Nos résultats montrent que notre modèle n'offre que des capacités incrémentielles limitées pour les tâches malveillantes de cybersécurité. »

La déclaration d'OpenAI souligne que la transparence publique et la collaboration de l'industrie sont essentielles pour prévenir les abus par de mauvais acteurs, tout en tirant les leçons des récents incidents d'abus. La société affirme investir massivement dans ses équipes de sécurité pour « rechercher des pistes » et détecter toute utilisation contradictoire de son contenu par de mauvais acteurs.

Faire des ravages dans le Web3

Des acteurs soutenus par l’État ont laissé une trace de failles de sécurité dans le Web3, récoltant plus d’un milliard de dollars en 2022 grâce à leurs attaques de logiciels malveillants. Le groupe nord-coréen Lazarus est devenu tristement célèbre à la suite de ses attaques contre Harmony, CoinEX et Atomic Wallet, générant des bénéfices en millions de dollars en actifs numériques.

Les experts en sécurité notent que le butin des attaques est utilisé pour alimenter le programme d'armes nucléaires de la Corée du Nord face à des sanctions économiques étouffantes. Pour limiter leurs opérations, les agences de sécurité s'associent pour promouvoir les collaborations transfrontalières et le partage d'informations tout en mettant sur liste noire les membres connus des organisations de piratage.

Pour que l’intelligence artificielle (IA) fonctionne dans le respect de la loi et prospère face à des défis croissants, elle doit intégrer un système de blockchain d’entreprise qui garantit la qualité et la propriété des données saisies, lui permettant ainsi de conserver les données en sécurité tout en garantissant leur immuabilité. de données. Consultez la couverture de CoinGeek sur cette technologie émergente pour savoir pourquoi la blockchain d'entreprise sera l'épine dorsale de l'IA.

Regardez  : l’IA n’est vraiment pas générative, elle est synthétique

Nouveau sur la blockchain ? Consultez la section Blockchain pour les débutants de CoinGeek, le guide de ressources ultime pour en savoir plus sur la technologie blockchain.