La cybercriminalité basée sur l'IA va exploser en 2024, selon un dirigeant de CrowdStrike

La nouvelle année apporte de nouvelles menaces de cybersécurité alimentées par l’intelligence artificielle, a déclaré mardi à CBS Mornings le responsable de la sécurité de CrowdStrike, Shawn Henry.
"Je pense que c'est une préoccupation majeure pour tout le monde", a déclaré Henry.
"L'IA a vraiment mis cet outil extrêmement puissant entre les mains de la personne moyenne et l'a rendu incroyablement plus performant", a-t-il expliqué. « Les adversaires utilisent donc l’IA, cette nouvelle innovation, pour surmonter différentes capacités de cybersécurité et accéder aux réseaux d’entreprise. »
Henry a souligné l'utilisation de l'IA pour pénétrer les réseaux d'entreprise, ainsi que pour diffuser des informations erronées en ligne à l'aide de deepfakes vidéo, audio et textuels de plus en plus sophistiqués.
Henry a souligné la nécessité d’examiner la source de l’information et de ne jamais prendre pour argent comptant ce qui est publié en ligne.
"Vous devez vérifier d'où cela vient", a déclaré Henry. « Qui raconte l'histoire, quelle est sa motivation et pouvez-vous la vérifier à travers plusieurs sources ? »
"C'est incroyablement difficile parce que les gens, lorsqu'ils utilisent la vidéo, disposent de 15 ou 20 secondes, ils n'ont pas le temps ou ne font souvent pas l'effort d'aller chercher ces données, et c'est un problème."
Notant que 2024 est une année électorale pour plusieurs pays, dont les États-Unis, le Mexique, l’Afrique du Sud, Taiwan et l’Inde, Henry a déclaré que la démocratie elle-même était en jeu, les cybercriminels cherchant à profiter du chaos politique en tirant parti de l’IA.
«Nous avons vu des adversaires étrangers cibler les élections américaines pendant de nombreuses années, et pas seulement en 2016. nous a ciblés en 2008 », a déclaré Henry. « Nous avons vu la Russie, la Chine et l'Iran se livrer à ce type de désinformation et de désinformation au fil des années ; ils vont certainement l'utiliser à nouveau ici en 2024. »
« Les gens doivent comprendre d’où viennent les informations », a déclaré Henry. "Parce qu'il y a des gens qui ont des intentions néfastes et créent d'énormes problèmes."
La sécurité des machines à voter constitue une préoccupation particulière lors des prochaines élections américaines de 2024. Lorsqu’on lui a demandé si l’IA pouvait être utilisée pour pirater les machines à voter, Henry s’est dit optimiste quant au fait que la nature décentralisée du système électoral américain empêcherait que cela se produise.
"Je pense que notre système aux États-Unis est très décentralisé", a déclaré Henry. « Il existe des poches individuelles qui pourraient être ciblées, comme les listes électorales, etc. Je ne pense pas qu’un problème de tabulation des électeurs à grande échelle ait un impact sur une élection – je ne pense pas que ce soit un problème majeur.
Henry a souligné la capacité de l’IA à donner accès à des armes techniques à des cybercriminels peu experts en technologie.
"L'IA fournit un outil très performant entre les mains de personnes qui n'ont peut-être pas de compétences techniques élevées", a déclaré Henry. «Ils peuvent écrire du code, créer des logiciels malveillants, des e-mails de phishing, etc.»
En octobre, la RAND Corporation a publié un rapport suggérant que l’IA générative pourrait être jailbreakée pour aider les terroristes à planifier des attaques biologiques.
« En général, si un acteur malveillant est explicite , vous obtiendrez une réponse du genre « Je suis désolé, je ne peux pas vous aider avec ça » », a déclaré Christopher Mouton, co-auteur et ingénieur principal de RAND Corporation, à Decrypt dans une interview. "Vous devez donc généralement utiliser l'une de ces techniques de jailbreak ou une ingénierie rapide pour passer un niveau en dessous de ces garde-fous."
Dans un rapport distinct, la société de cybersécurité SlashNext a rapporté que les attaques de phishing par courrier électronique ont augmenté de 1 265 % depuis le début de 2023.
Les décideurs politiques mondiaux ont passé la majeure partie de l’année 2023 à chercher des moyens de réglementer et de réprimer l’utilisation abusive de l’IA générative, y compris le secrétaire général des Nations Unies, qui a tiré la sonnette d’alarme sur l’utilisation de deepfakes générés par l’IA dans les zones de conflit.
En août, la Commission électorale fédérale américaine a déposé une pétition visant à interdire l’utilisation de l’intelligence artificielle dans les publicités électorales à l’approche de la saison électorale de 2024.
Les géants de la technologie Microsoft et Meta ont annoncé de nouvelles politiques visant à lutter contre la désinformation politique alimentée par l'IA.
« Le monde de 2024 pourrait voir plusieurs États-nations autoritaires chercher à s’immiscer dans les processus électoraux », a déclaré Microsoft. « Et ils pourraient combiner des techniques traditionnelles avec l’IA et d’autres nouvelles technologies pour menacer l’intégrité des systèmes électoraux. »
Même le pape François, qui a fait l’objet de deepfakes viraux générés par l’IA, a, à différentes occasions, abordé l’intelligence artificielle dans ses sermons.
"Nous devons être conscients des transformations rapides qui s'opèrent actuellement et les gérer de manière à sauvegarder les droits humains fondamentaux et à respecter les institutions et les lois qui promeuvent le développement humain intégral", a déclaré le pape François. "L'intelligence artificielle doit servir notre meilleur potentiel humain et nos aspirations les plus élevées, et non les concurrencer."

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception.