VOUS SEREZ aspiré par un Deep Fake activé par l'IA


Depuis le jour où nous sortons de notre maman Et lorsque vous mélangez des médias sous quelque forme que ce soit et que vous vous mêlez ensuite de fraude financière, la probabilité que quelqu'un, quelque part, tombe dans le piège de l'IA, est inévitable. Les escroqueries d’« ingénierie sociale » basées sur l’intelligence artificielle deviennent rapidement la forme de manipulation psychologique la plus pure et la plus efficace.

Les escroqueries à l’intelligence artificielle Deepfake sont l’équivalent numérique d’un prédateur sociopathe – psychopathe – narcissique – gaslighting – violent.

PT Barnum avait tort

Et je parie que nous avons tous été trompés, ou « dupés ». Il s'agit simplement d'un risque de « confiance par défaut ».

VOUS SEREZ aspiré par un Deep Fake activé par l'IA

Au cours des 20 dernières années, cette ruse a évolué d’une communication généralisée de type « grammaire frauduleuse » à une menace avancée et persistante qui cible des individus spécifiques en comprenant et en exploitant tous les aspects de leur vie personnelle et professionnelle.

À l’ère des progrès technologiques rapides et de l’intégration de l’IA, il est impératif pour chacun de rester informé des dernières escroqueries. L’année précédente a été marquée par un paysage tumultueux en matière de cybersécurité, marqué par de grandes entreprises victimes d’attaques de logiciels malveillants, de ransomwares et par la prolifération d’opportunités pour les cybercriminels grâce aux progrès de l’IA. Malheureusement, les prévisions indiquent une nouvelle escalade de la sophistication et de la prévalence des cybermenaces et des escroqueries, ce qui rend essentiel que les individus restent vigilants et proactifs dans la protection de leurs actifs numériques.

Considérez Deepfake AI « Havoc Wreaked »

La prolifération rapide des sites Web et des applications deepfakes fait des ravages, déclenchant une vague de fraude financière et personnelle qui menace particulièrement les particuliers et les entreprises.

Cela se produit déjà. Les fraudeurs exploitent de fausses vidéos et/ou audios pour se faire passer pour des supérieurs et solliciter des informations urgentes.

De même, dans la sphère personnelle, ces tactiques de manipulation peuvent impliquer l’usurpation d’identité de membres de la famille ou d’amis pour inciter les individus à divulguer des informations sensibles ou à extraire des fonds d’un compte bancaire pour payer une rançon pour un enlèvement. Aussi ridicule que cela puisse paraître, si vous entendiez la voix de votre fille crier en arrière-plan lors d'un appel lointain sur un téléphone portable, vous cracheriez probablement l'argent si vous pensiez que votre proche était retenu captif.

L’essor des deep fakes basés sur l’IA constitue un formidable défi dans la lutte contre la fraude financière, car il offre aux cybercriminels des capacités sans précédent. Avec l’aide de l’IA, les syndicats de cybercriminalité peuvent rapidement mettre à jour et améliorer les tactiques traditionnelles de fraude par virement bancaire, ainsi que les schémas sophistiqués d’usurpation d’identité. Cette évolution rapide met en péril la fiabilité des processus de vérification et d’autorisation au sein du secteur financier, sapant ainsi la confiance dans les systèmes financiers dans leur ensemble.

Ce n'est que le début.

un employé des finances a été victime d'un paiement de 25 millions de dollars à la suite d'un appel vidéo avec un « directeur financier » deepfake.

Dans le cadre d'un stratagème sophistiqué détaillé par la police de Hong Kong, un employé financier d'une société multinationale est devenu la proie d'une technologie de deepfake, ce qui a permis de verser 25 millions de dollars à des imposteurs se faisant passer pour le directeur financier de l'entreprise.

les doutes du travailleur ont été momentanément apaisés par la ressemblance convaincante de ses supposés collègues.

Cet incident souligne l’efficacité alarmante de la technologie des deepfakes dans la perpétration de fraudes financières à une échelle sans précédent. Même s'il pensait que tous les participants à l'appel étaient authentiques, le travailleur a consenti au transfert d'une somme colossale de 200 millions de dollars de Hong Kong, l'équivalent d'environ 25,6 millions de dollars. Cet incident est emblématique d’une série d’événements récents au cours desquels les auteurs ont utilisé la technologie des deepfakes pour manipuler des vidéos et d’autres documents accessibles au public afin d’escroquer des individus.

UNLa chérie de Merica a été violée sexuellement par AI

Les autorités du monde entier tirent la sonnette d’alarme sur les progrès de la technologie deepfake et son potentiel d’exploitation malveillante. Lors d’un incident récent, des images pornographiques créées par l’IA mettant en vedette le célèbre artiste américain Taylor Swift ont inondé diverses plateformes de médias sociaux, mettant en évidence l’une des ramifications périlleuses de l’intelligence artificielle. Ces images explicites, représentant la chanteuse dans des poses sexuellement provocatrices, ont été vues des dizaines de millions de fois avant d'être rapidement supprimées des plateformes en ligne.

Swift, une célébrité chevronnée, ressent sans aucun doute un sentiment de violation. Attribuez des circonstances similaires à un lycéen calme de 16 ans, et il ou elle pourrait imploser sous la pression. Ces technologies ont des conséquences réelles, voire mortelles.

Le marché des deepfakes plonge dans les profondeurs du dark web et constitue une ressource privilégiée pour les cybercriminels cherchant à se procurer des vidéos deepfakes synchronisées avec de l'audio à diverses fins illicites, notamment les escroqueries aux cryptomonnaies, les campagnes de désinformation et les attaques d'ingénierie sociale visant le vol financier. Dans les forums du dark web, les individus recherchent activement des logiciels ou des services deepfake, ce qui met en évidence la forte demande de développeurs maîtrisant l’IA et les technologies deepfake, qui répondent souvent à ces demandes.

Ne vous attendez pas à ce que votre gouvernement résolve ce problème

Même si la création de logiciels deepfakes elle-même reste légale, l'utilisation de l'image et de la voix d'une personne opère dans une zone grise juridique en raison de l'abondance d'informations accessibles au public. Bien que les poursuites en diffamation contre les développeurs ou les utilisateurs de contenus deepfakes soient plausibles, les localiser pose des défis similaires à ceux rencontrés pour identifier les cybercriminels orchestrant d’autres types d’attaques. Les cadres juridiques entourant les applications deepfake varient selon la juridiction et l'intention, la création ou la diffusion de contenu deepfake destiné à nuire, à la fraude ou à la violation de la vie privée étant universellement illégale.

Bien qu’ils ne soient pas aussi répandus que les ransomwares ou les violations de données, les cas d’incidents de deepfake sont en augmentation, constituant une entreprise de plusieurs milliards de dollars pour les cybercriminels.

L'année dernière, McAfee a signalé une augmentation significative des attaques audio deepfake, avec un chiffre stupéfiant de 77 % des victimes succombant à des pertes financières. À mesure que les cybercriminels perfectionnent leurs techniques de deepfake, les organisations doivent améliorer l'éducation et la sensibilisation des utilisateurs, en intégrant des programmes de formation qui mettent l'accent sur les risques associés à la technologie deepfake et sur l'importance de vérifier les informations via plusieurs canaux.

Les efforts visant à développer des outils de détection avancés basés sur l’IA, capables d’identifier les deepfakes en temps réel, sont en cours, même si leur efficacité reste un travail en cours, en particulier contre les créations de deepfakes plus sophistiquées. Cependant, les criminels qui utilisent l’IA à des fins frauduleuses ont toujours deux longueurs d’avance et la formation de sensibilisation est souvent deux longueurs en retard en raison du manque de mise en œuvre.

Protégez-vous et votre organisation  :

Lorsque vous rencontrez une demande vidéo ou audio, il est essentiel de considérer le ton du message. Le langage et la formulation correspondent-ils à ce que vous attendez de votre patron ou d'un membre de votre famille ? Avant d’agir, prenez un moment pour faire une pause et réfléchir. Contactez l'expéditeur présumé via une autre plateforme, idéalement en personne si possible, pour vérifier l'authenticité de la demande. Cette simple précaution peut aider à vous prémunir contre les tromperies potentielles facilitées par la technologie deepfake, vous garantissant ainsi de ne pas être victime d'escroqueries par usurpation d'identité.

1. Restez informé  : restez au courant des derniers développements en matière de technologie de l’IA et de ses applications potentielles en matière d’escroquerie. Renseignez-vous régulièrement sur les escroqueries et les tactiques courantes liées à l'IA utilisées par les cybercriminels.

2. Vérifiez les sources  : soyez sceptique à l'égard des messages non sollicités, en particulier ceux demandant des informations sensibles ou des transactions financières. Vérifiez l’identité de l’expéditeur via plusieurs canaux avant d’entreprendre toute action.

Évitez de vous engager avec des sources inconnues ou non vérifiées, en particulier sur les marchés en ligne ou les plateformes de médias sociaux.

authentification multifacteur autant que possible pour ajouter une couche de protection supplémentaire à vos comptes et données sensibles. La mise en œuvre d'une authentification multifacteur dans un environnement de portail sécurisé pour les actions sensibles, telles que les transactions financières ou la divulgation d'informations confidentielles, constitue une défense cruciale contre les demandes frauduleuses facilitées par la technologie deepfake.

5. Mettre à jour le logiciel  : gardez vos appareils et applications logicielles à jour avec les derniers correctifs et mises à jour de sécurité. Vérifiez régulièrement les mises à jour logicielles pour atténuer les vulnérabilités exploitées par les escroqueries liées à l'IA.

7. Éduquer les autres  : partagez vos connaissances et votre sensibilisation aux escroqueries liées à l'IA avec vos amis, votre famille et vos collègues. Encouragez-les à adopter des pratiques en ligne sûres et à être vigilants face aux menaces potentielles.

Méfiez-vous des vidéos ou des fichiers audio deepfake générés par l’IA se faisant passer pour des personnes de confiance.

Les escroqueries basées sur l’IA peuvent promettre des rendements ou des avantages irréalistes pour attirer les victimes dans des stratagèmes frauduleux.

10. Signaler une activité suspecte  : si vous rencontrez une activité suspecte liée à l'IA ou si vous pensez avoir été ciblé par une arnaque, signalez-la aux autorités ou plateformes compétentes. Un signalement rapide peut contribuer à empêcher toute exploitation ultérieure et à protéger les autres contre les victimes d’escroqueries similaires.

Aucune des solutions ci-dessus ne résoudra à elle seule ce problème. Et je ne saurais trop insister sur ce point : les organisations et leur personnel doivent, plus que jamais, s’engager dans une formation cohérente et continue de sensibilisation à la sécurité.

Et cela ne signifie pas simplement déployer une formation à la simulation de phishing. Bien qu’une formation à la simulation de phishing soit nécessaire pour se conformer aux règles « cochez la case », elle ne traite qu’un aspect de la prévention de la fraude et de l’ingénierie sociale. La simulation de phish est loin de résoudre le problème de la manipulation psychologique artificiellement intelligente.