Soyez conscient du clonage vocal de l’intelligence artificielle

La prolifération des technologies d’IA telles que le clonage vocal et l’usurpation d’identité de l’appelant a ouvert de nouvelles voies à exploiter pour les fraudeurs. En imitant les voix et en masquant la véritable identité de l'appelant, les fraudeurs peuvent lancer des attaques d'ingénierie sociale très convaincantes par téléphone. Cette puissante combinaison présente de sérieux risques pour les individus et les organisations.

Toutefois, nous ne sommes pas sans défense face à ces menaces émergentes. Les solutions d'authentification vocale biométrique qui analysent les caractéristiques vocales uniques telles que la hauteur, le ton et les modèles de parole peuvent détecter les voix synthétiques et démasquer les deepfakes. De plus, les services avancés de renseignement sur l’identification de l’appelant croisent les numéros avec les bases de données d’appelants frauduleux connus pour signaler les appels suspects.

Nous ne sommes pourtant pas sortis du bois.

Un professeur de gym est accusé d'avoir utilisé le clone vocal de l'IA pour tenter de faire virer un directeur d'école secondaire.

Vous vous inquiétez des escroqueries au clonage vocal AI ? Créez un mot de passe familial.

La technologie de clonage vocal a rendu extrêmement facile pour les escrocs la fraude vocale ou les attaques de « vishing ». Avec seulement quelques secondes d’audio, les criminels peuvent générer de fausses voix très convaincantes. Lorsqu’ils sont combinés à l’usurpation d’identité de l’appelant pour masquer leurs vrais numéros, les fraudeurs peuvent usurper l’identité d’entités de confiance comme des banques ou des membres de leur famille à grande échelle et à peu de frais.

La technologie de clonage vocal, alimentée par l’intelligence artificielle, a ouvert de nouvelles voies à la fraude. Un exemple consiste à usurper l'identité de la voix de quelqu'un pour autoriser des transactions frauduleuses. Par exemple, un escroc pourrait cloner la voix d’un dirigeant d’une entreprise pour inciter ses employés à transférer des fonds ou à divulguer des informations sensibles.

Un autre exemple est l’utilisation du clonage vocal pour créer de faux enregistrements audio convaincants à des fins de manipulation politique ou sociale. En imitant la voix de personnalités publiques, le contenu généré par l’IA peut diffuser des informations erronées, manipuler l’opinion publique ou même provoquer des troubles. De telles activités frauduleuses sapent la confiance dans les médias et les institutions, entraînant une confusion et une division généralisées. Ces exemples mettent en évidence les dangers potentiels du clonage de la voix de l’IA entre de mauvaises mains.

Personne n'est à l'abri : même des individus très rationnels sont devenus la proie de ruses élaborées impliquant des scénarios fictifs d'usurpation d'identité et des menaces pour leur sécurité.

À mesure que les capacités de l’IA générative progressent, les deepfakes audio ne deviendront que plus réalistes et accessibles aux criminels aux compétences limitées. Il est inquiétant de constater que plus de la moitié des personnes partagent régulièrement des échantillons vocaux sur les réseaux sociaux, fournissant ainsi de nombreuses données de formation pour les modèles de clonage vocal.

J'ai récemment présenté une présentation à une grande société de services financiers, et l'une des questions qu'on m'a posée concernait la question de savoir s'ils devaient ou non avoir leurs photos et leurs e-mails sur leur page de contact. Ma réponse a été la suivante : non seulement ils doivent effacer leurs photos et leurs e-mails de leur page de contact, mais ils doivent également modifier tous les messages vocaux et utiliser un message généré par ordinateur, puis accéder à leurs pages de réseaux sociaux et effacer toute vidéo qu'ils ont dans leur compte personnel ou personnel. vies professionnelles.

Et même si cela semble certainement « alarmiste », cet auteur est complètement paniqué par les progrès de la technologie de clonage vocal de l’IA, par son efficacité et par la vulnérabilité qui en résulte.

Écoutez simplement cet OpenAI qui imite les voix humaines sur CNN. C'est d'une perfection alarmante.

Les entreprises, en particulier celles qui dépendent des interactions vocales comme les banques et les prestataires de soins de santé, sont également des cibles de grande valeur. Un seul employé manipulé avec succès pourrait divulguer par inadvertance des informations apparemment inoffensives qui seraient exploitées pour un accès plus large.

Heureusement, les régulateurs du monde entier prennent conscience de la menace et mettent en œuvre des contre-mesures. Cela inclut le partage de renseignements, les normes de sécurité de l’industrie, l’obligation pour les opérateurs de télécommunications de filtrer les appels usurpés et l’interdiction pure et simple d’utiliser les voix générées par l’IA pour les appels automatisés. Nous sommes encore loin, voire jamais, de la prévention de la fraude liée à l’IA.

Des solutions technologiques telles que la biométrie vocale, les détecteurs de deepfake, l’analyse des anomalies et la blockchain font également leur apparition. Le tout combiné à une évaluation des risques des appelants en temps réel fournit une défense à plusieurs niveaux. Le déploiement de ces contre-mesures est crucial pour se prémunir contre la fusion sournoise de l’IA et des escroqueries téléphoniques traditionnelles. Avec les bons outils et la vigilance, nous pouvons garder une longueur d’avance sur les fraudeurs qui exploitent les technologies de pointe pour réaliser des gains néfastes. Cependant, les fraudeurs font continuellement évoluer leurs tactiques. Une stratégie à plusieurs volets assortie d’une formation de sensibilisation à la sécurité est donc cruciale pour une défense efficace.

Les entreprises doivent renforcer leurs capacités de cybersécurité autour des services de télécommunications, en instituant des politiques claires comme l'authentification vocale multifactorielle. Une formation régulière des employés et une éducation des clients pour identifier les tactiques de vishing sont également essentielles. Une action collective entre l’industrie, le gouvernement et les particuliers sera essentielle pour endiguer la vague croissante de fraude vocale basée sur l’IA.

En tirant parti de la technologie pour lutter contre la fraude technologique, les organisations peuvent atténuer les risques et les individus peuvent répondre aux appels avec une plus grande confiance. À l’ère de l’IA, lutter contre la fraude vocale nécessite un arsenal de solutions de sécurité innovantes.