Le Canada considère les deepfakes comme une menace sociétale


Le Service canadien du renseignement de sécurité (SCRS) a publié un rapport détaillant les menaces posées par les deepfakes utilisant des outils d’intelligence artificielle (IA) sur les secteurs clés de l’économie nationale.

Dans son rapport, le SCRS a souligné que la sophistication croissante des deepfakes pose des risques importants pour la démocratie, les valeurs et le mode de vie du Canada. L’agence de sécurité a souligné que les deepfakes sont de plus en plus accessibles et ne nécessitent pas beaucoup de connaissances techniques, notant que « l’incapacité de reconnaître ou de détecter » les deepfakes complique le problème pour des millions de Canadiens ayant accès au contenu généré par les outils d’IA.

« Les deepfakes et autres technologies avancées d’IA menacent la démocratie alors que certains acteurs cherchent à capitaliser sur l’incertitude ou à perpétuer des « faits » basés sur des informations synthétiques et/ou falsifiées », peut-on lire dans le rapport. « Cette situation sera encore exacerbée si les gouvernements sont incapables de « prouver » que leur contenu officiel est réel et factuel. »

Le Canada considère les deepfakes comme une menace sociétale

Le rapport met en évidence l’augmentation des cas de vidéos pornographiques deepfakes qui prolifèrent sur Internet, citant les exemples du streamer Twitch « QTCinderella » et de la journaliste d’investigation Rana Ayyub. Le CSIC a noté une augmentation des cas de fraude impliquant des deepfakes, avec une arnaque populaire utilisant une vidéo d’Elon Musk générée par l’IA pour inciter les gens à investir dans les monnaies numériques.

D’autres escroqueries impliquent des vidéos synthétiques se faisant passer pour des PDG d’entreprises internationales pour convaincre les employés d’effectuer des virements électroniques sur leurs comptes bancaires. Le rapport a noté une tendance croissante des escrocs à utiliser des deepfakes pour commettre des escroqueries à l’emploi, coûtant aux victimes sans méfiance des pertes s’élevant à des millions de dollars.

Conscient des problèmes liés au deepfake, le CSIS recommande une action réglementaire rapide pour réprimer les activités des mauvais acteurs. L’organisme de sécurité prévient que les gouvernements sont « notoirement lents » à déployer des cadres réglementaires par rapport au rythme d’innovation des développeurs d’IA.

« Les capacités de l’IA continueront de progresser et d’évoluer ; le réalisme des deepfakes/médias synthétiques va s’améliorer ; et le contenu généré par l’IA va devenir plus répandu », a déclaré le CSIS. « Cela signifie que les politiques, directives et initiatives gouvernementales (présentes et futures) devront progresser et évoluer dans une mesure égale parallèlement à ces technologies. »

Un étiquetage approprié est la voie à suivre

Dans sa recommandation, le CSIS a noté que l’établissement d’une exigence d’étiquetage du contenu généré par l’IA pourrait atténuer les risques associés aux deepfakes. Alors que les normes techniques en matière d’étiquetage semblent naissantes, Google (NASDAQ : GOOGL) a fait des progrès significatifs avec son outil de filigrane pour les images générées par l’IA.

Regarder Sentinel Node  : des outils blockchain pour améliorer la cybersécurité

Nouveau sur la blockchain ? Consultez la section Blockchain pour les débutants de CoinGeek, le guide de ressources ultime pour en savoir plus sur la technologie blockchain.