Les sénateurs américains examinent le travail de la FTC pour suivre les attaques d'IA contre les citoyens âgés


Quatre sénateurs américains ont écrit à la présidente de la Federal Trade Commission (FTC), Lina Khan, pour lui demander des informations sur les efforts déployés par la FTC pour suivre l’utilisation de l’intelligence artificielle (IA) pour escroquer les Américains âgés.

Dans la lettre adressée à Khan, les sénateurs américains Robert Casey, Richard Blumenthal, John Fetterman et Kirsten Gillibrand ont souligné la nécessité de répondre efficacement à la fraude et à la tromperie basées sur l’IA.

Soulignant l’importance de comprendre l’ampleur de la menace afin de la contrer, ils ont déclaré  :

Les sénateurs américains examinent le travail de la FTC pour suivre les attaques d'IA contre les citoyens âgés

« Nous demandons à la FTC de partager ses efforts pour collecter des données sur l’utilisation de l’IA dans les escroqueries et de garantir qu’elles soient reflétées avec précision dans sa base de données Consumer Sentinel Network (Sentinel). »

Consumer Sentinel est le cyber-outil d’enquête de la FTC utilisé par les organismes chargés de l’application de la loi au niveau fédéral, étatique ou local, qui comprend des rapports sur diverses escroqueries. Les sénateurs ont posé quatre questions au président de la FTC sur les pratiques de collecte de données frauduleuses liées à l’IA.

Les sénateurs voulaient savoir si la FTC avait la capacité d’identifier les escroqueries basées sur l’IA et de les identifier en conséquence dans Sentinel. De plus, il a été demandé à la commission si elle pouvait identifier les escroqueries génératives liées à l’IA qui sont passées inaperçues auprès des victimes.

Les législateurs ont également demandé une analyse des données de Sentinel afin d’identifier la popularité et les taux de réussite de chaque type d’escroquerie. La dernière question demandait si la FTC utilise l’IA pour traiter les données collectées par Sentinal.

Casey est également président du Comité sénatorial spécial sur le vieillissement, qui étudie les questions liées aux Américains âgés.

En rapport: Singapour publie la National AI Strategy 2.0 et prévoit 15 000 experts en IA

Le 27 novembre, les États-Unis, le Royaume-Uni, l’Australie et 15 autres pays ont publié conjointement des lignes directrices mondiales visant à protéger les modèles d’intelligence artificielle (IA) contre toute falsification, exhortant les entreprises à rendre leurs modèles « sécurisés dès leur conception ».

Il s’agit d’une collaboration opérationnelle en action pour une IA sécurisée à l’ère numérique  : https://t.co/DimUhZGW4R#AISafety #SecureByDesign

Les lignes directrices recommandaient principalement de maintenir une surveillance étroite sur l’infrastructure du modèle d’IA, de surveiller toute falsification des modèles avant et après leur publication et de former le personnel aux risques de cybersécurité.

Cependant, il n’a pas abordé les contrôles possibles autour de l’utilisation de modèles de génération d’images et de contrefaçons profondes ou de méthodes de collecte de données et de leur utilisation dans les modèles de formation.

Revue : Cas d’utilisation réels de l’IA dans la cryptographie  : marchés de l’IA basés sur la cryptographie et analyse financière de l’IA