Massachusetts AG publie un avis sur l'IA destiné aux entreprises dans un contexte de taux d'adoption en hausse
Alors que les systèmes d'intelligence artificielle (IA) générative continuent d'attirer l'attention, les autorités s'empressent de lever les garde-fous pour guider leur développement et leurs applications commerciales, le procureur général du Massachusetts, Andrea Campbell, se joignant à la mêlée.
IA. Ses déclarations ont pris la forme d'un avis publié pour servir de guide aux fournisseurs de services de l'industrie et au grand public en attendant le lancement d'un manuel complet sur l'IA.
L'avis de Campbell détaille l'essor des modèles d'IA générative et leur utilisation généralisée par les entreprises, citant leurs avantages par rapport aux systèmes traditionnels.
« Il ne fait aucun doute que l'IA recèle un potentiel énorme et passionnant qui bénéficiera à la société et à notre Commonwealth de plusieurs manières, notamment en favorisant l'innovation et en augmentant l'efficacité et les économies sur le marché », a déclaré Campbell. « Pourtant, ces avantages ne compensent pas le risque réel de préjudice que, par exemple, tout parti pris et manque de transparence au sein des systèmes d'IA, peut causer à nos résidents.
»
État.
Les développeurs d'IA sont invités à déployer des systèmes sans préjugés ni discrimination tout en veillant à ce que leurs modèles ne soient pas formés avec du contenu préjudiciable conforme aux lois sur les droits civils.
L'avis s'étend aux droits d'auteur, les entreprises étant invitées à demander le consentement des détenteurs de propriété intellectuelle (PI) avant d'utiliser le contenu pour former leurs modèles.
Les entreprises devraient inclure des avertissements clairs aux consommateurs pour indiquer les interactions avec les systèmes d'IA et garantir la sécurité des données personnelles des utilisateurs. En tant que niveau de protection supplémentaire, l'avis exhorte les développeurs d'IA à prévoir un étiquetage clair du contenu généré par l'IA.
Consciente que l'IA pourrait être une « boîte noire » sans une garantie ferme d'applicabilité dans le monde réel, Campbell étend ses conseils aux consommateurs. Selon la déclaration, il est interdit aux utilisateurs d'utiliser des systèmes d'IA pour diffuser des informations erronées ou d'exploiter des deepfakes et des chatbots pour frauder des membres du public sans méfiance.
Faire pression pour des règles plus strictes
Alors que les États-Unis plaident en faveur de règles plus strictes en matière d'IA, plusieurs juridictions semblent vouloir suivre la même voie pour protéger les consommateurs.
Au Japon, les régulateurs s'efforcent de mettre en place des règles strictes pour empêcher un effondrement de « l'ordre social » résultant de la manipulation des élections et de la diffusion d'idées discriminatoires.
L'Union européenne (UE), avec sa position avant-gardiste, a choisi de serrer la vis pour l'industrie face aux risques croissants posés par les géants de l'industrie. Cependant, les régulateurs européens affirment que des règles strictes sur le secteur n'étoufferont pas la croissance de nouvelles startups dans l'écosystème, mais qu'elles s'inspireront de leurs expériences en matière de réglementation des actifs numériques.
Pour que l'intelligence artificielle (IA) fonctionne dans le respect de la loi et prospère face à des défis croissants, elle doit intégrer un système de blockchain d'entreprise qui garantit la qualité et la propriété des données saisies, lui permettant ainsi de conserver les données en sécurité tout en garantissant leur immuabilité. de données. Consultez la couverture de CoinGeek sur cette technologie émergente pour savoir pourquoi la blockchain d'entreprise sera l'épine dorsale de l'IA.
Regarder : Masterclass AI Forge : Pourquoi l'IA et la blockchain sont des moteurs de technologie
Nouveau sur la blockchain ? Consultez la section Blockchain pour les débutants de CoinGeek, le guide de ressources ultime pour en savoir plus sur la technologie blockchain.
