L'IA fait peur à la plupart des Américains à propos de la vie privée et des pertes d'emploi
Selon une nouvelle étude publiée par le Pew Research Center, les Américains craignent l’utilisation croissante de l’intelligence artificielle (IA) dans l’embauche et l’évaluation des travailleurs.
Pew Research a interrogé 11 004 adultes américains à la mi-décembre 2022, demandant aux participants leur avis sur l’impact de l’IA sur la main-d’œuvre. Alors que certains répondants ont reconnu l’efficacité du recrutement basé sur l’IA, beaucoup ont exprimé des craintes que la technologie puisse envahir la vie privée, avoir un impact sur les évaluations et entraîner des pertes d’emplois.
Selon l’étude, publiée jeudi, 32% des Américains pensent que l’IA dans l’embauche et l’évaluation des travailleurs est plus susceptible de nuire que d’aider les candidats et les employés.
Soixante et onze pour cent des citoyens américains sont contre l’idée d’utiliser l’IA pour décider d’embaucher ou de licencier quelqu’un. D’autre part, l’étude a révélé que 40 % des Américains pensent toujours que l’IA peut apporter des avantages aux candidats et aux employés en accélérant les processus d’embauche, en réduisant les erreurs humaines et en éliminant les biais potentiels inhérents à la prise de décision humaine. Certains répondants ont également souligné le potentiel des évaluations de performance basées sur l’IA pour fournir une évaluation plus objective et cohérente des compétences et de la productivité des travailleurs.
La recherche révèle que 32% des Américains pensent qu’au cours des 20 prochaines années, l’IA fera plus de mal que de bien aux travailleurs, avec seulement 13% montrant un point de vue optimiste, avec près des deux tiers des répondants disant qu’ils ne postuleraient pas pour un emploi s’ils savaient qu’ils allaient être évalués par une Intelligence Artificielle.
Ces préoccupations s’étendent à divers aspects du processus d’embauche, de la sélection des CV et de l’évaluation des candidats à la surveillance des performances et aux décisions relatives au personnel. Le rapport souligne que la majorité des participants craignent que les systèmes d’IA ne portent atteinte à leur vie privée en collectant trop d’informations personnelles, telles que l’historique de navigation ou l’activité sur les réseaux sociaux. Selon l’étude, 90 % des travailleurs de la classe supérieure, 84 % des travailleurs de la classe moyenne et 70 % des travailleurs de la classe inférieure craignent d’être « surveillés de manière inappropriée si l’IA était utilisée pour collecter et analyser des informations ».
Répondre aux préoccupations : politique, transparence et éducation
Alors que l’IA continue de faire des percées dans la main-d’œuvre, les leaders de l’industrie technologique ont fait pression pour que les décideurs politiques, les entreprises et les développeurs répondent aux préoccupations du public. Dans l’Union européenne, par exemple, les régulateurs ont tenté d’empêcher les abus potentiels en appelant à la transparence des systèmes d’IA, de l’éducation et de la formation des travailleurs pour qu’ils s’adaptent à un paysage professionnel en évolution rapide. Certains des esprits les plus célèbres de l’industrie de l’IA ont appelé à une pause dans la formation de modèles plus avancés afin de résoudre ces problèmes avant qu’il ne soit trop tard.
Pendant ce temps, les régulateurs ont commencé à prêter attention à la manière dont ces modèles d’intelligence artificielle sont formés et à la manière dont ils pourraient affecter les droits des citoyens. La première étape a été franchie par l’Italie lorsqu’elle a interdit l’utilisation de ChatGPT dans le pays au motif qu’elle pourrait collecter illégalement des données auprès de ses utilisateurs et exposer des mineurs à des interactions inappropriées.
D’autres pays européens ont également exprimé des préoccupations similaires, notamment parce que les modèles d’intelligence artificielle sont particulièrement utiles s’ils sont correctement entraînés, ce qui nécessite de grandes quantités de données.