Les conséquences coûteuses d'un chuchoteur d'IA contraire à l'éthique
Oui.. Je parle des applications d’IA – nos myriades d’applications d’IA et celles à venir chuchotant aux humains ce qu’il faut faire…. comment le faire… mais pas sur les chuchoteurs qui interagissent avec les chatbots IA.
C’est un outil nécessaire pour transformer les données en informations afin de déclencher une action basée sur de meilleures décisions. Personne ne débat des avantages de l’IA pour réduire les risques commerciaux et amplifier le retour sur investissement grâce à l’innovation. Mais, comme toujours, il y a un … MAIS … l’IA impartiale est plus facile à dire qu’à faire.
Critiques pour l’entreprise, ces modèles d’IA doivent fonctionner de manière fiable avec visibilité et responsabilité. Sinon, l’échec, dans ce cas, a des conséquences désastreuses qui ont un impact sur les flux de trésorerie de toute entreprise et pourraient même entraîner des problèmes juridiques. La seule façon d’éviter cela est l’automatisation et la transparence pour répondre à une question « Pouvez-vous prouver que cette application/charge de travail d’IA est construite de manière éthique ». Aka… comment gouvernez-vous ? Et pouvez-vous prouver qu’il est gouverné en permanence ?
C’est là que des entreprises comme IBM ont investi dans la gouvernance de l’IA pour orchestrer le processus global de direction, de gestion et de surveillance des activités d’IA de l’organisation. La tâche principale consiste à s’assurer que toutes les unités commerciales restent proactives et à intégrer le cadre de gouvernance dans les initiatives visant à renforcer la capacité à respecter les principes et réglementations éthiques. En particulier, les industries réglementées telles que la banque et les services financiers sont légalement tenues de fournir des preuves pour satisfaire les régulateurs.
L’influence de l’IA croît de manière exponentielle dans le secteur des services financiers en raison de la pression énorme de la transformation numérique. Comme dit, c’est plus facile à dire qu’à faire car :
Dans certains cas, les modèles sont construits sans clarté ni catalogage ; Inutile de dire que la surveillance se glisse au milieu de tout pour suivre le cycle de vie de bout en bout. Alors que les banques sont aux prises avec des applications héritées, l’automatisation des processus pour créer de la transparence et de l’explicabilité est devenue plus difficile et, à son tour, une boîte noire. Personne ne sait pourquoi/comment les décisions ont été prises. Les nouvelles applications enchevêtrées avec des applications héritées ne voient jamais la lumière du jour bien qu’un énorme retour sur investissement y soit associé en raison de la qualité et des risques non perçus.
gérer le risque de réputation
2. Gérer le risque de réputation en même temps que le risque global
J’ai demandé à #chatGPT et #Bard – qui est Padma Chukka. #ChatGPT a refusé de répondre même si j’ai changé la question de plusieurs façons. Pourtant, Bard m’a donné une réponse détaillée, y compris mon profil LinkedIn… mais les données proviennent de divers sites où mon ancien profil existe toujours dans le cadre des biographies des conférenciers. À partir de ce moment, je n’ai pas encore ouvert le barde. Très vite, j’ai été éteint, alias – risque de réputation. Supposons que je puisse désactiver un simple chatbot lorsque je réalise que les données peuvent être incohérentes. Comment pourrais-je ne pas m’en assurer avant de décider d’acheter une application infusée d’IA pour mener des activités critiques ? Le risque de réputation est un facteur essentiel que les entreprises oublient parfois. Si vous quantifiez le risque de réputation, on peut voir l’énorme impact sur l’entreprise si l’on n’est pas proactif.
Pour ajouter à la complexité, le troisième est…
3. Comment une entreprise peut-elle répondre à l’évolution de la réglementation en matière d’IA ?
Pour éviter le risque de réputation, une équipe d’IA performante et responsable doit être au courant de toutes les réglementations locales et mondiales, et tomber comme une vidéo tic-tac avec un préavis d’un instant. Et la non-conformité peut finalement coûter à une organisation des millions de dollars en amendes pour des travaux comme la proposition de loi sur l’IA de l’UE. Cela peut représenter jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires mondial de l’entreprise – OUCH.
Sans surprise… ce sont toujours les gens, les processus et la technologie. Donc, tout d’abord, créez un organe directeur interfonctionnel pour éduquer, diriger et surveiller les initiatives en fonction des objectifs. Comparez ensuite la technologie et les processus d’IA actuels, comprenez les lacunes, puis remédiez à l’épreuve du temps. Recourez ensuite à un ensemble de workflows de gouvernance automatisés conformes aux exigences de conformité. Enfin, mettez en place un système de surveillance pour alerter les propriétaires si le seuil acceptable se rapproche. Du côté de la technologie, une IA bien architecturée, bien exécutée et bien connectée nécessite plusieurs éléments de base. Et assurez-vous qu’il dispose de certaines ou de toutes les fonctionnalités :
· Intégrité des données dans divers déploiements
· Utiliser des outils existants ouverts et flexibles qui adhèrent à la gouvernance de l’IA
· Assurez-vous d’offrir un accès en libre-service avec des contrôles de confidentialité – un moyen de suivre
· Concevoir avec l’automatisation et la gouvernance de l’IA à l’esprit
· Peut se connecter et être personnalisable pour plusieurs parties prenantes grâce à un flux de travail personnalisable
IBM peut valider vos modèles avant de les mettre en production et peut être surveillé pour l’équité, la qualité et la dérive. Il peut également fournir une documentation expliquant le comportement et les prévisions du modèle pour satisfaire aux exigences des régulateurs et des auditeurs. Ces explications peuvent apporter de la visibilité et alléger la tâche de l’audit, et accroître la transparence et la capacité à déterminer les risques éventuels.
Écoutez ces chuchotements de l’IA en toute confiance !
#Financialservices #responsibleai #ethicalai #NISTAIRMF