Comment faire de l'IA : affiner les paramètres de confidentialité de votre chatbot
Il peut être facile, voire réconfortant, d’imaginer qu’utiliser des outils d’IA implique d’interagir avec une machine purement objective, stoïque et indépendante qui ne sait rien de vous. Mais entre les cookies, les identifiants d’appareil, les exigences de connexion et de compte, et même l’examen humain occasionnel, l’appétit vorace des services en ligne pour vos données semble insatiable.
La confidentialité est une préoccupation majeure des consommateurs et des gouvernements face à la propagation généralisée de l’IA. Dans l’ensemble, les plateformes mettent en avant leurs fonctionnalités de confidentialité, même si elles sont difficiles à trouver. (Les plans payants et commerciaux excluent souvent entièrement la formation sur les données soumises.) Mais chaque fois qu'un chatbot « se souvient » de quelque chose, il peut toujours sembler intrusif.
Dans cet article, nous expliquerons comment renforcer les paramètres de confidentialité de votre IA en supprimant vos discussions et conversations précédentes et en désactivant les paramètres de ChatGPT, Gemini (anciennement Bard), Claude, Copilot et Meta AI qui permettent aux développeurs de former leurs systèmes sur vos données. Ces instructions concernent l'interface de bureau basée sur un navigateur pour chacun.
ChatGPT
Toujours le fleuron du mouvement de l'IA générative, ChatGPT d'OpenAI possède plusieurs fonctionnalités pour améliorer la confidentialité et atténuer les inquiétudes concernant les invites des utilisateurs utilisées pour former le chatbot.
En avril, OpenAI a annoncé que ChatGPT pouvait être utilisé sans compte. Par défaut, les invites partagées via la version gratuite et sans compte ne sont pas enregistrées. Mais si un utilisateur ne souhaite pas que ses discussions soient utilisées pour entraîner ChatGPT, il doit toujours activer les paramètres « Chat temporaire » dans le menu déroulant ChatGPT en haut à gauche de l'écran.
Cependant, si vous avez un compte et un abonnement à ChatGPT Plus, comment empêcher que vos invites ne soient utilisées ? GPT-4 donne aux utilisateurs la possibilité de supprimer toutes les discussions dans ses paramètres généraux. Encore une fois, pour vous assurer que les chats ne sont pas non plus utilisés pour entraîner le modèle d'IA, regardez plus bas jusqu'à « Contrôles des données » et cliquez sur la flèche à droite de « Améliorer le modèle pour tout le monde ».
Une section distincte « Amélioration du modèle » apparaîtra, vous permettant de la désactiver et de sélectionner « Terminé ». Cela supprimera la possibilité pour OpenAI d'utiliser vos discussions pour entraîner ChatGPT.
Il y a cependant encore des réserves.
"Tant que l'historique est désactivé, les nouvelles conversations ne seront pas utilisées pour former et améliorer nos modèles, et n'apparaîtront pas dans la barre latérale de l'historique", a déclaré un porte-parole d'OpenAI à Decrypt. "Pour surveiller les abus et les examiner uniquement lorsque nous en avons besoin, nous conserverons toutes les conversations pendant 30 jours avant de les supprimer définitivement."
Claude
"Nous n'entraînons pas nos modèles sur les données soumises par les utilisateurs par défaut", a déclaré un porte-parole d'Anthropic à Decrypt. "Jusqu'à présent, nous n'avons utilisé aucune donnée soumise par les clients ou les utilisateurs pour entraîner nos modèles génératifs, et nous l'avons expressément indiqué dans la fiche modèle de notre famille de modèles Claude 3",
"Nous pouvons utiliser les invites et les sorties des utilisateurs pour former Claude lorsque l'utilisateur nous donne l'autorisation expresse de le faire, par exemple en cliquant sur un signal de pouce levé ou baissé, sur une sortie spécifique de Claude pour nous fournir des commentaires", a ajouté la société, notant qu'elle aide le modèle d'IA à « apprendre les modèles et les connexions entre les mots ».
La suppression des discussions archivées dans Claude les gardera également hors de portée. «Je ne conserve ni n'ai accès à des discussions ou conversations précédemment supprimées», répond utilement l'agent Claude AI à la première personne. "Mes réponses sont générées uniquement sur la base de la conversation en cours."
Comme ChatGPT, Claude conserve certaines informations comme l'exige la loi.
«Nous conservons également les données dans nos systèmes back-end pendant la durée spécifiée dans notre politique de confidentialité, sauf si cela est nécessaire pour appliquer notre politique d'utilisation acceptable, résoudre les conditions d'utilisation ou les violations de la politique, ou si la loi l'exige», explique Anthropic.
Quant à la collecte d'informations de Claude sur le Web, un porte-parole d'Anthropic a déclaré à Decrypt que le robot d'exploration du développeur d'IA respecte les signaux techniques standard de l'industrie tels que robots.txt que les propriétaires de sites peuvent utiliser pour se désinscrire de la collecte de données, et qu'Anthropic n'y a pas accès. pages protégées par mot de passe ou contourner les contrôles CAPTCHA.
Gémeaux
Par défaut, Google indique aux utilisateurs de Gemini que « vos conversations sont traitées par des évaluateurs humains pour améliorer les technologies qui alimentent les applications Gemini. N'entrez rien que vous ne voudriez pas voir ou utiliser."
Mais les utilisateurs de Gemini AI peuvent supprimer l’historique de leur chatbot et refuser que leurs données soient utilisées pour entraîner son modèle à l’avenir.
Pour accomplir les deux, accédez en bas à gauche de la page d'accueil de Gemini et localisez « Activité ».
Une fois sur l'écran d'activité, les utilisateurs peuvent alors désactiver « Activité des applications Gemini ».
Un représentant de Google a expliqué à Decrypt ce que fait le paramètre « Gemini Apps Activity ».
"Si vous le désactivez, vos futures conversations ne seront pas utilisées par défaut pour améliorer nos modèles d'apprentissage automatique génératif", a déclaré le représentant de l'entreprise. « Dans ce cas, vos conversations seront enregistrées jusqu'à 72 heures pour nous permettre de fournir le service et de traiter tout commentaire que vous pourriez choisir de fournir. Au cours de ces 72 heures, à moins qu'un utilisateur ne choisisse de donner son avis dans Gemini Apps, celui-ci ne sera pas utilisé pour améliorer les produits de Google, y compris notre technologie d'apprentissage automatique.
Il existe également un paramètre distinct pour effacer votre historique YouTube connecté à Google.
Copilote
En septembre, Microsoft a ajouté son modèle d'IA générative Copilot à sa suite d'outils professionnels Microsoft 365, son navigateur Microsoft Edge et son moteur de recherche Bing. Microsoft a également inclus une version préliminaire du chatbot dans Windows 11. En décembre, Copilot a été ajouté aux magasins d'applications Android et Apple.
Microsoft n'offre pas la possibilité de refuser que les données utilisateur soient utilisées pour entraîner ses modèles d'IA, mais comme Google Gemini, les utilisateurs de Copilot peuvent supprimer leur historique. Le processus n'est cependant pas aussi intuitif sur Copilot, car les discussions précédentes s'affichent toujours sur l'écran d'accueil de la version de bureau même après avoir été supprimées.
Pour trouver l'option permettant de supprimer l'historique Copilot, ouvrez votre profil utilisateur en haut à droite de votre écran (vous devez être connecté) et sélectionnez « Mon compte Microsoft ». Sur la gauche, sélectionnez « Confidentialité » et faites défiler vers le bas de l'écran pour trouver la section Copilot.
Étant donné que Copilot est intégré au moteur de recherche de Bing, l'activité de suppression effacera également l'historique de recherche, a déclaré Microsoft.
Un porte-parole de Microsoft a déclaré à Decrypt que le géant de la technologie protège les données des consommateurs grâce à diverses techniques, notamment le cryptage, la désidentification et le stockage et la conservation des informations associées à l'utilisateur uniquement aussi longtemps que nécessaire.
"Une partie du nombre total d'invites utilisateur dans les réponses Copilot et Copilot Pro est utilisée pour affiner l'expérience", a ajouté le porte-parole. "Microsoft prend des mesures pour anonymiser les données avant qu'elles ne soient utilisées, contribuant ainsi à protéger l'identité des consommateurs", ajoutant que Microsoft n'utilise aucun contenu créé dans Microsoft 365 (Word, Excel, PowerPoint, Outlook, Teams) pour former les "modèles fondamentaux" sous-jacents. .»
Méta-IA
En avril, Meta, la société mère de Facebook, Instagram et WhatsApp, a déployé Meta AI auprès des utilisateurs.
"Nous lançons la nouvelle version de Meta AI, notre assistant, grâce auquel vous pouvez poser n'importe quelle question via nos applications et nos lunettes", a déclaré Zuckerberg dans une vidéo Instagram. « Notre objectif est de créer la meilleure IA au monde et de la rendre accessible à tous. »
Meta AI n'offre pas aux utilisateurs la possibilité de refuser que leurs entrées soient utilisées pour entraîner le modèle d'IA. Meta offre la possibilité de supprimer les discussions passées avec son agent IA.
Pour ce faire depuis un ordinateur de bureau, cliquez sur l'onglet Paramètres Facebook en bas à gauche de votre écran, situé au-dessus de votre image de profil Facebook. Une fois dans les paramètres, les utilisateurs ont la possibilité de supprimer les conversations avec Meta AI.
Meta explique que la suppression des conversations ici ne supprimera pas les discussions avec d'autres personnes dans Messenger, Instagram ou WhatsApp.
Un porte-parole de Meta a refusé de commenter si ou comment les utilisateurs pourraient exclure l'utilisation de leurs informations dans la formation du modèle Meta AI, pointant plutôt Decrypt vers une déclaration de septembre de la société concernant ses garanties de confidentialité et la page des paramètres Meta sur la suppression de l'historique.
« Les publications partagées publiquement sur Instagram et Facebook, y compris les photos et le texte, faisaient partie des données utilisées pour former les modèles d'IA générative », explique la société. « Nous n'avons pas formé ces modèles en utilisant les publications privées des gens. Nous n’utilisons pas non plus le contenu de vos messages privés avec vos amis et votre famille pour entraîner nos IA.
Mais tout ce que vous envoyez à Meta AI sera utilisé pour la formation des modèles et au-delà.
"Nous utilisons les informations que les gens partagent lorsqu'ils interagissent avec nos fonctionnalités d'IA générative, telles que Meta AI ou les entreprises qui utilisent l'IA générative, pour améliorer nos produits et à d'autres fins", ajoute Meta.
Conclusion
Parmi les principaux modèles d'IA que nous avons inclus ci-dessus, ChatGPT d'OpenAI a fourni le moyen le plus simple de supprimer l'historique et de refuser que les invites du chatbot soient utilisées pour entraîner son modèle d'IA. Les pratiques de confidentialité de Meta semblent être les plus opaques.
Beaucoup de ces sociétés proposent également des versions mobiles de leurs puissantes applications, qui offrent des contrôles similaires. Les étapes individuelles peuvent être différentes et les paramètres de confidentialité et d'historique peuvent fonctionner différemment selon les plateformes.
Malheureusement, même le fait de régler tous les paramètres de confidentialité à leurs niveaux les plus stricts peut ne pas suffire à protéger vos informations, selon le fondateur et PDG de Venice AI, Erik Voorhees, qui a déclaré à Decrypt qu'il serait naïf de supposer que vos données ont été effacées.
« Une fois qu'une entreprise possède vos informations, vous ne pouvez jamais être sûr qu'elles auront disparu », a-t-il déclaré. "Les gens devraient supposer que tout ce qu'ils écrivent sur OpenAI leur est destiné et qu'ils l'auront pour toujours."
"La seule façon de résoudre ce problème est d'utiliser un service dans lequel les informations ne sont pas du tout transférées vers un référentiel central", a ajouté Voorhees, un service comme le sien.
Edité par Ryan Ozawa.
