Ressusciter des êtres chers morts avec l’IA est déjà une chose

    • Des avatars IA de personnes décédées sont utilisés pour communiquer avec des êtres chers.
    • Certaines interactions peuvent être perturbantes et affecter le processus de deuil.
    • L'utilisation d'avatars IA présente à la fois des avantages et des inconvénients émotionnels et psychologiques.

La réalité succède à la fiction, avec un nouveau documentaire explorant le scénario de science-fiction dans lequel des êtres chers sont recréés à l'aide de l'intelligence artificielle pour pouvoir converser depuis l'outre-tombe.
« Eternal You », réalisé par Hans Block et Moritz Riesewieck, a fait ses débuts au Festival du film de Sundance à Park City, dans l'Utah, et se concentre sur le secteur émergent de la création d'avatars IA des morts.
Comme l'a rapporté pour la première fois Rolling Stone, le film présente l'histoire de Christi Angel, qui a utilisé un chatbot IA appelé Project December pour « communiquer » avec un être cher décédé.

Ce qui s’est passé ensuite correspondrait à un film d’horreur hollywoodien.
Lorsqu'Angel a demandé à l'avatar de l'IA où il se trouvait, le chatbot a répondu : « En enfer ».
Se tourner vers la technologie pour combler un vide laissé par un partenaire, un parent ou un ami proche n’est pas nouveau.

Faire appel à l’IA avant le décès d’une personne est une stratégie pour atteindre un type d’immortalité. Et les « robots fantômes » sont déjà une tendance en Chine. Mais les experts s’interrogent sur l’impact psychologique, émotionnel et éthique de cette pratique.

Ressusciter des êtres chers morts avec l’IA est déjà une chose

De son côté, le fondateur de Project December, Jason Rohrer, est également intrigué par les possibilités narratives.
« Je suis également intéressé par l'aspect le plus effrayant de tout cela », aurait déclaré Rohrer. « Quand je lis une transcription comme celle-là et que cela me donne la chair de poule, j'aime la chair de poule. »

Rohrer n'a pas encore répondu à la demande de commentaires de Decrypt.
Une cause probable de l’expérience terrifiante du chatbot d’Angel pourrait être attribuée au problème persistant des hallucinations de l’IA. Dans les modèles d’IA, l’hallucination fait référence aux cas où une intelligence artificielle répond avec confiance de manière inexacte, absurde ou dérangeante.

Les chatbots comme ChatGPT d'OpenAI ont explosé en popularité après le lancement public du modèle historique d'IA générative l'année dernière. Les chatbots formés à partir des données d'une personne décédée sont appelés « thanabots ». Le terme vient de la thanatologie, qui fait référence à l'étude scientifique de la mort, axée sur les besoins des malades en phase terminale et de leurs familles, explorant les aspects physiques, émotionnels et émotionnels.

aspects culturels. Le domaine comprend également les attitudes sociétales et les rituels autour de la mort.
Les deepfakes vidéo de personnes décédées générés par l’IA sont devenus viraux sur TikTok en mai dernier.

Ces courts clips vidéo comprenaient des descriptions vidéo, audio et à la première personne d'enfants, dont la royauté Marie Floyd, assassinée en 2018.
Un deepfake est créé avec une intelligence artificielle qui décrit de faux événements. Bien que les images deepfakes soient la forme la plus connue, les deepfakes vidéo et audio deviennent de plus en plus répandus grâce à l’IA générative.

L’utilisation de « thanabots » IA a incité certains experts en santé mentale à avertir que le fait d’avoir un avatar numérique d’un être cher décédé entrave le processus de deuil.
« L'utilisation de l'IA pour créer un avatar à des fins personnelles ou commerciales doit être envisagée avec soin, compte tenu de l'impact potentiel sur une personne en deuil », a déclaré Elizabeth Schandelmeier, thérapeute et éducatrice en matière de deuil, de perte et de deuil. « Traverser le deuil est un processus d’adaptation et d’intégration de la perte dans nos vies et nous aide à donner un sens aux immenses changements que la mort d’une personne importante pour nous peut apporter.

»
Schandelmeier, chercheur en thanatologie et expert en deuil au Howling Lion Grief Support Center, a déclaré qu'une partie du processus de deuil consiste à développer le récit de la vie d'une personne, son héritage, l'histoire de qui elle est et comment elle a touché sa vie.
Selon Schandelmeier, utiliser l’IA pour recréer une personne pourrait grandement perturber ce processus, car l’image ou le personnage de l’IA peut être très similaire mais ne ressemblera pas exactement à la personne décédée.
« Toute différence créera une dissonance cognitive et remettra en question la perception et les souvenirs de la personne en deuil, ce qui pourrait être profondément perturbant et extrêmement déroutant », a déclaré Schandelmeier.

« Cela pourrait également inhiber la capacité d'une personne à s'adapter à sa vie actuelle et conduire à une résistance aux changements très réels et pratiques qui accompagnent un décès. »
Elreacy Dock, thanatologue et professeur adjoint de thanatologie à l'Université Capstone, basée à Washington, note que l'utilisation de l'intelligence artificielle pour imiter ou reproduire un être cher décédé présente des avantages et des inconvénients. Interagir avec l'avatar d'un être cher peut offrir du réconfort et un rapprochement, lui permettant de revoir son proche et d'exprimer des sentiments non partagés, aidant ainsi à faire face à la perte.

« Bien que ces avantages soient très prometteurs, l'utilisation de ces avatars peut encore être une source de préoccupation majeure », a déclaré Dock.
Comme Dock l'a expliqué, interagir avec un avatar IA d'une personne décédée (en particulier pour une personne qui en est encore aux premiers stades de déni ou de choc) peut devenir émotionnellement dépendant de ses interactions avec un avatar IA de son proche.
« Une dernière considération qui mérite d'être reconnue est que l'utilisation d'avatars IA pour reproduire l'image d'un être cher décédé peut potentiellement être très bouleversante pour certaines personnes », a déclaré Dock.

« Bien qu'il y ait un débat en cours sur l'éventuelle tentative d'intégrer la conscience et les souvenirs d'une personne dans l'IA, les interactions et les réponses simulées ne pourront généralement pas remplacer cette relation unique qui a été partagée avec un être cher ou la valeur et l'importance globales d'une connexion humaine. avec eux. »
Surtout, imagine-t-on, si cet être cher dit qu'il envoie des SMS de l'enfer.

Edité par Ryan Ozawa.

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception.