Esistono app che ci fanno “parlare” con le persone scomparse. Come funzionano? E sono davvero prive di insidie?
In uno degli episodi della serie tv britannica Black Mirror, andata in onda nel 2011, si racconta della storia di Martha e del suo fidanzato Ash, morto prematuramente. Rimasta sola e in attesa di un bambino, la donna cerca un surrogato del compagno scomparso in un “software di resurrezione digitale” consigliatole da un’amica.
Martha così dà vita a una sorta di clone digitale del suo amato, pensando di trovare conforto nella versione cloud di Ash. Il problema è che ben presto, complice questa forma di “necromanzia” hi-tech, Martha comincia a palesare i segni di una vera e propria dipendenza digitale e non riesce a elaborare il lutto per la perdita del fidanzato.
Il surrogato tecnologico di Ash inizia anzi a prendersi sempre più spazio nella sua vita. Un po’ come accade in Her di Spike Lee dove il protagonista, interpretato da Joaquin Phoenix , inizia una relazione amorosa con un’intelligenza artificiale dotata di una voce sintetica. Lo scenario dipinto da Black Mirror oggi rischia di diventare realtà grazie alle app che usano l’IA per simulare conversazioni con i defunti. Non mancano però le insidie, come vedremo.
Funzionamento e limiti delle app IA che fanno “parlare” con i defunti
Da qualche tempo, in Cina, diverse persone usano le app basate sull’intelligenza artificiale per “resuscitare” qualche caro estinto e tornare a “parlarci”. Una coppia di genitori, straziata dalla morte del figlio, ha raccolto del materiale digitale del giovane (video, foto, audio, ecc.) investendo molto denaro per ingaggiare aziende capaci di clonarne voce e volto.
In sostanza, esistono delle piattaforme digitali in grado di usare l’intelligenza artificiali per realizzare chatbot “su misura”, dotati di una determinata personalità, ricostruita sulla base delle descrizioni – il più possibile dettagliate – fornite dal committente, a partire dalla biografia, dagli aneddoti, dalle passioni, e così via.
Si tratta, insomma, di dare una seconda vita per via tecnologica, garantendo alle persone che non ci sono più una specie di immortalità artificiale. Il chatbot diventa così un avatar della persona cara scomparsa con cui tornare a dialogare per cercare sollievo. Il problema è che tenere digitalmente in vita i morti – come promettono di fare piattaforme come Project December – può anche compromettere la salute mentale dei vivi.
App per parlare coi defunti, perché possono essere pericolose
È quanto paventano ad esempio gli psicologi dell’Università di Cambridge, Tomasz Hollanek e Katarzyna Nowaczyk-Basińska, Come spiega a Today.it la psicologa e consigliera dell’Ordine degli Psicologi del Lazio Luana Morgilli, c’è il rischio che cercare aiuto nel chatbot porti a cadere nell’effetto opposto.
In altre parole, il pericolo è quello di ostacolare le cinque fasi del normale processo di elaborazione del lutto (rifiuto, rabbia, negoziazione, depressione, accettazione). Si rischia, in sostanza, di «bloccarsi nella fase del rifiuto della notizia» a causa dell’eccessivo realismo delle conversazioni. Può non essere facile, in un momento così delicato, rendersi conto che l’interazione sta avendo luogo con una simulazione e non con una persona reale.
È importante dunque, sottolinea Morgilli, che appaia chiaro il limite tra realtà e finzione, così come è meglio limitare il tempo passato a dialogare col chatbot. In casi come questi, conclude l’esperta, «parlare con uno psicologo può essere utile nella gestione del dolore e dell’elaborazione del lutto».