Società

Grief tech: così l’intelligenza artificiale ci fa parlare con i nostri morti

Il lutto, uno degli aspetti più radicali e universali dell’esperienza umana, si sta trasformando sotto la spinta dell’intelligenza artificiale. Da cesura definitiva a territorio grigio, nel quale la tecnologia – anche con soluzioni spesso controverse, per usare un eufemismo – promette simulacri sempre più convincenti dei propri cari defunti. È il cuore della cosiddetta grief tech, un ambito in crescita da anni ma che con gli ultimi, roboanti sviluppi dell’intelligenza artificiale ha trovato la spinta tecnologia di cui aveva bisogno, combinando tecnologie conversazionali e deep learning per simulare la presenza dei defunti. Per capirci: non si tratta più solo di conservare foto o messaggi vocali ma di interagire attivamente con una versione artificiale, più o meno elaborata, della persona scomparsa. Come racconta un recente approfondimento del New York Times Magazine, l’autentica novità è che queste repliche non si limitano a ripetere frasi preimpostate ma sono modelli generativi adattivi, capaci di dialogare con i vivi in tempo reale, rispondendo a domande, commentando ricordi e persino rielaborando insieme eventi passati. Inquietante? Parecchio.

La condizione per creare queste intelligenze postume è in fondo semplice: disporre di abbastanza dati sulla persona defunta di cui si voglia realizzare un avata a base di AI. Messaggi vocali, e-mail, fotografie, video, post social (sì, tutto quello che lasciamo rimane nelle profondità delle piattaforme, ne ha parlato qualche tempo fa Beatrice Petrella nel suo libro, poi divenuto podcast per Storytel, Still Online e ne avevamo scritto qui): tutto, comprese ore di colloqui in prima persona videoregistrati prima della morte, può essere impiegato per costruire un modello linguistico e comportamentale che riproduca toni, abitudini verbali e modi di pensare di chi non c’è più. Non è un caso che molte delle aziende coinvolte in questo mercato offrano appunto servizi di «preparazione digitale alla morte», invitando le persone a registrarsi in vita per essere poi simulate più fedelmente da morte avvenuta.

Avatar, cloni vocali e «chatbot viventi»

Le forme che assumono queste simulazioni sono naturalmente molto diverse fra loro ma sempre più sofisticate. La start-up americana You, Only Virtual (YOV), ad esempio, offre ormai da tempo chatbot – ma sarebbe forse meglio definirli griefbot – che replicano la voce e la personalità di una persona cara, accessibili tramite smartphone o auricolari. Ma il progetto più avanzato è forse Project December, una piattaforma sviluppata dal programmatore Jason Rohrer che aveva fatto discutere già nel 2021 per aver permesso a un uomo di parlare con un’IA che simulava la sua fidanzata morta di cancro. Oggi, con l’evoluzione di modelli come GPT-4o, il livello di realismo è aumentato al punto che, come scrive il New York Times, «la distinzione tra ciò che era reale e ciò che è generato diventa una questione di percezione, non di fatto».

In Cina il fenomeno ha assunto una dimensione più visiva: alcune aziende sviluppano per esempio avatar parlanti e ologrammi tridimensionali accessibili attraverso ambienti immersivi o dispositivi VR. La società Super Brain, sempre cinese, ha invece realizzato cloni vocali post-mortem con voci addestrate per consolare i familiari – fra i 1.500 e i 3mila euro il prezzo per la versione base. In Corea del Sud la docuserie «Meeting You», arrivata dal 2020 alla quarta stagione, si occupa proprio di questo filone: ogni episodio si concentra cioè su una storia individuale, mostrando come le persone interagiscono in realtà virtuale con una rappresentazione virtuale del proprio defunto, spesso ricreata sulla base di fotografie, video e ricordi.

Terapia o dipendenza?

Le tecnologie grief-based sono presentate da alcune aziende, spesso fuori da ogni fondata valutazione clinica, come strumenti terapeutici: aiuterebbero a «chiudere il cerchio», a superare il trauma, a rielaborare il dolore attraverso una forma guidata di «interazione finale». Che però, a ben vedere, non chiude proprio nulla. Non tutti, infatti, sono d’accordo. Nel suo editoriale sul New York Times il giornalista Cody Delistraty ha notato per esempio che «in certi contesti, chatbot e avatar potrebbero rivelarsi strumenti utili per elaborare un lutto — soprattutto se considerati come spazi di riflessione, simili a dei diari. Ma in una cultura ossessionata dall’efficienza, che ci spinge a sorvolare sugli aspetti spiacevoli, dolorosi e disordinati della vita solo perché pensiamo di potercelo permettere, un uso sano di questi strumenti è possibile solo se accompagnato dalla piena consapevolezza che quei bot o ologrammi non sono reali. L’inquietante verosimiglianza di molti di questi avatar rende però tutto più complesso, e rischia di produrre non un aiuto nell’elaborazione del dolore, ma piuttosto uno strumento per evitarlo».

Nonostante se ne parli da alcuni anni, il fenomeno è però ancora troppo recente – e troppo poco diffuso – per valutare in modo definitivo il suo impatto psicologico. Tuttavia alcuni primi studi indicano che le interazioni con avatar dei defunti possono aumentare l’ansia e la confusione, soprattutto se non mediati da un adeguato supporto terapeutico. In questo senso, la grief tech rappresenta una sorta di zona grigia emotiva, dove l’intelligenza artificiale diventa insieme conforto e irrimediabile illusione.

La privacy dell’anima

Un nodo cruciale riguarda in fondo un aspetto poco considerato: il consenso e la privacy postuma. Chi garantisce che il defunto avrebbe voluto essere «riportato in vita» seppure in forma digitale o virtuale? Alcuni servizi, come HereAfter AI, consentono di registrare volontariamente memorie e testimonianze in vita, e dunque in quei casi potrebbero esserci meno dubbi, ma nella maggior parte delle situazioni sono i familiari a fornire i dati, spesso senza riflettere sulle implicazioni. In assenza di una legislazione specifica, le spoglie digitali – la somma di messaggi, audio, immagini, video e altri tipi di file sparpagliati su decine se non centinaia di piattaforme o supporti locali – possono essere impiegate spesso anche da estranei per generare cloni senza alcuna autorizzazione esplicita, preventiva o familiare. In questo senso, un caso molto grave è avvenuto lo scorso anno sulla piattaforma Charachter AI, quando sulla base delle informazioni disponibili relative a JenniferAnn Crecente, una ragazza assassinata dal fidanzato nel 2006 ad Austin, in Texas, è stato sviluppato un chatbot contro la volontà della famiglia.

Anche il tema dell’identità si fa complesso. Quando un’IA inizia a generare risposte autonome sulla base dei dati di una persona morta, è ancora quella persona? Oppure stiamo parlando di una nuova entità, ispirata ma diversa, che assume le sembianze dell’originale per esigenze affettive? Per molti esperti di etica e tecnologia, si tratta di una forma di «appropriazione emotiva», che sfida i confini legali e morali del concetto stesso di persona a favore del conforto per chi sopravvive.

Verso un mercato dell’eternità artificiale

A trainare tutto questo c’è un mercato in piena espansione. Le previsioni parlano di una crescita esponenziale nei prossimi cinque anni, con applicazioni che spaziano appunto dalla cura del lutto fino a un più scivoloso marketing memoriale. Alcune aziende propongono già pacchetti «post-mortem» in abbonamento, che promettono aggiornamenti periodici del clone AI in base ai progressi tecnologici. Altre sperimentano già forme di integrazione con assistenti vocali e metaversi commemorativi, in cui passeggiare virtualmente con il defunto, parlare con lui o lei, e persino ricevere consigli «personalizzati». Sì, siamo dentro (e oltre) San Junipero.


Source link

articoli Correlati

Back to top button
Translate »