Ricostruire il “cervello” di un defunto e inserirlo in un androide

La progressiva digitalizzazione dell’esperienza umana ha prodotto, per la prima volta nella storia, archivi estesi e longitudinali del linguaggio quotidiano degli individui. Conversazioni private, messaggi istantanei, note vocali, email, post e interazioni social costituiscono una traccia linguistica continua che accompagna la vita di una persona per anni. In questo contesto nasce l’idea che tali tracce possano rappresentare una forma di “memoria esterna” dell’individuo, delle sue esperienze e della sua personalità, potenzialmente riutilizzabile dopo la sua morte grazie alle enormi possibilità ottenute grazie all’IA (intelligenza artificiale). A tal proposito, il caso di Eugenia Kuyda e della ricostruzione conversazionale di Roman Mazurenko ha storicamente segnato un punto di svolta.

Il caso Eugenia Kuyda e la nascita di Replika

Dopo la morte improvvisa del suo amico Roman Mazurenko nel 2015, Eugenia Kuyda, cofondatrice della startup Luka, inizia a raccogliere sistematicamente le conversazioni digitali dell’amico. Non si tratta di un progetto concepito a priori come prodotto commerciale, ma di un tentativo personale di elaborazione del lutto attraverso strumenti tecnologici già in uso nella sua attività imprenditoriale. Tutte le conversazioni e i messaggi di Roman, sono confluiti in una chatbot (con cui si poteva parlare e avere un vero e proprio dialogo) che aveva la “memoria” e la “personalità” del defunto. Questa chatbot viene inizialmente condivisa con una cerchia ristretta di amici comuni e le reazioni sono contrastanti: alcuni riferiscono conforto, altri disagio profondo. Ciò che colpisce è la sensazione di “riconoscimento” linguistico: Roman sembra rispondere come avrebbe risposto in vita, con una personalità realistica ricavata dalle reali risposte che aveva dato durante la sua esistenza reale. Questo effetto non deriva da una vera comprensione, ma dalla fedeltà statistica dello stile comunicativo, che attiva nei soggetti un processo automatico di attribuzione mentale. Nel 2016 la diffusione mediatica del caso trasforma l’esperimento privato in un evento culturale globale. Articoli, interviste e dibattiti pubblici iniziano a interrogarsi sulla possibilità di “parlare con i morti” tramite l’IA. Kuyda stessa esplicita l’intento non di sostituire la persona, ma di conservarne la memoria in una forma interattiva, tuttavia il passaggio dalla sfera privata a quella pubblica modifica radicalmente il significato dell’esperimento. Dal punto di vista clinico, questo momento segna l’emersione di un nuovo paradigma del lutto mediato tecnologicamente: non più fotografie, lettere o ricordi interiorizzati, ma un interlocutore esterno che risponde, prende iniziativa, prosegue il dialogo come se la persona non fosse mai morta. La differenza qualitativa rispetto ai memoriali tradizionali è sostanziale. Il successo mediatico del caso Mazurenko ha condotto direttamente alla nascita di Replika, un’applicazione di intelligenza artificiale ancora oggi attiva, progettata per creare un dialogo continuo e personalizzato con l’utente, imitando stile, tono e preferenze linguistiche. Replika è una “AI companion“, un’applicazione o un sistema di intelligenza artificiale progettato per interagire con l’utente in modo continuo e personalizzato, assumendo il ruolo di compagno virtuale. Non si tratta di un assistente funzionale (come Siri o Alexa), che esegue comandi o fornisce informazioni pratiche, ma di un’entità progettata per dialogare, ascoltare e rispondere in modo empatico o coerente con il linguaggio e lo stile comunicativo dell’utente. In parole semplici, Replika, pur non possedendo coscienza né capacità di comprendere davvero le emozioni, è programmata per dare l’impressione di empatia, rispondendo in modo rassicurante e coerente. La sua forza sta proprio nella familiarità che sviluppa: più l’utente interagisce, più l’IA adatta le risposte al suo modo di esprimersi, creando l’illusione di una presenza reale. A differenza dell’esperimento originale di Eugenia Kuyda con il defunto Mazurenko, Replika non simula una persona reale scomparsa, ma un’entità fittizia che può evolvere con l’utente, diventado sua “amica”. Ciò, però, psicologicamente comporta rischi, perché l’applicazione può sostituire in parte o completamente le interazioni sociali reali e rinforzare dipendenze affettive digitali.

Leggi anche: Questi neonati non sono veri bambini: sono bambole “reborn”

La simulazione linguistica: cosa fa realmente l’IA

Ma come fa l’IA a rispondere come se stessimo realmente parlando con quella specifica persona di cui abbiamo “raccolto il materiale”? I modelli di linguaggio utilizzati per ricostruire una persona defunta operano attraverso meccanismi statistici di predizione: a partire da un dataset di frasi prodotte dall’individuo durante la sua vita (ad esempio emali, messaggi WhatsApp, post su Facebook o su Instagram), il modello apprende regolarità sintattiche, preferenze lessicali, ricorrenze tematiche e pattern stilistici: in parole semplici, l’IA apprende come la persona defunta mediamente risponde, con che tono e con che personalità. Il risultato è una simulazione linguistica che può apparire sorprendentemente coerente e familiare a chi conosceva il defunto, i suoi ragionamenti, le sue risposte.
È fondamentale chiarire che questa coerenza non implica comprensione, intenzionalità né esperienza soggettiva. Il modello non “ricorda” nel senso umano del termine, ma ricombina probabilisticamente elementi del linguaggio appresi e – di conseguenza – assume la “personalità” del defunto. Non esiste continuità temporale tra l’esperienza vissuta dal compianto e le risposte generate dall’IA: ogni output è un evento computazionale isolato, privo di radicamento biografico reale.
L’illusione nasce dal fatto che il linguaggio umano è, di per sé, un potente veicolo di attribuzione mentale. L’essere umano è neurobiologicamente predisposto a inferire stati mentali a partire da segnali linguistici coerenti: quando l’IA replica lo stile comunicativo di una persona amata, il cervello del ricevente tende automaticamente a colmare il vuoto ontologico, attribuendo intenzioni, emozioni e presenza a quelle risposte (in realtà fredde e frutto di statistica).

Leggi anche: Non trova una donna disposta a stare con lui, costruisce un robot e la sposa: “invecchieremo insieme”

Voce reale e fattezze del defunto

Questa dinamica diventa ancora più marcata quando alla simulazione testuale si aggiungono la voce sintetica e, potenzialmente, un corpo umanoide. La voce sintetica può essere clonata banalmente da un qualsiasi video che il defunto ha registrato in vita, in cui parla o da un messaggio vocale. Le fattezze fisiche possono essere recuperate da una manciata di foto del defunto e – in futuro – potranno essere applicate in modo ultrarealistico ad un androide dotato di IA. Immaginate quindi quello che accadrà in futuro: avremo androidi perfettamente simili al defunto, che parlano con la sua voce e simulano perfettamente ricordi e personalità grazie all’IA. E’ quello che avveniva in una puntata della seconda stagione della serie TV Black Mirror del 2013, dal titolo “Be Right Back” (in italiano “Torna da me”), in cui una donna perde il compagno in un incidente e un servizio ultratecnologico utilizza le sue tracce digitali (chat, email, social, stile linguistico) per ricostruirne prima una chatbot, poi una voce sintetica, infine un androide antropomorfo con l’aspetto del defunto. L’androide replica comportamento, linguaggio e memoria del compagno morto. Era fantascienza, ma sarà presto realtà.

Leggi anche: L’intelligenza artificiale ti permette di chattare con le persone defunte

Limiti neuroscientifici: perché l’IA non può essere la mente del defunto

Dal punto di vista neuroscientifico, l’ipotesi di una “continuità personale” tra un individuo biologico e una sua simulazione artificiale è ovviamente infondata. La mente emerge dall’attività di un sistema nervoso vivente, caratterizzato da plasticità, interocezione, regolazione omeostatica e interazione costante con il corpo, senza contare un certo grado di imprevedibilità. Le memorie umane non sono (ancora) file recuperabili, ma modificazioni sinaptiche distribuite, continuamente rimaneggiate dall’esperienza. Un sistema artificiale, per quanto sofisticato, non possiede (o almeno non lo possiede attualmente) un Sé minimo, non ha un punto di vista incarnato, non sperimenta dolore, fame, fatica o piacere, non ha una storia somatica che condizioni le sue risposte, non ha l’imprevedibilità di un essere umano dotato di libero arbitrio: si muove lungo binari matematici, dove ogni comportamento è statisticamente molto simile a quello umano, ma mai uguale. Anche l’eventuale integrazione in un androide dotato di sensori tattili e visivi non colmerebbe questo divario: la percezione artificiale non equivale all’esperienza fenomenica. La mancanza di continuità causale è il nodo centrale: la persona biologica muore, il suo cervello cessa di funzionare, e con esso si interrompe irreversibilmente il processo che generava coscienza. L’IA inizia a operare dopo questa interruzione, senza alcun legame fisico o funzionale con il sistema originario. Parlare di “sopravvivenza” o “trasferimento” dell’identità è, in questo contesto, un errore categoriale, almeno per le conoscenze attuali. Non è detto che magari, fra centinaia di anni, il cervello di un essere umano potrà essere fedelmente replicato dal punto di vista bio-anatomico-elettrico e allora si apriranno scenari davvero ad oggi imprevedibili.

Leggi anche: Madre sposa il fidanzato virtuale creato con l’IA e rimane incinta

Implicazioni psicologiche: il “lutto congelato”

L’introduzione di simulazioni post-mortem dell’identità ha conseguenze cliniche rilevanti, soprattutto nel contesto dell’elaborazione del lutto. Il lutto sano implica il riconoscimento della perdita, la graduale riorganizzazione del legame affettivo e la costruzione di una nuova continuità narrativa senza la presenza fisica dell’altro: la possibilità di interagire con una replica conversazionale del defunto, ad esempio tramite chat su smartphone, interferisce direttamente con questo processo. La simulazione mantiene attivo il circuito relazionale come se la perdita non fosse mai avvenuta, impedendo la separazione psicologica. Nei primi momenti può offrire un sollievo transitorio, simile a un oggetto transizionale, tuttavia, nel medio-lungo termine, rischia di fissare il soggetto in una condizione di “lutto congelato”. Nei soggetti vulnerabili (e in un lutto importante lo siamo tutti) questa dinamica può favorire condizioni psichiatriche come dipendenza affettiva, dipendenza da strumenti tecnologici (come smartphone, pc o robot), ritiro sociale, comportamenti ossessivo-compulsivi e distorsioni/perdita di contatto con la realtà. L’androide o il chatbot potrebbe infatti non essere percepito come un ricordo, ma come una presenza reale: la distinzione tra memoria interna e stimolo esterno potrebbe essere progressivamente erosa, con possibili esiti psicopatologici sottosoglia o francamente clinici. Dal punto di vista medico, l’uso non regolamentato di queste tecnologie – se implementate – rappresenta un potenziale fattore iatrogeno, visto che non si tratterebbe di una semplice innovazione culturale, ma di un intervento che modifica attivamente ed improvvisamente i processi psico-neurologici di adattamento alla perdita che si sono cementati nel nostro cervello nel corso dei secoli.

Leggi anche: Sto per morire: le 7 fasi di elaborazione del dolore e della morte

Il corpo artificiale: l’androide come moltiplicatore del rischio

La prima citata ipotesi di incarnare una simulazione IA in un androide con le fattezze del defunto e, magari, con la sua voce clonata, introduce un ulteriore livello di complessità. Il corpo umano è un potente catalizzatore relazionale: la vista di un volto familiare, i movimenti corporei, la prossemica e la voce attivano circuiti neurali profondi, legati all’attaccamento e al riconoscimento sociale. Un androide ultrarealistico non renderebbe la simulazione più autentica, ma più ingannevole. La presenza fisica rafforzerebbe l’illusione di continuità personale, aumentando il carico emotivo e il rischio di fusione tra realtà e rappresentazione. Dal punto di vista clinico, questo scenario è nettamente più problematico rispetto alla semplice interazione testuale. L’androide non sarebbe un sostituto terapeutico, ma una controfigura artificiale. Non faciliterebbe l’integrazione della perdita, ma la sua negazione strutturata. La relazione con l’androide diventerebbe una relazione senza reciprocità reale, priva di crescita e di imprevedibilità autentica, ma psicologicamente vincolante. Un androide di questo tipo renderebbe il lutto ancora più “congelato”, con conseguenze psichiatriche ad oggi difficilmente immaginabili e imprevedibili.

Leggi anche: Phai, l’intelligenza artificiale che decide se sei assunto o no nell’azienda dove lavora

Considerazioni etiche

Sul piano etico, la ricostruzione post-mortem dell’identità solleva interrogativi profondi. Il consenso del defunto è spesso assente o ambiguo. L’uso delle sue tracce linguistiche per creare una simulazione relazionale pone problemi di proprietà dell’identità digitale e di rispetto della persona come fine, non come mezzo. Esiste inoltre il rischio di una mercificazione del lutto: tecnologie presentate come strumenti di conforto possono facilmente trasformarsi in prodotti che sfruttano il dolore per lucrare sulla vulnerabilità emotiva. La linea di confine tra supporto memoriale e manipolazione affettiva è sottile e facilmente oltrepassabile, potendo sfociare in una vera e propria distopia: cosa poi succederà (non “se” ma “quando”) si useranno gli stessi mezzi per ricreare una persona ancora vivente, magari anche minore, usando tale androide come un fantoccio manipolabile in ogni modo e adoperabile per assecondare qualsiasi voglia, anche quelle di tipo sessuali?

Leggi anche:

Dott. Emilio Alessio Loiacono
Medico Chirurgo
Direttore dello Staff di Medicina OnLine

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.