Image
griefbot intelligenza artificiale
Articolo
Prosperità e crescita economica
Sviluppo tecnologico e innovazione

I pericoli dei Griefbot, i chatbot per “ridare la vita”

18 August 2025
Federico Cella e Michela Rovelli

Può essere una decisione presa consapevolmente da chi è sul punto di morire oppure può essere un desiderio dei parenti, per provare a far “tornare in vita” chi non c’è più. E le virgolette sono d’obbligo dato che parliamo di modelli di linguaggio addestrati sulle informazioni disponibili su una persona ben precisa - filmati, foto, lettere, diari - per poter simularne il comportamento e le risposte durante una conversazione. Vengono chiamati fantasmi AI, ma anche griefbot (dall’inglese grief, dolore), deathbot (qui la parola è la traduzione di morte), cloni AI, postmortem avatar: sono chat testuali o in formato video, con cui poter conversare via Zoom o FaceTime. Possono costare molto, ma non troppo: negli Stati Uniti, per l’addestramento e il settaggio, si arriva a circa 15mila dollari. 

Perché usare un griebot - e perché in molti stanno scegliendo di provare questa tecnologia, soprattutto in Cina - è presto detto. Chi non ha un parente o un amico scomparso con cui vorrebbe tornare a parlare, chiedere consiglio, discutere? L’intelligenza artificiale generativa ora può permettere tutto questo, proprio come tanti film e serie tv hanno predetto negli ultimi anni. Un esempio: l’episodio “Be Right Back” del 2013 di Black Mirror, dove una giovane vedova ricreava il fantasma del marito da inserire in un corpo artificiale. Ne è felice? No, alla fine dell’episodio il consorte-robot finisce in soffitta e viene rispolverato solo per le occasioni speciali. Non siamo ancora ai livelli sofisticati immaginati nella serie Netflix, ma i griefbot già oggi disponibili da un lato affascinano, dall’altra inquietano.

Ci sono diversi dubbi etici che stanno sollevando gli esperti attorno a questo particolare uso dell’intelligenza artificiale generativa. Innanzitutto le problematiche psicologiche che possono nascere in chi non accetta una perdita e si ritrova a continuare a una relazione simulando la presenza di una persona che non c’è più. Questo è particolarmente pericoloso nei bambini, ma anche gli adulti possono ritrovarsi in una condizione di dipendenza psicologica da quello che in fondo non è altro che un software. C’è poi una questione morale riguardante il griefbot stesso: se decidiamo di spegnerlo o cancellarlo, sicuramente non significa che stiamo “regalando” una seconda morte a quella persona ma per alcuni potrebbe sembrare così. E far nascere sensi di colpa verso quello che, ancora una volta, in fondo non è altro che un software. Un altro tema riguarda i dati, sia quelli che usiamo per creare questo fantasma AI - a chi appartengono? Abbiamo il diritto di usarli? - sia quelli delle conversazioni che scambiamo con il chatbot. Sono tutte informazioni sensibili e personali che stiamo condividendo con una società terza.