Danni psicologici dei “deadbots”, l’AI che simula le persone decedute

Deadbots sviluppati con l’intelligenza artificiale che consentono agli utenti di intrattenere conversazioni vocali e testuali con i propri cari scomparsi fanno correre il rischio di causare danni psicologici e persino di “perseguitare” digitalmente coloro che ne usufruiscono senza le dovute cautele

2
162
Intelligenza artificiale, deadbots

Secondo i ricercatori dell’Università di Cambridge, i deadbots sviluppati con l’intelligenza artificiale che consentono agli utenti di intrattenere conversazioni vocali e testuali con i propri cari scomparsi fanno correre il rischio di causare danni psicologici e persino di “perseguitare” digitalmente coloro che ne usufruiscono senza le dovute cautele.

Intelligenza artificiale, deadbots

Deadbots: chatbot che simulano i modelli linguistici dei defunti

I “Deadbots” o “Griefbots” sono chatbot basati sull’intelligenza artificiale che simulano i modelli linguistici e i tratti dei defunti utilizzando le impronte digitali che lasciano dietro di sé. Alcune aziende stanno già offrendo questi servizi, fornendo un tipo completamente nuovo di “presenza post-mortem”.

Robot

Gli esperti di etica dell’intelligenza artificiale del Leverhulme Centre for the Future of Intelligence di Cambridge hanno delineato tre scenari di progettazione per piattaforme che potrebbero emergere come parte dello sviluppo dell'”industria dell’aldilà digitale“, per mostrare le potenziali conseguenze di una progettazione imprudente in un’area dell’intelligenza artificiale che descrivono come “ad alto rischio“.



Le conseguenze pericolose dell’uso dei deadbots

La ricerca, pubblicata sulla rivista Philosophy and Technology, ha evidenziato la possibilità che le aziende utilizzino i deadbots per pubblicizzare di nascosto prodotti agli utenti come se fosse una persona cara defunta, o per angosciare i bambini insistendo che un genitore morto sia ancora “con te”.

Quando i vivi si iscrivono per essere ricreati virtualmente dopo la morte, i chatbot risultanti potrebbero essere utilizzati dalle aziende per inviare spam a familiari e amici sopravvissuti con notifiche, promemoria e aggiornamenti non richiesti sui servizi che forniscono, un po’ come essere “perseguitati digitalmente dai morti”.

Anche coloro che traggono conforto iniziale dai deadbots potrebbero sentirsi prosciugati dalle interazioni quotidiane che diventano un “peso emotivo schiacciante“, hanno spiegato i ricercatori, ma potrebbero anche non essere in grado di sospendere una simulazione di intelligenza artificiale se la persona amata ormai deceduta ha firmato una contratto con un servizio digitale dell’aldilà.

I rapidi progressi nell’intelligenza artificiale generativa significano che quasi chiunque abbia accesso a Internet e un po’ di know-how di base può far rivivere una persona cara defunta“, ha affermato la dott.ssa Katarzyna Nowaczyk-Basińska, coautrice dello studio e ricercatrice presso il Leverhulme Center for the Future of Intelligence di Cambridge. LCFI).

Quest’area dell’intelligenza artificiale è un campo minato etico. È importante dare priorità alla dignità del defunto e garantire che questa non venga lesa, per esempio, da motivazioni finanziarie dei servizi digitali dell’aldilà. Allo stesso tempo, una persona può lasciare una simulazione AI come regalo di addio per i propri cari che non sono disposti a elaborare il proprio dolore in questo modo. I diritti sia dei donatori di dati che di coloro che interagiscono con i servizi di intelligenza artificiale dell’aldilà dovrebbero essere ugualmente tutelati”.

Esistono già piattaforme che offrono fi sviluppare deadbots pagando una piccola cifra, come “Project December“, che ha iniziato a sfruttare i modelli GPT prima di sviluppare i propri sistemi, e app tra cui “HereAfter“. Servizi simili hanno cominciato ad emergere anche in Cina.

Uno dei potenziali scenari nel nuovo articolo è “MaNana”: un servizio di intelligenza artificiale conversazionale che consente alle persone di creare deadbots che simulano la nonna defunta senza il consenso del “donatore di dati”.

L'AI non può essere controllata in modo sicuro

Lo scenario ipotetico vede un nipote adulto, inizialmente impressionato e confortato dalla tecnologia, iniziare a ricevere pubblicità una volta terminata la “prova premium”. Ad esempio, il chatbot che suggerisce di ordinare dai servizi di consegna di cibo con la voce e lo stile del defunto. I parenti ritiengono di aver mancato di rispetto alla memoria della nonna e desiderano che i deadbots vengano disattivato, ma in modo significativo, cosa che i fornitori di servizi non hanno considerato.

Le persone potrebbero sviluppare forti legami emotivi con tali simulazioni, il che le renderà particolarmente vulnerabili alla manipolazione“, ha affermato il coautore Dr. Tomasz Hollanek, anch’egli della LCFI di Cambridge.

Dovrebbero essere presi in considerazione metodi e persino rituali per mandare in pensione i deadbots in modo dignitoso. Questo può significare, ad esempio, una forma di funerale digitale o altri tipi di cerimonia a seconda del contesto sociale. Raccomandiamo protocolli di progettazione che impediscano che i deadbots vengano utilizzati in modi irrispettosi, ad esempio per la pubblicità o per avere una presenza attiva sui social media”.

I ricercatori raccomandano limiti di età per i deadbots e chiedono anche una “trasparenza significativa” per garantire che gli utenti siano costantemente consapevoli che stanno interagendo con un’intelligenza artificiale. Questi potrebbero essere simili agli attuali avvisi su contenuti che potrebbero causare convulsioni, ad esempio.

Conclusioni

Lo scenario finale esplorato dallo studio, una società immaginaria chiamata “Stay”, mostra una persona anziana che si impegna segretamente con se stessa e paga un abbonamento ventennale, nella speranza che possa confortare i suoi figli adulti e permettere ai suoi nipoti di conoscerli.

Dopo la morte, il servizio entra in funzione. Un figlio adulto non si impegna e riceve una raffica di e-mail con la voce del genitore morto. Un altro lo fa, ma finisce per essere emotivamente esausto e tormentato dal senso di colpa per la sorte del robot morto. Tuttavia, sospendere i deadbots violerebbe i termini del contratto firmato dai genitori con la società di servizi.

È fondamentale che i servizi digitali dei deadbots considerino i diritti e il consenso non solo di coloro che ricreano, ma di coloro che dovranno interagire con le simulazioni”, ha affermato Hollanek.

Come l'AI potrebbe manipolare il nostro subconscio, intelligenza artificiale, tecnologia, CES

Questi servizi corrono il rischio di causare enorme disagio alle persone se sono soggette a infestazioni digitali indesiderate derivanti da deadbots AI incredibilmente accurate di coloro che hanno perso. Il potenziale effetto psicologico, soprattutto in un momento già difficile, potrebbe essere devastante”.

I ricercatori chiedono ai team di progettazione di dare priorità ai protocolli di opt-out che consentono ai potenziali utenti di interrompere le loro relazioni con i deadbots in modi che forniscano una chiusura emotiva.

Nowaczyk-Basińska ha concluso: “Dobbiamo iniziare a pensare ora a come mitigare i rischi sociali e psicologici dell’immortalità digitale, perché la tecnologia è già qui”.

2