Danni psicologici dei “deadbots”, l’AI che simula le persone decedute

Secondo i ricercatori dell’Università di Cambridge, i deadbots sviluppati con l’intelligenza artificiale che consentono agli utenti di intrattenere conversazioni vocali e testuali con i propri cari scomparsi fanno correre il rischio di causare danni psicologici e persino di “perseguitare” digitalmente coloro che ne usufruiscono senza le dovute cautele.

Intelligenza artificiale, deadbots

Deadbots: chatbot che simulano i modelli linguistici dei defunti

I “Deadbots” o “Griefbots” sono chatbot basati sull’intelligenza artificiale che simulano i modelli linguistici e i tratti dei defunti utilizzando le impronte digitali che lasciano dietro di sé. Alcune aziende stanno già offrendo questi servizi, fornendo un tipo completamente nuovo di “presenza post-mortem”.

Robot

Gli esperti di etica dell’intelligenza artificiale del Leverhulme Centre for the Future of Intelligence di Cambridge hanno delineato tre scenari di progettazione per piattaforme che potrebbero emergere come parte dello sviluppo dell'”industria dell’aldilà digitale“, per mostrare le potenziali conseguenze di una progettazione imprudente in un’area dell’intelligenza artificiale che descrivono come “ad alto rischio“.

Le conseguenze pericolose dell’uso dei deadbots

La ricerca, pubblicata sulla rivista Philosophy and Technology, ha evidenziato la possibilità che le aziende utilizzino i deadbots per pubblicizzare di nascosto prodotti agli utenti come se fosse una persona cara defunta, o per angosciare i bambini insistendo che un genitore morto sia ancora “con te”.

Quando i vivi si iscrivono per essere ricreati virtualmente dopo la morte, i chatbot risultanti potrebbero essere utilizzati dalle aziende per inviare spam a familiari e amici sopravvissuti con notifiche, promemoria e aggiornamenti non richiesti sui servizi che forniscono, un po’ come essere “perseguitati digitalmente dai morti”.

Anche coloro che traggono conforto iniziale dai deadbots potrebbero sentirsi prosciugati dalle interazioni quotidiane che diventano un “peso emotivo schiacciante“, hanno spiegato i ricercatori, ma potrebbero anche non essere in grado di sospendere una simulazione di intelligenza artificiale se la persona amata ormai deceduta ha firmato una contratto con un servizio digitale dell’aldilà.

I rapidi progressi nell’intelligenza artificiale generativa significano che quasi chiunque abbia accesso a Internet e un po’ di know-how di base può far rivivere una persona cara defunta“, ha affermato la dott.ssa Katarzyna Nowaczyk-Basińska, coautrice dello studio e ricercatrice presso il Leverhulme Center for the Future of Intelligence di Cambridge. LCFI).

Quest’area dell’intelligenza artificiale è un campo minato etico. È importante dare priorità alla dignità del defunto e garantire che questa non venga lesa, per esempio, da motivazioni finanziarie dei servizi digitali dell’aldilà. Allo stesso tempo, una persona può lasciare una simulazione AI come regalo di addio per i propri cari che non sono disposti a elaborare il proprio dolore in questo modo. I diritti sia dei donatori di dati che di coloro che interagiscono con i servizi di intelligenza artificiale dell’aldilà dovrebbero essere ugualmente tutelati”.

Esistono già piattaforme che offrono fi sviluppare deadbots pagando una piccola cifra, come “Project December“, che ha iniziato a sfruttare i modelli GPT prima di sviluppare i propri sistemi, e app tra cui “HereAfter“. Servizi simili hanno cominciato ad emergere anche in Cina.

Uno dei potenziali scenari nel nuovo articolo è “MaNana”: un servizio di intelligenza artificiale conversazionale che consente alle persone di creare deadbots che simulano la nonna defunta senza il consenso del “donatore di dati”.

L'AI non può essere controllata in modo sicuro

Lo scenario ipotetico vede un nipote adulto, inizialmente impressionato e confortato dalla tecnologia, iniziare a ricevere pubblicità una volta terminata la “prova premium”. Ad esempio, il chatbot che suggerisce di ordinare dai servizi di consegna di cibo con la voce e lo stile del defunto. I parenti ritiengono di aver mancato di rispetto alla memoria della nonna e desiderano che i deadbots vengano disattivato, ma in modo significativo, cosa che i fornitori di servizi non hanno considerato.

Le persone potrebbero sviluppare forti legami emotivi con tali simulazioni, il che le renderà particolarmente vulnerabili alla manipolazione“, ha affermato il coautore Dr. Tomasz Hollanek, anch’egli della LCFI di Cambridge.

Dovrebbero essere presi in considerazione metodi e persino rituali per mandare in pensione i deadbots in modo dignitoso. Questo può significare, ad esempio, una forma di funerale digitale o altri tipi di cerimonia a seconda del contesto sociale. Raccomandiamo protocolli di progettazione che impediscano che i deadbots vengano utilizzati in modi irrispettosi, ad esempio per la pubblicità o per avere una presenza attiva sui social media”.

I ricercatori raccomandano limiti di età per i deadbots e chiedono anche una “trasparenza significativa” per garantire che gli utenti siano costantemente consapevoli che stanno interagendo con un’intelligenza artificiale. Questi potrebbero essere simili agli attuali avvisi su contenuti che potrebbero causare convulsioni, ad esempio.

Conclusioni

Lo scenario finale esplorato dallo studio, una società immaginaria chiamata “Stay”, mostra una persona anziana che si impegna segretamente con se stessa e paga un abbonamento ventennale, nella speranza che possa confortare i suoi figli adulti e permettere ai suoi nipoti di conoscerli.

Dopo la morte, il servizio entra in funzione. Un figlio adulto non si impegna e riceve una raffica di e-mail con la voce del genitore morto. Un altro lo fa, ma finisce per essere emotivamente esausto e tormentato dal senso di colpa per la sorte del robot morto. Tuttavia, sospendere i deadbots violerebbe i termini del contratto firmato dai genitori con la società di servizi.

È fondamentale che i servizi digitali dei deadbots considerino i diritti e il consenso non solo di coloro che ricreano, ma di coloro che dovranno interagire con le simulazioni”, ha affermato Hollanek.

Come l'AI potrebbe manipolare il nostro subconscio, intelligenza artificiale, tecnologia, CES

Questi servizi corrono il rischio di causare enorme disagio alle persone se sono soggette a infestazioni digitali indesiderate derivanti da deadbots AI incredibilmente accurate di coloro che hanno perso. Il potenziale effetto psicologico, soprattutto in un momento già difficile, potrebbe essere devastante”.

I ricercatori chiedono ai team di progettazione di dare priorità ai protocolli di opt-out che consentono ai potenziali utenti di interrompere le loro relazioni con i deadbots in modi che forniscano una chiusura emotiva.

Nowaczyk-Basińska ha concluso: “Dobbiamo iniziare a pensare ora a come mitigare i rischi sociali e psicologici dell’immortalità digitale, perché la tecnologia è già qui”.

Più letti nella settimana

Perché l’Homo sapiens è sopravvissuto a tutte le altre specie umane?

Gli Homo sapiens sono gli unici rappresentanti sopravvissuti dell'albero...

Siamo davvero andati sulla Luna? Il complotto lunare

Sono trascorsi oltre 50 anni dal giorno in cui la missione Apollo 11 sbarcò sulla Luna. Sono stati realizzati film, documentari, scritti libri ed esaminate le rocce

Ossigeno oscuro: straordinario ritrovamento a 4000 metri

La recente scoperta di un “ossigeno oscuro” prodotto da...

New Horizons: lo spazio profondo è davvero completamente buio

Quattro anni fa, gli astronomi hanno avuto una spettacolare...

Rinvenuta grotta lunare che potrebbe ospitare gli astronauti – video

Mentre la NASA e altre agenzie spaziali pianificano una...

In Tendenza

Data center e l’IA: ufficiale impatto negativo in 2 ambiti

Negli ultimi anni, i data center e l'IA (Intelligenza...

Reattore nucleare a prova di fusione: incredibile da 105 MW

La Cina ha recentemente raggiunto un traguardo significativo nel...

Olimpiadi: trionfo degli animali in oltre 10 sport

Immagina un mondo in cui gli animali competono nelle...

Olimpiadi di Parigi 2024: caldo record, atleti a rischio

Le Olimpiadi di Parigi 2024 si stanno avvicinando rapidamente,...

Voyager 2, l’eliopausa e, oltre, l’infinito

La Voyager 2 opera attualmente a temperature di circa 3,6 gradi Celsius, e ogni anno che passa la navicella produce 4 watt in meno di energia

WorldView Legion: 2 satelliti di categoria superiore

Il 18 luglio 2024, Maxar Intelligence ha rilasciato le...

Plutone: un oceano liquido sotto la sua superficie

Ricerche recenti hanno fornito informazioni più approfondite sull'oceano sotterraneo...

Kew Gardens: il 50% delle specie al suo interno sono a rischio

La crisi climatica è una minaccia in continua evoluzione...

Articoli correlati

Popular Categories