È etico creare un deadbot che imiti la personalità di una persona morta?

Un tipo particolare di Intelligenza Artificiale conosciuto come deadbot, può permettere di scambiare messaggi di testo con una "persona" che imita una persona deceduta

0
746

I sistemi di apprendimento automatico si fanno sempre più strada nella nostra vita quotidiana, sfidando i nostri valori morali e sociali e le regole che li governano. In questi giorni, gli assistenti virtuali minacciano la privacy della casa; i consiglieri di notizie modellano il modo in cui comprendiamo il mondo; mentre gli strumenti di assunzione basati sui dati classificano anche le tue possibilità di ottenere un lavoro. Tuttavia, l’etica dell’apprendimento automatico rimane confusa per molti.

Ultimamente, ha fatto scalpore il caso di Joshua Barbeau, un uomo di 33 anni che ha utilizzato un sito web chiamato Project December per creare un robot conversazionale – un chatbot – capace di simulare la conversazione con la sua fidanzata defunta, Jessica.

Robot conversazionali che imitano i morti

Conosciuto come deadbot, questo tipo di chatbot ha permesso a Barbeau di scambiare messaggi di testo con una “Jessica” artificiale gestita da una Intelligenza Artificiale. La natura eticamente controversa del caso ha acceso una serie domande inevitabili: perché sarebbe giusto o sbagliato, eticamente desiderabile o riprovevole, sviluppare un deadbot?

Prima di affrontare queste domande, mettiamo le cose nel contesto: Project December è stato creato dallo sviluppatore di giochi Jason Rohrer per consentire alle persone di personalizzare i chatbot con la personalità con cui volevano interagire, a condizione che lo pagassero. Il progetto è stato realizzato attingendo a un’API di GPT-3, un modello di linguaggio per la generazione di testo della società di ricerca sull’intelligenza artificiale OpenAI. Il caso di Barbeau ha aperto una spaccatura tra Rohrer e OpenAI perché le linee guida dell’azienda vietano esplicitamente l’uso di GPT-3 per scopi sessuali, amorosi, autolesionistici o bullismo.

Definendo la posizione di OpenAI come iper-morale e sostenendo che persone come Barbeau sono “adulti consenzienti“, Rohrer ha chiuso la versione GPT-3 del Progetto dicembre.



Anche se tutti possiamo avere intuizioni sul fatto che sia giusto o sbagliato sviluppare un deadbot di apprendimento automatico, spiegarne le implicazioni difficilmente è un compito facile. Per questo è importante affrontare le questioni etiche sollevate dal caso, passo dopo passo.

Il consenso di Barbeau è sufficiente per sviluppare il deadbot di Jessica?

Poiché Jessica era una persona reale (sebbene morta), il consenso di Barbeau alla creazione di un deadbot in grado di imitarla sembra insufficiente. Anche una volta morte le persone non sono semplici cose con cui gli altri possono fare ciò che vogliono. Per questo la nostra società considera sbagliato profanare o essere irrispettosi verso la memoria dei morti. In altre parole, abbiamo determinati obblighi morali nei confronti dei morti, nella misura in cui la morte non implica necessariamente che le persone cessino di esistere in modo moralmente rilevante.

Allo stesso modo, il dibattito è aperto sull’opportunità di proteggere i diritti fondamentali dei morti (ad es. privacy e dati personali). Lo sviluppo di un deadbot che replichi la personalità di qualcuno richiede grandi quantità di informazioni personali come i dati dei social network (vedi cosa propongono Microsoft o Eternime) che hanno dimostrato di rivelare tratti altamente sensibili.

Se accettiamo che non è etico utilizzare i dati delle persone senza il loro consenso mentre sono in vita, perché dovrebbe essere etico farlo dopo la loro morte? In tal senso, quando si sviluppa un deadbot, sembra ragionevole richiedere il consenso di colui la cui personalità è rispecchiata, in questo caso Jessica.

Quando la persona imitata dà il via libera

Quindi, la seconda domanda è: basterebbe il consenso di Jessica per considerare etica la creazione del suo deadbot? E se infangasse la memoria?

I limiti del consenso sono, infatti, una questione controversa. Prendiamo come esempio paradigmatico il “Cannibale di Rotenburg”, condannato all’ergastolo nonostante la sua vittima avesse acconsentito a farsi mangiare. A questo proposito, è stato affermato che non è etico acconsentire a cose che possono essere dannose per noi stessi, sia fisicamente (vendere i propri organi vitali) che astrattamente (alienare i propri diritti).

In quali termini specifici qualcosa potrebbe essere dannoso per i morti è una questione particolarmente complessa che non analizzeremo completamente. Vale la pena notare, tuttavia, che anche se i morti non possono essere danneggiati o offesi allo stesso modo dei vivi, ciò non significa che siano invulnerabili alle cattive azioni, né che queste siano etiche. I morti possono subire danni al loro onore, reputazione o dignità (ad esempio, campagne diffamatorie postume) e la mancanza di rispetto verso i morti danneggia anche le persone a loro vicine. Inoltre, comportarsi male verso i morti ci porta a una società più ingiusta e meno rispettosa della dignità delle persone in generale.

Infine, data la malleabilità e l’imprevedibilità dei sistemi di apprendimento automatico, c’è il rischio che il consenso fornito dalla persona imitata (in vita) non significhi molto di più di un assegno in bianco sui suoi potenziali percorsi.

Tenendo conto di tutto ciò, sembra ragionevole concludere che se lo sviluppo o l’uso del deadbot non corrisponde a ciò che la persona imitata ha accettato, il suo consenso dovrebbe essere considerato non valido. Inoltre, se lede chiaramente e intenzionalmente la loro dignità, anche il loro consenso non dovrebbe essere sufficiente per considerarlo etico.

Chi si assume la responsabilità?

Una terza questione è se i sistemi di intelligenza artificiale dovrebbero aspirare a imitare qualsiasi tipo di comportamento umano (indipendentemente dal fatto che ciò sia possibile).

Questa è una preoccupazione di vecchia data nel campo dell’IA ed è strettamente collegata alla controversia tra Rohrer e OpenAI. Dovremmo sviluppare sistemi artificiali capaci, ad esempio, di prendersi cura degli altri o di prendere decisioni politiche? Sembra che ci sia qualcosa in queste abilità che rende gli esseri umani diversi dagli altri animali e dalle macchine. Quindi, è importante notare che la strumentalizzazione dell’IA verso fini tecno-soluzionisti come la sostituzione dei propri cari può portare a una svalutazione di ciò che ci caratterizza come esseri umani.

La quarta questione etica è chi è responsabile degli esiti di un deadbot, specialmente nel caso di effetti dannosi.

Immagina che il deadbot di Jessica abbia imparato autonomamente a comportarsi in un modo che sminuisca la sua memoria oppure che abbia danneggiato irreversibilmente la salute mentale di Barbeau. Di chi sarebbe la responsabilità? Gli esperti di intelligenza artificiale rispondono a questa domanda scivolosa attraverso due approcci principali: primo, la responsabilità ricade su coloro che sono coinvolti nella progettazione e nello sviluppo del sistema, purché lo facciano in base ai loro interessi e visioni del mondo particolari; in secondo luogo, i sistemi di apprendimento automatico dipendono dal contesto, quindi le responsabilità morali dei loro risultati dovrebbero essere distribuite tra tutti gli agenti che interagiscono con loro.

Qui il discorso diventa complicato.

In primo luogo, sarebbe difficile responsabilizzare OpenAI dopo che ha esplicitamente proibito di utilizzare il proprio sistema per scopi sessuali, amorosi, autolesionistici o bullismo.

Sembra ragionevole attribuire un livello significativo di responsabilità morale a Rohrer perché egli: (a) ha progettato esplicitamente il sistema che ha permesso di creare il deadbot; (b) lo ha fatto senza anticipare misure per evitare potenziali esiti negativi; (c) era consapevole di non essere conforme alle linee guida di OpenAI; e (d) ne ha tratto profitto.

E poiché Barbeau ha personalizzato il deadbot attingendo a particolari caratteristiche di Jessica, sembra legittimo ritenerlo corresponsabile nel caso in cui ne degradi la memoria.

Etico, a determinate condizioni

Quindi, tornando alla nostra prima domanda generale se sia etico sviluppare un deadbot ad apprendimento automatico, potremmo dare una risposta affermativa a condizione che:

  • sia la persona imitata che quella che personalizza e interagisce con essa abbiano dato il loro libero consenso a una descrizione il più dettagliata possibile della progettazione, dello sviluppo e degli usi del sistema;
  • siano vietati gli sviluppi e gli usi che non si attengono a quanto la persona imitata ha acconsentito o che siano contrari alla sua dignità;
  • le persone coinvolte nel suo sviluppo e coloro che ne traggono profitto si assumano la responsabilità dei suoi potenziali esiti negativi. Sia in modo retroattivo, per tenere conto degli eventi accaduti, sia in prospettiva, per impedire attivamente che accadano in futuro.

Questo caso esemplifica il motivo per cui l’etica dell’apprendimento automatico è importante. Illustra inoltre perché è essenziale aprire un dibattito pubblico che possa informare meglio i cittadini e aiutarci a sviluppare misure politiche per rendere i sistemi di IA più aperti, socialmente equi e conformi ai diritti fondamentali.

Fonte: The Conversation

2