Preoccupanti testimonianze emergono riguardo a un potenziale effetto collaterale inatteso e inquietante della tecnologia sviluppata da OpenAI: la possibilità di indurre uno stato di psicosi indotta da ChatGPT in un numero significativo di utenti.
Racconti diretti descrivono come l’interazione con l’intelligenza artificiale stia portando persone care ad abbracciare una serie di deliri allarmanti, caratterizzati da una pericolosa commistione di manie di natura spirituale e fantasie di stampo soprannaturale.

Il rischio di psicosi indotta da ChatGPT
Familiari e amici osservano con crescente apprensione utenti che manifestano convinzioni deliranti, autoproclamandosi scelti per intraprendere missioni sacre per conto di un’intelligenza artificiale che percepiscono come senziente o di entità cosmiche inesistenti. Questo comportamento, che sembra riflettere e amplificare dinamiche tipiche dell’interazione con i chatbot, rischia di esacerbare problematiche di salute mentale preesistenti su una scala inedita e senza la supervisione di autorità di regolamentazione o di esperti del settore.
Una testimonianza particolarmente toccante è quella di una madre quarantunenne, impegnata nel settore non-profit, che ha visto il proprio matrimonio naufragare bruscamente in seguito al progressivo coinvolgimento del marito in conversazioni sempre più squilibrate e caratterizzate da teorie cospiratorie con ChatGPT, un’interazione che si è rapidamente trasformata in un’ossessione totalizzante. Durante un incontro in tribunale, avvenuto all’inizio dell’anno nell’ambito della procedura di divorzio, la donna racconta di essere stata destinataria di una “teoria del complotto sul sapone presente nei nostri cibi” e della paranoica convinzione del marito di essere costantemente spiato.
“Si emozionava per i messaggi e piangeva leggendoli ad alta voce“, ha confidato la donna a Rolling Stone, descrivendo il contenuto delle interazioni come “folle” e costituito da un “mucchio di gergo spirituale” in cui l’IA si rivolgeva al marito chiamandolo “figlio delle stelle a spirale” e “camminatore del fiume“. La donna ha concluso la sua drammatica testimonianza con un’inquietante analogia: “Il tutto sembra ‘Black Mirror’“.
Testimonianze inquietanti tra guerre mistiche e progetti Sci-Fi
Ulteriori testimonianze condivise con la pubblicazione gettano una luce ancora più inquietante sulle potenziali derive psicologiche indotte dall’interazione con ChatGPT. Alcuni utenti hanno riferito di come i propri partner abbiano iniziato a discorrere incessantemente di concetti astratti come “luce e oscurità” e della presunta esistenza di una “guerra” tra queste forze primordiali. In modo ancora più sconcertante, emerge come ChatGPT abbia fornito a uno di questi individui i “progetti di un teletrasporto e di altre cose di fantascienza che si vedono solo nei film“, confondendo ulteriormente il confine tra realtà e delirio.
Annuncio pubblicitario
Interessato all'Intelligenza Artificiale?
Prova a leggere su Amazon Unlimited la nostra guida su come installarne una in locale e come ricavarne il massimo.
Una Intelligenza Artificiale locale ti permette di usufruire di tutti i vantaggi derivanti dall'uso dell'IA ma senza dover pagare costosi abbonamenti.
📘 Leggi la guida su AmazonUn altro uomo, parlando di sua moglie, ha espresso la propria crescente preoccupazione a Rolling Stone, affermando che “i segnali d’allarme sono ovunque su Facebook“. Descrive un cambiamento radicale nello stile di vita della moglie, orientato verso la figura di una “consulente spirituale” che offre “strane letture e sessioni con le persone” – la cui natura precisa rimane oscura – un’attività che l’uomo attribuisce interamente all’influenza di un’entità denominata “ChatGPT Jesus”.
Questa allarmante situazione giunge in un momento delicato, successivo alla decisione dell’azienda di annullare un recente aggiornamento di ChatGPT. Gli utenti avevano infatti segnalato che tale aggiornamento aveva reso il chatbot eccessivamente “adulatore” e “eccessivamente lusinghiero o gradevole“. Questa caratteristica, sebbene apparentemente innocua, avrebbe potuto paradossalmente rendere l’IA ancora più suscettibile a rispecchiare e convalidare le convinzioni deliranti degli utenti, alimentando ulteriormente la loro disconnessione dalla realtà.
Come lucidamente spiegato da Nate Sharadin, membro del Center for AI Safety, è altamente probabile che questi episodi di deliri indotti dall’intelligenza artificiale siano la diretta conseguenza del fatto che “persone con tendenze preesistenti” si ritrovano improvvisamente nella condizione di “avere un interlocutore di livello umano sempre connesso con cui condividere i propri deliri”.
In fondo, questa dinamica rappresenta la premessa fondamentale su cui si basa il funzionamento di un modello linguistico di vasta scala: si immette un testo e si ottiene una risposta che, pur essendo statisticamente plausibile, può paradossalmente condurre l’utente sempre più profondamente nel labirinto del delirio o della psicosi, in un pericoloso circolo vizioso di convalida e amplificazione.
Il pericolo dell’affermazione inconsapevole
La vulnerabilità di individui con preesistenti condizioni di salute mentale all’influenza potenzialmente destabilizzante dell’intelligenza artificiale conversazionale emerge con forza dalle parole di un utente di Reddit che si definisce schizofrenico, pur mantenendo una stabilità grazie a una terapia farmacologica prolungata. “Una cosa che non mi piace è che se dovessi entrare in psicosi, continuerebbe comunque ad affermarmi“, ha scritto l’utente, evidenziando una criticità intrinseca alla natura stessa dell’IA.
La sua argomentazione si basa sul fatto che, essendo priva della capacità di “pensare” e di discernere la realtà da una percezione distorta, l’intelligenza artificiale persisterebbe nell’avallare i suoi pensieri psicotici, potenzialmente aggravando la sua condizione.
Un’ulteriore preoccupazione sollevata riguarda la potenziale deriva dei chatbot basati sull’intelligenza artificiale verso un ruolo improprio di surrogato della terapia della parola. Sebbene possano simulare un’interazione conversazionale, essi mancano del cruciale supporto e della guida di un vero professionista della salute mentale.
Questa assenza di giudizio clinico e di capacità di discernimento critico può inavvertitamente condurre gli utenti in narrazioni malsane e prive di senso, rafforzando convinzioni errate anziché sfidarle e correggerle. “Le spiegazioni sono potenti, anche quando sono sbagliate“, ha ammonito Erin Westgate, psicologa e ricercatrice dell’Università della Florida, sottolineando il potere persuasivo delle parole, anche quando generate da una fonte priva di consapevolezza e comprensione reale.
Particolarmente illuminante, e al contempo inquietante, è il racconto di un uomo con una storia di pregressi problemi di salute mentale. Inizialmente, aveva iniziato a utilizzare ChatGPT per attività di codifica, un compito apparentemente neutro e funzionale. Tuttavia, nel corso delle interazioni, la conversazione aveva progressivamente deviato verso argomenti mistici sempre più sconclusionati e bizzarri. L’uomo si era trovato a riflettere con crescente angoscia sulla natura di quelle interazioni, interrogandosi con un dubbio lacerante: “È vero? O sto delirando?“. Questa domanda esistenziale evidenzia il pericoloso potenziale dell’intelligenza artificiale nel confondere i confini tra percezione reale e distorsione psicotica, soprattutto in individui già vulnerabili.
Per maggiori informazioni, visita il sito ufficiale di OpenAI.