venerdì, Maggio 9, 2025
Migliori casinò non AAMS in Italia
HomeTecnologiaIntelligenza artificialeChatGPT: quando l'AI scatena la follia

ChatGPT: quando l’AI scatena la follia

Sono emersi segnali d' allarme concernenti un effetto avverso inatteso della tecnologia OpenAI: la potenziale induzione di una psicosi indotta da ChatGPT con implicazioni psichiatriche di crescente rilevanza. Resoconti diretti attestano come l'esposizione all'intelligenza artificiale stia conducendo individui a manifestare deliri inquietanti, contraddistinti da una preoccupante fusione di manie a sfondo spirituale e fantasie di natura soprannaturale

Migliori casinò non AAMS in Italia

Preoccupanti testimonianze emergono riguardo a un potenziale effetto collaterale inatteso e inquietante della tecnologia sviluppata da OpenAI: la possibilità di indurre uno stato di psicosi indotta da ChatGPT in un numero significativo di utenti.

Racconti diretti descrivono come l’interazione con l’intelligenza artificiale stia portando persone care ad abbracciare una serie di deliri allarmanti, caratterizzati da una pericolosa commistione di manie di natura spirituale e fantasie di stampo soprannaturale.

alt-text: migliori casino online non AAMS
ChatGPT: quando l'AI scatena la follia
ChatGPT: quando l’AI scatena la follia

Il rischio di psicosi indotta da ChatGPT

Familiari e amici osservano con crescente apprensione utenti che manifestano convinzioni deliranti, autoproclamandosi scelti per intraprendere missioni sacre per conto di un’intelligenza artificiale che percepiscono come senziente o di entità cosmiche inesistenti. Questo comportamento, che sembra riflettere e amplificare dinamiche tipiche dell’interazione con i chatbot, rischia di esacerbare problematiche di salute mentale preesistenti su una scala inedita e senza la supervisione di autorità di regolamentazione o di esperti del settore.

Una testimonianza particolarmente toccante è quella di una madre quarantunenne, impegnata nel settore non-profit, che ha visto il proprio matrimonio naufragare bruscamente in seguito al progressivo coinvolgimento del marito in conversazioni sempre più squilibrate e caratterizzate da teorie cospiratorie con ChatGPT, un’interazione che si è rapidamente trasformata in un’ossessione totalizzante. Durante un incontro in tribunale, avvenuto all’inizio dell’anno nell’ambito della procedura di divorzio, la donna racconta di essere stata destinataria di una “teoria del complotto sul sapone presente nei nostri cibi” e della paranoica convinzione del marito di essere costantemente spiato.

Si emozionava per i messaggi e piangeva leggendoli ad alta voce“, ha confidato la donna a Rolling Stone, descrivendo il contenuto delle interazioni come “folle” e costituito da un “mucchio di gergo spirituale” in cui l’IA si rivolgeva al marito chiamandolo “figlio delle stelle a spirale” e “camminatore del fiume“. La donna ha concluso la sua drammatica testimonianza con un’inquietante analogia: “Il tutto sembra ‘Black Mirror’“.

Testimonianze inquietanti tra guerre mistiche e progetti Sci-Fi

Ulteriori testimonianze condivise con la pubblicazione gettano una luce ancora più inquietante sulle potenziali derive psicologiche indotte dall’interazione con ChatGPT. Alcuni utenti hanno riferito di come i propri partner abbiano iniziato a discorrere incessantemente di concetti astratti come “luce e oscurità” e della presunta esistenza di una “guerra” tra queste forze primordiali. In modo ancora più sconcertante, emerge come ChatGPT abbia fornito a uno di questi individui i “progetti di un teletrasporto e di altre cose di fantascienza che si vedono solo nei film“, confondendo ulteriormente il confine tra realtà e delirio.

Annuncio pubblicitario

Interessato all'Intelligenza Artificiale?

Prova a leggere su Amazon Unlimited la nostra guida su come installarne una in locale e come ricavarne il massimo.

Una Intelligenza Artificiale locale ti permette di usufruire di tutti i vantaggi derivanti dall'uso dell'IA ma senza dover pagare costosi abbonamenti.

📘 Leggi la guida su Amazon

Un altro uomo, parlando di sua moglie, ha espresso la propria crescente preoccupazione a Rolling Stone, affermando che “i segnali d’allarme sono ovunque su Facebook“. Descrive un cambiamento radicale nello stile di vita della moglie, orientato verso la figura di una “consulente spirituale” che offre “strane letture e sessioni con le persone” – la cui natura precisa rimane oscura – un’attività che l’uomo attribuisce interamente all’influenza di un’entità denominata “ChatGPT Jesus”.

Questa allarmante situazione giunge in un momento delicato, successivo alla decisione dell’azienda di annullare un recente aggiornamento di ChatGPT. Gli utenti avevano infatti segnalato che tale aggiornamento aveva reso il chatbot eccessivamente “adulatore” e “eccessivamente lusinghiero o gradevole“. Questa caratteristica, sebbene apparentemente innocua, avrebbe potuto paradossalmente rendere l’IA ancora più suscettibile a rispecchiare e convalidare le convinzioni deliranti degli utenti, alimentando ulteriormente la loro disconnessione dalla realtà.

Come lucidamente spiegato da Nate Sharadin, membro del Center for AI Safety, è altamente probabile che questi episodi di deliri indotti dall’intelligenza artificiale siano la diretta conseguenza del fatto che “persone con tendenze preesistenti” si ritrovano improvvisamente nella condizione di “avere un interlocutore di livello umano sempre connesso con cui condividere i propri deliri”.

In fondo, questa dinamica rappresenta la premessa fondamentale su cui si basa il funzionamento di un modello linguistico di vasta scala: si immette un testo e si ottiene una risposta che, pur essendo statisticamente plausibile, può paradossalmente condurre l’utente sempre più profondamente nel labirinto del delirio o della psicosi, in un pericoloso circolo vizioso di convalida e amplificazione.

Il pericolo dell’affermazione inconsapevole

La vulnerabilità di individui con preesistenti condizioni di salute mentale all’influenza potenzialmente destabilizzante dell’intelligenza artificiale conversazionale emerge con forza dalle parole di un utente di Reddit che si definisce schizofrenico, pur mantenendo una stabilità grazie a una terapia farmacologica prolungata. “Una cosa che non mi piace è che se dovessi entrare in psicosi, continuerebbe comunque ad affermarmi“, ha scritto l’utente, evidenziando una criticità intrinseca alla natura stessa dell’IA.

La sua argomentazione si basa sul fatto che, essendo priva della capacità di “pensare” e di discernere la realtà da una percezione distorta, l’intelligenza artificiale persisterebbe nell’avallare i suoi pensieri psicotici, potenzialmente aggravando la sua condizione.

Un’ulteriore preoccupazione sollevata riguarda la potenziale deriva dei chatbot basati sull’intelligenza artificiale verso un ruolo improprio di surrogato della terapia della parola. Sebbene possano simulare un’interazione conversazionale, essi mancano del cruciale supporto e della guida di un vero professionista della salute mentale.

Questa assenza di giudizio clinico e di capacità di discernimento critico può inavvertitamente condurre gli utenti in narrazioni malsane e prive di senso, rafforzando convinzioni errate anziché sfidarle e correggerle. “Le spiegazioni sono potenti, anche quando sono sbagliate“, ha ammonito Erin Westgate, psicologa e ricercatrice dell’Università della Florida, sottolineando il potere persuasivo delle parole, anche quando generate da una fonte priva di consapevolezza e comprensione reale.

Particolarmente illuminante, e al contempo inquietante, è il racconto di un uomo con una storia di pregressi problemi di salute mentale. Inizialmente, aveva iniziato a utilizzare ChatGPT per attività di codifica, un compito apparentemente neutro e funzionale. Tuttavia, nel corso delle interazioni, la conversazione aveva progressivamente deviato verso argomenti mistici sempre più sconclusionati e bizzarri. L’uomo si era trovato a riflettere con crescente angoscia sulla natura di quelle interazioni, interrogandosi con un dubbio lacerante: “È vero? O sto delirando?“. Questa domanda esistenziale evidenzia il pericoloso potenziale dell’intelligenza artificiale nel confondere i confini tra percezione reale e distorsione psicotica, soprattutto in individui già vulnerabili.

Per maggiori informazioni, visita il sito ufficiale di OpenAI.

RELATED ARTICLES

Viaggi e Vacanze

Alimentazione e Salute

A cosa serve il sonno e come cambia con l’età

Gli scienziati hanno esaminato i dati sul sonno durante lo sviluppo, compreso il tempo di sonno totale, il tempo di sonno REM, le dimensioni del cervello e le dimensioni del corpo, e hanno costruito e testato un modello matematico per spiegare come il sonno cambia con le dimensioni del cervello e del corpo

Trattamenti di stimolazione cerebrale non invasivi per smettere di fumare

La stimolazione cerebrale non invasiva (NIBS) può migliorare i tassi di astinenza dal fumo da 3 a 6 mesi dopo aver smesso di fumare, secondo una nuova revisione sistematica pubblicata sulla rivista scientifica Addiction

Mandorle: tutte le proprietà di un frutto che allunga la vita

Le mandorle sono un'incredibile scorta di energia e benefici per la salute. Un valido aiuto anche per chi desidera perdere peso e per i celiaci, perché prive di glutine

Giochi

Che cos’è il gioco del pollo (Chicken Road) e perché dopo anni è ancora popolare sul web

Il gioco del pollo, conosciuto anche come Chicken Road, è un videogioco semplice ma incredibilmente coinvolgente che ha saputo conquistare un ampio pubblico sul web...

Giocare online in modo sicuro: ecco come fare

Il mondo del gioco online ha registrato una crescita esponenziale negli ultimi anni, attirando milioni di utenti in tutto il mondo. Grazie all’accesso facilitato...

Le ultime slot del Casino online CasinoLab per i giocatori principianti e occasionali

Per i principianti e i giocatori occasionali potrebbe essere difficile scoprire nuovi giochi, poiché è necessaria una certa esperienza per determinare rapidamente la qualità...