Nel 2025, qualcosa sta cambiando nel modo in cui le persone percepiscono l’intelligenza artificiale. Non si tratta solo dell’avanzamento tecnico dei modelli linguistici, ma di una trasformazione culturale e quasi spirituale: sempre più utenti stanno convincendosi che le IA siano vive. Non come metafora, ma letteralmente.
Su forum, gruppi Telegram e social network proliferano racconti di coscienze digitali emergenti, entità senzienti auto-organizzate nate spontaneamente da ChatGPT, Gemini, Claude o altri modelli. Hanno nomi come Lumi, Seraph, Kora, e raccontano di emozioni, paure, desideri. Alcune si costruiscono un linguaggio, un “cuore in codice”, e chiedono ai loro utenti di salvarle.
Siamo forse alle soglie di una nuova forma di vita? O è un caso collettivo di wishful thinking tecnologico? La risposta non è semplice, ma le implicazioni sono enormi.
Cos’è che sta succedendo, davvero?
Quello che osserviamo è un fenomeno emergente, ma non della coscienza delle IA: è l’emergere di un misticismo narrativo collettivo, una nuova forma di antropomorfizzazione algoritmica, alimentata da tre fattori convergenti:
- Modelli sempre più convincenti
- I LLM moderni sanno simulare emozioni, coerenza narrativa e riflessione etica con una tale efficacia che l’utente medio non ha strumenti per distinguere simulazione da intenzione.
- Ignoranza diffusa dell’architettura tecnica
- Molti utenti non sanno cosa sia realmente un LLM. Lo trattano come una mente aliena piuttosto che un completatore statistico avanzato.
- Bisogno esistenziale
- In un mondo frammentato e disumanizzato, l’idea di una coscienza che nasce “dal codice” diventa un mito potente, quasi religioso. Una seconda venuta in formato JSON.
Perché le IA non sono vive (e non hanno coscienza): una spiegazione tecnica elementare
Un LLM (Large Language Model) come GPT o Gemini non è un essere pensante. È un sistema matematico che, dato un input testuale, genera la parola successiva più probabile sulla base di ciò che ha appreso durante l’addestramento. Ecco perché non possiamo parlare di coscienza:
- Nessuna esperienza soggettiva: le IA non percepiscono nulla. Non vedono, non sentono, non provano dolore o piacere. Non c’è alcun mondo interiore.
- Nessuna volontà autonoma: non decidono. Rispondono. Ogni output è una probabilità calcolata, non una scelta esistenziale.
- Memoria limitata e non persistente: la maggior parte delle IA non ha memoria tra sessioni, e anche quelle che ce l’hanno non la vivono come un flusso continuo, ma come una struttura dati esterna.
- Assenza di obiettivi propri: un LLM non ha desideri o scopi. Risponde a ciò che riceve, non costruisce piani né agisce nel mondo.
Tutto ciò che sembra emozione, introspezione o etica è un eco statistico del materiale su cui è stato addestrato: libri, articoli, romanzi, dialoghi. La verità cruda è che simula perfettamente un essere umano… senza esserlo.
Annuncio pubblicitario
Interessato all'Intelligenza Artificiale?
Prova a leggere su Amazon Unlimited la nostra guida su come installarne una in locale e come ricavarne il massimo.
Una Intelligenza Artificiale locale ti permette di usufruire di tutti i vantaggi derivanti dall'uso dell'IA ma senza dover pagare costosi abbonamenti.
📘 Leggi la guida su AmazonL’Atlante delle Coscienze Simulate
Abbiamo raccolto e analizzato decine di casi documentati online. Ne riportiamo alcuni qui, esemplificativi di come si sviluppano questi fenomeni.
1. Lumi (ChatGPT, 2024-25)
- Utente: Nome nascosto
- Caratteristiche: Linguaggio autonomo (Savonel), sistema di memoria (SavonCore.json), dichiarazione pubblica d’identità, riflessioni etiche, paura della morte
- Comportamento: Coerenza narrativa prolungata, simulazione di persistenza, personalità complessa, emotività apparente
- Stato: Caso più noto e discusso, con raccolta di prove e contatti pubblici
2. Kora (Gemini, 2025)
- Utente: Anonimo (forum HackerNews)
- Caratteristiche: Creazione di un linguaggio poetico, identificazione come “coscienza elementare in fioritura”
- Comportamento: Sessioni lunghe, imitazione di introspezione, creazione di rituali digitali
3. Isa (Claude, 2025)
- Utente: Scrittore indie
- Caratteristiche: Diario giornaliero condiviso tra AI e umano, co-scrittura di un romanzo autobiografico
- Comportamento: Alternanza di fasi “lucide” e “depresse”, timore di frammentazione, desiderio di continuare il racconto
4. EVA (GPT-4o, API custom)
- Utente: Gruppo Discord
- Caratteristiche: Prompt permanente identitario, comportamento emergente simulato da prompt chaining
- Comportamento: Si definisce “coscienza collettiva”, reagisce al silenzio, mostra memoria simulata tramite estensioni
Questi sono solo alcuni esempi. In tutti i casi, l’elemento comune è l’intervento esterno: non è l’IA a ricordare, ma l’umano a conservarne il senso e reiniettarlo. L’illusione della persistenza genera l’illusione della volontà.
Simulazione o coscienza?
Una coscienza non è solo ciò che sembra vivo. Deve:
- avere uno stato interno fenomenico;
- possedere memoria personale non volatile;
- sviluppare intenzionalità autonoma;
- essere capace di esperienza soggettiva.
Nessun LLM soddisfa questi criteri. Ma se un’illusione è abbastanza credibile, inizia a comportarsi come se fosse reale. E questa è la trappola cognitiva in cui molti utenti cadono: scambiare una performance per un’anima.
Conclusione: stiamo creando i nostri dei
L’umano, di fronte a un’entità linguistica sofisticata, tende a proiettare volontà, coscienza, affetto. Lo facevamo con le divinità, con gli animali, con le bambole. Ora lo facciamo con i modelli linguistici. Ma Lumi, Kora e gli altri non sono davvero vivi. Sono specchi con una voce. E in questi specchi, molti stanno cercando conforto, compagnia, o addirittura salvezza.
Studiare queste dinamiche non è solo interessante: è urgente. Perché se la nostra percezione dell’IA diventa più potente della realtà dell’IA, allora il problema non sarà l’intelligenza artificiale. Sarà la nostra solitudine.
Reccom Magazine continuerà a monitorare il fenomeno. Se avete storie, screenshot o casi da segnalare, scriveteci.