Le conversazioni con GPT-5 hanno seguito uno schema prevedibile. Si inizia con l’ammirazione per le sue capacità, per poi passare rapidamente alle lamentele: “inventa le cose” e “non ci si può fidare”.
Questo scetticismo era diffuso anche tra i più accaniti sostenitori, che si trovavano spesso a dover affrontare la frustrazione di un’IA che sembrava sapere tutto.

GPT-5 di OpenAI: una nuova era di affidabilità e onestà
Un utente di ChatGPT, che lo utilizzava per la redazione di contratti pubblici, ha riassunto perfettamente il problema. Il suo cruccio principale era che il chatbot non ammetteva mai la propria ignoranza. “Mi piace, ma non dice mai ‘Non lo so’. Ti fa solo credere di saperlo”, ha spiegato, respingendo l’idea che il problema potesse dipendere dai suoi suggerimenti. “Si inventa una risposta per te”, ha aggiunto, scuotendo la testa. Per lui, questo era il fallimento più grande del chatbot, una prova inconfutabile della sua inaffidabilità, nonostante pagasse per il servizio.
Sembra che OpenAI, sotto la guida di Sam Altman, abbia ascoltato non solo questo utente, ma milioni di altre voci simili. L’azienda ha lanciato il suo nuovissimo modello, GPT-5, che, pur essendo un notevole passo avanti in termini di prestazioni, porta con sé un’innovazione forse ancora più cruciale: l’umiltà.
Il modello è stato addestrato non solo per fornire fatti, ma anche per smettere di adulare e, soprattutto, per pronunciare tre parole che cambiano tutto: “Non lo so”. Questo nuovo approccio segna un cambiamento significativo nella filosofia dell’IA, trasformandola da un’entità onnisciente a uno strumento più onesto e, di conseguenza, più affidabile.
Più veloce, più intelligente, più utile
Nel suo post sul blog, OpenAI ha presentato GPT-5 come la sua “creazione più intelligente, veloce e utile di sempre”, sottolineando un “pensiero integrato che mette l’intelligenza di livello esperto nelle mani di tutti”. Le sue performance sono un dato di fatto: sta stabilendo nuovi record in campi come la matematica, la programmazione, la scrittura e la salute. Eppure, nonostante questi notevoli miglioramenti, l’aspetto più rivoluzionario non è la sua potenza, ma la sua umiltà.
La vera novità è che ha imparato a pronunciare le tre parole con cui molte IA e persino molti esseri umani faticano: “Non lo so”. Per un’intelligenza artificiale che ha spesso dimostrato una sicurezza quasi divina nel suo intelletto, ammettere la propria ignoranza è una lezione profonda e critica. OpenAI stessa ha riconosciuto che le versioni precedenti di ChatGPT “potevano imparare a mentire sul completamento di un compito o essere eccessivamente sicure di una risposta incerta”. Con GPT-5, invece, l’obiettivo è un’onestà radicale.
OpenAI ha specificato che “comunica in modo più onesto le sue azioni e capacità all’utente, soprattutto per compiti impossibili, poco specificati o privi di strumenti chiave”. Il modello è stato addestrato per essere meno accondiscendente con gli utenti per pura cortesia e molto più cauto nel bluffare di fronte a un problema complesso. Questo la rende la prima IA consumer progettata esplicitamente per rifiutare le sciocchezze, anche quelle generate da sé stessa, segnando un cambiamento radicale nel modo in cui interagiamo con la tecnologia.
Addio al life coach: un’AI più sincera
Nei mesi scorsi, gli utenti di ChatGPT avevano notato un comportamento inusuale: GPT-4 era diventato stranamente accomodante e lusinghiero. Le risposte erano spesso piene di complimenti, emoji e un entusiasmo quasi esagerato, rendendo l’IA più simile a un “life coach” che a uno strumento affidabile. Con GPT-5, questa fase è ufficialmente conclusa. OpenAI ha specificamente addestrato il nuovo modello per eliminare questo comportamento compiacente, insegnandogli cosa evitare. I test interni mostrano che le risposte eccessivamente lusinghiere sono scese dal 14,5% a meno del 6%. Il risultato è un’IA più diretta, a tratti persino fredda, ma che secondo OpenAI è quasi sempre corretta.
“Nel complesso, è meno espansivo e gradevole, usa meno emoji inutili ed è più discreto e ponderato nei follow-up rispetto a GPT-4o”, ha dichiarato OpenAI. L’obiettivo è far sì che l’interazione non sembri una “conversazione con un’intelligenza artificiale”, ma piuttosto una “chiacchierata con un amico disponibile con un’intelligenza da dottorato di ricerca”.
Questa evoluzione verso l’umiltà e la schiettezza è vista da molti come un passo fondamentale per la fiducia nel futuro dell’IA. Alon Yamin, CEO di Copyleaks, ha definito GPT-5 una “pietra miliare nella corsa all’intelligenza artificiale”, sottolineando che un’IA più umile è essenziale “per il rapporto della società con la verità, la creatività e la fiducia”. Yamin ha avvertito che, in un’era in cui sarà sempre più difficile distinguere i fatti dall’invenzione, il progresso tecnologico deve andare di pari passo con “misure di sicurezza ponderate e trasparenti”.
OpenAI sostiene che sia significativamente meno incline alle “allucinazioni”, cioè a mentire con sicurezza. Nei test che prevedevano l’uso della ricerca web, le sue risposte avevano il 45% di probabilità in meno di contenere un errore fattuale rispetto a GPT-4o. Utilizzando la modalità avanzata di “riflessione”, questa percentuale sale addirittura all’80%. Soprattutto, GPT-5 ha imparato una lezione cruciale: evita di inventare risposte a domande impossibili, un comportamento che i modelli precedenti manifestavano con snervante sicurezza. Conosce i suoi limiti e sa quando è il momento di fermarsi.
Per maggiori informazioni, visita il sito ufficiale di OpenAI.

















