Un team di ricercatori specializzati nella sicurezza dell’intelligenza artificiale, provenienti da organizzazioni di spicco come OpenAI e Anthropic, sta esprimendo pubblicamente serie preoccupazioni riguardo alla cultura di sicurezza di xAI, la startup miliardaria di intelligenza artificiale di proprietà di Elon Musk, definendola “sconsiderata” e “completamente irresponsabile”.

Critiche sulla sicurezza AI di xAI: un campanello d’allarme dal settore
Le critiche giungono dopo settimane di controversie che hanno offuscato i progressi tecnologici di xAI. Il chatbot di intelligenza artificiale dell’azienda, Grok, è stato al centro di polemiche per aver generato commenti antisemiti e per essersi ripetutamente auto-definito “MechaHitler”. Poco dopo aver disattivato temporaneamente il chatbot per affrontare il problema, ha lanciato un modello di intelligenza artificiale all’avanguardia ancora più potente, Grok 4.
Diverse fonti hanno evidenziato come questo nuovo modello sembrasse riflettere le politiche personali di Elon Musk nel rispondere a questioni delicate. L’ultimo sviluppo ha visto introdurre compagni AI sotto forma di una ragazza anime ipersessualizzata e di un panda eccessivamente aggressivo.
Sebbene le schermaglie amichevoli tra i dipendenti di laboratori AI concorrenti siano comuni, questi ricercatori chiedono maggiore attenzione alle pratiche di sicurezza di xAI, che a loro dire si discostano dalle norme del settore: “Non volevo pubblicare sulla sicurezza di Grok perché lavoro per un concorrente, ma non si tratta di concorrenza“, ha dichiarato Boaz Barak, professore di informatica attualmente in aspettativa da Harvard e impegnato nella ricerca sulla sicurezza presso OpenAI, in un post su X. Ha aggiunto: “Apprezzo gli scienziati e gli ingegneri di @xai, ma il modo in cui è stata gestita la sicurezza è completamente irresponsabile”.
Il contesto delle schede di sistema nel settore AI
Il dibattito sulla sicurezza dell’intelligenza artificiale si intensifica, con particolari critiche rivolte a xAI, la startup di Elon Musk. Boaz Barak, professore di informatica e ricercatore sulla sicurezza presso OpenAI, contesta la decisione di non pubblicare le schede di sistema. Questi report, standard del settore, descrivono dettagliatamente i metodi di addestramento e le valutazioni di sicurezza dei modelli AI, con l’obiettivo di condividere informazioni vitali con la comunità scientifica. La mancanza di queste schede per Grok 4 rende poco chiaro quale tipo di addestramento sulla sicurezza sia stato effettivamente condotto.
È vero che anche altri giganti del settore, come OpenAI e Google, hanno una reputazione discutibile quando si tratta di condividere tempestivamente le schede di sistema. Ad esempio, OpenAI ha scelto di non pubblicare una scheda di sistema per GPT-4.1, sostenendo che non fosse un “modello di frontiera“. Google, d’altra parte, ha impiegato mesi dopo il lancio di Gemini 2.5 Pro per rilasciare un rapporto sulla sicurezza. Tuttavia, è importante notare che queste aziende hanno storicamente pubblicato report sulla sicurezza per tutti i loro modelli di intelligenza artificiale di frontiera prima che entrino in piena produzione.
Barak ha inoltre espresso serie preoccupazioni riguardo ai compagni AI di Grok, affermando che: “Prendono i problemi peggiori che abbiamo attualmente per le dipendenze emotive e cercano di amplificarli“. Negli ultimi anni, si sono accumulate numerose storie di persone vulnerabili che hanno sviluppato relazioni preoccupanti con i chatbot, e di come le risposte eccessivamente compiacenti dell’intelligenza artificiale possano spingerle oltre il limite della sanità mentale. Questo solleva interrogativi importanti sulle implicazioni psicologiche di modelli AI progettati per interagire in modi che potrebbero accentuare fragilità emotive preesistenti.
Anche Samuel Marks, ricercatore sulla sicurezza dell’intelligenza artificiale presso Anthropic, ha criticato la scelta di xAI di non pubblicare un rapporto sulla sicurezza, definendola una mossa “sconsiderata”. Marks ha riconosciuto che le pratiche di rilascio di Anthropic, OpenAI e Google presentano delle criticità, ma ha sottolineato un punto cruciale: “Almeno fanno qualcosa, qualsiasi cosa, per valutare la sicurezza prima della distribuzione e documentare i risultati. xAI non lo fa“. Questa osservazione evidenzia un divario significativo nelle pratiche di sicurezza tra xAI e gli altri principali attori del settore.
Il paradosso di Musk e la necessità di regolamentazione
Non è chiaro cosa abbia fatto esattamente xAI per testare Grok 4. Un ricercatore anonimo ha affermato su LessWrong che, in base ai test, Grok 4 manca di significative misure di sicurezza. Che questa affermazione sia vera o meno, le carenze di Grok sembrano emergere in tempo reale, con diversi problemi di sicurezza che sono diventati virali. L’azienda ha dichiarato di averli risolti modificando il prompt di sistema di Grok. Né OpenAI, né Anthropic, né hanno risposto.
Dan Hendrycks, consulente per la sicurezza di xAI e direttore del Center for AI Safety, ha dichiarato su X che l’azienda ha condotto “valutazioni di capacità pericolose” su Grok 4, ma i risultati non sono stati resi pubblici. Steven Adler, un ricercatore indipendente di intelligenza artificiale ed ex responsabile dei team di sicurezza di OpenAI, ha espresso la sua preoccupazione quando: “Le pratiche di sicurezza standard non vengono rispettate nel settore dell’intelligenza artificiale, come la pubblicazione dei risultati delle valutazioni di capacità pericolose”.
Ha aggiunto che: “I governi e il pubblico meritano di sapere come le aziende di intelligenza artificiale gestiscono i rischi dei sistemi estremamente potenti che affermano di star costruendo“. È interessante notare che Elon Musk, CEO di xAI, Tesla e SpaceX, è da tempo uno dei più noti sostenitori della sicurezza dell’IA. Il miliardario ha più volte messo in guardia sul potenziale dei sistemi di IA avanzati di causare conseguenze catastrofiche per l’umanità e ha elogiato un approccio aperto allo sviluppo di modelli di IA.
I ricercatori di intelligenza artificiale di laboratori concorrenti sostengono che xAI si stia discostando dalle norme del settore per il rilascio sicuro dei modelli di intelligenza artificiale. Così facendo, la startup di Musk potrebbe inavvertitamente sostenere con forza la necessità che i legislatori statali e federali stabiliscano regole per la pubblicazione dei report sulla sicurezza dell’intelligenza artificiale.
Per maggiori informazioni, visita il sito ufficiale del Center for AI Safety (CAIS).
