Il mondo dell’intelligenza artificiale è in fermento. Una startup cinese, DeepSeek, ha lanciato il suo ultimo modello di IA, DeepSeek R1, e in pochi giorni il suo chatbot ha scalato le classifiche dell’App Store di Apple, diventando l’app più scaricata. Ma non è tutto: le prestazioni di DeepSeek R1 sono tali da rivaleggiare e, in alcuni casi, superare i modelli di IA più avanzati di aziende americane come Meta e OpenAI.
DeepSeek R1: l’IA cinese che sta scuotendo Wall Street e la Silicon Valley
DeepSeek R1 ha superato tutti i modelli open source precedentemente disponibili e molti modelli chiusi nei benchmark standard, dimostrando capacità di calcolo e ragionamento superiori. Questo risultato ha mandato onde d’urto a Wall Street, con un’ondata di vendite che ha spazzato via circa 1 trilione di dollari di valore di mercato per le aziende tecnologiche americane in un solo giorno.
Questo successo rappresenta una sfida significativa per i piani degli Stati Uniti di mantenere il loro predominio nel campo dell’intelligenza artificiale. L’IA è considerata una tecnologia cruciale per il futuro, con implicazioni economiche e militari di vasta portata. La Cina ha dimostrato di poter competere e, in alcuni settori, superare i leader americani.
L’app per smartphone di DeepSeek, collegata a R1, ha rapidamente raggiunto la vetta delle classifiche sull’Apple Store, superando anche ChatGPT. Sul Google Play Store, ha già superato i 10 milioni di download. Questo successo testimonia l’interesse del pubblico per le nuove tecnologie di IA e il potenziale di DeepSeek R1 di diventare uno strumento di uso quotidiano per milioni di persone.
La sua rapida ascesa solleva importanti interrogativi sul futuro dell’intelligenza artificiale. La Cina sembra intenzionata a giocare un ruolo da protagonista in questo settore, e il suo successo di ne è una prova tangibile. Gli Stati Uniti dovranno intensificare i loro sforzi per mantenere la loro leadership, investendo in ricerca e sviluppo e promuovendo un ecosistema favorevole all’innovazione.
DeepSeek R1 rappresenta una svolta nel mondo dell’intelligenza artificiale. Le sue prestazioni eccezionali, il successo della sua app e il suo impatto sui mercati finanziari dimostrano il potenziale di questa tecnologia dirompente. La competizione tra Stati Uniti e Cina nel settore dell’IA è destinata a intensificarsi nei prossimi anni, e DeepSeek R1 è un chiaro segnale che la Cina è pronta a giocare un ruolo da protagonista.
Un’analisi comparativa delle prestazioni
Nel mondo dell’intelligenza artificiale, le prestazioni dei modelli vengono misurate utilizzando benchmark standardizzati. Questi benchmark sono composti da una serie di attività predefinite, le cui risposte corrette sono già note. Il modello di IA viene “messo alla prova” con queste attività e le sue risposte vengono confrontate con quelle corrette. In generale, più risposte corrette il modello fornisce, migliori sono le sue prestazioni. L’utilizzo di benchmark standardizzati condivisi permette di confrontare le prestazioni di diversi modelli di IA in modo oggettivo.
Il team di DeepSeek ha sottoposto il suo modello R1 a 21 benchmark diversi, confrontando i risultati ottenuti con quelli dei modelli di IA più avanzati di aziende come Meta, OpenAI e altre. I benchmark includevano compiti in diverse aree, tra cui la comprensione e generazione del linguaggio (sia in inglese che in cinese), la programmazione software e la risoluzione di problemi matematici.
DeepSeek R1 è stato confrontato con quattro modelli di IA leader del settore, tra cui Claude-3.5-Sonnet-1022 di Anthropic, tre modelli di OpenAI (GPT-4o, o1-mini e o1-1217) e il modello precedente di DeepSeek, DeepSeek-V3. I risultati ottenuti sono stati eccezionali. Il modello ha superato gli altri modelli in 12 dei 21 benchmark. Nei restanti nove benchmark, si è classificato secondo in otto casi e quarto in uno. Questi risultati dimostrano che è in grado di competere e, in alcuni casi, superare i modelli di IA più avanzati attualmente disponibili.
Le sue prestazioni sono un segnale incoraggiante per il futuro dell’intelligenza artificiale. Il modello dimostra che è possibile sviluppare IA sempre più potenti e versatili, in grado di svolgere compiti complessi in diversi ambiti. Questi progressi aprono nuove prospettive per l’utilizzo dell’IA in numerosi settori, dalla medicina alla finanza, dall’istruzione all’industria.
DeepSeek R1 non solo ha dimostrato prestazioni eccezionali nei benchmark standard, ma ha anche realizzato un’impresa notevole in termini di efficienza computazionale. Il team di DeepSeek ha utilizzato molte meno risorse di calcolo rispetto a quelle impiegate dai suoi concorrenti per costruire modelli di IA comparabili, se non inferiori.
Per la creazione di R1 sono state necessarie circa 2,8 milioni di ore di elaborazione su una scheda grafica NVIDIA H800. Queste schede GPU sono fondamentali per l’addestramento di modelli di intelligenza artificiale complessi, poiché eseguono in modo efficiente i calcoli matematici intensivi richiesti. DeepSeek ha utilizzato un’infrastruttura di elaborazione con 2.048 schede H800.
Al contrario, Meta ha impiegato 30,8 milioni di ore GPU per costruire il suo modello Llama-3.1. Ciò significa che DeepSeek R1 ha richiesto solo il 9% del tempo di calcolo necessario per Llama-3.1. Un’accelerazione ancora più impressionante se si considera che R1 è un modello più grande di Llama-3.1.
La dimensione di un modello di IA è generalmente misurata dal numero di parametri numerici che lo compongono. R1 ha 671 miliardi di parametri, mentre Llama-3.1 ne ha 405 miliardi, il che significa che è il 66% più grande. L’accelerazione nella costruzione del modello è resa ancora più notevole dal fatto che la GPU H800 è una versione depotenziata della GPU H100 di NVIDIA, progettata per rispettare le restrizioni sull’esportazione di tecnologie dagli Stati Uniti verso la Cina. La stima di Meta di 30,8 milioni di ore GPU per costruire Llama-3.1 si basa sulla scheda GPU H100, più veloce della H800.
L’efficienza computazionale di DeepSeek R1 è un risultato significativo che potrebbe avere un impatto profondo sul futuro dell’IA. La capacità di costruire modelli di IA potenti con un minor dispendio di risorse apre nuove prospettive per aziende e ricercatori con budget limitati, democratizzando l’accesso a tecnologie di IA all’avanguardia.
Inoltre, l’approccio di DeepSeek dimostra che è possibile ottenere prestazioni eccellenti con un utilizzo più efficiente delle risorse di calcolo, aprendo la strada a modelli di IA più sostenibili e accessibili. Questa svolta potrebbe accelerare lo sviluppo dell’IA in diversi settori, portando a nuove applicazioni e scoperte scientifiche.
DeepSeek R1 si distingue non solo per le sue prestazioni eccezionali, ma anche per la sua natura open source. Questo significa che l’intero set di 671 miliardi di parametri e il software necessario per far funzionare il modello sono liberamente accessibili per il download, l’ispezione e la modifica. I modelli open source sono spesso preferiti da sviluppatori di software e ingegneri di IA perché sono più facili da modificare e adattare a scopi specifici. La possibilità di “vedere sotto il cofano” e di personalizzare il modello offre una flessibilità e un controllo senza precedenti.
È importante notare che i modelli principali di OpenAI, nonostante il nome, non sono open source. Gli ingegneri di IA non possono ispezionare o modificare il modello principale o1 di OpenAI, ad esempio, o il suo immediato predecessore GPT-4o. Questa differenza fondamentale tra DeepSeek R1 e i modelli di OpenAI ha importanti implicazioni per la trasparenza e l’accessibilità dell’IA.
R1 implementa una procedura di “catena di pensiero“, una tecnica originariamente sviluppata da OpenAI per il suo modello o1. Tuttavia, mentre o1 e altri modelli di OpenAI nascondono i passaggi di “ragionamento” nella catena di pensiero, R1 consente all’utente di vedere tutti i passaggi necessari per raggiungere una risposta. Questa trasparenza nel processo decisionale dell’IA è un altro suo elemento distintivo.
Poiché i modelli open source possono essere utilizzati e modificati da chiunque, è nato un settore di aziende che offrono servizi di hosting per questi modelli. Ad esempio, il modello open source Llama-3.1 di Meta è ospitato da diverse aziende che competono sul costo di utilizzo del modello. Questo tipo di competizione può portare a una maggiore accessibilità e a costi inferiori per gli utenti.
Alcuni osservatori hanno notato che le query alla versione di R1 ospitata da DeepSeek si rifiutano di rispondere a domande su argomenti sensibili come “cosa è successo a Piazza Tienanmen?“. Questo dimostra che la natura aperta del modello non implica automaticamente una minore censura. Tuttavia, consente a chiunque al di fuori della Cina di ospitare il modello senza tali restrizioni, offrendo un potenziale per una maggiore libertà di accesso all’informazione.
È importante sottolineare che la censura non è un problema esclusivo dei modelli cinesi. Anche i modelli di OpenAI, ad esempio, si rifiutano di rispondere a domande sul genocidio di Gaza. La differenza fondamentale è che la censura nei modelli chiusi è molto più difficile da superare rispetto ai modelli open source, dove la comunità di sviluppatori può potenzialmente trovare soluzioni alternative.
Conclusioni
DeepSeek R1 rappresenta un passo avanti significativo nel mondo dell’intelligenza artificiale, non solo per le sue prestazioni, ma anche per la sua natura open source e la sua “catena di pensiero” trasparente. Questi elementi contribuiscono a una maggiore accessibilità, flessibilità e comprensione dell’IA, aprendo nuove prospettive per il futuro di questa tecnologia.