Sebbene il 2023 sia stato un anno rivoluzionario per l’intelligenza artificiale, è stato solo l’inizio, con il 2024 destinato a inaugurare una serie di progressi spaventosi che potrebbero includere l’AI generale e deepfake ancora più realistici.
L’intelligenza artificiale (AI) esiste da decenni, ma quest’anno è stata una svolta per la tecnologia spettrale, con ChatGPT di OpenAI che ha creato un AI accessibile e pratica per le masse. L’intelligenza artificiale, tuttavia, ha una storia movimentata e la tecnologia odierna è stata preceduta da una breve serie di esperimenti falliti.
Nella maggior parte dei casi, le innovazioni nel campo dell’intelligenza artificiale sembrano destinate a migliorare aspetti come la diagnostica medica e la scoperta scientifica. Un modello di intelligenza artificiale può, ad esempio, rilevare se sei ad alto rischio di sviluppare il cancro ai polmoni analizzando una scansione a raggi X. Durante il COVID-19, gli scienziati hanno anche creato un algoritmo in grado di diagnosticare il virus ascoltando sottili differenze nel suono della tosse delle persone. L’intelligenza artificiale è stata utilizzata anche per progettare esperimenti di fisica quantistica che vanno oltre ciò che gli esseri umani hanno concepito.
Ma non tutte le innovazioni sono così positive. Dai droni killer all’intelligenza artificiale che minaccia il futuro dell’umanità, ecco alcune delle scoperte più spaventose che potrebbero verificarsi nel 2024.
D*: l’era dell’Intelligenza Generale Artificiale (AGI)?
Non sappiamo perché esattamente il CEO di OpenAI Sam Altman sia stato licenziato e reintegrato alla fine del 2023. Ma nel caos aziendale di OpenAI, circolavano voci su una tecnologia avanzata che avrebbe potuto minacciare il futuro dell’umanità. Quel sistema OpenAI, chiamato Q* (pronunciato Q-star) potrebbe incarnare la realizzazione potenzialmente rivoluzionaria dell’intelligenza generale artificiale (AGI). Si sa poco di questo misterioso sistema, ma se le notizie fossero vere, potrebbe aumentare le capacità dell’intelligenza artificiale di diversi livelli.
L’AGI è un ipotetico punto di svolta, noto anche come “singolarità”, in cui l’intelligenza artificiale diventa più intelligente degli esseri umani. Le attuali generazioni di AI sono ancora in ritardo nelle aree in cui gli esseri umani eccellono, come il ragionamento basato sul contesto e la creatività genuina. La maggior parte, se non tutti, i contenuti generati dall’intelligenza artificiale non fanno altro che rigurgitare, in qualche modo, i dati utilizzati per addestrarli.
Ma l’AGI potrebbe potenzialmente svolgere particolari lavori meglio della maggior parte delle persone, hanno riferito gli scienziati. Potrebbe anche essere trasformato in un’arma e utilizzato, ad esempio, per creare agenti patogeni potenziati, lanciare massicci attacchi informatici o orchestrare manipolazioni di massa.
L’idea dell’AGI è stata a lungo confinata nella fantascienza e molti scienziati credono che non raggiungeremo mai questo punto. Per OpenAI aver già raggiunto questo punto critico sarebbe certamente uno shock, ma non oltre il regno delle possibilità. Sappiamo, ad esempio, che Sam Altman stava già gettando le basi per AGI nel febbraio 2023, delineando l’approccio di OpenAI all’AGI in un post sul blog. Sappiamo anche che gli esperti stanno iniziando a prevedere una svolta imminente, incluso il CEO di Nvidia Jensen Huang, che a novembre ha affermato che l’AGI sarà raggiungibile entro i prossimi cinque anni.
Il 2024 potrebbe essere l’anno di svolta per l’AGI?
Deepfake iperrealistici per brogli elettorali
Una delle minacce informatiche più urgenti è quella dei deepfake: immagini o video interamente inventati di persone che potrebbero travisarli, incriminarli o intimidirli. La tecnologia deepfake dell’intelligenza artificiale non è ancora stata abbastanza potente da costituire una minaccia significativa, ma la situazione potrebbe cambiare.
L’intelligenza artificiale ora può generare deepfake in tempo reale (feed video in diretta, in altre parole) e sta diventando così brava nel generare volti umani che le persone non riescono più a distinguere tra ciò che è reale e ciò che è falso. Un altro studio, pubblicato sulla rivista Psychological Science, ha portato alla luce il fenomeno dell’iperrealismo, in cui è più probabile che i contenuti generati dall’intelligenza artificiale vengano percepiti come “reali” rispetto ai contenuti effettivamente reali.
Ciò renderebbe praticamente impossibile per le persone distinguere i fatti dalla finzione a occhio nudo. Sebbene gli strumenti possano aiutare le persone a rilevare i deepfake, questi non sono ancora diventati mainstream. Intel, ad esempio, ha creato un rilevatore di deepfake in tempo reale che funziona utilizzando l’intelligenza artificiale per analizzare il flusso sanguigno. Ma FakeCatcher, come è noto, ha prodotto risultati contrastanti.
Man mano che l’intelligenza artificiale generativa matura, una possibilità spaventosa è che le persone possano utilizzare deepfake per tentare di influenzare le elezioni. Il Financial Times (FT), ad esempio, ha riferito che il Bangladesh si sta preparando per le elezioni di gennaio che saranno interrotte dai deepfake. Mentre gli Stati Uniti si preparano alle elezioni presidenziali del novembre 2024, esiste la possibilità che l’intelligenza artificiale e i deepfake possano cambiare l’esito di questo voto critico. L’UC Berkeley sta monitorando l’utilizzo dell’intelligenza artificiale nelle campagne, ad esempio, e NBC News ha anche riferito che molti stati non dispongono di leggi o strumenti per gestire qualsiasi ondata di disinformazione generata dall’intelligenza artificiale.
Robot killer tradizionali basati sull’intelligenza artificiale
I governi di tutto il mondo stanno incorporando sempre più l’intelligenza artificiale negli strumenti di guerra. Il governo degli Stati Uniti ha annunciato che 47 stati avevano approvato una dichiarazione sull’uso responsabile dell’intelligenza artificiale nelle forze armate, lanciata per la prima volta all’Aia a febbraio.
Perché era necessaria una dichiarazione del genere?
Perché l’uso “irresponsabile” è una prospettiva reale e terrificante. Abbiamo visto, ad esempio, droni IA che presumibilmente davano la caccia ai soldati in Libia senza alcun intervento umano.
L’intelligenza artificiale può riconoscere modelli, apprendere da sola, fare previsioni o generare raccomandazioni in contesti militari, e una corsa agli armamenti dell’IA è già in corso. Nel 2024, è probabile che vedremo l’intelligenza artificiale utilizzata non solo nei sistemi d’arma, ma anche nei sistemi logistici e di supporto decisionale, nonché nella ricerca e sviluppo.
Nel 2022, ad esempio, l’intelligenza artificiale ha generato 40.000 nuove, ipotetiche armi chimiche.
Vari rami dell’esercito americano hanno ordinato droni in grado di eseguire il riconoscimento dei bersagli e il tracciamento della battaglia meglio degli umani. Secondo NPR, anche Israele ha utilizzato l’intelligenza artificiale per identificare rapidamente obiettivi almeno 50 volte più velocemente di quanto possano fare gli esseri umani nell’ultima guerra tra Israele e Hamas.
Ma una delle aree di sviluppo più temute è quella dei sistemi d’arma letali autonomi (LAWS) – o robot killer. Diversi importanti scienziati e tecnologi hanno messo in guardia contro i robot assassini, tra cui Stephen Hawking nel 2015 ed Elon Musk nel 2017, ma la tecnologia non si è ancora materializzata su scala di massa.
Detto questo, alcuni sviluppi preoccupanti suggeriscono che quest’anno potrebbe essere un anno di svolta per i robot killer.
Ad esempio, in Ucraina, la Russia avrebbe schierato il drone Zala KYB-UAV, in grado di riconoscere e attaccare obiettivi senza intervento umano, secondo un rapporto del Bollettino degli scienziati atomici. Anche l’Australia ha sviluppato Ghost Shark, un sistema sottomarino autonomo che sarà prodotto “su larga scala”, secondo l’Australian Financial Review. Anche l’importo che i paesi di tutto il mondo stanno spendendo per l’intelligenza artificiale è un indicatore: la Cina ha aumentato la spesa per l’intelligenza artificiale da un totale di 11,6 milioni di dollari nel 2010 a 141 milioni di dollari entro il 2019. Questo perché la Cina è impegnata in una corsa con gli Stati Uniti per l’implementazione delle LEGGI.
Insieme, questi sviluppi suggeriscono che stiamo entrando in una nuova alba della guerra con intelligenza artificiale.