L’intelligenza artificiale è la ragione per cui non abbiamo mai trovato gli alieni?

L’intelligenza artificiale ha fatto progressi a un ritmo sorprendente negli ultimi anni. Alcuni scienziati stanno ora guardando allo sviluppo della superintelligenza artificiale (ASI) , una forma di AI che non solo supererebbe l’intelligenza umana ma non sarebbe vincolata dalle velocità di apprendimento degli esseri umani

2
6749
Intelligenza artificiale

L’intelligenza artificiale (AI) ha fatto progressi a un ritmo sorprendente negli ultimi anni. Alcuni scienziati stanno ora guardando allo sviluppo della superintelligenza artificiale (ASI), una forma di AI che non solo supererebbe l’intelligenza umana ma non sarebbe vincolata dalle velocità di apprendimento degli esseri umani.

Intelligenza artificiale

Intelligenza artificiale: collo di bottiglia nello sviluppo di tutte le civiltà?

E se questo traguardo non fosse solo un risultato straordinario? E se rappresentasse anche un formidabile collo di bottiglia nello sviluppo di tutte le civiltà, così impegnativo da ostacolarne la sopravvivenza a lungo termine?

Intelligenza artificiale

Questa idea è al centro di uno studio recentemente pubblicato su Acta Astronautica. L’intelligenza artificiale potrebbe essere il “grande filtro” dell’Universo, una soglia così difficile da superare da impedire alla maggior parte della vita di evolversi in civiltà spaziali?



Questo è un concetto che potrebbe spiegare perché la ricerca dell’intelligenza extraterrestre (Seti) non ha ancora rilevato eventuali segni delle civiltà tecniche avanzate in altre parti della galassia.

Lo studio

L’ipotesi del grande filtro è in definitiva una proposta di soluzione al paradosso di Fermi. Questo ci chiede perché, in un Universo vasto e abbastanza antico da ospitare miliardi di pianeti potenzialmente abitabili, non abbiamo rilevato alcun segno di civiltà aliene.

L’ipotesi ha indicato che ci siano ostacoli insormontabili nella linea temporale evolutiva delle civiltà che impediscono loro di svilupparsi in entità spaziali.

Gli studiosi credono che l’emergere dell’ASI potrebbe essere un tale filtro. Il rapido progresso dell’intelligenza artificiale, che potrebbe portare all’ASI, potrebbe intersecarsi con una fase critica nello sviluppo di una civiltà: la transizione da una specie monoplanetaria a una specie multiplanetaria.

È qui che molte civiltà potrebbero vacillare, con l’intelligenza artificiale che fa progressi molto più rapidi della nostra capacità di controllarla o di esplorare e popolare in modo sostenibile il nostro Sistema Solare.

La problematica con l’intelligenza artificiale, e in particolare con l’ASI, risiede nella sua natura autonoma, autoamplificante e migliorativa. Possiede il potenziale per migliorare le proprie capacità a una velocità che supera le nostre linee temporali evolutive senza AI.

Il rischio che qualcosa vada storto è enorme e porterà alla caduta sia delle civiltà biologiche che di quelle basate sull’intelligenza artificiale prima che abbiano la possibilità di diventare multiplanetari.

Intelligenza artificiale

Ad esempio, se le nazioni si affidassero sempre più e cedessero il potere a sistemi di AI autonomi che competono tra loro, le capacità militari potrebbero essere utilizzate per uccidere e distruggere su una scala senza precedenti. Questo potrebbe potenzialmente portare alla distruzione della nostra intera civiltà, compresi gli stessi sistemi di intelligenza artificiale.

In questo scenario, è stato stimato che la longevità tipica di una civiltà tecnologica potrebbe essere inferiore a 100 anni. Questo è più o meno il tempo che intercorre tra la capacità di ricevere e trasmettere segnali tra le stelle (1960) e l’apparizione stimata dell’ASI (2040) sulla Terra. Si tratta di una durata allarmante se confrontata con la scala temporale cosmica di miliardi di anni.

Questa stima, se collegata a versioni ottimistiche dell’equazione di Drake, che tenta di stimare il numero di civiltà extraterrestri attive e comunicative nella Via Lattea, ha indicato che, in un dato momento, ci sono solo una manciata di civiltà intelligenti là fuori. Inoltre, come noi, le loro attività tecnologiche relativamente modeste potrebbero renderli piuttosto difficili da individuare.

Questa ricerca non è semplicemente un avvertimento su una potenziale catastrofe. Serve come un campanello d’allarme affinché l’umanità stabilisca solidi quadri normativi per guidare lo sviluppo dell’intelligenza artificiale, compresi i sistemi militari.

Non si tratta solo di prevenire l’uso malevolo dell’intelligenza artificiale sulla Terra: si tratta anche di garantire che l’evoluzione dell’AI sia in linea con la sopravvivenza a lungo termine della nostra specie.

Intelligenza artificiale

Questo ha suggerito che dobbiamo investire più risorse per diventare una società multiplanetaria il più presto possibile, un obiettivo che è rimasto in sospeso fin dai giorni esaltanti del progetto Apollo, ma che recentemente è stato riacceso dai progressi compiuti dalle aziende private.

Come ha osservato lo storico Yuval Noah Harari, nulla nella storia ci ha preparato all’impatto dell’introduzione di entità non coscienti e super-intelligenti sul nostro pianeta. Recentemente, le implicazioni del processo decisionale autonomo sull’AI hanno portato a richieste da parte di importanti leader del settore per una moratoria sullo sviluppo dell’AI, fino a quando non sarà possibile introdurre una forma responsabile di controllo e regolamentazione.

Anche se tuttavia tutti i paesi accettassero di rispettare norme e regolamenti rigorosi, sarebbe difficile tenere a freno le organizzazioni canaglia.

L’integrazione dell’intelligenza artificiale autonoma nei sistemi di difesa militare deve essere un’area di particolare preoccupazione. Esistono già prove del fatto che gli esseri umani cederanno volontariamente un potere significativo a sistemi sempre più capaci, perché potranno svolgere compiti utili molto più rapidamente ed efficacemente senza l’intervento umano.

I governi sono quindi riluttanti a regolamentare questo settore, dati i vantaggi strategici offerti dall’intelligenza artificiale, come è stato recentemente e devastantemente dimostrato a Gaza.

Questo significa che siamo già pericolosamente vicini al precipizio in cui le armi autonome operano oltre i confini etici e aggirano il diritto internazionale.

Conclusioni

In un mondo del genere, cedere il potere ai sistemi di intelligenza artificiale per ottenere un vantaggio tattico potrebbe inavvertitamente innescare una catena di eventi altamente distruttivi in rapida escalation. In un batter d’occhio, l’intelligenza collettiva del nostro pianeta potrebbe essere annientata.

Intelligenza artificiale

L’umanità si trova a un punto cruciale della sua traiettoria tecnologica. Le nostre azioni ora potrebbero determinare se diventeremo una civiltà interstellare duratura o soccomberemo alle problematiche poste dalle nostre stesse creazioni.

Usare Seti come lente attraverso la quale possiamo esaminare il nostro sviluppo futuro aggiunge una nuova dimensione alla discussione sul futuro dell’intelligenza artificiale. Spetta a tutti noi garantire che quando raggiungiamo le stelle, lo facciamo non come un ammonimento per le altre civiltà, ma come un faro di speranza, una specie che ha imparato a prosperare insieme all’intelligenza artificiale.

2