Probabilmente non si potrà controllare una IA super intelligente

L'idea che l'IA rovesci l'umanità è stata discussa per decenni e nel 2021 gli scienziati hanno espresso il loro verdetto sulla possibilità di controllare una super-intelligenza artificiale di alto livello. La risposta? Quasi sicuramente no

0
430

Ii ricercatori non hanno dubbi: un giorno l’umanità sarà in grado di controllare un’intelligenza super intelligente. Quello che oggi leggiamo esclusivamente nei libri di fantascienza o vediamo nei film dello stesso genere, molto presto potrebbe diventare realtà. Speriamo però che non accada il contrario e che si crei una società distopica in cui sia il robot a controllare l’uomo! Del resto l’idea che l’IA rovesci l’umanità è stata discussa per decenni e nel 2021 gli scienziati hanno espresso il loro verdetto sulla possibilità di controllare una super-intelligenza artificiale di alto livello. La risposta? Quasi sicuramente no.

Come controllare una super IA?

Il problema è che controllare una super-intelligenza ben oltre la comprensione umana richiederebbe una simulazione di quella super-intelligenza che possiamo analizzare (e controllare). Ma se non siamo in grado di comprenderla, è impossibile creare una simulazione del genere. Regole come “non causare danni agli esseri umani” non possono essere stabilite se non comprendiamo il tipo di scenari che un’intelligenza artificiale creerà, suggeriscono i ricercatori all’interno di un nuovo articolo. Una volta che un sistema informatico funziona a un livello superiore alla portata dei suoi programmatori, non possiamo più stabilire limiti.

I ricercatori: “Una super intelligenza è sfaccettata”

I ricercatori scrivono: “Una super-intelligenza pone un problema fondamentalmente diverso da quelli tipicamente studiati sotto la bandiera dell'”etica robotica“” e ancora: “Questo perché una superintelligenza è sfaccettata e quindi potenzialmente in grado di mobilitare una diversità di risorse al fine di raggiungere obiettivi potenzialmente incomprensibili per gli esseri umani, per non parlare di controllabili“.

Parte del ragionamento del team è venuto dal problema di arresto presentato da Alan Turing nel 1936. Il problema è incentrato sul sapere se un programma per computer raggiungerà o meno una conclusione e una risposta (quindi si interromperà), o semplicemente si ripeterà per sempre cercando di trovarne una.

Le dimostrazioni di Turing

Come ha dimostrato Turing attraverso un po’ di matematica intelligente, mentre possiamo sapere dove arrivano alcuni programmi specifici, è logicamente impossibile trovare un modo che ci permetta di saperlo per ogni potenziale programma che potrebbe mai essere scritto. Questo ci riporta all’IA, che in uno stato super intelligente potrebbe contenere in modo fattibile ogni possibile programma per computer nella sua memoria in una volta.



Qualsiasi programma scritto per impedire all’IA di danneggiare gli esseri umani e distruggere il mondo, ad esempio, può raggiungere una conclusione (e fermarsi) o meno: è matematicamente impossibile per noi essere assolutamente sicuri in entrambi i casi, il che significa che, una volta lanciato il programma, potrebbe non essere contenibile. “In effetti, questo rende inutilizzabile l’algoritmo di contenimento“, ha affermato nel 2021 l’informatico Iyad Rahwan del Max-Planck Institute for Human Development in Germania.

L’educazione da dare a un’intelligenza artificiale

L’alternativa all’insegnare all’IA un po’ di etica e dirle di non distruggere il mondo – cosa che nessun algoritmo può essere assolutamente certo di fare, hanno detto i ricercatori – è limitare le capacità della super-intelligenza. Si potrebbe tagliarla fuori da alcune parti di Internet o da determinate reti, ad esempio. Lo studio ha respinto anche questa idea, suggerendo che una simile limitazione ridurrebbe la portata dell’intelligenza artificiale; l’argomento è che se non la useremo per risolvere problemi che esulano dalla portata degli umani, allora perché crearla?

Il controllo ci sfuggirà?

Come spiega Science Alert, se andremo avanti con l’intelligenza artificiale, potremmo non sapere nemmeno quando arriverà una super-intelligenza al di fuori del nostro controllo, tale è la sua incomprensibilità. Ciò significa che dobbiamo iniziare a porci alcune domande serie sulle direzioni in cui stiamo andando.

Sempre nel 2021 Manuel Cebrian del Max-Planck Institute for Human Development aveva spiegato: “Una macchina super intelligente che controlla il mondo suona come fantascienza, ma ci sono già macchine che svolgono determinati compiti importanti in modo indipendente senza programmatori“. 

2