Un esame approfondito condotto dal Dr. Roman V. Yampolskiy ha rivelato che attualmente non esiste alcuna prova concreta che l’AI possa essere controllata in modo sicuro, portando a una richiesta di fermare lo sviluppo della stessa fino a quando la sicurezza non sarà garantita.
Il dottore ha spiegato che nonostante si riconosca che il controllo dell’intelligenza artificiale potrebbe essere uno dei problemi più importanti che l’umanità deve affrontare, esso rimane poco compreso, poco definito e scarsamente studiato.
Nel suo libro, “AI: Unexplainable, Unpredictable, Uncontrollable“, il dottor Yampolskiy, esperto di sicurezza dell’intelligenza artificiale, ha esaminato i modi in cui le Machine Learning hanno il potenziale per rimodellare radicalmente la società, non sempre a nostro vantaggio: “Siamo di fronte a un evento quasi garantito, con il potenziale di provocare una catastrofe esistenziale. Non c’è da stupirsi che molti considerino questo il problema più importante che l’umanità abbia mai dovuto affrontare. Il risultato potrebbe essere la prosperità o l’estinzione”.
AI: la superintelligenza incontrollabile
Il dottor Yampolskiy ha effettuato un’ampia revisione della letteratura scientifica sull’AI e ha affermato di non aver trovato alcuna prova che la stessa possa essere controllata in modo sicuro – e anche se ci fossero alcuni controlli parziali, non sarebbero sufficienti: “Perché così tanti ricercatori presumono che il problema del controllo sia risolvibile? Per quanto ne sappiamo, non ci sono prove a sostegno di questo. Prima di intraprendere la missione di costruire macchine intelligenti controllate, è importante dimostrare che il problema è risolvibile. Questo, combinato con le statistiche che hanno mostrato che lo sviluppo della superintelligenza è un evento quasi garantito, dimostra che dovremmo sostenere un significativo sforzo per la sicurezza dell’AI”.
Lui sostiene che la nostra capacità di produrre software intelligenti supera di gran lunga la nostra capacità di controllarli o addirittura verificarli. Dopo un’esaustiva revisione, ha suggerito che i sistemi intelligenti avanzati non potranno mai essere completamente controllabili e quindi presenteranno sempre un certo livello di rischio indipendentemente dal beneficio che forniscono. Inoltre, ritiene che l’obiettivo della comunità dovrebbe essere quello di ridurre al minimo tale rischio massimizzando al tempo stesso i potenziali benefici.
Quali sono gli ostacoli dell’AI?
L’intelligenza artificiale differisce dagli altri programmi per la sua capacità di apprendere nuovi comportamenti, adattare le proprie prestazioni e agire in modo semi-autonomo in situazioni nuove.
Un problema nel rendere l’AI “sicura” è che le possibili decisioni e fallimenti da parte di una macchina superintelligente sono infiniti e mitigarli con le patch di sicurezza potrebbe non essere sufficiente.
Allo stesso tempo, i sistemi intelligenti non possono spiegare ciò che hanno deciso. Se non comprendiamo le decisioni dell’AI e abbiamo solo una “scatola nera”, non possiamo comprendere il problema e ridurre la probabilità di incidenti futuri.
Ad esempio, i sistemi di Machine Learning hanno il compito di prendere decisioni in materia di sanità, investimenti, occupazione, banche e sicurezza, solo per citarne alcuni. Tali macchine dovrebbero essere in grado di spiegare come sono arrivati alle loro decisioni per dimostrare che sono esenti da pregiudizi.
Yampolskiy ha dichiarato: “Se ci abituassimo ad accettare le risposte dell’intelligenza artificiale senza una spiegazione, trattandola essenzialmente come un sistema Oracle, non saremmo mai in grado di dire se fornisce risposte sbagliate o manipolative”.
All’aumentare della capacità dell’intelligenza artificiale, aumenta anche la sua autonomia, ma il nostro controllo su di essa diminuisce, ha spiegato Yampolskiy, e una maggiore autonomia è sinonimo di minore sicurezza: “Gli esseri umani non possono controllare in modo permanente l’AI. Questo non perché potremmo non riuscire a trovare un progetto sicuro per la superintelligenza nel vasto spazio di tutti i progetti possibili, ma perché nessun progetto del genere è possibile”.
L’esperto ha suggerito anche che si potrebbe trovare un punto di equilibrio in cui sacrifichiamo alcune capacità in cambio di un certo controllo, al costo di fornire al sistema un certo grado di autonomia.
Minimizzare il rischio dell’AI
Una proposta per il controllo dell’AI è quella di progettare una macchina che segua esattamente gli ordini umani, ma il rischio di ordini contrastanti, interpretazioni errate o usi dannosi rimane.
Se l’intelligenza artificiale agisse più come consulente, potrebbe aggirare i problemi legati all’errata interpretazione degli ordini diretti e al potenziale di ordini malevoli, ma l’autore sostiene che affinché le macchine siano utili consiglieri, devono avere i propri valori superiori.
La maggior parte dei scienziati sono alla ricerca di un modo per allineare la futura superintelligenza ai valori dell’umanità. Un’AI allineata al valore sarà distorta per definizione, il pregiudizio pro-umano, buono o cattivo è ancora un pregiudizio.
Per ridurre al minimo il rischio, è necessario che sia modificabile con opzioni di “annullamento”, limitabile, trasparente e facile da comprendere nel linguaggio umano.
Yampolskiy ha consigliato che tutta l’intelligenza artificiale dovrebbe essere classificata come controllabile o incontrollabile, e si dovrebbero prendere in considerazione moratorie limitate e persino divieti parziali su alcuni tipi di tecnologia AI: “Bisognerebbe scavare più a fondo e aumentare gli sforzi e i finanziamenti per la ricerca sulla sicurezza e la protezione delle Machine Learning. Possiamo renderle più affidabili in proporzione ai nostri sforzi”, ha concluso.