L’AI non può essere controllata in modo sicuro

Un esame approfondito condotto dal Dr. Roman V. Yampolskiy ha rivelato che attualmente non esiste alcuna prova concreta che l’AI possa essere controllata in modo sicuro, portando a una richiesta di fermare lo sviluppo della stessa fino a quando la sicurezza non sarà garantita.

Evidenziando l’assenza di prove sulla controllabilità dell’AI, il dottor Yampolskiy mette in guardia sui rischi esistenziali
Evidenziando l’assenza di prove sulla controllabilità dell’AI, il dottor Yampolskiy mette in guardia sui rischi esistenziali

Il dottore ha spiegato che nonostante si riconosca che il controllo dell’intelligenza artificiale potrebbe essere uno dei problemi più importanti che l’umanità deve affrontare, esso rimane poco compreso, poco definito e scarsamente studiato.

Nel suo libro, “AI: Unexplainable, Unpredictable, Uncontrollable, il dottor Yampolskiy, esperto di sicurezza dell’intelligenza artificiale, ha esaminato i modi in cui le Machine Learning hanno il potenziale per rimodellare radicalmente la società, non sempre a nostro vantaggio: “Siamo di fronte a un evento quasi garantito, con il potenziale di provocare una catastrofe esistenziale. Non c’è da stupirsi che molti considerino questo il problema più importante che l’umanità abbia mai dovuto affrontare. Il risultato potrebbe essere la prosperità o l’estinzione”.

AI: la superintelligenza incontrollabile

Il dottor Yampolskiy ha effettuato un’ampia revisione della letteratura scientifica sull’AI e ha affermato di non aver trovato alcuna prova che la stessa possa essere controllata in modo sicuro – e anche se ci fossero alcuni controlli parziali, non sarebbero sufficienti: “Perché così tanti ricercatori presumono che il problema del controllo sia risolvibile? Per quanto ne sappiamo, non ci sono prove a sostegno di questo. Prima di intraprendere la missione di costruire macchine intelligenti controllate, è importante dimostrare che il problema è risolvibile. Questo, combinato con le statistiche che hanno mostrato che lo sviluppo della superintelligenza è un evento quasi garantito, dimostra che dovremmo sostenere un significativo sforzo per la sicurezza dell’AI”.

Lui sostiene che la nostra capacità di produrre software intelligenti supera di gran lunga la nostra capacità di controllarli o addirittura verificarli. Dopo un’esaustiva revisione, ha suggerito che i sistemi intelligenti avanzati non potranno mai essere completamente controllabili e quindi presenteranno sempre un certo livello di rischio indipendentemente dal beneficio che forniscono. Inoltre, ritiene che l’obiettivo della comunità dovrebbe essere quello di ridurre al minimo tale rischio massimizzando al tempo stesso i potenziali benefici.

AI con un concetto di tecnologia medica 3D
AI con un concetto di tecnologia medica 3D

Quali sono gli ostacoli dell’AI?

L’intelligenza artificiale differisce dagli altri programmi per la sua capacità di apprendere nuovi comportamenti, adattare le proprie prestazioni e agire in modo semi-autonomo in situazioni nuove.

Un problema nel rendere l’AI “sicura” è che le possibili decisioni e fallimenti da parte di una macchina superintelligente sono infiniti e mitigarli con le patch di sicurezza potrebbe non essere sufficiente.

Allo stesso tempo, i sistemi intelligenti non possono spiegare ciò che hanno deciso. Se non comprendiamo le decisioni dell’AI e abbiamo solo una “scatola nera”, non possiamo comprendere il problema e ridurre la probabilità di incidenti futuri.

Ad esempio, i sistemi di Machine Learning hanno il compito di prendere decisioni in materia di sanità, investimenti, occupazione, banche e sicurezza, solo per citarne alcuni. Tali macchine dovrebbero essere in grado di spiegare come sono arrivati ​​alle loro decisioni per dimostrare che sono esenti da pregiudizi.

Yampolskiy ha dichiarato: “Se ci abituassimo ad accettare le risposte dell’intelligenza artificiale senza una spiegazione, trattandola essenzialmente come un sistema Oracle, non saremmo mai in grado di dire se fornisce risposte sbagliate o manipolative”.

All’aumentare della capacità dell’intelligenza artificiale, aumenta anche la sua autonomia, ma il nostro controllo su di essa diminuisce, ha spiegato Yampolskiy, e una maggiore autonomia è sinonimo di minore sicurezza: “Gli esseri umani non possono controllare in modo permanente l’AI. Questo non perché potremmo non riuscire a trovare un progetto sicuro per la superintelligenza nel vasto spazio di tutti i progetti possibili, ma perché nessun progetto del genere è possibile”.

L’esperto ha suggerito anche che si potrebbe trovare un punto di equilibrio in cui sacrifichiamo alcune capacità in cambio di un certo controllo, al costo di fornire al sistema un certo grado di autonomia.

L'AI non può spiegare ciò che ha deciso
L’AI non può spiegare ciò che ha deciso

Minimizzare il rischio dell’AI

Una proposta per il controllo dell’AI è quella di progettare una macchina che segua esattamente gli ordini umani, ma il rischio di ordini contrastanti, interpretazioni errate o usi dannosi rimane.

Se l’intelligenza artificiale agisse più come consulente, potrebbe aggirare i problemi legati all’errata interpretazione degli ordini diretti e al potenziale di ordini malevoli, ma l’autore sostiene che affinché le macchine siano utili consiglieri, devono avere i propri valori superiori.

La maggior parte dei scienziati sono alla ricerca di un modo per allineare la futura superintelligenza ai valori dell’umanità. Un’AI allineata al valore sarà distorta per definizione, il pregiudizio pro-umano, buono o cattivo è ancora un pregiudizio.

Per ridurre al minimo il rischio, è necessario che sia modificabile con opzioni di “annullamento”, limitabile, trasparente e facile da comprendere nel linguaggio umano.

Yampolskiy ha consigliato che tutta l’intelligenza artificiale dovrebbe essere classificata come controllabile o incontrollabile, e si dovrebbero prendere in considerazione moratorie limitate e persino divieti parziali su alcuni tipi di tecnologia AI: “Bisognerebbe scavare più a fondo e aumentare gli sforzi e i finanziamenti per la ricerca sulla sicurezza e la protezione delle Machine Learning. Possiamo renderle più affidabili in proporzione ai nostri sforzi”, ha concluso.

Più letti nella settimana

Perché l’Homo sapiens è sopravvissuto a tutte le altre specie umane?

Gli Homo sapiens sono gli unici rappresentanti sopravvissuti dell'albero...

Siamo davvero andati sulla Luna? Il complotto lunare

Sono trascorsi oltre 50 anni dal giorno in cui la missione Apollo 11 sbarcò sulla Luna. Sono stati realizzati film, documentari, scritti libri ed esaminate le rocce

Ossigeno oscuro: straordinario ritrovamento a 4000 metri

La recente scoperta di un “ossigeno oscuro” prodotto da...

Rinvenuta grotta lunare che potrebbe ospitare gli astronauti – video

Mentre la NASA e altre agenzie spaziali pianificano una...

New Horizons: lo spazio profondo è davvero completamente buio

Quattro anni fa, gli astronomi hanno avuto una spettacolare...

In Tendenza

Voyager 2, l’eliopausa e, oltre, l’infinito

La Voyager 2 opera attualmente a temperature di circa 3,6 gradi Celsius, e ogni anno che passa la navicella produce 4 watt in meno di energia

Syntrichia caninervis: il muschio pronto per colonizzare Marte

La Syntrichia caninervis, un muschio del deserto, ha dimostrato...

Offerte Amazon di oggi: mini frigo portatili super scontati!

Per le offerte Amazon di oggi vorrei proporti i...

Olimpiadi: trionfo degli animali in oltre 10 sport

Immagina un mondo in cui gli animali competono nelle...

Google Pixel 9 Pro Fold: arriva l’AI sul nuovo modello

Il mondo della tecnologia mobile è in continua evoluzione,...

Progetto ITER: svolta nell’energia da fusione

Il progetto di energia da fusione ITER ha segnato...

Medioevo: la vita quotidiana delle persone

Il Medioevo è associato a battaglie epiche, storie leggendarie,...

Reattore nucleare a prova di fusione: incredibile da 105 MW

La Cina ha recentemente raggiunto un traguardo significativo nel...

Articoli correlati

Popular Categories