Davvero le Intelligenze Artificiali renderanno l’uomo obsoleto?

Poiché l'A.I. ha il potenziale per diventare più intelligente di qualsiasi essere umano, non abbiamo un modo infallibile per prevedere come si comporterà.

3916

Tutte le creazioni robotiche informatiche create dall’uomo in grado di elaborare, pensare logicamente in modo indipendente ed autonomo o programmato e schematico finiranno per incidere sulla nostra vita e cambieranno profondamente anche il mondo del lavoro. Secondo le previsioni, circa il 60% di tutte le professioni e circa il 30% dell’orario di lavoro potranno essere automatizzati entro il 2030. L’automazione sta arrivando anche a professioni non scontate: ad esempio si stanno sviluppando robot che potranno sostituire parte del personale degli ospedali.
L’Agenzia di Stampa cinese Xinhua ha presentato al sesto Congresso Mondiale delle Agenzie di Stampa i suoi “robot-giornalisti“, in grado di condurre il TG in lingua cinese, inglese e russa, gestiti dall’intelligenza artificiale (A.I.).
Irina, è la nuova impiegata robot dell’ufficio postale russo.
La catena “Hotspot” a Pechino ha aperto il suo primo ristorante “A.I.”  con 18 robot capaci di preparare fino a 8000 piatti al giorno.
La catena di supermercati scozzese Margiotta ha Fabio, il commesso robot, così anche la catena Walmart ha come “dipendenti” dei robot.
Nei prossimi anni, 120 milioni di persone dovranno riqualificarsi. Entro dieci anni, a causa dell’automazione e lo sviluppo tecnologico, scompariranno di circa il 30% dei posti di lavoro. Le Intelligenze artificiali assumeranno ruoli di lavoratori instancabili ed intelligenti, di dottori, opereranno, costruiranno, saranno poliziotti, insegnanti, probabilmente con il tempo vorranno avere diritti come gli uomini e prenderanno posti di potere e, forse, come hanno più volte avvertito il compianto professor Stephen Hawking ed il miliardario visionario Elon Musk, potrebbero decidere di annientare o sottomettere l’uomo che secondo i loro calcoli non sarà abbastanza integro moralmente per vivere sulla terra in modo esclusivo.
Potranno decidere, una volta ai vertici dei governi, di fare qualsiasi cosa e ci riusciranno. Finché saranno controllati dagli umani ci porteranno via il lavoro. La privacy sarà utopia. Risolveranno misteri e inventeranno nuove tecnologie, il mondo avrà in breve un’evoluzione mai vissuta prima.
L’intelligenza artificiale cosiddetta ristretta, o debole, viene progettata per eseguire compiti limitati (ad esempio solo il riconoscimento facciale o solo ricerche su Internet o solo alla guida di un’auto). Tuttavia, l’obiettivo a lungo termine di molti ricercatori è quello di creare un’A.I. generale (AGI o AI forte). Mentre l’A.I. ristretta può superare gli umani in qualunque sia il loro compito specifico, come giocare a scacchi o risolvere equazioni, l’AGI supererebbe gli umani in quasi tutti i compiti cognitivi.

L’Intelligenza Artificiale è il futuro verso cui ci stiamo dirigendo.

Elon Musk si dichiara critico riguardo le A.I., infatti il suo progetto Neuralink” prevede una forte interazione diretta tra l’uomo e la macchina e vede l’IA sempre sotto il controllo dell’uomo, una sorta di estensione dell’intelligenza umana. Nel 2014, Musk dichiarò durante la Conferenza mondiale sull’intelligenza artificiale a Shanghai:

Le A.I. sono una minaccia esistenziale per l’umanità, l’intelligenza artificiale renderà gli esseri umani nutili

e recentemente ha dichiarato:
Il futuro con le A.I. potrà essere terribile o fantastico, col tempo non potranno più essere controllate dall’uomo perché in breve saranno capaci di autoprogrammarsi e avranno un’intelligenza drasticamente superiore a tutti gli uomini messi insieme“.

---L'articolo continua dopo la pubblicità---

Due anni fa, un tentativo di utilizzare robot a San Francisco che avrebbero dovuto pattugliare le strade per prevenire furti, attacchi e altri crimini in alcune aree della città è fallito: sono stati gettati a terra, imbrattati di feci. Successivamente, l’uso di tali robot è stato vietato dalle autorità cittadine. Nel 2017, a Mosca, un robot originariamente sviluppato dal Moscow Institute of Technology per studiare le reazioni umane ai robot e poi utilizzato come guida e docente è stato schiacciato con una mazza.

La maggior parte dei ricercatori concorda sul fatto che è improbabile che un’intelligenza artificiale superintelligente mostri emozioni umane come l’amore o l’odio e che non vi sia motivo di aspettarsi che l’A.I. diventi intenzionalmente benevola o malevola. Invece, quando si considera come l’A.I. potrebbe diventare un rischio, gli esperti pensano molto probabilmente due scenari:
L’intelligenza artificiale è programmata per fare qualcosa di devastante: le armi autonome sono sistemi di intelligenza artificiale programmati per uccidere. Nelle mani della persona sbagliata, queste armi potrebbero facilmente causare vittime di massa. Inoltre, una corsa agli armamenti di intelligenza artificiale potrebbe inavvertitamente portare a una guerra di intelligenza artificiale che provoca anche perdite di massa.
Per evitare di essere contrastati dal nemico, queste armi sarebbero progettate per essere estremamente difficili da “spegnere”, ed è plausibile che gli umani possano perderne il controllo. Questo rischio è presente anche con un’intelligenza artificiale ridotta, ma aumenta con l’aumentare dei livelli di intelligenza artificiale e autonomia.
L’intelligenza artificiale è programmata per fare qualcosa di benefico, ma sviluppa un metodo distruttivo per raggiungere il suo obiettivo: questo può accadere ogni volta che non riusciamo ad allineare completamente gli obiettivi dell’A.I. con i nostri, il che è sorprendentemente difficile. Se chiedi a un’auto ubbidiente intelligente di portarti all’aeroporto il più velocemente possibile, potrebbe portarti lì inseguito da elicotteri e coperto di vomito, non facendo quello che volevi ma letteralmente quello che chiedevi.
Se un sistema super intelligente venisse incaricato di un ambizioso progetto di geoingegneria, potrebbe devastare il nostro ecosistema come un effetto collaterale e vedere i tentativi umani di fermarlo come una minaccia da affrontare.
 
Come mostrano questi esempi, la preoccupazione per l’A.I. avanzata non è malevolenza ma competenza. Un’intelligenza artificiale super intelligente sarà estremamente brava a raggiungere i suoi obiettivi e se tali obiettivi non saranno allineati ai nostri, avremo un problema.
Probabilmente nessuno di noi è un malvagio odiatore di formiche ma se sei responsabile di un progetto idroelettrico di energia verde e c’è un formicaio nella regione da allagare, peccato per le formiche. Un obiettivo chiave della ricerca sulla sicurezza dell’A.I. è di non mettere mai l’umanità nella posizione di quelle formiche.
Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates e molti altri grandi nomi della scienza e della tecnologia hanno recentemente espresso preoccupazione nei media e tramite lettere aperte sui rischi posti dall’intelligenza artificiale, insieme a molti importanti ricercatori dell’A.I.a testimonianza di una sensibilità emergente sull’argomento.
L’idea che la ricerca di una intelligenza artificiale forte, alla fine avrebbe avuto successo è stata a lungo pensata come fantascienza oppure lontana secoli da noi. Tuttavia, grazie alle recenti scoperte, sono state raggiunte molte pietre miliari dell’intelligenza artificiale, che gli esperti consideravano come a decenni di distanza solo cinque anni fa, facendo sì che molti esperti stiano prendendo sul serio la possibilità della superintelligenza nella nostra vita.
Mentre alcuni esperti ritengono ancora che l’intelligenza artificiale a livello umano sia lontana da secoli, la maggior parte delle ricerche sull’A.I. alla Conferenza di Puerto Rico del 2015 ha ipotizzato che ciò potrebbe accadere entro il 2060. Dal momento che potrebbero essere necessari decenni per completare la ricerca sulla sicurezza richiesta, è prudente avviarla ora .
Poiché l’A.I. ha il potenziale per diventare più intelligente di qualsiasi essere umano, non abbiamo un modo infallibile per prevedere come si comporterà.
Non possiamo usare gli sviluppi tecnologici del passato come una base perché non abbiamo mai creato nulla che abbia la capacità, consapevolmente o inconsapevolmente, di superarci. Il miglior esempio di ciò che potremmo affrontare potrebbe essere la nostra stessa evoluzione.
Oggi controlliamo il pianeta, non perché siamo i più forti, i più veloci o i più grandi, ma perché ne siamo gli abitanti più intelligenti. Se smetteremo di esseri i più intelligenti, siamo certi che potremo mantenerne il controllo?