I giganti della tecnologia chiedono una pausa nello sviluppo dell’intelligenza artificiale (AI)

Elon Musk e un migliaio di esperti hanno lanciato un appello affinché si decida una pausa nello sviluppo dei sistemi di intelligenza artificiale (AI) per stabilire regole e paletti che ne garantiscano l’inoffensività sociale.

Una lettera aperta, firmata finora da più di 1.000 persone tra cui Musk e il co-fondatore di Apple Steve Wozniak, è stata pubblicata successivamente al rilascio di GPT-4 effettuato da OpenAI in collaborazione con Microsoft.

L’azienda ha afferma che questa versione della sua AI è molto più potente della versione precedente, utilizzata per alimentare ChatGPT, un bot in grado di generare tratti di testo con semplici prompt.

I sistemi di intelligenza artificiale con intelligenza umana-competitiva possono comportare gravi rischi per la società e l’umanità“, afferma la lettera aperta intitolata “Pause Giant AI Experiments“. “Sistemi di intelligenza artificiale così potenti dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili“, sostengono Musk e le altre personalità firmatarie della lettera.

Musk è stato uno dei primi investitori in OpenAI, ha trascorso anni nel suo consiglio di amministrazione e la sua azienda automobilistica Tesla sviluppa sistemi di intelligenza artificiale per aiutare a potenziare la sua tecnologia di guida autonoma, tra le altre applicazioni.

---L'articolo continua dopo la pubblicità---


La lettera, ospitata dal Future of Life Institute finanziato da Musk, è stata firmata da importanti critici e concorrenti di OpenAI come il capo di Stability AI Emad Mostaque. Il pioniere canadese dell’IA Yoshua Bengio, anche lui firmatario, in una conferenza stampa virtuale a Montreal ha avvertito che “la società non è pronta” per questo potente strumento e per i suoi possibili usi impropri.

Rallentiamo. Assicuriamoci di sviluppare meccanismi di sicurezza migliori“, ha detto, chiedendo un’approfondita discussione internazionale sull’intelligenza artificiale e le sue implicazioni, “come abbiamo fatto per l’energia nucleare e le armi nucleari“.

Advertisement

Affidabile e leale

La lettera riprende un articolo di blog scritto dal fondatore di OpenAI Sam Altman, che suggerisce che “ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri“.

Siamo d’accordo. Quel momento è adesso“, hanno scritto gli autori della lettera aperta. “Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4“.

I firmatari hanno chiesto ai governi di intervenire e imporre una moratoria se le aziende non fossero d’accordo. I sei mesi dovrebbero essere utilizzati per sviluppare protocolli di sicurezza, sistemi di governance dell’IA e riorientare la ricerca per garantire che i sistemi di intelligenza artificiale siano più accurati, sicuri, “affidabili e leali“.

---L'articolo continua dopo la pubblicità---

La lettera non ha dettagliato i pericoli rivelati da GPT-4.

Ma i ricercatori, tra cui Gary Marcus della New York University, che hanno firmato la lettera, da tempo sostengono che i chatbot sono grandi bugiardi e hanno il potenziale per essere superdiffusori di disinformazione.

​Tuttavia, l’autore Cory Doctorow ha paragonato l’industria dell’intelligenza artificiale a uno schema “pump and dump“, sostenendo che sia il potenziale che la minaccia dei sistemi di intelligenza artificiale sono stati ampiamente sovrastimati.

Advertisement

Advertisement

I più letti

spot_img

Reccom Magazine senza pubblicità

Reccom Magazine è stato pubblicato sul web per la prima volta il 9 marzo del 2017. Da quel primo giorno in cui contammo poche decine...
Una supernova esplosa 10 miliardi di anni fa potrebbe salvare la cosmologia

Una supernova esplosa 10 miliardi di anni fa potrebbe salvare la...

Una supernova distante 10 miliardi di anni luce la cui immagine è stata amplificata e triplicata dalla gravità potrebbe essere la chiave per scoprire...
Sulla base del Principio Copernicano, dovremmo trovare vita aliena entro 60 anni luce

Sulla base del Principio Copernicano, dovremmo trovare vita aliena entro 60...

Nel 1960, mentre si preparava per il primo incontro sulla ricerca dell'intelligenza extraterrestre (SETI), il dottor Frank Drake, presentò la sua equazione probabilistica per stimare...
L'antimateria è attratta dalla gravità come la materia normale

L’antimateria è attratta dalla gravità come la materia normale

Esperimenti condotti dalla collaborazione Antiidrogen Laser Physics Apparatus (ALPHA) presso il Centro europeo per la ricerca nucleare (CERN) di Ginevra hanno dimostrato che le...
L'immortalità è impossibile. La colpa è nella fisica dell’invecchiamento

L’immortalità è impossibile. La colpa è nella fisica dell’invecchiamento

Bryan Johnson è un imprenditore di software che spende circa 2 milioni di dollari all'anno cercando di far sembrare e funzionare il suo corpo da...
Principi attivi farmaceutici: l’importanza della selezione e del controllo qualità

Principi attivi farmaceutici: l’importanza della selezione e del controllo qualità

Quello della produzione dei farmaci è un settore particolarmente complesso e delicato dato che, in ultima analisi, attiene alla salute del consumatore finale; da...
Breakthrough Starshot: l'umanità potrebbe dichiarare accidentalmente guerra interstellare ad una civiltà aliena

Breakthrough Starshot: l’umanità potrebbe dichiarare accidentalmente guerra interstellare ad una civiltà...

Immagina di trovarti in un mondo non molto diverso dalla Terra, in orbita attorno a una stella non molto diversa dal nostro Sole. La temperatura...
La materia oscura potrebbe essere fatta di gravitoni?

La materia oscura potrebbe essere fatta di gravitoni?

Una delle osservazioni più sconcertanti sull’Universo è che non c’è abbastanza materia – almeno, la materia che conosciamo – per spiegare come vediamo che...
%d blogger hanno fatto clic su Mi Piace per questo: