Elon Musk e un migliaio di esperti hanno lanciato un appello affinché si decida una pausa nello sviluppo dei sistemi di intelligenza artificiale (AI) per stabilire regole e paletti che ne garantiscano l’inoffensività sociale.
Una lettera aperta, firmata finora da più di 1.000 persone tra cui Musk e il co-fondatore di Apple Steve Wozniak, è stata pubblicata successivamente al rilascio di GPT-4 effettuato da OpenAI in collaborazione con Microsoft.
L’azienda ha afferma che questa versione della sua AI è molto più potente della versione precedente, utilizzata per alimentare ChatGPT, un bot in grado di generare tratti di testo con semplici prompt.
“I sistemi di intelligenza artificiale con intelligenza umana-competitiva possono comportare gravi rischi per la società e l’umanità“, afferma la lettera aperta intitolata “Pause Giant AI Experiments“. “Sistemi di intelligenza artificiale così potenti dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili“, sostengono Musk e le altre personalità firmatarie della lettera.
Musk è stato uno dei primi investitori in OpenAI, ha trascorso anni nel suo consiglio di amministrazione e la sua azienda automobilistica Tesla sviluppa sistemi di intelligenza artificiale per aiutare a potenziare la sua tecnologia di guida autonoma, tra le altre applicazioni.
La lettera, ospitata dal Future of Life Institute finanziato da Musk, è stata firmata da importanti critici e concorrenti di OpenAI come il capo di Stability AI Emad Mostaque. Il pioniere canadese dell’IA Yoshua Bengio, anche lui firmatario, in una conferenza stampa virtuale a Montreal ha avvertito che “la società non è pronta” per questo potente strumento e per i suoi possibili usi impropri.
“Rallentiamo. Assicuriamoci di sviluppare meccanismi di sicurezza migliori“, ha detto, chiedendo un’approfondita discussione internazionale sull’intelligenza artificiale e le sue implicazioni, “come abbiamo fatto per l’energia nucleare e le armi nucleari“.
“Affidabile e leale“
La lettera riprende un articolo di blog scritto dal fondatore di OpenAI Sam Altman, che suggerisce che “ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri“.
“Siamo d’accordo. Quel momento è adesso“, hanno scritto gli autori della lettera aperta. “Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4“.
I firmatari hanno chiesto ai governi di intervenire e imporre una moratoria se le aziende non fossero d’accordo. I sei mesi dovrebbero essere utilizzati per sviluppare protocolli di sicurezza, sistemi di governance dell’IA e riorientare la ricerca per garantire che i sistemi di intelligenza artificiale siano più accurati, sicuri, “affidabili e leali“.
La lettera non ha dettagliato i pericoli rivelati da GPT-4.
Ma i ricercatori, tra cui Gary Marcus della New York University, che hanno firmato la lettera, da tempo sostengono che i chatbot sono grandi bugiardi e hanno il potenziale per essere superdiffusori di disinformazione.
Tuttavia, l’autore Cory Doctorow ha paragonato l’industria dell’intelligenza artificiale a uno schema “pump and dump“, sostenendo che sia il potenziale che la minaccia dei sistemi di intelligenza artificiale sono stati ampiamente sovrastimati.