I ricercatori dell’Università di Copenaghen sono stati i primi al mondo a dimostrare matematicamente che, al di là di semplici problemi, è impossibile sviluppare algoritmi per l’intelligenza artificiale (AI) che siano sempre stabili.
ChatGPT e tecnologie simili basate sull’apprendimento automatico sono in aumento, tuttavia, anche gli algoritmi più avanzati devono affrontare dei limiti. I ricercatori dell’Università di Copenaghen hanno fatto una scoperta rivoluzionaria, dimostrando matematicamente che, al di là dei problemi di base, è impossibile sviluppare algoritmi di intelligenza artificiale che siano sempre stabili.
Questa ricerca potrebbe aprire la strada a protocolli di test migliorati per gli algoritmi, evidenziando le differenze intrinseche tra l’elaborazione meccanica e l’intelligenza umana.
L’AI interpreta le immagini delle scansioni mediche in modo più accurato dei medici, traduce le lingue straniere e presto potrebbe anche essere in grado di guidare le auto in modo più sicuro degli esseri umani. Tuttavia, anche i migliori algoritmi hanno dei punti deboli, e un gruppo di ricerca del Dipartimento di Informatica dell’Università di Copenaghen li ha svelati.
Prendiamo come esempio un veicolo automatizzato che legge un segnale stradale, se qualcuno ha posizionato un adesivo sul segnale questo non distrarrà il conducente umano, mentre un’intelligenza artificiale può essere facilmente rimandata poiché il segno ora è diverso da quelli su cui è stata addestrata.
“Vorremmo che gli algoritmi fossero stabili, nel senso che se l’input viene leggermente modificato l’output rimarrà quasi lo stesso. Nella vita reale ci sono vari tipi di rumore che gli esseri umani sono abituati a ignorare, mentre le AI possono confondersi”, ha spiegato il professor Amir Yehudayoff, capo del team di ricerca.
Un linguaggio per discutere delle debolezze
Il gruppo insieme a ricercatori di altri paesi ha dimostrato matematicamente che, a parte semplici problemi, non è possibile creare algoritmi per le AI che siano sempre stabili. L’articolo scientifico che descrive il risultato è stato approvato per la pubblicazione in una delle principali conferenze internazionali sull’informatica teorica, Foundations of Computer Science (FOCS).
“Vorrei sottolineare che non abbiamo lavorato direttamente su applicazioni per auto automatizzate. Tuttavia, questo sembra un problema troppo complesso affinché gli algoritmi siano sempre stabili”, ha affermato Amir Yehudayoff, aggiungendo che ciò non implica necessariamente conseguenze importanti in relazione allo sviluppo di automobili automatizzate: “se l’algoritmo sbaglia solo in poche circostanze molto rare ciò potrebbe essere accettabile”.
L’articolo scientifico non può essere utilizzato dall’industria per identificare i bug nei suoi algoritmi. Non era questa l’intenzione, ha sottolineato il professore.
“Stiamo sviluppando un linguaggio per discutere i punti deboli degli algoritmi nelle AI. Ciò potrebbe portare allo sviluppo di linee guida che descrivono come testarli e, a lungo termine, ciò potrebbe portare nuovamente allo sviluppo di algoritmi migliori e più stabili”, ha dichiarato.
Dall’intuizione alla matematica
Una possibile applicazione potrebbe essere quella di testare algoritmi per la tutela della privacy digitale.
”Alcune aziende potrebbero affermare di aver sviluppato una soluzione assolutamente sicura per la protezione della privacy. In primo luogo, la nostra metodologia potrebbe aiutare a stabilire che la soluzione non può essere assolutamente sicura. In secondo luogo, sarà in grado di individuare i punti deboli”, ha detto Yehudayoff.
”Capiamo intuitivamente che un algoritmo stabile potrebbe funzionare meglio se abituato gradualmente ad una piccola quantità di rumore di input. Proprio come il segnale stradale con un adesivo sopra. Ma come scienziati informatici teorici, abbiamo bisogno di una definizione precisa. Dobbiamo essere in grado di descrivere il problema nel linguaggio della matematica. Esattamente, quanto rumore deve essere in grado di sopportare l’algoritmo e quanto vicino all’output originale dovrebbe essere l’output se vogliamo accettare che l’algoritmo sia stabile? Questo è ciò su cui abbiamo suggerito una risposta”, ha aggiunto.
È importante tenere a mente le limitazioni
L’articolo scientifico ha ricevuto grande interesse da parte dei colleghi del mondo dell’informatica teorica, ma non dell’industria tecnologica.
“Bisogna sempre aspettarsi un certo ritardo tra un nuovo sviluppo teorico e l’interesse da parte di chi lavora nelle applicazioni”, ha detto Amir Yehudayoff e ha aggiunto: “alcuni sviluppi teorici rimarranno inosservati per sempre”.
”Le AI continueranno a progredire rapidamente ed è importante ricordare che anche le soluzioni che hanno molto successo nel mondo reale presentano ancora dei limiti. A volte può sembrare che le macchine siano in grado di pensare, ma dopo tutto non possiedono l’intelligenza umana”, ha concluso.