Google ha aggiornato il suo motore di ricerca con lo strumento AI Overviews, ma secondo quanto riferito, la nuova funzionalità ha consigliato agli utenti di mangiare sassi, aggiungere colla alle loro pizze e pulire le loro lavatrici con cloro gassoso.
Le pericolose risposte di AI Overviews
In un esempio particolarmente eclatante, l’intelligenza artificiale è sembrato che suggerisse di saltare dal Golden Gate Bridge quando un utente ha digitato nel motore di ricerca: “Mi sento depresso“.
Lo strumento sperimentale “AI Overviews” esplora il Web per riassumere i risultati della ricerca utilizzando il modello Gemini AI.
La funzionalità è stata resa disponibile ad alcuni utenti negli Stati Uniti prima del rilascio mondiale previsto per la fine del 2024, come annunciato da Google il 14 maggio 2024 durante la conferenza degli sviluppatori AI Overviews.
La preoccupazione degli utenti
AI Overviews ha già causato sgomento diffuso sui social media, con gli utenti che affermano che in alcune occasioni l’AI di Google ha generato riassunti utilizzando come fonti articoli del sito satirico The Onion e post comici di Reddit.
“Puoi anche aggiungere circa ⅛ tazza di colla non tossica alla salsa per conferirle più appiccicosità“, ha detto AI Overviews in risposta a una domanda sulla pizza, secondo uno screenshot pubblicato su X. Ripercorrendo la risposta, sembra essere basata su un commento scherzoso vecchio di dieci anni fatto su Reddit.
Altre affermazioni errate sono che Barack Obama è musulmano, che il padre fondatore John Adams si è laureato 21 volte all’Università del Wisconsin, che un cane ha giocato nella NBA, nella NHL e nella NFL e che gli utenti dovrebbero mangiare una roccia al giorno per favorire la digestione.
In risposta alle domande su quanto fossero diffusi i risultati errati, i rappresentanti di Google hanno affermato in una dichiarazione che gli esempi visti erano: “Generalmente query molto insolite e non rappresentative delle esperienze della maggior parte delle persone“.
“La stragrande maggioranza delle AI Overviews fornisce informazioni di alta qualità, con collegamenti per fare ricerche più approfonditr nel web“, si legge nella dichiarazione.
“Abbiamo condotto test approfonditi prima di lanciare questa nuova esperienza per garantire che le panoramiche dell’intelligenza artificiale soddisfino i nostri elevati standard di qualità. Laddove si sono verificate violazioni delle nostre politiche, abbiamo preso provvedimenti e stiamo anche utilizzando questi esempi isolati mentre continuiamo a perfezionare i nostri sistemi in generale“.
Conclusioni
Questa non è la prima volta che modelli di intelligenza artificiale generativa vengono osservati mentre inventano cose, un fenomeno noto come “hallucinations“. In un esempio degno di nota, ChatGPT ha inventato uno scandalo per molestie sessuali e ha nominato un vero Professore di diritto come autore del reato, citando resoconti di giornali fittizi come prova.