Il chatbot Bing di Microsoft dice bugie e rimprovera gli utenti

Il nascente chatbot Bing di Microsoft a volte può uscire dai binari, negando fatti ovvi e rimproverando gli utenti, secondo gli scambi condivisi online dagli sviluppatori che testano la creazione dell'IA

0
681
Il chatbot Bing di Microsoft ha iniziato a comportarsi in modo difensivo rimproverando gli utenti
Il chatbot Bing di Microsoft ha iniziato a comportarsi in modo difensivo rimproverando gli utenti

Il nascente chatbot Bing di Microsoft a volte può uscire dai binari, negando fatti ovvi e rimproverando gli utenti, secondo gli scambi condivisi online dagli sviluppatori che testano la creazione dell’IA.

Un forum su Reddit dedicato alla versione potenziata dall’intelligenza artificiale del motore di ricerca Bing è pieno di storie di rimproveri, bugie o palese confusione negli scambi in stile conversazione con il bot.

Il chatbot di Bing è stato progettato da Microsoft e dalla start-up OpenAI, che sta facendo scalpore dal lancio di novembre di ChatGPT, l’app in grado di generare ogni tipo di testo in pochi secondi su una semplice richiesta.

Da quando ChatGPT è entrato in scena, la tecnologia alla base, nota come intelligenza artificiale generativa, ha suscitato grande interesse, tra fascino e preoccupazione.

Quando è stato chiesto da AFP di spiegare una notizia secondo cui il chatbot di Bing stava facendo affermazioni spregiudicate come dire che Microsoft spia i dipendenti, il chatbot ha detto che si trattava di una falsa “campagna diffamatoria contro me e Microsoft“.

I post nel forum di Reddit includono schermate di scambi con la cersione potenziata di Bing e raccontano di inciampi come insistere sul fatto che l’anno in corso è il 2022 e dire a qualcuno che “non è un buon utente” per aver contestato la sua attendibilità.



Altri hanno raccontato che il chatbot ha dato consigli su come hackerare un account Facebook, plagiare un saggio e raccontare una barzelletta razzista.

Il nuovo Bing cerca di mantenere le risposte divertenti e concrete, ma dato che si tratta di un’anteprima in fase di test, a volte può mostrare risposte inaspettate o imprecise per diversi motivi, ad esempio la lunghezza o il contesto della conversazione“, ha detto un portavoce di Microsoft all’AFP.

Mentre continuiamo a imparare da queste interazioni, stiamo adattando le sue risposte per creare risposte coerenti, pertinenti e positive“.

Gli inciampi di Microsoft hanno fatto eco alle difficoltà riscontrate da Google la scorsa settimana quando ha lanciato la propria versione del chatbot chiamata Bard, ottenendo, però, forti critiche per un errore commesso dal bot in un annuncio.

Il pasticcio ha fatto precipitare il prezzo delle azioni di Google di oltre il sette percento alla data dell’annuncio.

l’idea che sta alla base dell’operazione che stanno svolgendo Microsoft e Google è quella di potenziare i loro motori di ricerca con IA simili a ChatGPT,  sperando di aggiornare radicalmente la ricerca online fornendo risposte già pronte invece del familiare elenco di collegamenti a siti Web esterni.

2