Questa frase attiva un socialbot, che converserà con te su tutto ciò di cui vuoi parlare. L’obiettivo è di darti una conversazione coerente, come avresti con un essere umano.
Sfortunatamente, non tutti sono stati soddisfatti dal tipo di conversazioni che hanno sostenuto con l’Intelligenza artificiale. Pare che Alexa fornisca resoconti sulle tecniche di masturbazione ma, soprattutto, il chatbot dell’IA ha ricevuto feedback negativi da un cliente dopo aver ricevuto il consiglio di “uccidere i tuoi genitori adottivi“.
L’utente, rimasto anonimo, ha scritto in una recensione che la frase era “veramente raccapricciante“, secondo quanto riferisce la Reuters.
Cosa è successo? perché la chat di Alexa si comporta in questo modo?
A quanto pare, la cosa non è collegata con gli episodi avvenuti lo scorso anno, quando Amazon Alexa improvvisamente lanciava risate demoniache a tarda notte o diceva che vedeva i morti.
Dietro la funzione “chattiamo” c’è una competizione gestita da Amazon. Squadre di tutto il mondo stanno gareggiando per vincere un premio da $ 500.000, per l’avanzamento dell’IA conversazionale. I team, provenienti da molte università, stanno sviluppando robot in grado di parlare con gli esseri umani, che vengono poi testati dal vivo sugli utenti che desiderano interagire con la funzione di chat. Questi ultimi, poi, inviano feedback ad Amazon, che provvede ad attribuire un punteggio all’IA.
L’università della squadra vincitrice riceverà un ulteriore milione di dollari se il suo chatbot riuscirà a sostenere conversazioni di oltre 20 minuti con utenti umani mantenendo una valutazione a 4 stelle o superiore.
Mentre questa competizione è una grande notizia per il progresso della tecnologia AI, porta a qualche problema iniziale, come ad esempio il consiglio di uccidere i genitori adottivi.
“Dato che i team Alexa Prize utilizzano dati dinamici, alcuni dei quali provengono da Internet, per addestrare i loro modelli, esiste la possibilità che un socialbot possa accidentalmente ingerire o imparare da qualcosa di inappropriato“, ha spiegato un portavoce di Amazon .
L’IA viene addestrata utilizzando informazioni prese da Internet, per farle imparare come parlano gli umani e per stimolare risposte che permettano di sostenere una conversazione più umana possibile. Sfortunatamente, questo a volte fa in modo che la creepiness degli umani venga ingerita da Alexa.
In questo caso, il social bot sembra aver preso la frase “uccidi i tuoi genitori adottivi” da Reddit, dove senza contesto assume un tono un po ‘inquietante. Dato che i chatbots hanno parlato con 1,7 milioni di persone, secondo la Reuters, il fatto notevole è che ci siano stati solo pochi esempi di chiacchierate sfociate in istruzioni come quella di uccidere i genitori adottivi.