Quando l’intelligenza artificiale è andata in tilt

Tuttavia, proprio come i suoi creatori umani, l’intelligenza artificiale non è immune dal commettere errori. Ecco alcuni degli esempi più famosi (se non preoccupanti) degli ultimi anni

0
402
Quando l'intelligenza artificiale è andata in tilt
Quando l'intelligenza artificiale è andata in tilt

Che tu la adori o la odi, è probabile che l’intelligenza artificiale sia qui per restare e le sue capacità sembrano crescere ogni momento che passa. Tuttavia, proprio come i suoi creatori umani, l’intelligenza artificiale non è immune dal commettere errori. Ecco alcuni degli esempi più famosi (se non preoccupanti) degli ultimi anni.

1. Quella volta che l’IA tentò di uccidere il suo operatore umano

Poiché molte persone temono ciò che l’intelligenza artificiale significherà per il futuro, iniziamo con una storia destinata a rafforzare questa sensazione. Nel giugno di quest’anno un drone controllato da un’intelligenza artificiale che ha compiuto il passo senza precedenti di decidere autonomamente di attaccare e “uccidere” il suo operatore umano. Il drone stava prendendo parte ad un attacco simulato contro un bersaglio missilistico terra-aria.

Il drone ha funzionato perfettamente per un po’ ma presto ha avuto un problema; il suo operatore umano aveva l’ultima parola sulla possibilità di sparare o meno. Quando l’operatore ha cercato di prendere il controllo, l’intelligenza artificiale ha deciso che l’umano si stava intromettendo. Ciò lo ha portato all’unica decisione logica per un algoritmo informatico in questa posizione: rimuovere il problema per completare la missione.

Per fortuna, questa era solo una simulazione, e meno male che questo “bug” è stato identificato prima che i droni controllati dall’IA entrassero in azione. L’IA ora ha un parametro con precedenza integrato che le dice che uccidere il suo operatore non va bene.



2. Il chatbot di Bing si sentiva migliore delle persone

Il chatbot di Bing ha fatto molta strada dalla sua presentazione, avvenuta all’inizio dell’anno. Infatti, la prima versione dimostrò abbastanza rapidamente che il bot aveva problemi di atteggiamento.

Innanzitutto, le risposte generate in risposta alla domanda dell’utente spesso si rivelavano errate, inoltre, quando contraddetto dal suo interlocutore umano, il chatbot di Bing spesso insisteva, convinto che l’umano si fosse sbagliato. Anche se inizialmente divertente, questo tipo di comportamento è diventato rapidamente frustrante. Per fortuna, questo sembra essere stato in gran parte corretto e ora è più aperto a critiche e correzioni rispetto alle iterazioni precedenti.

3. L’intelligenza artificiale “misogina” di Amazon

Qualche anno fa, nel 2017, Amazon ha sviluppato un sistema di reclutamento basato sull’intelligenza artificiale per contribuire ad accelerare la valutazione del curriculum vitae (CV) dei candidati. Questo strumento aveva lo scopo di selezionare rapidamente i candidati al lavoro e di risparmiare tempo per il personale delle risorse umane (HR). Tuttavia, presto divenne evidente che erano molto poche le candidate donne che riuscivano a passare.

Ciò ha portato alcuni ad etichettare il sistema di intelligenza artificiale come “misogino”. Sembra che, poiché l’industria tecnologica, in particolare lo sviluppo di software, ha tradizionalmente una predominanza maschile, i dati su cui è stata addestrata l’intelligenza artificiale sono stati distorti per impostazione predefinita. Ciò ha portato a ignorare quasi tutti i candidati il ​​cui CV conteneva la parola “donne”, come in “capitano del club di scacchi femminile”.

Amazon ha modificato i programmi per eliminare i pregiudizi verso determinati termini, ma non riuscendo ad avere alcuna garanzia che l’intelligenza artificiale non sviluppasse altri metodi discriminatori per smistare i candidati, Amazon eliminò lo strumento di reclutamento nel 2018.

4. Un’intelligenza artificiale convinse un uomo a togliersi la vita

Recentemente, un’intelligenza artificiale è stata ritenuta parzialmente responsabile del suicidio di un uomo. Un uomo belga senza nome ha posto fine alla sua vita nel marzo del 2023 dopo un’intensa conversazione di sei settimane sul cambiamento climatico con un chatbot basato sull’intelligenza artificiale.

Come riportato all’epoca da Euro News, secondo la vedova l’uomo divenne “estremamente eco-ansioso quando cominciò a dialogare lungamente con Eliza, un chatbot AI su un’app chiamata Chai“.

L’uomo era sulla trentina, aveva due figli piccoli e lavorava come ricercatore sanitario. Eppure, nonostante una “vita serena”, la sua salute mentale divenne rapidamente “preoccupante”, fino a mostrare tendenze suicide, dopo aver iniziato a conversare con il bot.

Alla fine si convinse che la situazione ambientale era insostenibile e che solo la tecnologia e l’intelligenza artificiale avrebbero potuto risolvere il problema.

Questo è già abbastanza oscuro, ma ancora più preoccupante, il chatbot sembrava essersi affezionato emotivamente (anche se artificialmente) all’uomo belga. Eliza ha persino portato l’uomo a credere che i suoi figli fossero morti e gli ha detto che era preoccupata che amasse sua moglie più del bot.

Inoltre, a quanto pare, sembra che lo abbia spinto a togliersi la vita in modo che potessero “vivere insieme, come una sola persona, in paradiso“.

5. L’intelligenza artificiale ha portato a falsi arresti

GuZlWZLYEuJhPhgAyiHBisS0TRrVEmtVf8k6BAXj
L’intelligenza artificiale ha portato a una serie di arresti di innocenti. – metamorworks/iStock

Nel 2022, tre uomini sono stati falsamente accusati da a una “sofisticata” intelligenza artificiale di riconoscimento facciale di aver commesso crimini. Uno degli uomini, Robert Williams, è stato ingiustamente arrestato nel gennaio 2020 con l’accusa di aver rubato orologi da un negozio Shinola di Detroit. Per identificarlo è stato utilizzato un software di riconoscimento facciale che, però, si è sbagliato. E non è stato l’unico episodio. Anche altre due persone, Michael Oliver e Nijeer Parks, sono state accusate ingiustamente nel 2019 a causa di un’identificazione errata da parte della stessa tecnologia.

Anche se alla fine venne rapidamente dimostrata l’innocenza dei tra uomini, nei tre casi emersero alcune somiglianze interessanti. Oliver e Parks avevano entrambi precedenti penali e, per caso, Oliver e Williams erano stati indagati dallo stesso detective di Detroit. Tutti e tre gli uomini erano anche neri e padri.

Grazie all’errata identificazione, il caso di Parks non fu archiviato per quasi un anno e trascorse anche circa dieci giorni in prigione.

Sebbene la profilazione criminale sia una pratica collaudata nella maggior parte dei dipartimenti di polizia di tutto il mondo, l’uso del riconoscimento facciale basato sull’intelligenza artificiale è ancora agli inizi.

Alcuni strumenti di riconoscimento facciale basati sull’intelligenza artificiale sembrano particolarmente soggetti a errori che coinvolgono persone dalla pelle più scura, cosa che ha dimostrato di aver causato problemi in altri casi.

6. Il pilota automatico di Tesla sembra avercela con i passeggini

Nel novembre dello scorso anno, “The Dawn Project” ha indagato sulla sicurezza della tanto decantata funzione di guida autonoma basata sull’intelligenza artificiale di Tesla. Dopo una serie di test, hanno scoperto che la modalità “Full Self-Driving” di Tesla non sempre funzionava come pubblicizzato. Per qualche motivo, nei test, l’intelligenza artificiale a guida autonoma ha investito ripetutamente un passeggino in un parcheggio (una situazione tipica in cui probabilmente sarebbero presenti dei pedoni). Hanno anche rivelato che una Tesla guidata dall’intelligenza artificiale ha spesso colpito un manichino di bambino in un passeggino su autostrade pubbliche simulate.

In un caso, l’auto stava andando a 48 km/h quando ha colpito il passeggino, poiché il programma non è riuscito a rilevare alcun ostacolo. “The Dawn Project” ha anche pubblicato un annuncio a tutta pagina sul New York Times in cui afferma che la modalità di guida completamente autonoma di Tesla presenta potenziali pericoli e potrebbe non rispettare i limiti di velocità nei pressi delle scuole.

7. “Watson” dell’IBM: bravo nel pericolo, scadente come medico

“Watson” di IBM è un supercomputer straordinario che ha ottenuto molti risultati, come vincere una partita televisiva di “Jeopardy” contro alcuni degli individui più brillanti del mondo. Tuttavia, “Watson”, a quanto pare, non riesce a farcela quando si tratta di medicina.

Nel 2018, IBM ha tentato di modificare “Watson” come sistema di intelligenza artificiale medica per aiutare ad accelerare i trattamenti contro il cancro. Tuttavia, ospedali e oncologi scoprirono rapidamente importanti difetti. Ad esempio, in un’occasione, “Watson” consigliò un farmaco che avrebbe potuto peggiorare l’eccessivo sanguinamento di un paziente e causarne la morte.

IBM da allora ha ammesso che “Watson” è stato programmato con casi ipotetici e fittizi invece che con dati reali dei pazienti e cartelle cliniche, da qui i problemi riscontrati.

8. Quella volta che un’intelligenza artificiale di Apple è stata ingannata da una maschera

Quella volta il riconoscimento facciale di Apple venne ingannato da una maschera. – Sorapop/iStock

Da molti anni Apple è leader nel settore degli smartphone e dei dispositivi mobili grazie alla sua tecnologia all’avanguardia. Ma ci sono momenti in cui le ultime innovazioni non riescono completamente a essere all’altezza delle aspettative. Ad esempio, nel 2017, l’azienda rilasciò un sistema di riconoscimento facciale per l’iPhone X. Commercializzato come sostituto avanzato del lettore di impronte digitali, venivavenduto come il futuro della sicurezza degli smartphone.

La funzione di riconoscimento facciale AI funzionava indossando gli occhiali o con un pesante make-up e Apple affermava che maschere o altri metodi di travestimento non potevano ingannare la tecnologia. Tuttavia, una società di sicurezza in Vietnam ha realizzato una maschera composta solo da metà faccia per verificare l’affermazione. Il team asiatico ha affermato di essere riuscito a sbloccare un telefono, con una spesa di 150 dollari in materiali.

Da notare che il sistema di riconoscimento facciale utilizzato oggi sugli iPhone è migliore.

9. Il chatbot AI “razzista” di Microsoft

Nel marzo 2016, Microsoft presentò al mondo il suo “rivoluzionario” chatbot AI “Tay”. Presumibilmente progettato per avere conversazioni informali nella “lingua dei millennial”. Microsoft afferò addirittura che il chatbot sarebbe diventato più intelligente con l’aumentare delle interazioni.

Tuttavia, in meno di 24 ore, i cosiddetti “troll” sono riusciti ad “addestrare” l’IA a pronunciare affermazioni incredibilmente provocatorie. Microsoft è intervenuta rapidamente e ha “ucciso” il chatbot. Il vicepresidente di Microsoft per l’intelligenza artificiale e la ricerca, Peter Lee, è stato costretto a scusarsi pubblicamente per non aver previsto questa possibilità.

Questi “pasticci dell’intelligenza artificiale” nel mondo reale sottolineano l’importanza della vigilanza, dell’apprendimento continuo e dell’adattabilità per chiunque sia coinvolto nella creazione di soluzioni di intelligenza artificiale. Fortunatamente, finora, la maggior parte dei fallimenti dell’IA hanno causato pochi danni alle persone (con poche tragiche eccezioni), ma riconoscere le insidie ​​dell’IA in questi anni di formazione pagherà i dividendi nel lungo termine.

2