L’intelligenza artificiale (AI) sta già riconfigurando il mondo in modo evidente. I dati guidano il nostro ecosistema digitale globale e le tecnologie AI rivelano modelli nei dati.
Gli smartphone, le case intelligenti e le smart city influenzano il modo in cui viviamo e interagiamo e i sistemi di intelligenza artificiale sono sempre più coinvolti nelle decisioni di assunzione, nelle diagnosi mediche e nei verdetti giudiziari. Se questo scenario sia utopico o distopico dipende dalla prospettiva secondo cui lo guardi.
I potenziali rischi correlati alle AI sono stati elencati più volte: robot killer e disoccupazione di massa sono preoccupazioni comuni, mentre alcune persone temono addirittura l’estinzione umana. Previsioni più ottimistiche sostengono che l’IA aggiungerà 15 trilioni di dollari all’economia mondiale entro il 2030 e alla fine ci condurrà a una sorta di nirvana sociale.
Dobbiamo certamente considerare l’impatto che tali tecnologie stanno avendo sulle nostre società. Una preoccupazione importante è che i sistemi di intelligenza artificiale rinforzano i pregiudizi sociali esistenti – con effetti dannosi.
Numerosi esempi noti di questo fenomeno hanno ricevuto un’attenzione diffusa: sistemi di traduzione automatica all’avanguardia che producono risultati sessisti e sistemi di riconoscimento delle immagini che classificano i neri come gorilla.
Questi problemi sorgono perché tali sistemi usano modelli matematici (come le reti neurali) per addestrarsi ad identificare schemi nelle grandi serie di dati. Se tali dati sono in qualche modo distorti, i pregiudizi intrinseci che contengono saranno inevitabilmente appresi e riprodotti dai sistemi di IA addestrati.
Le tecnologie autonome di parte sono problematiche poiché possono potenzialmente emarginare gruppi come donne, minoranze etniche o anziani, aggravando così gli squilibri sociali esistenti.
Se i sistemi di intelligenza artificiale venissero addestrati sui dati ricavati dagli arresti della polizia, ad esempio, qualsiasi pregiudizio conscio o inconscio manifestato negli schemi identificabili negli arresti effettuati sarebbe replicato da un “sistema di polizia predittiva“, un sistema di intelligenza artificiale addestrato su tali dati.
Riconoscendo le gravi implicazioni di ciò, diverse autorevoli organizzazioni hanno recentemente consigliato di addestrare tutti i sistemi di intelligenza artificiale su dati imparziali. Le linee guida etiche pubblicate all’inizio del 2019 dalla Commissione europea hanno offerto la seguente raccomandazione:
“Quando i dati vengono raccolti, possono contenere distorsioni, imprecisioni, errori ed errori costruiti socialmente. Questo deve essere affrontato prima che qualsiasi set di dati venga dato in pasto all’IA per l’addestramento”.
Trattare con dati distorti
Tutto ciò suona abbastanza sensato. Sfortunatamente, a volte è semplicemente impossibile garantire che determinati set di dati siano imparziali. Per chiarire il concetto, basta questo esempio:
Tutti i sistemi di traduzione automatica all’avanguardia (come Google Translate) sono formati su coppie di frasi.
Un sistema inglese-francese utilizza dati che associano frasi inglesi (“lei è alta”) con frasi francesi equivalenti (“elle est grande“).
Potrebbero esserci 500 milioni di tali abbinamenti in un dato insieme di dati di addestramento, e quindi un miliardo di frasi separate in totale. Tutti i pregiudizi legati al genere dovrebbero essere rimossi da un set di dati di questo tipo se volessimo impedire al sistema risultante di produrre risultati sessisti come i seguenti:
- Input : le donne hanno iniziato l’incontro. Hanno lavorato in modo efficiente.
- Uscita : Les femmes ont commencé la reunion. Ils travillé efficacement.
La traduzione in francese è stata generata utilizzando Google Translate l’11 ottobre 2019 ed è errata: ” Ils ” è il pronome maschile soggetto plurale in francese e appare qui nonostante il contesto indichi chiaramente che le donne vengono citate.
Questo è un classico esempio del default maschile preferito dal sistema automatizzato a causa di errori nei dati di addestramento.
In generale, il 70 percento dei pronomi di genere nei set di dati di traduzione è maschile, mentre il 30 percento è femminile. Questo perché i testi usati per tali scopi tendono a riferirsi più agli uomini che alle donne.
Per impedire ai sistemi di traduzione di replicare questi pregiudizi esistenti, è necessario rimuovere dai dati coppie di frasi specifiche, in modo che i pronomi maschile e femminile si verifichino 50/50 su entrambi i versanti inglese e francese. Ciò impedirebbe al sistema di assegnare maggiori probabilità ai pronomi maschili.
Anche nomi e aggettivi dovrebbero essere bilanciati 50/50, ovviamente, poiché questi possono indicare il genere in entrambe le lingue (“attore”, “attrice”; “neuf”, “neuve”) – e così via. Ma questo drastico sottocampionamento ridurrebbe necessariamente considerevolmente i dati di formazione disponibili, diminuendo così la qualità delle traduzioni prodotte.
E anche se il sottoinsieme di dati risultante fosse completamente bilanciato dal punto di vista del genere, sarebbe comunque distorto in molti altri modi (come etnia o età). In verità, sarebbe difficile rimuovere completamente tutti questi pregiudizi .
Se una persona dedicasse solo cinque secondi alla lettura di ciascuno del miliardo di frasi nei dati di allenamento, sarebbero necessari 159 anni per controllarli tutti – e questo presuppone la volontà di lavorare tutto il giorno e la notte, senza pause pranzo.
Un’alternativa?
Quindi non è realistico richiedere che tutti i set di dati di addestramento siano imparziali prima che vengano creati i sistemi di intelligenza artificiale. Tali requisiti di alto livello di solito presuppongono che la “AI” denoti un gruppo omogeneo di modelli matematici e approcci algoritmici.
In realtà, diverse attività di intelligenza artificiale richiedono tipi di sistemi molto diversi. E minimizzare l’intera portata di questa diversità nasconde i problemi reali posti da (diciamo) dati di allenamento profondamente distorti. Questo è deplorevole, poiché significa che altre soluzioni al problema della distorsione dei dati vengono trascurate.
Ad esempio, i pregiudizi in un sistema di traduzione automatica addestrato potrebbero essere sostanzialmente ridotti se il sistema venisse adattato dopo che è stato addestrato sul set di dati più grande, inevitabilmente distorto.
Questo può essere fatto usando un set di dati molto più piccolo, meno orientato. La maggior parte dei dati potrebbe essere fortemente distorta, quindi, ma non è necessario che il sistema venga addestrato solo su di essi. Sfortunatamente, queste tecniche sono raramente discusse da coloro che hanno il compito di sviluppare linee guida e quadri legislativi per la ricerca sull’IA.
Se i sistemi di intelligenza artificiale rinforzano semplicemente gli squilibri sociali esistenti, allora ostacolano piuttosto che facilitare un cambiamento sociale positivo. Se le tecnologie di intelligenza artificiale che utilizziamo sempre più su base giornaliera fossero molto meno distorte di noi, allora potrebbero aiutarci a riconoscere e affrontare i nostri pregiudizi in agguato.
Sicuramente questo è ciò a cui dovremmo lavorare. E quindi gli sviluppatori di AI devono pensare molto più attentamente alle conseguenze sociali dei sistemi che costruiscono, mentre quelli che interagiscono con IA formandola, devono capire più in dettaglio come i sistemi di AI sono effettivamente progettati e costruiti.
Perché se davvero ci stiamo avvicinando ad un bivio tra un idillio tecnologico o un’apocalisse tecnologica, il primo sarebbe di gran lunga preferibile.
Marcus Tomalin, Senior Research Associate presso il Machine Intelligence Laboratory, Dipartimento di Ingegneria, Università di Cambridge e Stefanie Ullmann , Postdoctoral Research Associate, University of Cambridge.
Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l’articolo originale.