Nel suo libro ” La discesa dell’uomo” e la selezione in relazione al sesso , Darwin ha orgogliosamente sostenuto che il senso della moralità è un tratto univocamente umano. Anche se questa affermazione è stata contestata negli ultimi anni, è giusto dire che gli esseri umani sono ancora al top dei grafici quando si tratta di espressione della morale.
Presto, però, in questo senso, avremo concorrenza, sotto forma di auto senza conducente, guidate da un’Intelligenza Artificiale in grado di prendere decisioni autonome.
Un nuovo studio pubblicato sulla rivista Frontiers in Behavioral Neuroscience ha analizzato il comportamento umano e le valutazioni morali per capire come potrebbero essere applicate ai computer.
Proprio come un essere umano al volante, un’Intelligenza Artificiale che guidi un’auto potrebbe trovarsi a dover prendere delle in un’auto, un’auto senza conducente potrebbe dover prendere importanti decisioni di carattere morale. Immaginiamo uno scenario del genere: un bambino attraversa improvvisamente la strada mentre l’auto controllata dall’ AI sta sopraggiungendo. A questo punto l’AI deve esaminare le alternative che le si presentano e decidere se investire il bambino, scartare di lato e rischiare di investire altri passanti o scartare e schiantarsi copntro un muro con il rischio di danneggiare il suo passeggero.
In precedenza si è sempre pensato che questo tipo di decisioni di carattere morale, che dipendono esclusivamente dal contesto e dalla reazione umana individuale in funzione del contesto, non potesse essere descritte in un software.
“Noi abbiamo scoperto che, invece, è possibile farlo” Ha affermato Leon Sütfeld, autore dello studio, in una dichiarazione .
“Il comportamento umano in situazioni critiche che presentano un dilemma è regolato da un modello piuttosto semplice basato sul valore che ogni individuo attribuisce agli oggetti coinvolti, siano esseri umani, animali od oggetti inanimati”.
lo studio è stato realizzato attraverso una simulazione di realtà virtuale in cui i partecipanti guidavano un’auto in un tipico quartiere suburbano in una giornata nebbiosa, quindi con scarsa visibilità. Durante la simulazione, sono stati affrontati situazioni che presentavano inevitabili incidenti con oggetti inanimati, animali, persone, ecc. Le persone sottoposte al test dovevano decidere, di volta in volta, come reagire.
I risultati dei test sono stati inseriti in un data base alimentante una serie di modelli statistici atti a stabilire le regole per elaborare come e perché un essere umano prende una data decisione. Una volta alimentata a sufficienza la base di dati i modelli sono emersi.
Il risultato è che sono state elaborate e comprese, almeno in apparenza, le leggi e le meccaniche che portano un essere umano a prendere una certa decisione di carattere morale con la conseguenza che ora potremo insegnare all’Intelligenza Artificiale a condividere il nostro codice morale.
Si tratta di una cosa che avrà implicazioni enormi nello sviluppo delle autovetture automatiche guidate dall’AI.
Sono numerosi i grandi produttori di auto e le software house impegnati nello sviluppo di automobili guidate dall’Intelligenza Artificiale e si prevede che il trasporto di cose e persone automatizzato diventerà presto uno dei principali business. Avremo automobili e TIR in grado di andare da un posto all’altro senza essere controllate manualmente da un essere umano, evitando ostacoli, scegliendo il percorso migliore in base ai dati sul traffico e sul meteo comunicati da una centrale di coordinamento, tenendo la velocità più adatta per ogni circostanza.
Un’intelligenza Artificiale che sarà in grado di decidere, proprio come un essere umano, come comportarsi in caso di imprevisti.
Ma voi, la comprereste un’automobile che, in caso di un’emergenza improvvisa, potrebbe decidere che rischiare la vostra vita schiantandosi contro un muro sia la scelta che porta il male minore?