Robot killer: più pericolosi delle armi nucleari?

Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite sulla guerra civile libica i sistemi d'arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto l'anno scorso

Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite sulla guerra civile libica i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto l’anno scorso. La storia potrebbe ben identificare questo come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere la fine dell’umanità.

I sistemi d’arma autonomi sono robot con armi letali che possono operare in modo indipendente, selezionando e attaccando bersagli senza che un essere umano si occupi di tali decisioni. I militari di tutto il mondo stanno investendo pesantemente nella ricerca e nello sviluppo di armi autonome. Gli Stati Uniti da soli hanno stanziato 18 miliardi di dollari per armi autonome tra il 2016 e il 2020.

Nel frattempo, le organizzazioni umanitarie e per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi. Senza tali controlli, gli esperti di politica estera avvertono che le tecnologie dirompenti delle armi autonome destabilizzeranno pericolosamente le attuali strategie nucleari, sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con sostanze chimiche, biologiche, radiologiche e con le armi nucleari stesse.

Errori letali e scatole nere dei robot

Sono quattro i pericoli principali con armi autonome. Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, i robot killer saranno in grado di distinguere tra soldati ostili e dodicenni che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica?

Il problema qui non è che le macchine faranno tali errori e gli umani no. È che la differenza tra errore umano ed errore algoritmico è come la differenza tra spedire una lettera e twittare. La scala, la portata e la velocità dei sistemi robot killer – governati da un algoritmo di targeting, distribuito in un intero continente – potrebbero far sembrare errate identificazioni da parte di singoli umani come un recente attacco di droni statunitensi in Afghanistan.

 

L’esperto di armi autonome Paul Scharre usa la metafora della pistola in fuga per spiegare la differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. I robot killer, per definizione, non hanno tale salvaguardia.

È importante sottolineare che l’IA armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, che funzionano come previsto, possono generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.

 

Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla; e uno strumento di apprendimento automatico utilizzato da Amazon per classificare i candidati di lavoro assegnava sistematicamente punteggi negativi alle donne.

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il problema della scatola nera dell’IA rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.

I problemi di proliferazione

I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta. Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando robot killer, ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, ha insegnato questo: le armi si diffondono.

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo. Le armi autonome “Kalashnikov” potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.

Tuttavia, la proliferazione di fascia alta è altrettanto negativa. Le nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari. I pericoli morali dell’escalation della letalità delle armi sarebbero amplificati dall’escalation dell’uso delle armi.

È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno impedito e accorciato le guerre: la preoccupazione per i civili all’estero e la preoccupazione per i propri soldati. È probabile che le armi siano dotate di costosi governatori etici progettati per ridurre al minimo i danni collaterali, usando quello che la Relatrice Speciale delle Nazioni Unite Agnes Callamard ha definito il “mito di un attacco chirurgico” per sedare le proteste morali. Le armi autonome ridurranno sia la necessità che il rischio per i propri soldati, alterando drasticamente l’analisi costi-benefici che le nazioni subiscono mentre lanciano e mantengono le guerre.

 

È probabile che le guerre asimmetriche, ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti, diventino più comuni. Pensa all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplicalo per ogni paese che attualmente punta a armi autonome di fascia alta.

Le armi autonome mineranno l'ultimo palliativo dell'umanità contro i crimini di guerra e le atrocità
Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini di guerra e le atrocità.

Minare le leggi della guerra

Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini di guerra e le atrocità: le leggi internazionali di guerra. Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864 , sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili. Un esempio importante di persona tenuta a rendere conto è Slobodan Milosevic, ex presidente della Repubblica federale di Jugoslavia, che è stato incriminato con l’accusa contro l’umanità e crimini di guerra dal Tribunale penale internazionale delle Nazioni Unite per l’ex Jugoslavia.

Ma come possono essere ritenute responsabili le armi autonome?

Di chi è la colpa se un robot commette crimini di guerra? Chi verrebbe processato? L’arma? Il soldato? I comandanti del soldato? La società che ha fabbricato l’arma? Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave divario di responsabilità.

Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole. Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che i robot killer sono intrinsecamente imprevedibili. La distanza che separa il soldato dalle decisioni indipendenti prese da un arma autonoma in ambienti in rapida evoluzione è semplicemente troppo grande.

La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione. In un mondo senza regolamenti che impongono un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili. La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

Una nuova corsa globale agli armamenti

Immagina un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possono schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città.

Articoli più letti

Related articles