Robot Killer: dall’Onu un primo passo verso il divieto preventivo?

Stampa

Jody Williams a Roma nel 2013 - Foto: A. Toro ®

L’utilizzo in guerra di armi completamente autonome – i cosiddetti Robot Killer – non è più prerogativa solo dei romanzi di fantascienza. Diversi stati, infatti, stanno già investendo nella ricerca, mentre la tecnologia sull’intelligenza artificiale ha ormai raggiunto un punto in cui la diffusione di tali sistemi è – in pratica, anche se non legalmente – realizzabile entro breve: si parla di anni, nemmeno decenni. Da qui, la recentissima decisione da parte dell’Onu di affrontare finalmente la questione in modo ufficiale: dopo tre anni di dibattiti e tavoli informali, il 16 dicembre alla V Conferenza di revisione della Convenzione su certe armi convenzionali (CCW), 89 nazioni partecipanti hanno votato per la creazione di un gruppo di “Esperti Governativi” che nel 2017, sempre a Ginevra, per due settimane si occuperanno di guidare i negoziati sul tema, fino alla discussione di una possibile “messa al bando totale, preventiva e giuridicamente vincolante di questo tipo di armamenti”.

Ad abbracciare in toto questa soluzione sono oggi 19 stati (cinque in più rispetto a prima della conferenza e ben 15 in più rispetto al 2014), mentre tutti gli altri hanno almeno riconosciuto la necessità di un nuovo strumento internazionale su questi sistemi d'arma, tra cui per la prima volta anche la Cina (che solo quest’estate si era vantata di star sviluppando missili Cruise dotati di intelligenza artificiale). Solo la Russia sarebbe rimasta scettica fino alla fine.

SCENARI INQUIETANTI

Ma cosa sono i Robot Killer? Definiti “LAWS” nella terminologia ufficiale (lethal autonomous weapons systems), si tratta di sistemi d’arma programmati per essere in grado di scegliere e colpire bersagli senza alcun intervento umano. E’ la nuova frontiera della guerra, già inaugurata dai droni, che vede il soldato allontanarsi a livello fisico e mentale sempre di più dal “nemico” da colpire.

E se già con i droni – pilotati da remoto – sono nati interrogativi giuridici e morali ancora da risolvere, con i LAWS si aprono nuovi scenari inquietanti in merito al fatto di dare alle macchine il potere di decidere chi vive e chi muore sul campo di battaglia, in primis l'impossibilità, per questi robot-soldati, di comprendere il contesto durante un conflitto: una qualità umana indispensabile, che permette di giudicare se sia o no legittimo usare la forza in determinate situazioni, di valutare la proporzionalità di un attacco, e soprattutto di distinguere adeguatamente tra soldati e civili. Quest'ultimo è un requisito fondamentale del diritto internazionale, tanto più importante e complesso se pensiamo alla piega presa dai conflitti negli ultimi 20 anni, in cui i combattenti non si identificano più con uniformi o insegne ben riconoscibili. A livello morale e giuridico, inoltre, si creerebbe un vuoto di responsabilità in quanto non vi è chiarezza su chi sarebbe legalmente responsabile per le azioni di un robot.

“La posta in gioco è alta: le armi autonome sono state descritte come la terza rivoluzione nella guerra, dopo la polvere da sparo e le armi nucleari” si legge in una lettera aperta firmata l’anno scorso da oltre mille scienziati e ricercatori, tra cui Stephen Hawking, il direttore della ricerca di Google Peter Norvig, l’amministratore delegato di Microsoft Eric Horvitz e molti altri.

Il loro timore – più una certezza – è che se una grande potenza militare dovesse spingere verso lo sviluppo di una di queste armi autonome, una corsa globale agli armamenti sarebbe praticamente inevitabile: “Le armi autonome diventeranno i Kalashnikov di domani” scrivono. Anche perché, a differenza delle armi nucleari, questi sistemi non richiedono materie prime costose o difficili da ottenere: “Sarà solo una questione di tempo fino a quando non appariranno sul mercato nero e nelle mani dei terroristi, o di dittatori che desiderano controllare meglio la loro popolazione, o di signori della guerra che vogliono perpetrare una pulizia etnica”. La loro conclusione: “una corsa militare agli armamenti dotati di intelligenza artificiale non sarebbe vantaggiosa per l’umanità”.

LA REAZIONE DELLA SOCIETÁ CIVILE

Proprio attorno a questo dibattito, nell’aprile del 2013 si è costituita la campagna internazionale “Stop Killer Robots”, formata da oltre 60 ONG, esperti nel campo dell'intelligenza artificiale, gruppi per i diritti umani, ex diplomatici e persino un gruppo di Nobel per la Pace guidato da Jody Williams (conosciuta per il suo lavoro sulla messa al bando delle mine antiuomo).

La campagna, che ha l’obiettivo di "vietare preventivamente lo sviluppo, la produzione e l'uso di armi completamente autonome”, si è attivata in modo particolare durante queste giornate di Ginevra, con Human Rights Watch in testa, che ha presentato un report intitolato “Making the Case: The Dangers of Killer Robots and the Need for a Preemptive Ban”, a cura della ricercatrice senior Bonnie Docherty. La conclusione di questo report è che i rischi – umanitari e di sicurezza – nell’utilizzo dei LAWS si rivelerebbero di gran lunga superiori rispetto ai possibili benefici militari e che un divieto preventivo e vincolante sarebbe “l’unica opzione utile”, in quanto ridurrebbe la possibilità di un uso improprio delle armi, sarebbe più facile da far rispettare, e aumenterebbe lo stigma associato alle violazioni.

SONO GIÁ TRA NOI

Eppure negli ambienti militari si pensa il contrario. Tra i vantaggi sottolineati: la riduzione del numero - e dei relativi costi - di soldati e piloti esposti potenzialmente alla morte, ma anche la velocità e la precisione che le armi robotizzate garantirebbero, e che un essere umano non potrebbe mai eguagliare. Non a caso, molti dei paesi che aderiscono alla CCW - tra cui Stati Uniti, Regno Unito, Cina, Israele, Russia e Corea del Sud – starebbero già sviluppando sistemi d'arma con livelli di autonomia crescente.

Secondo la stampa straniera il Pentagono avrebbe destinato 18 miliardi di dollari per lo sviluppo di nuove tecnologie, di cui 3 miliardi dedicati appositamente alla costruzione di LAWS in grado di “fare squadra” con gli esseri umani sul campo di battaglia. Tra i progetti più noti, quelli sviluppati dall’Agenzia di Ricerca della Difesa, nota come Darpa: dai micro-droni in grado di scegliere e colpire gli obiettivi senza controllo da remoto, alla squadra di robot-scout di robot capaci di agire autonomamente in territorio nemico. La giustificazione? Contrastare “le minacce poste da Cina e Russia” che pure starebbero sviluppando armamenti simili.

Eppure gli aderenti alla campagna Stop Killer Robots non perdono le speranze. " Il successo dei trattati di disarmo del passato dimostra che un divieto assoluto di armi completamente autonome sarebbe realizzabile ed efficace – ha commentato la ricercatrice di HRW Bonnie Docherty ricordando tra gli altri il Protocollo sull'uso di armi laser accecanti entrato in vigore nel 1998 – E’ tempo che le nazioni vadano oltre la fase delle parole e perseguano l'esercizio di un divieto preventivo”.

Anna Toro

Laureata in filosofia e giornalista professionista dal 2008, divide attualmente le sue attività giornalistiche tra Unimondo (con cui collabora dal 2012) e la redazione di Osservatorio Iraq, dove si occupa di Afghanistan, Golfo, musica e Med Generation. In passato ha lavorato per diverse testate locali nella sua Sardegna, occupandosi di cronaca, con una pausa di un anno a Londra dove ha conseguito un diploma postlaurea, sempre in giornalismo. Nel 2010 si trasferisce definitivamente a Roma, città che adora, pur col suo caos e le sue contraddizioni. Proprio dalla Capitale trae la maggior parte degli spunti per i suoi articoli su Unimondo, principalmente su tematiche sociali, ambientali e di genere. 

Ultime notizie

Pezzi di terza guerra mondiale nel continente africano

30 Maggio 2017
Il secondo incontro del ciclo “Terza guerra mondiale a pezzi”, promosso da  IPSIA, si è concentrato sul continente africano. (Michela Giovannini)

Tutta Europa (o quasi) contro il taglio illegale di legname

29 Maggio 2017
Per l'Environmental Investigation Agency l’Europa non ha ancora sconfitto la piaga del taglio illegale di legname, ma è sulla buona strada. (Alessandro Graizadei)

Afghanistan, la terra del caos

28 Maggio 2017
All’incontro organizzato a Roma per parlare della situazione pericolosa dei difensori/e dei diritti umani nel mondo, l’attivista Malalai Joya racconta la situazione afghana. (Anna Toro)

In difesa di...: proteggere i difensori dei diritti umani

27 Maggio 2017
La nuova rete di oltre 30 associazioni chiede alle istituzioni italiane meccanismi di protezione per attivisti, avvocati o giornalisti minacciati. (Sofia Verza)

Una buona cultura per avere acqua più pura

26 Maggio 2017
Sistemi di depurazione semplici, sostenibili e accessibili a tutti e tutte. (Anna Molinari)