Robot militari, la faccia nera del “progresso tecnologico”

Pubblichiamo questo articolo apparso su contropiano.org.

I temi trattati sono una parte importante della critica alla guerra e ad una sua opposizione concreta, anche se troviamo limitata la critica alla tecnologia e sull’opposizione alla guerra. Allo stesso tempo ci fa capire un po meglio alcuni processi dell’avanzamento della tecnologia militare e delle opposizioni etiche da parte di migliaia di lavoratori e studiosi.

 

La paradisiaca strada della tecnologia può condurre facilmente all’inferno. Soprattutto quando si tratta di automazione.

L’interesse fondativo di ogni ricerca in questo caso è di una semplicità assoluta: risparmiare lavoro umano, trasferendo una serie crescente di competenze (il termine è un mantra della “buona scuola” e dovrebbe far riflettere sul punto d’approdo di quella riforma) dal corpo umano alle macchine.

In ambito economico è così da sempre (basti pensare alle macine ad acqua dell’antichità o ai mulini a vento all’inizio dell’era moderna). E’ la chiave di volta di ogni progresso umano, perché liberarsi dalle mansioni faticose e ripetitive consente di concentrare più esseri umani e maggiori energie per lavorare meno e trovare soluzioni migliori in tutti i campi. Il modo in cui questo processo è stato reimpostato dal modo di produzione capitalistico lo vincola però al raggiungimento del massimo profitto dell’imprenditore, e quindi l’automazione dei processi produttivi – compresi quelli un tempo solo “mentali”, anche se molto ripetitivi (es. la compilazione di buste paga) – “libera” un numero enormemente maggiore di esseri umani dal “lavoro”, senza però minimamente preoccuparsi della loro sopravvivenza (in regime capitalistico, giova ricordarlo, dopo la privatizzazione di tutti i mezzi di produzione, l’unico modo legale di reperire reddito è vendere la poropria forza-lavoro – ossia farsi assumere – oppure “mettersi in proprio” con tutti i rischi di fallimento immaginabili).

L’oggetto di questo articolo non riguarda però stavolta la produzione di merci comuni, da vendere sul mercato stracciando la concorrenza.

L’automazione sta infatti espandendosi rapidamente anche nella produzione di macchine da guerra. Se un robot può infatti essere facilmente programmato per fare il cameriere, un altro robot – con caratteristiche e dotazioni hardware ovviamente molto diverse – può altrettanto facilmente essere programmato per uccidere, bombardare, ecc.

Non è un’ipotesi. Sta già avvenendo da tempo (vedi per esempio qui), con programmi di ricerca tutto sommato “di nicchia”; ma soltanto ora la vastità dei programmi militari miranti alla creazione di combattenti automatici sta coinvolgendo masse di ricercatori talmente vaste da suscitare – fortunatamente – anche una reazione etica e dunque politica rilevante.

Applicato alla guerra, in concetto centrale dell’automazione (risparmiare lavoro umano) si trasforma in un imperativo militare altrettanto antico: infliggere il maggior numero di perdite al nemico limitado al massimo le proprie. Non tutti i generali hanno ragionato così (le “offensive di Cadorna sul Carso resteranno nei millenni come esempi di idiozia criminale e disprezzo per i propri soldati), ma quelli “vincenti”, di certo, sì.

Il robot-killer, per dirla in modo fashion, è in teoria la soluzione al problema. Costituisce un passo decisivo in avanti, ben superiore a quello rappresentato dal passaggio dagli eserciti di massa (con soldati di leva, la famosa “carne da cannone”) agli eserciti di professionisti (riedizione dell’epoca dei mercenari, distinti tra “pubblici” e contractors privati).

I problemi tecnologici legati alla sua realizzazione si intrecciano con quelli etici e politici. Com’è ovvio, a nessuno dei “committenti” (alcuni Stati) e dunque neanche alle imprese produttrici è mai venuto in mente di programmare queste macchine micidiali secondo le raccomandazioni di Isaac Asimov (le tre leggi della robotica): il loro scopo è infatti, e all’opposto, uccidere esseri umani inquadrati come nemici. Ma gli Stati e le imprese produttrici non si interessano dei problemi etici. Anzi…

Qualche difficoltà in più, per ora, la trovano sul piano strettamente tecnologico, perché non è semplice far identificare a queste macchine i nemici distinguendoli senza errore dagli amici. Per capirne la portata, basta ripensare alla notizia di pochi giorni fa, quando un’automobile a guida autonoma di Uber ha investito una donna, uccidendola. Se limiti del genere si riscontrano in un settore civile ultra-regolamentato come la circolazione urbana, figuriamoci cosa può accadere in un teatro di guerra dai confini sfuggenti e per definizione privo di regole (la programmazione informatica deve prendere in esame, fondamentalmente, possibilità già note e codificabili)..

Anche quando la ricerca scientifica militarizzata dovesse superare queste difficoltà iniziali, è scontato pensare che ad ogni passo avanti nella capacità di riconoscimento del nemico sorgerà, come reazione bellica conseguente, un incremento nelle capacità di camuffamento e creazione di falsi bersagli.

E’ anche questa una dinamica eterna del conflitto militare. Basti pensare ai missili anti-aerei, una sorta di robot poco intelligente guidato da sensori di ricerca del calore generato dai motori dei jet. A parte i casi di aerei civili colpiti (l’abbattimento su Ustica, probabilmente, è successo per questo), la tecnologia militare ha ben presto elaborato una serie di dispositivi in grado di ingannare i sensori dei missili, indirizzandoli verso falsi bersagli.

E a sua volta questo ha provocato un nuovo salto qualitativo nei dispositivi di ricerca, e così via sul fronte opposto, in una rincorsa senza fine che va avanti dai tempi dello scudo e della lancia.

Ma c’è una buona notizia, in fondo a questa spirale di demenza militarista. E va facendo il giro di tutto il mondo. Aumentano infatti i casi di proteste nei confronti delle aziende – e delle università – che partecipano a progetti di ricerca militare per la creazione di macchine da guerra “autonome”, ossia in grado di agire secondo il programma senza ulteriori controlli umani.

Non si tratta di grandi numeri, ma in compenso ad animarle sono figure importanti in campo scientifico e tecnologico – come i 50 accademici organizzati da Toby Walsh, docente presso l’Università del New South Wales, contro la “Korea Advanced Institute of Science and Technology” (KAIST) e il suo partner, il produttore “Hanwha Systems”. O come gli oltre tremila dipendenti Google che hanno firmato una lettera contro le scelte dell’azienda di collaborare ad un progetto militare del Pentagono.

Troppo pochi per fermare il processo, ma abbastanza numerosi per innescare prese di coscienza, riflessioni pubbliche, diffusione di conoscenza su fenomeni tenuti “segreti”.

Cambiare il mondo per liberare tutti gli uomini è un compito immenso. Che gli scienziati e i tecnologi vi debbano svolgere un grande ruolo è sicuro.

Qui di seguito uno dei tanti articoli che segnalano questa prima “rivolta”, tratto da IlSole24Ore. Perché, delle novità, i padroni se ne devono accorgere sempre un po’ prima….

*****
La rivolta etica dei lavoratori tech contro i robot militari

Biagio Simonetta

Lo sviluppo di tecnologie di intelligenza artificiale in ambito militare continua a far discutere. Se qualche mese fa era stato Elon Musk a parlare di algoritmi intelligenti come minaccia di un nuovo conflitto mondiale (da lì era nata la lettera firmata dallo stesso Ceo di Tesla e altri 116 fondatori di aziende di robotica e AI indirizzata all’Onu, nda), in queste settimane si registrano posizioni molto critiche che arrivano da più fronti.

Qualche giorno fa è esploso il caso Google, con oltre tremila dipendenti che hanno firmato una lettera contro le scelte dell’azienda di collaborare ad un progetto militare del Pentagono. Ma il caso di Mountain View non è isolato. Anzi, i fatti raccontano di quanto stia crescendo una sorta di movimento etico che attraversa Paesi e continenti. Un movimento che probabilmente è partito con l’ormai celebre lettera alle Nazioni Unite, sottoscritta da oltre 16mila ricercatori il 28 luglio del 2015.

Dopo il recente caso di Google, ne è emerso uno che arriva dalla Corea del Sud e riguarda oltre 50 importanti accademici provenienti da circa 30 Paesi che stanno boicottando un’università sudcoreana, preoccupati da una partnership fra l’ateneo e un ente militare che avrebbe l’obiettivo di produrre un “robot killer” basato sull’intelligenza artificiale.
I ricercatori hanno firmato la lettera che chiede di boicottare la “Korea Advanced Institute of Science and Technology” (KAIST) e il suo partner, il produttore “Hanwha Systems”. Gli accademici ritengono che i due soggetti stiano cercando di accelerare la corsa agli armamenti per sviluppare armi autonome. E per questa ragione hanno bloccato le loro collaborazioni.

La lettera
«Ci sono molte grandi cose che si possono fare con l’intelligenza artificiale che salvano vite umane, anche in un contesto militare, ma dichiarare apertamente che l’obiettivo è quello di sviluppare armi autonome e avere un partner come questo suscita grande preoccupazione – ha detto Toby Walsh, l’organizzatore del boicottaggio e docente presso l’Università del New South Wales -. Si tratta di un’università molto rispettata che collabora con un partner molto dubbio dal punto di vista etico e che continua a violare le norme internazionali».

Il boicottaggio precede la riunione delle Nazioni Unite sulle armi autonome che si terrà a Ginevra la prossima settimana, e più di 20 Paesi hanno già chiesto un divieto totale dei robot assassini. L’uso dell’IA nel settore militare, del resto, rievoca scenari da Terminator, la celebre pellicola con Arnold Schwarzenegger, e lascia molte perplessità sulla capacità di un robot killer di distinguere fra amici e nemici.

“Hanwha System” è uno dei maggiori produttori di armi della Corea del Sud e produce munizioni a grappolo che sono vietate in 120 paesi in virtù di un trattato internazionale, non sottoscritto da Corea del Sud, Stati Uniti, Russia e Cina. Il presidente del Kaist, Sung-Chul Shin, si è detto rattristato per il boicottaggio, dicendo che «il Kaist non condurrà alcuna attività di ricerca contraria alla dignità umana, comprese le armi autonome prive di un significativo controllo umano».

Il centro accademico sudcoreano sta lavorando molto sullo sviluppo di sistemi basati su intelligenza artificiale, basandosi su algoritmi di navigazione per veicoli sottomarini di grandi dimensioni senza equipaggio, sistemi di formazione per aeromobili intelligenti e tecnologie intelligenti di localizzazione e riconoscimento degli oggetti.

Robot da combattimento e droni
La lettera degli accademici contro l’ente sudcoreano segue quella dei tremila dipendenti di Google. Ma dipendenti etici a parte, le temutissime tecnologie intelligenti in ambito militare sono già realtà in più parti del mondo. Sempre in Corea del Sud, per esempio, la società Dodaam Systems produce un autentico robot da combattimento completamente autonomo, in grado di rilevare bersagli nel raggio di tre km. E fra i clienti di questa società con sede a Taejon vi sono, secondo il Guardian, gli Emirati Arabi Uniti e il Qatar. Il robot è stato anche testato, ma con restrizioni preimpostate che richiedevano l’intervento manuale (cioè di un essere umano) per sferrare un attacco.
In Inghilterra, invece, la società Bae Systems ha costruito un drone militare autonomo costato 185 milioni di sterline (fondi erogati dal Ministero per la Difesa inglese). Negli Stati Uniti è già operativo il sottomarino controllato da remoto Sea Hunter. E numerosi progetti sono in itinere.


Comments are closed.