Quale etica può avere mai un robot programmato per uccidere in guerra?

LOCCIDENTALE_800x1600
LOCCIDENTALE_800x1600
Dona oggi

Fai una donazione!

Gli articoli dell’Occidentale sono liberi perché vogliamo che li leggano tante persone. Ma scriverli, verificarli e pubblicarli ha un costo. Se hai a cuore un’informazione approfondita e accurata puoi darci una mano facendo una libera donazione da sostenitore online. Più saranno le donazioni verso l’Occidentale, più reportage e commenti potremo pubblicare.

Quale etica può avere mai un robot programmato per uccidere in guerra?

22 Giugno 2008

A quale crocevia l’evoluzione in noi umani ha imboccato la strada sbagliata, al punto che abbiamo associato il soddisfacimento del piacere alla spinta alla distruzione? (Christa Wolf,  Guasto) 

Secondo me non ci siamo arrivati: è innato nella nostra specie. Il desiderio di distruzione è così radicato in noi che nessuno riesce ad estirparlo. Fa parte della costituzione di ognuno, giacché il fondo dell’essere stesso è certamente demoniaco. Il saggio è un distruttore placato, in pensione. Gli altri sono distruttori in servizio. (E.M. Cioran, Dell’inconveniente di essere nati) 

 

Abbiamo visto come la presenza tra noi di robot sempre più raffinati e intelligenti apra una serie di problemi etici, che nel loro complesso costituiscono un settore di indagine nuovo e importante, la roboetica. Un esempio già attuale di problema roboetico è rappresentato dall’uso in guerra dei "robot soldato", cioè di robot costruiti, addestrati e impiegati in azioni belliche, con lo scopo precipuo di uccidere i nemici (uomini). 

La Prima Legge di Asimov 

Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno

impedirebbe ai robot di partecipare ad azioni di guerra contro esseri umani, mentre oggi molte ricerche mirano proprio alla costruzione di robot soldato.

Il comportamento distruttivo di questi robot sembra trovare qualche giustificazione nella Legge Zero di Asimov 

Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno

che li autorizzerebbe a recare un certo danno (a uccidere alcuni umani) a chi vuole provocare danni ultimi e irreversibili (uccidere tutti gli umani). Naturalmente, in questo contesto, ha una grande importanza la distinzione tra umani amici (che valgono moltissimo) e umani nemici (che valgono poco o niente). S’intravvede qui una scala quantitativa dei danni, che relativizza il carattere in apparenza assoluto delle prime Tre Leggi e conferma la difficoltà della loro applicazione.

Osserviamo che le ricerche sui robot da guerra s’inseriscono nel quadro del combattimento a distanza, che ottunde la pietà nei confronti del nemico e aumenta l’efficienza bellica (le due cose vanno di pari passo).

Infatti l’inserimento tra me e il nemico di un robot soldato aggiunge alla distanza fisica un distanza psicologica che colora la battaglia di indifferenza, di cinismo e di irresponsabilità. Quest’ultimo punto è forse il più importante: delegando al robot l’uccisione del nemico, l’uomo si scaricherebbe in buona parte della responsabilità del sangue versato. Ma fino a che punto la responsabilità di un’azione criminosa può ricadere sulla “macchina” robot che, almeno per il momento, non ha statuto giuridico?

Solo nell’ipotesi che il robot possegga una piena volontà autonoma e magari una coscienza riflessiva, capace di attribuire valore etico alle azioni che esso compie, si può pensare di attribuirgli una qualche responsabilità. Altrimenti essa continua a ripartirsi tra progettisti, costruttori, militari e politici. E’ evidente che si tratta di un problema etico che coinvolge sia i rapporti tra gli uomini sia il comportamento dei robot nei confronti degli uomini. Infatti la battaglia è un’impresa voluta da umani contro umani, ma è mediata e condotta da robot, che sono macchine (in prospettiva sempre più) autonome.

Osserviamo di passaggio che un robot soldato, benché votato ad azioni di morte, potrebbe conservare un residuo di eticità: anche se svincolato dalla Prima Legge, il robot dovrebbe poter riconoscere quando un nemico si arrende o non è più in condizioni di combattere, in modo da farlo prigioniero invece di ucciderlo.

Col tempo, e con le guerre innumerevoli, gli umani hanno sviluppato, nei confronti dei nemici o dei prigionieri, codici di comportamento che aprono isole di misericordia nell’ambito della crudeltà guerresca. Si apre qui un problema analogo per i robot: come indurre in essi, nei confronti degli umani, comportamenti improntati alla pietas o in genere all’etica bellica codificata? La domanda rivela il conflitto tra la natura macchinica dei robot, che dovrebbe renderli obbedienti alla nostra programmazione, e la loro (parziale) autonomia che, in linea di principio, potrebbe indurli a decisioni arbitrarie, per esempio nocive nei confronti degli uomini al di là delle regole stabilite dalle convenzioni belliche.

Il tentativo di far condurre le operazioni militari alle macchine non è certo nuovo, anche se in passato le macchine belliche erano semplici prolungamenti o potenziamenti del corpo umano. Lo scopo primario è quello di infliggere perdite al nemico risparmiando i propri combattenti, almeno finché il nemico non si dota degli stessi dispositivi. Per esempio, già nella seconda guerra mondiale i tedeschi usarono i Goliath, piccoli carri armati telecomandati; i missili Cruise non hanno pilota e si dirigono con buona precisione sul bersaglio.

Oggi gli Stati Uniti costruiscono robot con funzione di spionaggio e di combattimento, i cosiddetti SWORDS (letteralmente Spade, ovvero Special Weapon Observation Reconnaissance Detection Systems), dispositivi con mitragliatrice telecomandati fino a un chilometro di distanza. Gli SWORDS sono un primo passo, per quanto modesto, verso i Future Combat Systems (FCS), complessi di sorveglianza e attacco a distanza con missili e cannoni. I robot soldato  si muovono su cingoli, ruote o gambe snodate e possono essere impiegati anche per  il salvataggio di feriti e il recupero di materiale. Altri settori in cui si prospetta l’impiego dei robot soldato sono quelli della lotta al terrorismo e della repressione delle insurrezioni. La Francia sta costruendo un robot antisommossa e a Singapore si stanno sviluppando robot soldato per combattere la criminalità urbana riducendo le perdite tra le forze dell’ordine.

Come si vede, un giorno potrebbe essere un robot a ucciderci: come se non bastassero gli incidenti, le malattie e i nostri congeneri… Il robot soldato è forse un segno della nostra natura violenta e malvagia che, nonostante i progressi fatti nel corso dei secoli, è rimasta sostanzialmente intatta e si rivela anche nella progettazione di questi manufatti micidiali.