Logo della Fondazione Giannino Bassetti

FONDAZIONE GIANNINO BASSETTI

L'innovazione è la capacità di realizzare l'improbabile

Intestazione stampa

Rassegna Stampa

a cura della Redazione FGB

Home > Rassegna Stampa > Guerre a distanza e responsabilità

Guerre a distanza e responsabilità

di Redazione FGB [1], 26 Settembre 2011

Le nuove tecnologie, informatiche e robotiche, stanno modificando il modo di programmare e condurre le guerre, separando - fisicamente e psicologicamente - i luoghi in cui i mezzi bellici sono comandati da quelli in cui effettivamente agiscono. Le implicazioni di questo mutamento sono state affrontate di recente in una serie di articoli pubblicati dalla rivista scientifica Nature [2], e in una tavola rotonda che si è tenuta a Sanremo all'inizio di settembre, organizzata dall'Istituto Internazionale di Diritto Umanitario [3], con il contributo della Croce Rossa Internazionale.
Le cifre presentate su Nature da Peter W. Singer [4], direttore della 21st Century Defense Initiative [5] della Brooking Institution di Washington, mostrano che l'impiego delle nuove tecnologie sui campi di battaglia non è un'ipotesi futuribile, ma è già attuale ed è in forte espansione. «Gli Stati Uniti usarono pochissimi aerei comandati a distanza nel conflitto iracheno del 2003, e oggi ne hanno oltre 7.000, mentre i sistemi automatici che operano a terra sono almeno 12.000» scrive Singer. «Già ora la US Air Force addestra più operatori che avranno il compito di comandare i sistemi privi di equipaggio che piloti».

La lecture che Jakob Kellenberger [6], presidente della Croce Rossa internazionale, ha tenuto a Sanremo chiarisce di che cosa si sta parlando. Se si escludono i robot dotati di intelligenza artificiale e capaci di apprendere e adattarsi alle condizioni ambientali - sui quali si sta investendo molto, ma che non sono ancora in uso - le tecnologie che stanno cambiando volto alle guerre sono sostanzialmente di tre tipi, ciascuno dei quali ha implicazioni sue peculiari. Gli attacchi portati direttamente ai sistemi informatici (cyber warfare) hanno l'obiettivo di mandare in tilt l'infrastruttura informatica che supporta l'esercito nemico ma, osserva Kellenberger, possono colpire anche le reti per uso civile, come quelle che gestiscono la distribuzione dell'energia elettrica, i trasporti, gli ospedali e così via. «Non sappiano esattamente quali possano essere le conseguenze di un attacco di questo tipo sul piano umanitario [...] ma potrebbero comportare un numero significativo di morti fra i civili e danni ingenti». Il problema, infatti, è che il livello di interconnessione fra le reti non garantisce che un attacco portato a una infrastruttura militare non abbia conseguenze sul settore civile, sebbene fra i due sistemi ci sia un certo grado di separazione. Kellenberger si chiede dunque: «È possibile per chi attacca conoscere in anticipo quali saranno le conseguenze della sua azione?». Sul piano del diritto umanitario internazionale, poi la questione diventa particolarmente complessa se si considera che azioni di questo tipo garantiscono nella maggior parte dei casi l'anonimato di chi le porta a compimento. «Le difficoltà sorgono perché il diritto umanitario internazionale si basa sull'attribuzione di responsabilità».

Le macchine da guerra controllate a distanza (remote controlled weapon systems) pongono problemi di altro tipo. Si tratta di droni, ma anche di mezzi che operano sul terreno, usati per portare attacchi, ispezionare veicoli sospetti ai posti di blocco, rifornire le truppe e così via. Chi ne sostiene lo sviluppo sottolinea che in questo modo non solo si evita di mettere in pericolo la vita dei militari, ma è anche possibile fare attacchi più mirati, risparmiando i civili. Chi le contrasta, invece, non crede che il loro impiego si traduca davvero in un numero inferiore di vittime fra i civili e teme piuttosto il contrario. Come ha osservato a Sanremo Philip Spoerri [7], responsabile delle questioni di diritto internazionale per la Croce Rossa, «c'è mancanza di trasparenza sugli effetti che queste armi hanno davvero sulla popolazione civile. Per esempio, nessuno sa con esattezza a quanto ammontano le perdite e i danni alle infrastrutture civili attribuibili agli attacchi portati dai droni». «Diversi studi hanno dimostrato che separare fisicamente o emotivamente chi gestisce il mezzo militare dai potenziali avversari fa sì che gli abusi siano commessi con maggiore facilità» sottolinea Kellenberger.

Anche sul piano normativo la situazione è confusa e lascia spazio a pericolose fughe in avanti. «Di recente il presidente americano Barak Obama ha concluso di non aver bisogno dell'approvazione del Congresso per le operazioni militari in Libia, in quanto queste sono eseguite da mezzi che non prevedono l'impiego di uomini sul campo» ricorda su Nature Peter Singer. Mentre in Pakistan, le operazioni militari con armi di questo tipo non sono state affidate all'esercito, ma ai servizi segreti, che godono di un grado maggiore di autonomia e riservatezza. «Dalla polvere da sparo alla bomba atomica, la storia è costellata di momenti in cui le regole sono state cambiate dall'introduzione di nuove e più distruttive tecnologie militari» osserva Singer. «Ciò che è diverso, oggi, è che la ricerca tecnologica si evolve a una velocità che supera la nostra capacità di rispondere sul piano etico e politico [...] Come ha osservato già nel 1948 il generale dell'esercito americano Omar Bradley, siamo "giganti" in fatto di tecnologie, ma "ethical infants" quando si tratta di comprenderne le conseguenze».

Meno sviluppati, ma già usati in qualche contesto, sono infine i sistemi automatici (automated weapon systems), che non devono essere seguiti da un operatore per tutto il tempo del loro funzionamento, godendo di un certo grado di autonomia determinato dal modo in cui sono programmati. Dice ancora Kellenberger: «il punto cruciale è assicurarsi che questi sistemi abbiano la capacità di discriminazione richiesta dal diritto umanitario internazionale». Per esempio, sistemi di questo tipo devono saper distinguere un mezzo militare da uno civile.

Diversi fattori contribuiscono a mantenere il settore privo di regole. C'è senz'altro un interesse specifico ad avere mano libera da parte di chi impiega questi sistemi, ma questo non è l'unico motivo. Il disinteresse dell'opinione pubblica occidentale, per esempio, è dettato in parte dalla riservatezza che c'è attorno operazioni effettivamente condotte, ma anche dall'idea (fallace) che il campo di battaglia sia lontano e che la cosa riguardi soltanto altri.
Si può discutere sull'egoismo implicito in questa posizione, ma quel che è certo, come ha osservato Philip Spoerri, «se i droni possono attaccare zone molto distanti dal luogo in cui si trova l'operatore, e un attacco informatico può colpire anche città lontanissime, questo significa che il mondo intero può diventare un campo di battaglia globale». E c'è dell'altro. Singer nota infatti che le nuove tecnologie militari sono già usate in occidente, per esempio dai servizi segreti, e che sono destinate a diffondersi ulteriormente. «A Miami e in altre città, la polizia ha già chiesto licenze speciali per poter operare con sistemi comandati a distanza e privi di personale, a scopo di sorveglianza» ricorda l'esperto; «e la scorsa primavera il Congresso americano ha votato una legge che permetterà alle compagnie aeree civili di utilizzare in modo ancora più ampio questi sistemi, a partire dal 2015. Questo significherà un'espansione dell'industria robotica, ma solleverà anche importanti sfide sulla privacy». Infatti, se attualmente i controlli di polizia devono essere dichiarati, con sistemi comandati a distanza sarà possibile sorvegliare intere città dall'alto.

Un altro ostacolo è rappresentato dal disinteresse che chi progetta questi sistemi mostra di avere per le questioni etiche che riguardano le conseguenze dell'applicazione delle sue invenzioni.Un sondaggio condotto dalla Association for Unmanned Vehicle System International [8] fra i 25 stakeholder del settore ha avuto risultati sconcertanti. Alla domanda "pensa che lo sviluppo di sistemi privi di equipaggio possa avere conseguenze sul piano sociale, etico o morale?" il 60 per cento degli intervistati ha risposto semplicemente "no". E anche le istituzioni universitarie sembrano del tutto impreparate. Singer sottolinea la mancanza di multidisciplinarietà [9], che sarebbe invece richiesta per studi di questo tipo: «L'importanza e l'urgenza di queste sfide così complesse richiede una riflessione multidisciplinare, che coinvolga gli ingegneri, le aziende produttrici, i clienti, gli utilizzatori finali, i politici, i sociologi e i filosofi. Tuttavia, cercare di oltrepassare i tradizionali confini che delimitano queste discipline è come addentrarsi in un territorio ignoto. In ciascuno di questi settori, le riviste accademiche tendono piuttosto a restringere la riflessione al loro interno, le conferenze sono anch'esse settoriali e chi tenta di modificare le cose, o anche di coinvolgere la società civile, è considerato "meno serio"».

Nella robotica e nell'intelligenza artificiale - nota ancora Singer - non si è ancora verificato ciò che, a suo tempo, ha permesso alla genetica e alla biologia molecolare di iniziare un'analisi delle questioni etiche relative, per esempio, ai test genetici [10]. È utile a questo proposito ricordare che il cinque per cento del budget del Progetto genoma era destinato a finanziare progetti che esaminassero anche i risvolti sociali della ricerca in corso. Così, sebbene molto resti da fare anche nel campo della biologia molecolare, nessun ricercatore oggi è completamente a digiuno di bioetica.
Un corso di laurea rivolto ai futuri ingegneri militari, dovrebbe secondo l'esperto statunitense comprendere anche un corso che permetta loro di farsi le seguenti domande: «Da chi è etico accettare finanziamenti per questo tipo di ricerche? Quali attributi (come la possibilità di essere usate come armi o di avere un'intelligenza artificiale) dovrebbero avere le macchine che progetto? Chi deve poter utilizzare la mia tecnologia? Chi deve aver accesso agli studi che conduco? Se la mia tecnologia ferisce qualcuno, chi è il responsabile? E come si individua il responsabile?»

«Se c'è una lezione che possiamo apprendere dall'esperienza passata - per esempio, dallo sviluppo della bomba atomica - è che abbiamo forti difficoltà nell'anticipare i problemi e i disastri che dovremo affrontare in futuro» ha sottolineato Spoerri concludendo l'incontro di Sanremo. «C'è chi sostiene che i robot e le altre nuove tecnologie porteranno alla fine dei conflitti armati. Se saranno i robot a combattere i robot, in luoghi remoti e senza che questo provochi conseguenze sugli esseri umani o altri danni economici, allora la guerra diventerà un duello fra cavalieri, fatto in un prato fuori città. Ma poiché questo è uno scenario molto improbabile, dobbiamo focalizzarci su quello più realistico nel quale le tecnologie saranno usate nei conflitti armati per ferire il nemico, e che a essere colpiti non saranno soltanto obiettivi militari, ma anche i civili e le infrastrutture civili. [...] Dobbiamo restare vigili e non perdere l'occasione di ricordare, ogni volta che sia necessario, che le regole fondamentali del diritto umanitario non sono un codice morale flessibile. Sono regole vincolanti, e rappresentano l'unico strumento legale di cui disponiamo per ridurre o limitare i costi umani della guerra».

-------------------------

Foto: Global Hawk 4 [11] di david_axe da Flickr.

Mostra/Nascondi i link citati nell'articolo

Link citati nell'articolo:

  1. 1] /schedabiografica/Redazione FGB
  2. 2] http://www.nature.com/news/specials/military/index.html
  3. 3] http://www.iihl.org/Default.aspx?pageid=page12203
  4. 4] http://www.pwsinger.com/
  5. 5] http://www.brookings.edu/projects/21defense.aspx
  6. 6] http://en.wikipedia.org/wiki/Jakob_Kellenberger
  7. 7] http://www.rcstandcom.info/m-spoerri.shtml
  8. 8] http://www.auvsi.org/Home/
  9. 9] /it/focus/2011/08/nuovi_modi_di_descrivere_e_str.html
  10. 10] /en/focus/2011/07/consuming_genomes_constructing.html
  11. 11] http://www.flickr.com/photos/david_axe/206853580/
CC Creative Commons - some rights reserved.
cc - photo by david_axe from Flickr
Categorie: 

Etica

,

roboethics

Articoli di: 

Redazione FGB

Articoli
Ricerca per:
Ricerca nei video:

- Iscriviti alla mailing list - Informativa Cookies -

RSS Feed  Valid XHTML  Diritti d'autore - Creative Commons Gruppo Fondazione Giannino Bassetti in Facebook Gruppo Fondazione Giannino Bassetti in Linkedin Segui la Fondazione Giannino Bassetti in twitter

p.i. 12520270153