venerdì 22 Novembre 2024

C'è una crepa in ogni cosa. E' da li' che entra la luce (Leonard Cohen)

L’APOCALISSE / Ecco le armi letali gestite dall’Intelligenza Artificiale

Prima o poi si sarebbe arrivati alle armi capaci attaccare gli obiettivi senza che vi sia l’interventoo umano grazie all’intelligenza artificiale. Gli eserciti stanno utilizzando sempre più nei conflitti le “Armi autonome letali”. Un tema importante e inquietante, affrontato nei giorni scorsi all’Università “La Sapienza” di Roma in un convegno organizzato dall’Archivio Disarmo in collaborazione con la Facoltà di Fisica e di Sociologia, sulle Laws (Lethal autonomous weapon systems) ovvero le armi autonome letali.

Hanno partecipato fisici (il premio Nobel Giorgio Parisi ha tenuto l’intervento introduttivo), matematici, filosofi e sociologi. Con la professoressa Francesca Faruggia – docente di Sociologia nell’ateneo romano e ricercatrice dall’archivio Armi e disarmo, curatrice del volume, pubblicato da Franco Angeli , “Lasciamo l’apocalisse alle armi?” – RaiNews ha fatto il punto sugli enormi problemi che aprono l’utilizzo di queste armi. Ecco il testo dell’intervista rilasciata a Pierluigi Mele.

Professoressa Faruggia, innanzitutto cosa si intende per Laws?
LAWS è l’acronimo inglese di Lethal Autonomous Weapon Systems, sistemi d’arma autonomi letali. Con questo termine vengono indicate quelle armi capaci di selezionare e attaccare gli obiettivi senza che vi sia alcun intervento da parte dell’uomo. I più recenti progressi nella IA (Intelligenza Artificiale) conferiscono infatti alle macchine militari una crescente indipendenza in grado di affrancarle dal controllo umano: da quello diretto (il cosiddetto man in the loop) si sta passando al controllo umano indiretto (man on the loop), fino all’incombente man off the loop, ovvero alla vera e propria estraniazione dell’uomo e alla completa autonomia della macchina.

Quando sono apparse per la prima volta?
Nel maggio del 2021 un rapporto ONU informava sul possibile primo uso di droni autonomi in combattimento nei campi da battaglia libici. Si tratta dei droni STM Kargu-2, di produzione turca, che avrebbero ingaggiato autonomamente il bersaglio senza necessità di connessione dati con un operatore.

Quali sistema di armi si possono inserire in questa categoria?
Esistono già le cosiddette munizioni da bombardamento (le cosidette Munizioni loitering) o droni kamikaze, che una volta lanciati cercano da soli l’obiettivo prestabilito; i CIWS, apparati mobili per la difesa antiaerea e antimissile; le munizioni guidate di precisione, le cosiddette “bombe intelligenti”, in grado di correggere in volo e in tempo reale il bersaglio iniziale o eventuali errori successivi; i veicoli terrestri senza equipaggio, nonché i veicoli marini senza equipaggio, come la nave statunitense anti-sottomarino Sea Hunter. A tutte queste possiamo poi aggiungere lo swarm (sciame), un insieme di singoli sistemi interagenti ed operanti collettivamente, che rappresentano un ulteriore passo verso nuove armi futuribili e che sembra siano state utilizzate nel conflitto in Ucraina.

Chi sono i maggiori produttori?
Diverse nazioni con forze armate high-tech, in particolare Stati Uniti, Cina, Israele, Corea del Sud, Russia e Regno Unito si stanno muovendo verso sistemi che darebbero maggiore autonomia di combattimento alle macchine. Il mercato dell’intelligenza artificiale nel settore bellico dovrebbe crescere del 33,3% tra il 2023 e il 2028,da 9,2 a 38,8 miliardi di dollari. Investimenti crescenti: USA: 18 miliardi di dollari nel periodo 2015-2020 nel settore delle tecnologie autonome; CINA: nel 2022 circa 1,3 miliardi di dollari; RUSSIA: diversi miliardi di dollari per il periodo 2016-2025.

In queste armi il ruolo centrale spetta all’intelligenza artificiale. Sappiamo che gli algoritmi di “addestramento” hanno a che fare con il machine learning, quindi una forma di controllo umano è possibile. È così oppure no?
Il problema fondamentale è connesso alla possibile perdita di istruzioni apprese precedentemente dalla macchina nel momento che ne apprende e ne autoapprende di nuove. Quali possono essere gli inconvenienti? Come funzioneranno gli algoritmi? Se le istruzioni contrasteranno tra di esse quale prevarrà e come?

Quali sono i problemi etici e giuridici che queste “LAWS” pongono?
L’utilizzo delle armi autonome minaccia in prima istanza le principali norme del diritto umanitario: il principio di distinzione e il principio di proporzionalità. Risulta infatti difficile immaginare come sistemi d’arma dotati di intelligenza artificiale potranno distinguere tra bersagli leciti e illeciti, fra combattenti e popolazione civile, fra prigionieri di guerra, internati civili e detenuti comuni. Dall’altro lato, è quanto meno aleatorio ritenere che l’IA sarà in grado di valutare se, quale e quanto una determinata azione configuri un vantaggio militare, in relazione alle perdite umane e ai danni alla popolazione civile, ai beni patrimoniali e a quelli culturali, così come ai beni civili, incidentalmente causati. Se poi un’arma autonoma dovesse, non discriminando adeguatamente il bersaglio legittimo, provocare sofferenze ingiustificate al nemico e/o alla popolazione civile, chi sarebbe ritenuto responsabile? Infine, l’utilizzo di sistemi d’arma autonomi non garantirebbe il rispetto della dignità umana: le decisioni sulla vita o la morte in un conflitto armato richiedono intuizione e compassione, virtù che le macchine non potranno mai possedere.

Come si pone la comunità internazionale nei confronti di questi argomenti?
Le sfide poste dai LAWS sul piano della sicurezza internazionale hanno suscitato nella società civile e nella comunità scientifica un diffuso sentimento di preoccupazione. Nell’aprile 2013, venne lanciata la Campaign To Stop Killer Robots, costituita da una coalizione di circa centoquaranta Organizzazioni Non Governative a livello internazionale con il fine di mettere al bando le armi totalmente autonome”.

“La Campagna, a cui anche Archivio Disarmo aderisce, chiede ai governi di tutto il mondo e alle Nazioni Unite di ratificare un Trattato internazionale che ne vieti l’utilizzo e soprattutto che venga tassativamente mantenuto il controllo umano nel ciclo decisionale (individuazione del bersaglio ed attacco). Le decise prese di posizione assunte dalla comunità scientifica e dalla società civile hanno spinto anche i governi a confrontarsi in ambito multilaterale. Nei colloqui di Ginevra in materia di CCW, il dibattito tra le varie posizioni (chi assolutamente contrario, chi decisamente favorevole, chi teso a cercare uno strumento operativo concreto) ha portato ad una serie di passi non trascurabili.

È possibile una messa al bando o almeno una regolamentazione stringente?
Il 1° novembre 2023 la Commissione dedicata al Disarmo dell’Assemblea Generale delle Nazioni Unite ha adottato la prima Risoluzione mai discussa sulle armi autonome sottolineando la “necessità urgente per la comunità internazionale di affrontare le sfide e le preoccupazioni sollevate dai sistemi di armi autonome”. Questo risultato giunge dopo 10 anni di discussioni internazionali, in un contesto di rapidi sviluppi tecnologici e di grandi investimenti nel settore, aprendo la strada alla negoziazione di una nuova norma internazionale sulle armi autonome.

L’opinione pubblica è consapevole di questa tematica?
Le indagini demoscopiche sul tema indicano come a livello mondiale le preoccupazioni siano condivise dalla maggioranza dei cittadini. L’opinione pubblica di 27 Paesi sui 28 compresi nello studio IPSOS del 2021 per conto della Campaign to Stop Killer Robots si dichiara contraria all’utilizzo di armi autonome in guerra. La più o meno marcata (e comunque maggioritaria) opposizione all’utilizzo delle armi autonome in guerra viene dichiarata anche dall’opinione pubblica di Paesi decisivi nello scacchiere mondiale come Stati Uniti (55%), Gran Bretagna (56%), Russia (58%), e Cina (53%)”.

“Gli italiani non fanno eccezione, dichiarandosi “abbastanza” o “molto contrari” nel 59% dei casi (dati IPSOS, 2018), una contrarietà che sale al 68% in una indagine del 2019 di Archivio Disarmo su un campione rappresentativo della popolazione italiana. La principale perplessità citata dall’opinione pubblica a livello mondiale è la questione morale, in particolare l’inaccettabilità di affidare ad una macchina la decisione sulla vita o sulla morte di un uomo. L’opinione pubblica italiana, insieme a quella degli altri 28 Paesi coinvolti nella rilevazione, sembra dunque condividere una preoccupazione espressa a livello internazionale da esperti e scienziati i quali, oltre ad evidenziare come tali sistemi d’arma potrebbero minacciare le norme legali e le prassi diplomatiche vigenti, negano che tali macchine abbiano o avranno mai la capacità morale di decidere della vita o della morte di un essere umano.

FOTO da Micromega

Articoli correlati

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

CATEGORIE ARTICOLI

Articoli recenti