1-01776
Presidente, onorevoli colleghi, autonomyinweaponsystems: si tratta della cosiddetta autonomia delle armi, ovvero sistemi d'arma che sono capaci di selezionare e attaccare gli obiettivi senza ulteriori interventi da parte di operatori umani, teoricamente in grado di apprendere dall'esperienza, di autocontrollarsi e di assumere decisioni operative sulla base delle situazioni contingenti senza richiedere intervento umano dopo la definizione delle regole di ingaggio iniziali.
È una definizione che esiste già da alcuni anni. Sono stati sviluppati alcuni prototipi che sono impiegati soprattutto per operazioni di monitoraggio e sorveglianza; possono interpretare i segnali provenienti da sensori di vario genere, telecamere o altri sistemi ottici, effettuare la cosiddetta analytics dei dati, cioè analizzare grandi moli di dati in ingresso e prevedere la definizione di un comportamento conseguente intelligente senza l'intervento umano. Un esempio dalla vita civile di applicazione del concetto di autonomia ci viene dai sistemi di guida per i veicoli autonomi, che hanno radar, laser e sensori che possono essere utili a capire se gli oggetti in movimento identificati nel raggio d'azione dei veicoli sono animali, persone oppure altri veicoli, vegetazioni o altri elementi artificiali, ed agire in conseguenza, cambiando lo stile di guida e l'andatura. In questo caso, quindi, l'autonomia è considerata un valore aggiunto alla sicurezza.
Un altro caso che esce dall'ambito della vita civile ed entra nel mondo della sicurezza ci viene dai cosiddetti robot poliziotto, annunciati già negli Emirati Arabi, dove è in corso un progetto per la sperimentazione di mini veicoli autonomi in grado di riconoscere le persone in movimento, osservare e analizzare i loro volti e identificarle; sono destinati a operazioni di controllo e monitoraggio e sono definiti come robot poliziotti di ausilio alla polizia municipale. Il riconoscimento facciale e la capacità di navigare in modo autonomo sono le due tecnologie abilitanti principali di questi sistemi. Da un punto di vista scientifico e tecnico, si tratta di progressi derivanti dalla possibilità di recuperare immagini, voci, volti e altri segnali biologici, artificiali e ambientali in tempo reale, analizzarne le caratteristiche e provvedere al riconoscimento e all'identificazione, classificando dati ed attribuendo etichette, identificando in tal modo una persona con certe caratteristiche.
Questi robot possono essere tele-operati da un operatore umano (un ufficiale, un pilota, un soldato) che assume la decisione finale; un professionista, quindi, che si prende la responsabilità, oppure possono decidere in modo autonomo. Attenzione, la differenza sta proprio in questo: la decisione autonoma della macchina. Infatti, queste operazioni possono avvenire in modo automatico e il sistema di intelligenza artificiale può decidere il tipo di intervento da adottare. È chiaro che quando parliamo di sistemi d'arma dotati di autonomia essi possono riconoscere il “nemico” secondo uno schema predefinito, scelto da chi carica e programma l'arma, che si assume la responsabilità di scegliere il profilo di chi deve identificarlo, ma non la decisione finale, ed eliminarlo senza alcun intervento umano. In questo senso, i sistemi d'arma autonoma diventano letali e si chiamano sistemi d'arma autonomi letali corrispondendo all'acronimo di LAWS. Quindi esiste un dibattito nelle istituzioni internazionali come le Nazioni Unite sul tema e l'Italia partecipa attivamente ad esempio al gruppo di esperti governativi che è già stato richiamato e che si è riunito nel novembre scorso e si riunirà ancora una volta nel 2018. Il documento enuncia due principi fondamentali a cui prestare particolare attenzione: l'applicabilità del diritto internazionale umanitario a tutti i sistemi d'arma fra cui i LAWS, la riaffermazione della responsabilità degli Stati nel dispiegamento di sistemi d'arma in situazioni di conflitto e soprattutto il riconoscimento della natura duale delle tecnologie autonome per preservarne l'avanzamento e l'accesso nelle applicazioni in ambito civile. Infine investiga sulla necessità - è questo di cui parliamo oggi - di pervenire a una definizione comune del concetto di LAWS su cui ancora nessuno sa dare un elemento preciso. Quindi per quanto riguarda la comunità scientifica, di cui io faccio parte, i LAWS sono oggetto di dibattito e di campagne istituzionali già da diversi anni. Fin dal 2015 una lettera aperta è stata diffusa e firmata da migliaia di scienziati, ricercatori, imprenditori nel mondo della robotica e dell'intelligenza artificiale che, rivolgendosi alle istituzioni sovranazionali alle quali è deputata questa scelta e ai Governi, metteva in guardia contro lo sviluppo della diffusione delle armi letali autonome come uno dei pericoli potenziali che l'umanità fronteggerà. Basta pensare a quello che potrebbe accadere se tali sistemi d'arma finissero in mano a gruppi terroristici che potrebbero farne un uso dalle conseguenze fatali e terribili. La lettera fu presentata su iniziativa di Elon Musk e Stephen Hawking e di una fondazione che si chiama Future of life che sta supportando e continuando a fare la campagna. Io ho sottoscritto la lettera come molti altri colleghi nel mondo. Più recentemente un appello è stato sottoscritto da imprenditori e innovatori nel settore dell'intelligenza artificiale informatica rivolto proprio alla convenzione con l'obiettivo di accendere i riflettori, creare allarme sul tema e sostenerne la pericolosità. I ricercatori di intelligenza artificiale hanno anche preparato un video che circola in rete per mostrare metaforicamente che cosa potrebbe accadere con un uso malevolo dei LAWS. A questo punto io non sto parlando in questa sede come scienziato ma come politico, come facente parte del gruppo del Partito Democratico, con una responsabilità di maggioranza, e quindi per questa ragione siamo addivenuti a una mozione con due impegni importanti che fanno prendere consapevolezza all'Italia del tema di cui stiamo parlando, dando atto al collega Quintarelli di aver avuto l'iniziativa di far parlare oggi il Parlamento di esso. In Italia dobbiamo parlarne e affrontare il tema con cultura, consapevolezza e competenza coinvolgendo sia la politica sia gli scienziati, e per questa ragione la mozione chiede che gli scienziati vengano coinvolti nel dibattito, per un approfondimento e una discussione che non sia solo emotiva ma anche basata sulle evidenze scientifiche e l'analisi del contesto internazionale. Nel rapporto fra scienza e politica penso che sia cruciale il ruolo del Parlamento. Per questo oggi spetta al Parlamento il dovere di chiedere al Governo un impegno rafforzato sui temi ed in questo senso va la nostra mozione che ho presentato come prima firmataria ma che rappresenta il Partito Democratico. Chiediamo non solo di partecipare attivamente alla discussione in corso in organismi internazionali preposti allo scopo ma anche di continuare a guidare una riflessione sulle armi letali autonome in vista di una moratoria nel loro sviluppo in modo da poter prendere consapevolezza a livello scientifico, etico, umanitario e politico del possibile impatto di tali armi sul futuro dell'umanità.