Musk (Tesla), Suleyman (Google): divieto assoluto delle armi letali autonome
116 leader dell’Intelligenza artificiale: no droni, carri armati e mitragliatrici automatiche
[25 Agosto 2017]
La Conferenza Onu di revisione della Convenzione sulle armi convenzionali aveva concordato all’unanimità di cominciare discussioni formali sulla proibizione delle armi autonome e avrebbe dovuto riunirsi il 21 agosto, ma il summit è stato rimandato a novembre. Nel dicembre 2016 l’Onu aveva votato per avviare discussioni formali sul futuro di queste armi, che comprendono droni, carri armati e mitragliatrici automatiche. Finora 19 stati membri dell’Onu hanno vietato l’utilizzo delle armi autonome.
In occasione dell’International Joint Conference on Artificial Intelligence (Ijcai), che si è chiusa oggi a Melbourne, in Australia, e che ha riunito molti dei ricercatori di primo piano sull’intelligenza artificiale del mondo, 116 leader dell’industria dell’intelligenza artificiale, compresi Elon Musk di Tesla e Mustafa Suleyman di Google, hanno scritto una lettera aperta all’Onu per chiedere che vengano messe al bando le armi autonome letali che, sostengono, potrebbero permettere di combattere conflitti armati di dimensioni mai viste prima e con tempi più veloci di quanto gli esseri umani possano comprendere.
Nella lettera, pubblicata da The Future Life Institute, si legge:
Come companies che ostruiscono le tecnologie in Intelligenza Artificiale e della Robotica che possono essere riutilizzate per sviluppare armi autonome, ci sentiamo particolarmente responsabili nel lanciare questo allarme. Accogliamo con favore la decisione della Conference the Convention on Certain Conventional Weapons of (CCW) dell’Onu di istituire un Group of Governmental Experts (GGE) sui Lethal Autonomous Weapon Systems. Molti dei nostri ricercatori e ingegneri sono ansiosi di offrire la consulenza tecnica alle vostre deliberazioni.
Ringraziamo per la nomina dell’ambasciatore Amandeep Singh Gill dell’India come presidente del GGE. Invitiamo le Alte Parti Contraenti che partecipano al GGE a lavorare sodo per trovare mezzi per impedire una corsa agli armamenti per queste armi, proteggere i civili dal loro abuso e per evitare gli effetti destabilizzanti di queste tecnologie. Ci dispiace che la prima riunione del GGE, che doveva iniziare oggi (21 agosto 2017), è stata annullata a causa di un numero ridotto di Stati che non hanno pagato i loro contributi finanziari all’Onu. Invitiamo le Alte Parti Contraenti a raddoppiare i loro sforzi nella prima riunione del GGE, ora prevista per novembre.
Le armi autonome letali minacciano di diventare la terza rivoluzione del settore bellico. Una volta sviluppate, permetteranno di combattere conflitti armati di dimensioni mai viste prima e con tempi più veloci di quanto gli esseri umani possano comprendere.
Possono essere armi del terrore, armi che despoti e terroristi utilizzano contro popolazioni innocenti e armi modificate per funzionare in modi indesiderati. Non abbiamo molto tempo per agire. Una volta aperto questo vaso di Pandora, sarà difficile chiuderlo. Imploriamo quindi le parti contraenti di trovare un modo per proteggerci tutti da questi pericoli.
Al precedente meeting del 2015 dell’ Ijcai, l’australiano Toby Walsh, un professore di intelligenza artificiale dell’università di New South Wales, aveva presentato un’altra lettera aperta che invitava i Paesi a evitare di iniziare una corsa alle armi con IA. La lettera era poi stata firmata anche dal fisico Stephen Hawking e da oltre 20 000 persone, tra cui oltre 3.100 ricercatori di robotica e intelligenza artificiale.
Walsh è nche uno dei promotori della nuova lettera e in un’intervista all’Indipendent ha spiegato che «Quasi tutte le tecnologie possono essere usate per scopi buoni o cattivi e l’intelligenza artificiale non fa eccezione. Può aiutare ad affrontare molti dei problemi della società di oggi: disuguaglianza e povertà o i problemi creati dal cambiamento climatico e dalla crisi finanziaria globale in corso. La stessa tecnologia però può essere usata anche in armi autonome per industrializzare la guerra. Dobbiamo prendere decisioni oggi scegliendo quali di questi futuri vogliamo».