Bando Internazionale sui droni killer

0

Appello di ricercatori canadesi per il divieto internazionale di usare l’intelligenza artificiale come arma, altrimenti saranno macchine – non persone – ad avere diritto di vita o di morte sulla popolazione.

I membri della comunità di ricerca sull’intelligenza artificiale sollecitano il primo ministro del Canada ad aderire alla richiesta di vietare su scala internazionale le armi letali autonome che operano senza un significativo controllo umano nel momento in cui sprigionano una forza letale.

Una lettera aperta di cinque esperti canadesi nel campo della ricerca sull’intelligenza artificiale sollecita il Primo Ministro a risolvere immediatamente il problema delle armi autonome letali (spesso denominate “robot killer”) e ad assumere una posizione di leadership sulla scena internazionale contro i Sistemi di armi mortali autonome, nei prossimi incontri delle Nazioni Unite a Ginevra.

2 novembre 2017

All’onorevole Justin Trudeau, C.P., M.P.
Primo Ministro del Canada

Langevin Building, 80 Wellington Street
Ottawa, Ontario
K1A 0A2

e, p.c.:

  • Navdeep Bains, Ministro dell’Innovazione, delle Scienze e dello Sviluppo Economico;
  • Chrystia Freeland, Ministro degli Affari Esteri;
  • Harjit S. Sajjan, Ministro della Difesa;
  • Kirsty Duncan, ministro delle Scienze;
  • Mona Nemer, Consigliera scientifica.

OGGETTO: DIVIETO INTERNAZIONALE DI MILITARIZZARE L’INTELLIGENZA ARTIFICIALE 

Signor Primo Ministro,
Come membri della comunità di ricercatori canadesi sull’Intelligenza Artificiale (IA), vorremmo ringraziarLa per l’interesse che Lei manifesta verso l’IA in generale e per l’investimento significativo che il Canada sta facendo su ricerca e innovazione in materia di IA.

Come Lei sa, la ricerca sull’IA, ossia i tentativi di fabbricare macchine in grado di svolgere compiti intelligenti, ha compiuto progressi spettacolari nel corso dell’ultimo decennio. L’evoluzione dell’IA classica, spinta dai rapidi progressi nell’apprendimento automatico, ha esaltato le ambizioni della comunità IA di costruire macchine in grado di eseguire operazioni complesse, con o senza supervisione o intervento umano. Una vasta gamma di applicazioni sta già sostenendo una crescente varietà di prodotti di consumo volti a migliorare le infrastrutture, i trasporti, l’istruzione, la salute, le arti, l’esercito, la medicina e il commercio. L’IA riveste un’importanza di natura trasformatrice. Queste trasformazioni, reali e potenziali, richiedono non solo capacità di comprensione, ma anche e sempre di più vigile attenzione morale.

È per tutti questi motivi che la comunità canadese di ricercatori sull’IA esorta Lei e il Suo governo a fare del Canada il 20° paese del mondo a sollevarsi, a livello internazionale, contro la militarizzazione dell’IA. I sistemi autonomi di armi letali senza un significativo controllo umano che determini la legittimità degli obiettivi e lo sprigionamento di una forza letale equivalgono a posizionarsi sul lato sbagliato della linea morale stabilita. A tal fine, invitiamo il Canada ad annunciare il suo sostegno alla richiesta di vietare i sistemi di armi letali autonomi durante la prossima Conferenza dell’ONU riguardante la Convenzione delle Nazioni Unite sulle armi classiche (CCW). Il Canada dovrebbe anche impegnarsi a lavorare con altri Stati per concludere un nuovo accordo internazionale allo scopo di raggiungere questo obiettivo. Così facendo, il nostro governo riaffermerà anche la sua leadership morale sulla scena internazionale, come aveva già fatto con il Trattato di Ottawa – la Convenzione internazionale del 1996 per la messa al bando delle mine antiuomo, su iniziativa del ministro degli affari esteri dell’epoca, Lloyd Axworthy, che Suo padre aveva nominato al Gabinetto federale.

Siamo lieti che la Convenzione abbia deciso di formare un Gruppo di esperti governativi sui sistemi di armi autonome. A questo proposito, molti membri della nostra comunità di ricerca sono impazienti di mettere le loro competenze a disposizione del governo del Canada. Come hanno recentemente rilevato molte aziende leader nell’IA e nella robotica a livello mondiale, società canadesi comprese, i sistemi di armi autonome rischiano di realizzare la terza rivoluzione bellica. Nello sviluppo di tali sistemi, i conflitti armati potrebbero svolgersi su una scala mai vista prima e a una velocità che gli esseri umani non sono nemmeno in grado di concepire.

La tragica conseguenza di questo fenomeno è che sarebbero macchine – non persone – ad avere diritto di vita o di morte sulla popolazione. La comunità canadese di ricerca sull’IA non potrebbe approvare un tale uso, in quanto il suo scopo principale è quello di studiare, progettare e promuovere la ricerca sull’IA a fini benefici.

La forte leadership che il Canada continua a dimostrare attraverso il suo coinvolgimento nella tecnologia e nell’innovazione salvaguarderà la nostra reputazione di leader internazionale nello sviluppo della tecnologia IA solo nella misura in cui tale investimento terrà conto anche del suo impatto sul piano giuridico, etico e sociale.

La invitiamo dunque ad assumere una posizione di leadership forte contro i sistemi di armi autonome letali sulla scena internazionale nelle future riunioni del CCW, previste per il novembre 2017 presso le Nazioni Unite.

La preghiamo di gradire, Signor Primo Ministro, l’espressione della nostra più alta considerazione

Seguono le firme dei cattedratici proponenti:

  • Ian Kerr, titolare della cattedra di ricerca in etica, diritto e tecnologia, Università di Ottawa (Canada);
  • Yoshua Bengio, titolare della cattedra di ricerca in algoritmi di apprendimento statistico, Università di Montreal (Canada);
  • Geoffrey Hinton, ingegnere ricercatore presso Google e primo consulente scientifico del Vector Institute;
  • Rich Sutton, titolare della cattedra AITF in apprendimento tramite rinforzo e intelligenza artificiale, Università dello stato di Alberta (Canada);
  • Doina Precup, titolare della cattedra di ricerca in apprendimento automatico, Università McGill (Canada).

Traduzione dal francese di Mariapia Salmaso

Fonte: Pressenza