Una commissione statunitense, la National Security Commission on Artificial Intelligence, sostiene "l'imperativo morale" di esplorare le armi autonome con tecnologie AI. Gli Stati Uniti non dovrebbero vietare l'uso o lo sviluppo di armi autonome alimentate da software di intelligenza artificiale (AI), ha detto una commissione nominata dal governo US in una bozza di rapporto per il Congresso.
Il panel, guidato dall'ex amministratore delegato di Google Eric Schmidt, ha concluso martedì due giorni di discussioni pubbliche su come la più grande potenza militare del mondo dovrebbe considerare l'IA per la sicurezza nazionale e il progresso tecnologico.
Il suo vicepresidente Robert Work, un ex vice segretario alla difesa, ha detto che le armi autonome dovrebbero fare meno errori rispetto agli umani in battaglia, portando a una riduzione delle vittime o delle scaramucce causate dall'errata identificazione del bersaglio. Ha concluso affermando che "è un imperativo morale perseguire almeno questa ipotesi".
La discussione è entrata in una controversa frontiera dei diritti umani e della guerra. Per circa otto anni, una coalizione di organizzazioni non governative ha spinto per un trattato che vieti i "robot killer", affermando che il controllo umano è necessario per giudicare la proporzionalità degli attacchi e attribuire la colpa ai crimini di guerra.
Trenta paesi, tra cui Brasile e Pakistan, vogliono un divieto, secondo il sito web della coalizione, e un organismo delle Nazioni Unite ha tenuto riunioni sui sistemi almeno dal 2014.
Nella foto: attivisti della Campagna per fermare i robot killer, una coalizione di organizzazioni non governative che si oppongono alle armi autonome letali o ai cosiddetti "robot killer", organizzano una protesta alla Porta di Brandeburgo a Berlino, Germania, 21 marzo 2019.
Sebbene le capacità delle armi autonome siano conosciute da decenni, è aumentata la preoccupazione per lo sviluppo di sistemi dotati di AI per alimentare tali sistemi, insieme alla consapevolezza dell'esistenza di pregiudizi nell'AI ed esempi di abuso del software.
Il panel statunitense, chiamato National Security Commission on Artificial Intelligence, negli incontri di questa settimana ha riconosciuto i rischi delle armi autonome. Un membro di Microsoft, ad esempio, ha avvertito della pressione per costruire macchine che reagiscano rapidamente, il che potrebbe aumentare i conflitti.
La commissione vuole, nelle sue parole, solo che gli umani prendano decisioni sul lancio di testate nucleari. Tuttavia, il gruppo preferisce il lavoro anti-proliferazione a un trattato che vieti i sistemi, che a suo avviso sarebbe contro gli interessi degli Stati Uniti e difficile da applicare.
Mary Wareham, coordinatrice della campagna di otto anni per fermare i robot killer, ha affermato che "l'attenzione della commissione sulla necessità di competere con investimenti simili effettuati da Cina e Russia ... serve solo a incoraggiare la corsa agli armamenti".
Oltre alle armi alimentate dall'intelligenza artificiale, il lungo rapporto della commissione raccomandava l'uso dell'AI da parte delle agenzie di intelligence per semplificare la raccolta e la revisione dei dati; 32 miliardi di dollari di finanziamenti federali annuali per la ricerca sull'AI e nuovi organismi tra cui un corpo militare digitale modellato sul corpo medico dell'esercito e un consiglio per la competitività tecnologica presieduto dal vice presidente degli Stati Uniti.
La commissione dovrebbe presentare il suo rapporto finale al Congresso a marzo, ma le raccomandazioni non sono vincolanti.
Siamo pienamente dentro una questione cruciale e delicatissima e più ne parliamo e meglio è