Le agenzie di intelligence di tutto il mondo hanno grandi speranze per l'IA. Ma non sono questi i primi tentativi che fanno in tal senso. Diamo uno sguardo, stimolati da un servizio dell'Economist, a come l'AI sta cambiando il mondo dell'intelligence globale.
Quando si tratta di utilizzare l'intelligenza artificiale (AI), le agenzie di intelligence ci sono state più a lungo della maggior parte delle altre. Nella guerra fredda l'Agenzia per la sicurezza nazionale americana (NSA) e il quartier generale delle comunicazioni del governo britannico (GCHQ) hanno esplorato per primi l'uso di AI per aiutare a trascrivere e tradurre gli enormi volumi di intercettazioni telefoniche sovietiche che hanno iniziato a raccogliere negli anni '60 e '70.
Eppure la tecnologia era immatura. Un ex ufficiale dell'intelligence europea afferma che il suo servizio non ha utilizzato la trascrizione o la traduzione automatica in Afghanistan negli anni 2000, affidandosi invece a madrelingua.
Oggi però serpeggia l'idea che con i nuovi risultati si possa fare meglio. Le tendenze che hanno reso l'AI un business attraente per le aziende negli ultimi anni - più dati, algoritmi migliori e più potenza di elaborazione per far vibrare tutto - stanno dando grandi idee anche alle agenzie di sicurezza e intelligence.
Il 24 febbraio il GCHQ ha pubblicato un documento su come l'AI potrebbe cambiare il suo lavoro. Il "controllo dei fatti assistito da macchine" potrebbe aiutare a individuare immagini contraffatte, controllare la disinformazione rispetto a fonti attendibili e identificare i bot dei social media che la diffondono. l'intelligenza artificiale potrebbe bloccare gli attacchi informatici "analizzando i modelli di attività su reti e dispositivi" e combattere la criminalità organizzata individuando catene sospette di transazioni finanziarie.
Altre organizzazioni con meno risorse hanno già dimostrato cosa è possibile fare. La Nuclear Threat Initiative, una ONG americana , ha recentemente dimostrato che l'applicazione del machine learning ai dati commerciali disponibili al pubblico potrebbe individuare aziende e organizzazioni precedentemente sconosciute sospettate di coinvolgimento nel commercio illecito di materiali per armi nucleari. Ma le agenzie non si limitano ai dati disponibili pubblicamente.
Alcuni sperano che, aiutati dalla loro capacità di ottenere informazioni private, applicazioni così modeste possano aprire la strada a un colosso alimentato dall'intelligenza artificiale .
"L'intelligenza artificiale rivoluzionerà la pratica dell'intelligence", si legge in un rapporto pubblicato il primo marzo dalla National Security Commission americana sull'intelligenza artificiale, un potente gruppo di studio co-presieduto da Eric Schmidt, ex presidente esecutivo di Alphabet, la società madre di Google, e Bob Work, un ex vice segretario alla difesa.
Il rapporto non manca di ambizione: entro il 2030 circa 17 agenzie di intelligence americane dovrebbero costruire una "architettura federata di motori analitici che apprendono continuamente" in grado di elaborare qualsiasi cosa, dall'intelligenza umana alle immagini satellitari, al fine di prevedere minacce incombenti. La commissione indica con approvazione la risposta del Pentagono al covid-19, che ha integrato dozzine di set di dati per identificare gli hot spot del covid-19 e gestire la domanda di forniture.
Tuttavia, ciò che è possibile nella salute pubblica non è sempre così facile nella sicurezza nazionale. Le agenzie di intelligence occidentali devono fare i conti con le leggi che disciplinano il modo in cui i dati privati possono essere raccolti e utilizzati. Nel suo documento, GCHQ afferma che sarà consapevole dei pregiudizi sistemici, ad esempio se il software di riconoscimento vocale è più efficace con alcuni gruppi rispetto ad altri e trasparente sui margini di errore e incertezza nei suoi algoritmi.
Gli esperti americani dicono, più vagamente, che rispetteranno "la dignità umana, i diritti e le libertà". Potrebbe essere necessario appianare queste differenze. Un suggerimento avanzato da una recente task force di ex agenti americani in un rapporto pubblicato dal Center for Strategic and International Studies (CSIS) a Washington sosteneva che l'alleanza di intelligence "Five Eyes" - America, Australia, Gran Bretagna, Canada e Nuova Zelanda - dovesse creare un server cloud condiviso su cui archiviare i dati.
In ogni caso, i vincoli che l'AI deve affrontare nell'intelligence sono tanto pratici quanto etici. L'apprendimento automatico è efficace nell'individuare i modelli, come i modelli distintivi di utilizzo del telefono cellulare, ma è scarso nel prevedere il comportamento individuale. Ciò è particolarmente vero quando i dati sono scarsi, come nell'antiterrorismo. I modelli di polizia predittiva possono analizzare i dati di migliaia di furti ogni anno. Gli attacchi terroristici sono molto più rari e quindi più difficili da processare con il machine learning.
Questa scarsità di dati crea un altro problema, familiare ai medici che meditano sui programmi di screening di massa per le malattie rare. Qualsiasi modello predittivo genererà falsi positivi, in cui persone innocenti vengono contrassegnate per essere indagate. Un'attenta progettazione può ridurre il tasso di falsi positivi. Ma poiché il "tasso di base" è ancora più basso - ci sono, fortunatamente, pochissimi terroristi - anche un sistema ben progettato rischia di mandare un gran numero di spie a inseguimenti selvaggi.
E quei dati che esistono potrebbero non essere adatti. I dati delle telecamere dei droni, dei satelliti di ricognizione e delle telefonate intercettate, ad esempio, non sono attualmente formattati o etichettati in modi utili per l'apprendimento automatico. Risolvere questo problema è un "compito noioso, dispendioso in termini di tempo e ancora principalmente umano, esacerbato dai diversi standard di etichettatura all'interno e persino all'interno delle agenzie", osserva il rapporto CSIS. Potrebbe non essere proprio il tipo di lavoro per cui gli aspiranti agenti si sono arruolati.
Comments