Le AI sono sempre più al centro del dibattito pubblico. Tuttavia non sempre vengono affrontate come tema unico. Spesso ci si confronta su singoli aspetti legati a particolari sviluppi. Uno di questi aspetti è la capacità della macchina di riconoscere le persone mediante immagini. Proviamo a ricostruire lo stato dell'arte e il dibattito che da queste capacità sta nascendo: la frontiera USA-Mexico sarà protetta con il riconoscimento facciale automatico, alcune università sviluppano sistemi AI in grado di contrastare la computer vision e Microsoft, per bocca del suo presidente Brad Smith, fa una call per una regolamentazione pubblica del settore.
Il riconoscimento facciale come polizia di frontiera
Il Department of Homeland Security - DHS -, un dipartimento del Gabinetto degli Stati Uniti d'America che ha il compito di proteggere il territorio degli USA da attacchi terroristici e di rispondere in caso di disastri naturali, con funzioni simili a quelle del Ministero dell'Interno italiano, ha annunciato che proseguirà nel suo progetto di implementare il suo Vehicle Face System - VFS -, un sistema di riconoscimento facciale basato sulle AI, al confine tra Stati Uniti e Messico.
Dopo anni di sviluppo, il governo installerà il sistema VFS in Texas al valico di frontiera di Anzalduas. Secondo i documenti ottenuti da The Verge, a ogni persona che attraverserà il confine verrà scattata una foto della faccia per fare un riferimento incrociato con i vari database governativi.
Il sistema VFS è stato sviluppato in modo da poter catturare le immagini degli occupanti del veicolo attraverso i parabrezza. Infatti è in grado di ignorare i riflessi e, utilizzando i sensori di profondità e altri componenti hardware e AI molto sofisticate, può identificare gli occupanti di un veicolo.
Il governo intende lanciare il VFS per elaborare le immagini di ogni passeggero e conducente in ogni veicolo che attraversa il confine, in tutte le corsie, in entrambe le direzioni.
Brian Brackeen, CEO e fondatore di Kairos, un'azienda di tecnologia per il riconoscimento facciale, in una sua intervista a TNW, ha detto: "Le recenti notizie sulla sorveglianza del riconoscimento facciale al confine tra Stati Uniti e Messico sono preoccupanti". Brackeen sottolinea le implicazioni sui diritti umani se si inizia a vendere software di riconoscimento facciale ai governi.
Nonostante la sua azienda produca e venda tecnologia di riconoscimento facciale, Brackeen ritiene che la sorveglianza su larga scala non sia etica e ha invitato aziende come Amazon a cessare di fornire al governo la tecnologia che può utilizzare per guardarci. Nella sua intervista incalza: "Il mandato del DHS è chiaro. Tuttavia, questo va oltre la protezione dei nostri confini. Questo è un passo avanti verso la sorveglianza onnisciente, "sempre attiva" della società. Il governo degli Stati Uniti ha deliberatamente progettato la tecnologia delle telecamere allo scopo di scrutare i veicoli, attraverso i vetri, per raccogliere i profili facciali dei conducenti e dei passeggeri. Tutto senza il loro permesso o conoscenza. Questo è altamente intrusivo e sbagliato".
Sembra che il governo degli Stati Uniti sia assolutamente determinato a implementare soluzioni di AI che forniranno uno stato di sorveglianza onnipresente in cui i cittadini non hanno alcun diritto alla privacy. Qualsiasi telecamera che può vedere attraverso un parabrezza può vedere attraverso una finestra (e il riconoscimento facciale attraverso i muri è una realtà).
Attualmente viviamo in un mondo in cui miliardi di persone vanno in giro con una fotocamera in tasca, e ci vengono scattate foto da sistemi di sorveglianza o da utenti con i loro smartphone ogni volta che siamo in pubblico. La maggior parte delle persone non ha problemi con questo fatto e molti di noi accettano il fatto che siamo registrati nei negozi, nelle strade e nei nostri luoghi di lavoro. C'è una differenza però. Sappiamo, ad esempio, di essere registrati in una stazione di servizio nel caso qualcuno cerchi di derubarla: le forze dell'ordine possono controllare la registrazione se ci fossero problemi.
È lo stesso al confine. Se le forze dell'ordine devono controllare il filmato da una certa ora e data, ora hanno questa opzione - la maggior parte degli attraversamenti alle frontiere hanno telecamere CCTV. Ma aggiungere le AI e il riconoscimento facciale al mix significa che dobbiamo fidarci del governo che acquisisce i dati e dell'uso che ne farà. Il tutto si basa sulla convinzione implicita che il governo federale non stia utilizzando dati distorti, algoritmi imperfetti e / o utilizzando i dati ottenuti da tale sorveglianza per scopi non etici.
Brackeen sostiene che questo è un salto tecnologico che potrebbe portarci troppo lontano: "Ora, introducete i veri difetti della tecnologia di riconoscimento facciale, la sua storia di bassi tassi di corrispondenza in questi scenari e l'errata identificazione degli individui in base al loro aspetto. Amplificate tutto ciò con i pregiudizi che esistono nelle forze dell'ordine e nelle nostre agenzie di sicurezza: avete ottenuto una ricetta perfetta per un disastro. Il DHS non ha chiesto il permesso a nessuno quando ha sviluppato i dati che servivano come addestramento per il VFS - ci sono volute migliaia di immagini di persone allo scopo di sviluppare un'AI per la sorveglianza senza informare l'opinione pubblica su quello che stava facendo. E non chiederà l'autorizzazione a nessuno ad agosto quando distribuirà VFS in Texas. Ne consegue, quindi, che noi saremo nel ciclo poiché queste tecnologie continuano a comparire in tutto il nostro paese".
Contromisure: bloccare la sorveglianza del riconoscimento facciale usando le AI
Se l'AI è sempre più in grado di riconoscere e classificare i volti, allora forse l'unico modo per contrastare questa sorveglianza strisciante è usare un'altra AI per sconfiggerla. I ricercatori dell'Università di Toronto hanno trovato un modo per renderlo possibile.
Il principio alla base di questa tecnica è l'allenamento contraddittorio, in cui un riconoscimento delle immagini della rete neurale di una AI viene interrotto da un secondo addestrato a capire come funziona. Ciò rende possibile applicare un filtro a un'immagine che altera solo alcuni pixel molto specifici, ma rende molto più difficile classificare l'immagine se una AI la scansionasse online.
La teoria alla base di ciò sembra abbastanza semplice, spiega il professore dell'Università di Toronto, Parham Aarabi: "Ad esempio, se l'IA di rilevamento sta cercando l'angolo degli occhi, regola l'angolo degli occhi in modo che siano meno evidenti. Crea disturbi molto sottili nella foto, ma al rilevatore sono abbastanza significativi da ingannare il sistema".
I ricercatori hanno persino testato il loro algoritmo rispetto al dataset di 300 W, un pool standard basato su 600 volti in una gamma di condizioni di illuminazione.
A fronte di ciò, il sistema dell'Università di Toronto ha ridotto la percentuale di facce che possono essere identificate dal 100% a una percentuale che va dallo 0,5% al 5%.
Tuttavia, se si legge il documento dettagliato pubblicato dal team di Toronto diventa chiaro che c'è ancora una strada da percorrere. Per cominciare, non tutti i sistemi di riconoscimento delle immagini funzionano allo stesso modo, con architetture come la Faster R-CNN questa è una sfida molto più grande.
Ma perché, ci si potrebbe chiedere, qualcuno vorrebbe fare di tutto per ostacolare il riconoscimento facciale? Sempre secondo Aarabi: "La privacy personale è un problema reale in quanto il riconoscimento facciale diventa sempre migliore. Questo è un modo in cui i sistemi di riconoscimento anti-facciale possono combattere questa abilità diffusa e fuori controllo".
Durante la conferenza F8 di maggio, il CTO di Facebook Mike Schroepfer è salito sul palco per spiegare come la società abbia utilizzato con successo 3,5 miliardi di immagini Instagram per migliorare la capacità della sua AI di riconoscere e classificare i contenuti visivi.
Quel progetto è parte di un tentativo di automatizzare il controllo dei contenuti sulla sua piattaforma, ma non tutti sono impressionati dalle implicazioni per la privacy che questo comporta.
Potrebbe sembrare ingiusto scegliere Facebook per sollevare queste critiche, perché, come abbiamo visto più volte, molte aziende stanno investendo in immagine e riconoscimento facciale, sia online che, in modo più sinistro, nel riconoscimento facciale in tempo reale che interessa i governi e le forze di polizia. Ma Facebook è un caso importante grazie alla sua immensa potenza - i dati che ha a disposizione - che potrebbe dargli un vantaggio senza pari quando si tratterà di allenare e di evolvere la sua AI neurale per svolgere questo tipo di compito.
C'è molto interesse sull'uso dell'intelligenza artificiale per distruggere l'intelligenza artificiale in quasi tutti i campi: l'AI che viene distrutta può evolversi per impedire che ciò accada. Questo trasforma il problema in una sfida del tipo AI vs AI, con ciascuno che cerca di far evolvere l'altro. Possiamo aspettarci che questa battaglia inizi quando i ricercatori dell'Università di Toronto trasformano ciò che hanno sviluppato in un filtro che può essere utilizzato da chiunque come plug-in del browser o con una app.
Questo potrebbe ancora trasformarsi nella prossima guerra privata, un conflitto di logoramento algoritmico combattuto per lo più dietro le quinte. Un po 'più di azione non farebbe male a nessuno - ad oggi, dobbiamo riconoscere che è stata una via unilaterale.
Microsoft: la necessità di regolamentazione pubblica e la responsabilità aziendale
Brad Smith, presidente di Microsoft, ha pubblicato il 13 luglio scorso un post programmatico che espone l'azienda sul tema del riconoscimento facciale e sulle AI. Ne riportiamo qui sotto alcuni estratti che abbiamo tradotto dall'originale inglese.
[...] La tecnologia di riconoscimento facciale solleva questioni che vanno al cuore delle protezioni fondamentali dei diritti umani come la privacy e la libertà di espressione. Questi problemi aumentano la responsabilità delle aziende tecnologiche che creano questi prodotti. A nostro avviso, richiedono anche una regolamentazione ponderata del governo e lo sviluppo di norme relative a usi accettabili. In una repubblica democratica, non vi è alcun sostituto per il processo decisionale da parte dei nostri rappresentanti eletti per quanto riguarda le questioni che richiedono il bilanciamento della sicurezza pubblica con l'essenza delle nostre libertà democratiche. Il riconoscimento facciale richiederà sia il settore pubblico che quello privato di intensificare e agire.
La tecnologia di riconoscimento facciale ha progredito rapidamente negli ultimi dieci anni. Se hai mai visto un suggerimento su Facebook o un'altra piattaforma di social media per taggare un viso con un nome suggerito, hai visto il riconoscimento facciale al lavoro. Un'ampia varietà di aziende tecnologiche, inclusa Microsoft, hanno utilizzato questa tecnologia negli ultimi anni per trasformare il lavoro dispendioso in termini di tempo per catalogare le foto in qualcosa di sia istantaneo che utile.
Quindi, cosa sta cambiando ora? In parte è la capacità della visione artificiale di migliorare e più rapidamente riconoscere i volti delle persone. In parte questo miglioramento riflette meglio le telecamere, i sensori e le capacità di apprendimento automatico. Riflette anche l'avvento di serie di dati sempre più grandi man mano che vengono archiviate più immagini di persone online. Questo miglioramento riflette anche la capacità di utilizzare il cloud per connettere tutti questi dati e la tecnologia di riconoscimento facciale con telecamere live che catturano le immagini dei volti delle persone e cercano di identificarle - in più luoghi e in tempo reale.
La tecnologia avanzata non si distingue più dalla società; sta diventando profondamente infusa nelle nostre vite personali e professionali. Ciò significa che i potenziali usi del riconoscimento facciale sono una miriade. [...]
Alcuni usi emergenti sono positivi e potenzialmente persino profondi. Immagina di trovare un bambino scomparso riconoscendola mentre cammina per strada. Immagina di aiutare la polizia a identificare un terrorista incline alla distruzione mentre entra nell'arena in cui stai partecipando a un evento sportivo. Immagina una fotocamera per smartphone e un'app che dica a una persona che è cieca il nome dell'individuo che è appena entrato in una stanza per partecipare a una riunione.
Ma altre potenziali applicazioni sono più sobrie. Immagina un governo che insegua ovunque tu abbia camminato nell'ultimo mese senza il tuo permesso o la tua conoscenza. Immagina un database di tutti coloro che hanno partecipato a un raduno politico che costituisce l'essenza stessa della libertà di parola. Immagina i negozi di un centro commerciale utilizzando il riconoscimento facciale per condividere informazioni tra di loro su ogni scaffale che cerchi e sul prodotto che acquisti, senza chiederti prima. Questo è stato a lungo oggetto di fantascienza e film popolari - come "Minority Report", "Nemico dello Stato" e persino "1984" - ma ora è sul punto di diventare possibile.
Forse per quanto riguarda l'avanzamento, il riconoscimento facciale solleva una domanda critica: quale ruolo vogliamo che questo tipo di tecnologia giochi nella società di tutti i giorni?
I problemi diventano ancora più complicati quando aggiungiamo il fatto che il riconoscimento facciale sta avanzando rapidamente ma rimane lontano dall'essere perfetto. Come ampiamente riportato negli ultimi mesi, sono stati riscontrati pregiudizi nelle prestazioni di diverse tecnologie di riconoscimento facciale in campo. Le tecnologie hanno funzionato in modo più accurato per gli uomini bianchi che per le donne bianche e sono stati più precisi nell'identificare le persone con le carnagioni più chiare rispetto alle persone di colore. I ricercatori di tutto il settore tecnologico stanno facendo gli straordinari per affrontare queste sfide e stanno compiendo progressi significativi. Ma, come ha dimostrato una ricerca importante , le carenze rimangono. La relativa immaturità della tecnologia sta rendendo le domande pubbliche più ampie ancora più pressanti.
Anche se i pregiudizi sono affrontati ei sistemi di riconoscimento facciale operano in un modo ritenuto giusto per tutte le persone, affronteremo ancora delle sfide con potenziali fallimenti. Il riconoscimento facciale, come molte tecnologie IA, ha in genere un certo tasso di errore anche quando operano in modo imparziale. E i problemi relativi al riconoscimento facciale vanno ben oltre le questioni di pregiudizio, sollevando questioni critiche sulle nostre libertà fondamentali.
La politica incontra la Silicon Valley
Nelle ultime settimane, la politica degli Stati Uniti è diventata più intrecciata con questi sviluppi tecnologici sulla costa occidentale. Una settimana a metà giugno ha posto in rilievo i problemi sollevati dalla tecnologia di riconoscimento facciale per me e altri dirigenti aziendali di Microsoft. Mentre il paese era trafitto dalle polemiche che circondano la separazione dei bambini immigrati dalle loro famiglie al confine meridionale, un tweet su un blog di marketing Microsoft pubblicato a gennaio è esploso rapidamente sui social media e ha scatenato un acceso dibattito. Il blog aveva discusso un contratto con l'Immigration and Customs Enforcement degli Stati Uniti, o ICE, e ha affermato che Microsoft aveva superato una soglia di sicurezza elevata; includeva una frase sul potenziale per ICE di usare il riconoscimento facciale.
Da allora abbiamo confermato che il contratto in questione non viene utilizzato per il riconoscimento facciale. Né Microsoft ha collaborato con il governo degli Stati Uniti a nessun progetto relativo alla separazione dei bambini dalle loro famiglie al confine, una pratica alla quale abbiamo fortemente contestato. Il lavoro sotto contratto invece supporta i carichi di lavoro legacy di posta elettronica, calendario, messaggistica e gestione dei documenti. Questo tipo di lavoro IT va avanti in ogni agenzia governativa negli Stati Uniti, e per la stessa cosa praticamente in ogni governo, azienda e istituzione senza scopo di lucro nel mondo. Alcuni hanno tuttavia suggerito che Microsoft annulla il contratto e cessa tutto il lavoro con ICE.
La discussione che ne è seguita ha illuminato domande più ampie che si stanno diffondendo nel settore tecnologico. Queste domande non sono uniche per Microsoft. Sono emersi all'inizio di quest'anno su Google e altre società tecnologiche. Nelle ultime settimane, un gruppo di dipendenti di Amazon ha contestato il suo contratto con l'ICE, pur ribadendo le preoccupazioni sollevate dall'American Civil Liberties Union (ACLU) sull'applicazione della tecnologia di riconoscimento facciale da parte delle forze dell'ordine. E i dipendenti di Salesforce hanno sollevato gli stessi problemi relativi alle autorità per l'immigrazione e l'uso dei loro prodotti da parte di queste agenzie. Le richieste sempre più emerse dalle aziende tecnologiche per limitare il modo in cui le agenzie governative utilizzano il riconoscimento facciale e altre tecnologie.
Questi problemi non scompariranno. Riflettono le capacità in rapida espansione delle nuove tecnologie che definiranno sempre più il decennio successivo. Il riconoscimento facciale è la tecnologia del momento, ma è evidente che altre nuove tecnologie solleveranno problemi simili in futuro. Ciò rende ancora più importante il fatto che usiamo questo momento per ottenere la direzione giusta.
La necessità di una regolamentazione governativa
L'unico modo efficace per gestire l'uso della tecnologia da parte di un governo è che il governo gestisca in modo proattivo questo stesso uso. E se vi sono preoccupazioni su come una tecnologia verrà distribuita in modo più ampio nella società, l'unico modo per regolamentare questo ampio uso è che il governo lo faccia. Questo in effetti è ciò che crediamo sia necessario oggi - un'iniziativa governativa per regolare il corretto utilizzo della tecnologia di riconoscimento facciale, informata prima da una commissione bipartisan ed esperta.
Pur apprezzando il fatto che alcune persone oggi chiedono che le aziende tecnologiche prendano tali decisioni e riconosciamo una chiara necessità per il nostro esercizio di responsabilità, come discuteremo più avanti, riteniamo che questo sia un sostituto inadeguato per il processo decisionale da parte del pubblico e dei suoi rappresentanti in una repubblica democratica. Viviamo in una nazione di leggi e il governo deve svolgere un ruolo importante nella regolazione della tecnologia di riconoscimento facciale. Come principio generale, sembra più sensato chiedere ad un governo eletto di regolamentare le società piuttosto che chiedere alle società non elette di regolamentare un simile governo.
[...]
Può sembrare insolito che un'azienda richieda una regolamentazione governativa dei suoi prodotti, ma ci sono molti mercati in cui la regolamentazione ponderata contribuisce a una dinamica più sana per consumatori e produttori. L'industria automobilistica ha trascorso decenni nei ventesimo secolo a resistere alla regolamentazione, ma oggi c'è un ampio apprezzamento per il ruolo essenziale che i regolamenti hanno avuto nel garantire cinture di sicurezza onnipresenti e airbag e una maggiore efficienza del carburante. Lo stesso vale per la sicurezza aerea, gli alimenti e i prodotti farmaceutici. Ci saranno sempre dibattiti sui dettagli e i dettagli contano molto. Ma un mondo con una vigorosa regolamentazione dei prodotti che è utile ma potenzialmente problematico è migliore di un mondo privo di standard legali.
Ecco perché Microsoft ha richiesto una legislazione nazionale sulla privacy per gli Stati Uniti nel 2005 e il motivo per cui abbiamo sostenuto il regolamento generale sulla protezione dei dati nell'Unione europea. I consumatori avranno più fiducia nel modo in cui le aziende usano le loro informazioni personali sensibili se ci sono regole chiare sulla strada che tutti possono seguire. Mentre i nuovi problemi relativi al riconoscimento facciale vanno oltre la privacy, crediamo che l'analogia sia appropriata.
Sembra particolarmente importante perseguire una regolamentazione meditata del governo della tecnologia di riconoscimento facciale, date le sue ampie ramificazioni sociali e il potenziale di abuso. Senza un approccio ponderato, le autorità pubbliche possono basarsi su approcci tecnologici imperfetti o tendenziosi per decidere chi rintracciare, indagare o persino arrestare per un crimine. I governi possono monitorare l'esercizio di attività politiche e di altro pubblico in modi che contrastano con le aspettative di vecchia data nelle società democratiche, agghiaccianti la volontà dei cittadini di manifestarsi per eventi politici e minare le nostre libertà fondamentali di assemblea ed espressione. Allo stesso modo, le aziende possono utilizzare il riconoscimento facciale per prendere decisioni senza l'intervento umano che influiscono sulla nostra idoneità al credito, ai posti di lavoro o agli acquisti. Tutti questi scenari sollevano importanti questioni di privacy, libertà di parola.
Quindi quali problemi dovrebbero essere affrontati attraverso la regolamentazione del governo? Questa è una delle domande iniziali più importanti da affrontare. Come punto di partenza, riteniamo che i governi dovrebbero considerare i seguenti problemi, tra gli altri:
L'uso del riconoscimento facciale da parte delle forze dell'ordine dovrebbe essere soggetto a supervisione e controlli umani, comprese le restrizioni sull'uso della tecnologia di riconoscimento facciale non assistita come prova della colpevolezza di un individuo o dell'innocenza di un crimine?
Allo stesso modo, dovremmo garantire che ci sia una supervisione e una responsabilità civile per l'uso del riconoscimento facciale come parte delle pratiche della tecnologia di sicurezza nazionale governativa?
Quali tipi di misure legali possono impedire l'uso del riconoscimento facciale per la profilazione razziale e altre violazioni dei diritti pur consentendo gli usi vantaggiosi della tecnologia?
L'uso del riconoscimento facciale da parte delle autorità pubbliche o di altri soggetti deve essere soggetto a livelli minimi di accuratezza?
La legge dovrebbe richiedere che i rivenditori pubblichino un avviso visibile del loro uso della tecnologia di riconoscimento facciale negli spazi pubblici?
La legge richiede che le aziende ottengano il consenso preventivo prima di raccogliere le immagini degli individui per il riconoscimento facciale? In tal caso, in quali situazioni e in quali luoghi dovrebbe applicarsi? E qual è il modo appropriato per chiedere e ottenere tale consenso?
Dovremmo assicurarci che le persone abbiano il diritto di sapere quali foto sono state raccolte e conservate che sono state identificate con i loro nomi e volti?
Dovremmo creare processi che offrano diritti legali a persone che credono di essere stati identificati erroneamente da un sistema di riconoscimento facciale?
Questo elenco, che non è affatto esauriente, illustra l'ampiezza e l'importanza delle questioni in questione.
Un'altra importante domanda iniziale è come i governi dovrebbero andare a rispondere a queste domande. Negli Stati Uniti, questa è una questione nazionale che richiede la leadership nazionale dai nostri rappresentanti eletti. Questo significa leadership del Congresso. Mentre alcuni si chiedono se i membri del Congresso abbiano competenze sufficienti in materia di tecnologia, in Microsoft crediamo che il Congresso possa affrontare efficacemente questi problemi. La chiave è che i legislatori utilizzino i giusti meccanismi per raccogliere consigli di esperti per informare il loro processo decisionale.
[...]
I problemi relativi al riconoscimento facciale vanno ben oltre i confini degli Stati Uniti. Le domande sopra elencate - e senza dubbio altre - diventeranno importanti questioni di politica pubblica in tutto il mondo, che richiedono un impegno attivo da parte di governi, accademici, aziende tecnologiche e società civile a livello internazionale. Data la natura globale della tecnologia stessa, è probabile che vi sia anche una crescente necessità di interazione e persino di coordinamento tra i regolatori nazionali attraverso le frontiere.
Responsabilità del settore tecnico
La necessità di una leadership governativa non assolve le società tecnologiche delle nostre stesse responsabilità etiche. Data l'importanza e l'ampiezza dei problemi di riconoscimento facciale, noi di Microsoft e di tutto il settore tecnologico abbiamo la responsabilità di garantire che questa tecnologia sia centrata sull'uomo e sviluppata in modo coerente con i valori della società in generale. Dobbiamo riconoscere che molti di questi problemi sono nuovi e nessuno ha tutte le risposte. Abbiamo ancora del lavoro da fare per identificare tutte le domande. In breve, abbiamo molto da imparare. Tuttavia, alcune conclusioni iniziali sono chiare.
In primo luogo , è compito del settore tecnologico continuare l'importante lavoro necessario per ridurre il rischio di pregiudizi nella tecnologia di riconoscimento facciale. Nessuno trae beneficio dall'introduzione di una tecnologia di riconoscimento facciale immatura che ha maggiori tassi di errore per le donne e le persone di colore. Ecco perché i nostri ricercatori e sviluppatori stanno lavorando per accelerare i progressi in questo settore e perché questa è una delle priorità per il Comitato eterico di Microsoft, che fornisce consulenza su diversi problemi di etica dell'IA all'interno dell'azienda.
Nel perseguire questo lavoro, riconosciamo l'importanza di collaborare con la comunità accademica e altre aziende, anche in gruppi come la Partnership per l'intelligenza artificiale. E apprezziamo l'importanza non solo della creazione di serie di dati che riflettono la diversità del mondo, ma anche di garantire che abbiamo una forza lavoro diversificata e ben addestrata con le capacità necessarie per essere efficace nel ridurre il rischio di parzialità. Ciò richiede un lavoro continuo e urgente da parte di Microsoft e altre società tecnologiche per promuovere una maggiore diversità e inclusione nella nostra forza lavoro e per investire in una pipeline di talenti più ampia e diversificata per il futuro. Siamo concentrati sul progresso in questi settori, ma riconosciamo che abbiamo molto più lavoro da fare.
In secondo luogo , e in generale, riconosciamo la necessità di adottare un approccio di principio e trasparente nello sviluppo e nell'applicazione della tecnologia di riconoscimento facciale. Stiamo lavorando per valutare e sviluppare ulteriori principi per governare il nostro lavoro di riconoscimento facciale. Abbiamo utilizzato un approccio simile in altri casi, inclusi i principi di fiducia che abbiamo adottato nel 2015 per i nostri servizi cloud, supportati in parte da centri di trasparenza e altre strutture in tutto il mondo per consentire l'ispezione del nostro codice sorgente e di altri dati. Allo stesso modo, all'inizio di quest'anno abbiamo pubblicato un insieme di principi etici che stiamo usando nello sviluppo di tutte le nostre capacità di intelligenza artificiale.
Mentre andiamo avanti, ci impegniamo a stabilire un insieme trasparente di principi per la tecnologia di riconoscimento facciale che condivideremo con il pubblico. In parte ciò si baserà sul nostro più ampio impegno a progettare i nostri prodotti e ad operare i nostri servizi in linea con i principi guida delle Nazioni Unite in materia di affari e diritti umani. Questi sono stati adottati nel 2011 e sono emersi come lo standard globale per garantire il rispetto delle imprese per i diritti umani. Periodicamente conduciamo valutazioni di impatto sui diritti umani (HRIA) dei nostri prodotti e servizi, e stiamo attualmente perseguendo questo lavoro per quanto riguarda le nostre tecnologie AI.
Perseguiremo questo lavoro in parte sulla base delle competenze e degli input dei nostri dipendenti, ma riconosciamo anche l'importanza dell'ascolto e dell'impegno esterni attivi. Pertanto, inoltre, ci siederebbe e ascolteremo una varietà di parti interessate esterne, tra cui clienti, accademici e gruppi per i diritti umani e la privacy che si stanno concentrando sulle questioni specifiche relative al riconoscimento facciale. Questo lavoro richiederà alcuni mesi, ma ci impegniamo a completarlo rapidamente.
Riconosciamo che uno dei problemi difficili che dovremo risolvere è la distinzione tra lo sviluppo dei nostri servizi di riconoscimento facciale e l'uso della nostra più ampia infrastruttura IT da parte di terzi che costruiscono e implementano la propria tecnologia di riconoscimento facciale. L'utilizzo dell'infrastruttura e delle funzionalità off-the-shelf da parte di terzi è più difficile da regolare per un'azienda, rispetto all'uso di un servizio completo o al lavoro dei consulenti di un'azienda stessa, che possono essere gestiti più facilmente. Sebbene siano sfumate, queste distinzioni dovranno essere prese in considerazione.
Terzo , nel frattempo riconosciamo l'importanza di andare più lentamente quando si tratta dello sviluppo dell'intera gamma di tecnologie di riconoscimento facciale. Molte tecnologie informatiche, a differenza di qualcosa come i prodotti farmaceutici, sono distribuite in modo rapido e ampio per accelerare il ritmo dell'innovazione e dell'utilizzo. "Muoviti velocemente e rompi le cose" è diventato qualcosa di un mantra nella Silicon Valley all'inizio di questo decennio. Ma se ci muoviamo troppo in fretta con il riconoscimento facciale, potremmo scoprire che i diritti fondamentali delle persone vengono violati.
Per questo motivo, basato in parte su input del Comitato Aether, ci stiamo muovendo in modo più deliberato con la nostra consulenza per il riconoscimento facciale e il lavoro di contrazione. Questo ci ha portato a rifiutare alcune richieste dei clienti per le implementazioni di questo servizio in cui abbiamo concluso che ci sono maggiori rischi per i diritti umani. Poiché stiamo sviluppando più principi permanenti, continueremo a monitorare i potenziali usi delle nostre tecnologie di riconoscimento facciale al fine di valutare ed evitare abusi dei diritti umani.
Allo stesso modo, ci impegniamo a condividere più informazioni con i clienti che stanno contemplando la potenziale implementazione della tecnologia di riconoscimento facciale. Continueremo a lavorare per fornire ai clienti e agli altri informazioni che possano aiutarli a comprendere più a fondo sia le attuali capacità e limitazioni della tecnologia di riconoscimento facciale, come queste funzioni possano e debbano essere utilizzate, sia i rischi di usi impropri.
In quarto luogo , ci impegniamo a partecipare in modo pieno e responsabile alle decisioni di politica pubblica relative al riconoscimento facciale. I funzionari governativi, le organizzazioni per le libertà civili e il pubblico più ampio possono solo apprezzare le piene implicazioni delle nuove tendenze tecniche se quelli di noi che creano questa tecnologia fanno un buon lavoro di condivisione di informazioni con loro. Soprattutto dato il nostro sollecito dei governi ad agire, incombe a noi di fare un passo avanti per condividere queste informazioni. Nel farlo, ci impegniamo a servire come voce per l'uso etico del riconoscimento facciale e di altre nuove tecnologie, sia negli Stati Uniti sia in tutto il mondo.
Riconosciamo che potrebbero esserci ulteriori responsabilità che le aziende nel settore tecnologico dovrebbero assumere. Forniamo la lista precedente non con la sensazione che sia necessariamente completa, ma nella speranza che possa fornire un buon inizio nell'aiutare ad andare avanti.
Guardando al futuro
Dai casi che abbiamo presentato possiamo riconoscere che il futuro non è semplice. La tecnologia, le AI e i vari servizi che queste possono offrire sono sempre più una questione filosofica, etica e politica. Dobbiamo costruire spazi per questi dibattiti che sappiano mettere in relazione le diverse competenze e che possano offrire linee guida (etiche e legali) perché le nostre società continuino a incarnare i valori che le diverse Costituzioni nazionali indicano come fondanti e caratterizzanti la loro stessa natura.