top of page
Immagine del redattorePaolo Benanti

AI e algoritmi: decisione storica di FTC

La FTC ha costretto un'azienda di intelligenza artificiale che illecitamente usato i dati degli utenti per addestrare i suoi algoritmi a cancellarli. Gli algoritmi di Google e Facebook potrebbero essere i prossimi?

 

Nel 2019, un'inchiesta di NBC News ha rivelato che l'app per l'archiviazione di foto Ever aveva silenziosamente sottratto miliardi di foto dei suoi utenti per addestrare algoritmi di riconoscimento facciale. Le foto degli amici e delle famiglie delle persone, che pensavano fossero private, venivano infatti utilizzate per addestrare algoritmi che Ever ha successivamente venduto alle forze dell'ordine e all'esercito americano.



Due anni dopo, la Federal Trade Commission - FTC - ha fatto della società madre Everalbum, che da allora è stata rinominata Paravision, un esempio per ogni azienda del settore. In una ordinanza pubblicata l'11 gennaio, Paravision sarà tenuta a cancellare tutte le foto che aveva preso segretamente dagli utenti, così come tutti gli algoritmi che ha costruito utilizzando quei dati.


Fare in modo che un'azienda cancelli dati illeciti non è una novità, ma costringerli a eliminare un algoritmo lo è.


Questa decisione della FTC, insieme alla dichiarazione del commissario Rohit Chopra, traccia una linea netta avvertendo le aziende che la sanzione per l'abuso dei dati dei consumatori per addestrare algoritmi di intelligenza artificiale non sarà solo un buffetto sul polso.


"L'ordine proposto dalla FTC richiede che Everalbum rinunci ai frutti del suo inganno", ha scritto Chopra, sottolineando che i casi di protezione dei dati precedenti avevano consentito alle aziende di mantenere la tecnologia basata su dati illeciti. "Questa è una correzione di rotta importante."



I dati sono una parte fondamentale per la costruzione di algoritmi AI funzionali. Nel 2012, una innovazione radicale nel settore ha portato alla scoperta che una specifica tecnologia di intelligenza artificiale chiamata deep learning, accoppiata in modo cruciale con un enorme set di dati, era migliaia di volte più accurata e più potente di qualsiasi altra tecnologia precedente.


Questa idea ha portato l'industria tecnologica ad adottare mantra come "i dati sono il nuovo petrolio " e ha dato il via alla compilazione di giganteschi set di dati per addestrare più modelli di IA. Set di dati ampi e specializzati, come miliardi di immagini di volti, potrebbero essere il fattore di differenziazione tra un algoritmo che fallisce nel riconoscimento facciale e uno di successo. Ma una volta che l'algoritmo è stato addestrato sui dati, il valore di quei dati è stato estratto mentre l'algoritmo ne conserva le abilità cognitive .


Gli algoritmi costruiti su questi dati illeciti erano di fondamentale importanza per il futuro di Paravision, che aveva appena vinto un contratto con l'Air Force per la tecnologia di riconoscimento facciale, secondo Wired . Ora, il mandato della FTC di cancellazione dell'algoritmo significa che il riconoscimento facciale sviluppato in precedenza non può essere utilizzato in questo contratto, tagliando qualsiasi futuro guadagno derivante dall'elusione della privacy dell'utente. Paravision non ha risposto a una richiesta di commento.

"Immaginiamo di richiedere a un'azienda come Facebook o Google di eliminare" modelli e algoritmi "che si basavano su informazioni raccolte in modo ingannevole".

"Questo è il tipo di rimedio significativo che può rendere l'abuso dei dati delle persone una pratica aziendale rischiosa, invece della scommessa affidabile e redditizia che è stata fatta di fronte a una FTC inerte", afferma Lindsey Barrett, professore di diritto e politica tecnologica presso il Georgetown University Law Center .


Questa decisione potrebbe anche dimostrare di avere importanti ramificazioni per le più grandi aziende del settore tecnologico.


"Immaginiamo di richiedere a un'azienda come Facebook o Google di eliminare 'modelli e algoritmi' che si basavano su informazioni raccolte in modo ingannevole", ha twittato l'ex consigliere tecnologico di Obama Ashkan Soltani . "Ciò potrebbe richiedere l'eliminazione dei principali modelli ML alla base di Facebook Newsfeed o Ricerca Google".



La decisione della FTC arriva in un momento in cui i giganti della tecnologia come Facebook e Google sono sottoposti a un controllo immenso per il loro posizionamento monopolistico, in parte ottenuto da prodotti gratuiti che generano immense quantità di dati. Se tali dati vengono ottenuti in modo ingannevole o meno, ora potrebbe determinare il destino di quei prodotti.


E le grandi aziende tecnologiche non sono immuni da queste accuse. Google è stata multata di 170 milioni di dollari nel 2019 per la raccolta di dati ingannevoli in passato, dopo aver raccolto illegalmente informazioni sui bambini senza il consenso dei genitori. L'azienda è stata costretta a cancellare i dati, ma non gli algoritmi o le intuizioni che i dati sono stati utilizzati per generare.



Quella decisione sarebbe probabilmente diversa oggi, con un nuovo tono e un precedente stabilito dalla dichiarazione di Chopra sulla decisione.


"FTC utilizza spesso casi più piccoli come questo per stabilire norme e politiche che possono successivamente essere applicate nei casi successivi contro le aziende più grandi", ha detto in seguito Soltani raggiunto tramite e-mail. E questo significa che anche le più grandi aziende tecnologiche dovrebbero prenderne atto.

649 visualizzazioni1 commento

Post recenti

Mostra tutti

1 Comment


gpcentofanti
Jan 22, 2021

Fake news o fake spirits?


È necessario che si parli dappertutto del bisogno di un salto di qualità. Uscire dalla tecnica per nulla neutrale ed invece omologante e svuotante e sviluppare le identità e lo scambio. Tornare fin dalla scuola alla libera ricerca dei valori e alla solo allora autentica condivisione.


Lo sfacelo sempre più totale possa aiutare molti ad intuire ciò.


In altre epoche è potuto accadere questo miracolo. Ancora quaranta giorni e Ninive sarà distrutta, predicava Giona. E gli abitanti di quella città percepirono e Ninive fu salva.


Il termine fake news già riduce a mero fatto, a lettura falsamente tecnica, realtà complesse e da comprendere col contributo di tutti. Bisognerebbe parlare di fake spirits, ossia di spiriti…

Like
bottom of page