Un esperimento del MIT e dell’università di Cardiff ha dimostrato che non solo le intelligenze artificiali possono acquisire i “bias” dei programmatori ma anche svilupparne in autonomia. Questo tratto "molto umano" delle AI inizia ad essere affrontato molto seriamente dalle aziende specializzate nel settore, in particolare da IBM.
Partiamo da una ricerca di un gruppo di ricercatori del Mit di Boston e dell'università di Cardiff ha scoperto che questi pregiudizi, i cosiddetti "bias", non solo possono essere passati da chi programma quelle intelligenze ai medesimi sistemi ma possono anche essere sviluppati in maniera del tutto autonoma. Con i bot che imparano l'uno dall'altro.
Uno sguardo di fondo: cosa si intende con "bias"
Il "bias", tradotto con pregiudizio anche se il senso è leggermente diverso, è il termine inglese che indica un atteggiamento umano che implica pregiudizio generalmente negativo e non comprovato degli altri. Quando si interviene, ciò si traduce in comportamenti di ampio respiro come sessismo, età e discriminazione contro le preferenze sessuali fino all'estremismo etnico, razziale, nazionalistico e religioso, con pregiudizi e conflitti intergruppi caratterizzati come "problema" del secolo". Più recentemente, i pregiudizi sono stati evidenziati in relazione a eventi politici globali: ad esempio, il pregiudizio anti-immigrazione era un forte correlato del sostegno alla Brexit.
La disposizione umana di categorizzare gli altri attraverso la loro identità di gruppo crea un'opportunità di discriminazione. Come conseguenza della formazione in gruppo, che avviene attraverso l'identificazione culturale o biologica con gli altri, o come conseguenza di estranei che non hanno identità e che cooperano reciprocamente, il pregiudizio può prendere piede in due modi. Attraverso il favoritismo in gruppo, le persone preferiscono aiutare i membri del gruppo, mentre i pregiudizi esterni rappresenta l'ostilità verso chi è al di fuori del gruppo.
La ricerca svolta
Proviamo a fornire un breve riassunto del paper pubblicato.
Gli atteggiamenti pregiudizievoli sono ampiamente visti tra i gruppi umani, con conseguenze significative. Le azioni intraprese alla luce dei pregiudizi si traducono in discriminazioni e possono contribuire alla divisione sociale e ai comportamenti ostili. Definiamo una nuova classe di gruppo, il gruppo pregiudizievole, con un'appartenenza basata su un atteggiamento pregiudiziale comune nei confronti dell'out-group.
Si presume che il pregiudizio agisca come un tag fenotipico, consentendo ai gruppi di formarsi e identificarsi su questa base. Usando la simulazione computazionale, studiamo l'evoluzione dei gruppi pregiudizievoli, in cui i membri interagiscono attraverso la reciprocità indiretta. Osserviamo come cooperazione e pregiudizio coevolvono, con la cooperazione che viene diretta in gruppo. Consideriamo anche la co-evoluzione di queste variabili quando l'interazione fuori dal gruppo e l'apprendimento globale sono immutabili, emulando il possibile pluralismo di una società.
La diversità attraverso tre fattori risulta essere influente, ovvero l'interazione fuori dal gruppo, l'apprendimento fuori dal gruppo e il numero di sottopopolazioni. Inoltre, le popolazioni con una maggiore interazione all'interno del gruppo promuovono sia la cooperazione che i pregiudizi, mentre l'apprendimento globale piuttosto che locale promuove la cooperazione e riduce i pregiudizi.
E le AI?
I risultati dimostrano anche che il pregiudizio non dipende dalla sofisticata cognizione umana e si manifesta facilmente in agenti semplici con intelligenza limitata, con potenziali implicazioni per sistemi autonomi futuri e interazione uomo-macchina.
Secondo il team di scienziati "gruppi di macchine autonome possono manifestare pregiudizi semplicemente identificando, copiando e imparando questo atteggiamento da un'altra macchina". Come se per combinare il danno bastasse un solo gruppo di intelligenze artificiali per così dire "distorte". Per provare la loro ipotesi i ricercatori hanno messo in piedi un gioco in cui ogni bot doveva scegliere di donare qualcosa a un altro elemento del proprio gruppo o a un altro gruppo, basandosi sulla reputazione di ogni robot e su diverse strategie del dono. Il test ha scoperto come i robot fossero diventati progressivamente pregiudizievoli contro i bot del gruppo esterno.
In particolare, dopo migliaia di simulazioni i robot hanno imparato nuove strategie copiandosi a vicenda sia all'interno del proprio gruppo di riferimento che attingendo alle mosse messe in campo dalla popolazione generale coinvolta nell'esperimento. L'obiettivo: i bot hanno acquisito strategie che dessero loro un buon risultato e una buona ricompensa in chiave immediata, indicando così che per sviluppare pregiudizi e altri preconcetti non serve necessariamente un'elevata capacità cognitiva.
Questa ricerca evidenzia la possibilità che emergano pregiudizi in popolazioni di macchine autonome che hanno semplici capacità cognitive, come essere guidate da interazioni locali e dalla valutazione di altri. Ciò ribadisce che l'intelligenza collettiva distribuita di macchine è anche uno sforzo sociale ed è potenzialmente suscettibile di fenomeni pregiudizievoli come si vede nella popolazione umana. Allora se nessun sistema di AI può essere immune da "bias" è necessario implementare dei sistemi che possano prevenire o gestire questa eventualità.
La proposta di IBM
IBM propone una Dichiarazione di Conformità che esplichi quanto realizzato per garantire all'IA l'impermeabilità ai bias cognitivi umani. La ricetta proposta da IBM non è strettamente tecnologica, ma per certi versi burocratica: l’uomo esplichi le modalità con cui ha portato avanti lo sviluppo del proprio servizio di Intelligenza Artificiale così che ognuno possa giudicare se adottarlo o meno. L’idea è dunque complementare alle mille proposte già avanzate per raggiungere medesimo obiettivo: ognuno esplichi la propria policy, così che (in assenza di ricette generalmente riconosciute) possa essere l’utente/cliente a giudicare.
La proposta proveniente da IBM è quella di una Dichiarazione di Conformità (pdf) rilasciata in modo autonomo e volontario da parte del provider del servizio. Tale documentazione deve poter esplicare le modalità con cui si è agito per rendere il proprio sistema impermeabile ai bias cognitivi – ed altre ingerenze – che potrebbero influenzare il risultato dell’elaborazione.Il rischio è infatti quello di arrivare ad un punto nel quale l’uomo tenderà a fidarsi dell’Intelligenza Artificiale in virtù della sua “logica” distaccata e la sua migliore capacità di elaborazione, ma così facendo l’IA andrebbe a rafforzare eventuali bias permeati tramite dati o algoritmi mal formulati.
Un sistema che si avvita su sé stesso, insomma, con l’uomo a fare da zavorra allo sviluppo dell’IA ed alla bontà delle sue “decisioni”.La SDoC (Supplier’s Declaration of Conformity) introdurrebbe una sorta di selezione naturale: gli algoritmi che esplicitano i modi con cui hanno agito attraverso una specifica dichiarazione, infatti, operano un’azione di trasparenza che li valorizza.
Sapere che su un servizio di Intelligenza Artificiale si è agito per calmierare le possibilità di inquinamento del risultato, del resto dovrebbe essere cosa ampiamente apprezzata da parte di chi andrà ad investirvi ingenti capitali per il bene delle proprie attività.
L’assenza della Dichiarazione di Conformità potrebbe dunque diventare un minus per i servizi che non intenderanno apporre la giusta attenzione a questi aspetti: la giusta proattività ed una formale autocertificazione potrebbero invece segnare un prima e un dopo nella politica di sviluppo dell’AI sul mercato.
IBM intende costruire l’affidabilità della propria Intelligenza Artificiale sulla base di 4 principi:
Equità
Robustezza
Esplicabilità
Tracciabilità
Un servizio di AI, per potersi guadagnare la fiducia di un utente o di un committente, deve pertanto dimostrarsi equo nelle valutazioni, sicuro rispetto a minacce esterne, trasparente nelle procedure e tracciabile nei metodi adottati.
Una Dichiarazione di Conformità ha il dovere di esplicare ognuno di questi passaggi, nei dettagli, affinché possa essere certo il modo in cui l’AI è stata posta in essere dalla mano dell’uomo.
Se si è fatto tutto quanto possibile per garantire la bontà del sistema, non si avranno problemi a dichiarare quanto posto in essere poiché ciò rappresenterebbe soltanto un valore aggiunto all’offerta. La SDoC, quindi, diventerebbe un bollino di qualità ed un certificato di trasparenza al quale qualsiasi utente potrebbe fare appello per capire come stia “ragionando” (e perché) il sistema a cui ci si affida.
Uno sguardo d'insieme
Se da un lato l'approfondimento scientifico ci mette di fronte al fatto che una scelta perfetta non esiste, neanche se fatta da una macchina programmata per questo, dall'altro una mera dichiarazione di conformità che si fondi su principi formali ed esterni, seppure sia un primo passo, non può bastare per gestire il potere trasfromativo, e di conseguenza le possibili ingiustizie, che questi sistemi possono avere.
La questione è preminentemente etica e il framework che deve caratterizzare questo sviluppo deve essere etico.
Serve un'etica delle intelligenze artificiali.