top of page
Immagine del redattorePaolo Benanti

Machine Behaviour: dare un nome alle paure sull'AI


Il MIT dà finalmente un nome alla somma di tutte le paure sull'AI. Piuttosto che essere semplicemente spaventati dalle "macchine intelligenti", affermano i ricercatori del Media Lab del MIT, la società deve studiare algoritmi con un approccio multidisciplinare simile al campo dell'etologia.

 

Ora sappiamo come chiamare quella vasta e inquietante raccolta di preoccupazioni sull'intelligenza artificiale e sulla miriade di minacce paventate, dalla parzialità della macchina, ai lavori persi, ai robot simili a Terminator: "Machine Behaviour".

Questo è il termine che i ricercatori del Media Lab del Massachusetts Institute of Technology hanno proposto per un nuovo settore di studio interdisciplinare per capire come si evolve l'intelligenza artificiale e cosa significa per l'uomo.

La posta in gioco è alta perché c'è una grande possibilità per le capacità umane di essere amplificate dagli algoritmi, ma compaiono anche un sacco di pericoli.

Commentatori e studiosi, parlando dell'AI, "stanno sollevando l'allarme per le vaste e non intenzionali conseguenze degli agenti di intelligenza artificiale che possono esibire comportamenti e produrre effetti sociali a valle - sia positivi che negativi - che sono imprevisti dai loro creatori". Esiste "la paura della potenziale perdita della supervisione umana sulle macchine intelligenti"; esiste poi il timore che lo sviluppo di "armi autonome" comporti che "le macchine potrebbero determinare chi vive e chi muore in conflitti armati".

Anche se ancora è molto difficile ipotizzare parole definitive su questi scenari, dobbiamo riconoscere che quello fatto dal MIT Lab è uno sforzo bello e ambizioso per dare una direzione allo studio del ruolo dell'AI nella società. Un modello propositivo e che guarda al futuro piuttosto che temerlo.

Pubblicato sulla rivista Nature questa settimana, il paper, Machine Behavior, reclama uno sforzo congiunto dei "campi che progettano e ingegnerizzano i sistemi di intelligenza artificiale" e dei "campi che tradizionalmente usano metodi scientifici per studiare il comportamento degli agenti biologici". Nello specifico, gli autori propongono di studiare non solo come funzionano gli algoritmi di apprendimento automatico, ma anche in che modo questi siano influenzati e influenzino l'ambiente in cui funzionano.

Questa modalità di approccio è "simile a come l'etologia e l'ecologia comportamentale studiano il comportamento animale integrando la fisiologia e la biochimica - proprietà intrinseche - con lo studio dell'ecologia e dell'evoluzione - proprietà modellate dall'ambiente".

Gli autori principali, Iyad Rahwan, Manuel Cebrian e Nick Obradovich del MIT, hanno collaborato con altri 20 ricercatori di numerose istituzioni, tra cui Facebook AI, Microsoft, Stanford, il dipartimento di sociologia della Yale University e l'Istituto Max Planck di Berlino per lo sviluppo umano, solo per citarne alcuni.

Hanno anche preparato un post sul famoso blog Medium sull'argomento. Rahwan gestisce un gruppo all'interno del Media Lab chiamato Scalable Cooperation Group che ha sviluppato numerose strade di ricerca sullo studio delle macchine e su questioni di etica.

Gli autori partono dal fatto che gran parte dell'AI è in grado di funzionare - nonostante il fatto che gli umani non capiscano perché funzioni.

Gli algoritmi lavorano "dati in input e producono un output", come gli autori sottolineano, "ma i processi funzionali esatti che generano questi output sono difficili da interpretare anche per gli stessi scienziati che generano gli algoritmi".

"A causa della loro ubiquità e complessità, la previsione degli effetti di algoritmi intelligenti sull'umanità - sia positivi che negativi - pone una sfida sostanziale", sottolineano gli autori.

Gli autori prendono spunto dal premio Nobel Nikolaas Tinbergen, co-fondatore dell'etologia. Tinbergen ha descritto l'etologia come "studio biologico del comportamento" e ha proposto quattro elementi che costituiscono un tale studio: meccanismi, sviluppo, funzione ed evoluzione. Questi quattro concetti possono essere un modo per esplorare il comportamento della macchina.

In questo contesto il termine meccanismi riguarda le aree già più studiate nell'AI, come i modelli di rete neurale, e i dati che le alimentano. La nozione di sviluppo riguarda cose come reti neurali che apprendono nuove strategie a causa del modo in cui interagiscono con l'ambiente. "Ad esempio, un agente di apprendimento di rinforzo addestrato a massimizzare il profitto a lungo termine può apprendere strategie di trading a breve termine particolari basate sulle proprie azioni passate e sul feedback concomitante del mercato".

Gli autori descrivono la funzione come una sorta di miscela tra lo scopo che un algoritmo eredita dalla programmazione ad opera dei suoi creatori umani (il fine della programmazione), e il ruolo non intenzionale che un algoritmo può assumere, come gli algoritmi dei social media che portano a "filter bubble" e notizie false. Gli autori stanno esplorando il problema della "funzione obiettivo" nell'apprendimento automatico, ovvero, che cosa si suppone stiano realizzando esattamente questi algoritmi.

Il quarto aspetto, l'evoluzione, non è così semplice come si potrebbe immaginare dal nome: ci sono diversi aspetti, tra cui la propensione a supporre da parte dei creatori di reti neurali di promuovere determinati tipi di algoritmi rispetto ad altri, ma anche la prospettiva di "mutazioni", che si propagano in modi inaspettati. "È possibile che una singola mutazione adattiva nel comportamento di una particolare auto senza conducente si propaghi istantaneamente a milioni di altre auto attraverso un aggiornamento software", ipotizzano.

Queste quattro aree portano ad alcune interessanti domande sull'AI.

Ad esempio, con oggetti come i veicoli autonomi, ci si deve porre domande come "Quanto aggressivamente la macchina deve superare gli altri veicoli?" E "in che modo l'auto distribuisce il rischio tra passeggeri e pedoni?" Altre domande interessanti sono cose come se i robot conversazionali finiscano per essere un mezzo per legare i bambini ai prodotti, o se gli algoritmi di corrispondenza per i siti di incontri "alterano i risultati distributivi del processo che guida gli appuntamenti".

"Le macchine danno forma al comportamento umano", è una delle osservazioni inquietanti. "È importante indagare se piccoli errori negli algoritmi o nei dati che usano potrebbero combinarsi per produrre effetti a livello di società e in che modo i robot intelligenti nelle nostre scuole, ospedali e centri di cura potrebbero alterare lo sviluppo umano e la qualità della vita e potenzialmente influenzare i risultati per persone con disabilità".

L'importanza filosofica degli algoritmi

Una volta apprezzata la crescente ubiquità degli algoritmi, e una volta compresa l'urgenza del tema, la necessità di pensare in modo critico sugli algoritmi diventa evidente. Non bastano, però, approcci funzionali o biologici. Serve un radicale approccio filosofico.

Come ricorda Accoto: "Il codice software è oggi sempre più incorporato – installato potremmo dire per rimanere in tema – dentro le nostre vite, in forme e dinamiche tanto ovvie quanto, in realtà, invisibili. Il software incarna oggi, al massimo grado, l’idea che le tecnologie che più incidono sull’esistenza umana sono quelle che, divenute familiari, scompaiono alla vista in quanto tali, divenendo indistinguibili dalla vita stessa. Chi oggi penserebbe, per esempio, al libro come a una tecnologia?"

Se gli algoritmi sono la linfa vitale delle moderne infrastrutture tecnologiche, se quelle infrastrutture modellano e influenzano sempre più aspetti delle nostre vite, e se il discernimento e il giudizio degli algoritmi-progettisti è la chiave per come lo fanno, allora è importante che ci assicuriamo di comprendere come funzionano quel discernimento e quel giudizio.

Sono anche io convinto – come giustamente propone Luciano Floridi – che la filosofia debba tornare a occuparsi dei temi centrali del nostro presente e del nostro futuro prossimo e non solo chiosare gli scritti e le riflessioni dei filosofi del passato. Questo approccio filosofico deve però essere in grado, forte del patrimonio concettuale maturato nel tempo, di sporcarsi nuovamente le mani andando a comprendere, a sondare, a dissezionare e a decostruire i domini tecnologici che sono venuti emergendo in questi anni.

Più in generale, se gli algoritmi si collocano nel cuore della vita contemporanea, dovrebbero interessare i filosofi. Possiamo in prima approssimazione pensare la ricerca filosofica come divisa in tre rami principali di indagine:

(1) epistemologia (come sappiamo?);

(2) ontologia (cosa esiste?);

(3) etica (che cosa dovremmo fare?).

La crescita della governance algoritmica sembrerebbe avere importanti ripercussioni su tutti e tre i rami dell'indagine filosofica. Proverò a tratteggiare brevemente alcune di queste ripercussioni, anche se ciò che sto per dire non è esaustivo (Luciano Floridi discute idee simili nel suo concetto di filosofia dell'informazione ).

Guardando all'epistemologia, sembra abbastanza evidente che gli algoritmi hanno un impatto importante su come acquisiamo conoscenza e su ciò che può essere conosciuto. Assistiamo a questo nella nostra vita quotidiana. Internet e la crescente crescita dell'acquisizione dei dati hanno portato alla compilazione di vasti database di informazioni. Questo ci consente di raccogliere sempre più potenziali fonti di conoscenza. Ma è impossibile per gli umani elaborare e ordinare quei database senza l'assistenza algoritmica. L'algoritmo per il Pagerank di Google e l'algoritmo di Edgerank di Facebook determinano in modo efficace una buona parte delle informazioni con le quali ci relazioniamo giorno per giorno. Oltre a questo, gli algoritmi sono ora pervasivi nella ricerca scientifica e possono essere utilizzati per generare nuove forme di conoscenza. Un buon esempio di questo è l'algoritmo di prognosi del cancro C-Path. Questo è un algoritmo di apprendimento automatico che è stato utilizzato per scoprire nuovi modi per valutare meglio la progressione di alcune forme di cancro. IBM spera che il loro sistema di intelligenza artificiale Watson fornirà un'assistenza simile ai medici. E se crediamo a Ginni Rometty, CEO di IBM, l'uso di tali sistemi diventerà effettivamente la norma.

Gli algoritmi daranno forma a ciò che può essere conosciuto e genereranno modalità di conoscenza finora sconosciute. La rivoluzione che hanno portato i computer e l’informatica nel campo scientifico-tecnologico è stata abilmente descritta da Naief Yehya: "con un computer possiamo trasformare quasi tutti i problemi umani in statistiche, grafici, equazioni. La cosa davvero inquietante, però, è che così facendo creiamo l’illusione che questi problemi siano risolvibili con i computer".

Chris Anderson, il direttore di Wired, traccia una sintesi di cosa significhi la rivoluzione digitale per il mondo scientifico:

"gli scienziati hanno sempre contato su ipotesi ed esperimenti. [...] Di fronte alla disponibilità di enormi quantità di dati questo approccio - ipotesi, modello teorico e test - diventa obsoleto. [...] C’è ora una via migliore. I petabytes ci consentono di dire: “la correlazione è sufficiente”. Possiamo smettere di cercare modelli teorici. Possiamo analizzare i dati senza alcuna ipotesi su cosa questi possano mostrare. Possiamo inviare i numeri nel più grande insieme di computer [cluster] che il mondo abbia mai visto e lasciare che algoritmi statistici trovino modelli [statistici] dove la scienza non può. [...] Imparare a usare un computer di questa scala può essere sfidante. Ma l’opportunità è grande: la nuova disponibilità di un’enorme quantità di dati, unita con gli strumenti statistici per elaborarli, offre una modalità completamente nuova per capire il mondo. La correlazione soppianta la causalità e le scienze possono avanzare addirittura senza modelli teorici coerenti, teorie unificate o una qualche tipo di spiegazione meccanicistica".

L’avvento della ricerca digitale, dove tutto viene trasformato in dati numerici porta alla capacità di studiare il mondo secondo nuovi paradigmi gnoseologici: quello che conta è solo la correlazione tra due quantità di dati e non più una teoria coerente che spieghi tale correlazione.

Passiamo all'ontologia. Potrebbe essere un po' più complicato vedere come gli algoritmi possono realmente cambiare la nostra comprensione di cosa esiste nel mondo, ma ci sono alcune questioni interessanti. Non credo che gli algoritmi abbiano un effetto sulle questioni fondamentali dell'ontologia (come ad esempio la questione se la realtà è puramente fisica o puramente mentale), sebbene possano cambiare il modo in cui pensiamo a tali domande. Ma penso che gli algoritmi possano avere un effetto piuttosto profondo sulla realtà sociale. In particolare, ritengo che gli algoritmi possano rimodellare le strutture sociali e creare nuove forme di oggetto sociale. Due esempi possono essere utilizzati per illustrare questo cambiamento. Il primo esempio è tratto dal lavoro di Rob Kitchin sulla città programmabile. Kitchin sostiene che la crescita nelle cosiddette città smart dà origine a un ciclo di traduzione-trasduzione. Da un lato, vari aspetti della vita cittadina sono tradotti in software in modo che i dati possano essere raccolti e analizzati. D'altra parte, questa nuova informazione trasduce la realtà sociale. Vale a dire, rimodella e riorganizza il paesaggio sociale. Ad esempio, il software di modellazione del traffico potrebbe raccogliere e organizzare i dati dal mondo reale e quindi i pianificatori potrebbero utilizzare tali dati per rimodellare i flussi di traffico intorno a una città.

Il secondo esempio di impatto ontologico si trova nel campo un po’ esoterico dell'ontologia sociale. Come sottolinea Searle nel suo lavoro su questo argomento, molti aspetti della vita sociale hanno un'ontologia soggettivista. Oggetti e istituzioni sono modellati nell'esistenza dall'immaginario collettivo. Così, ad esempio, lo stato di essere sposato è un prodotto di un'ontologia soggettivista. Crediamo collettivamente e attribuiamo questo status a individui particolari. Il classico esempio di ontologia soggettivista in azione è il denaro. Le moderne valute legali non hanno valore intrinseco: hanno valore solo in virtù del sistema collettivo di credenza e fiducia. Ma quei sistemi collettivi di credenza e fiducia spesso funzionano meglio quando la realtà fisica sottostante dei nostri sistemi valutari è difficile da corrompere. Come ho spiegato in altri post, i sistemi algoritmici usati dalle criptovalute come Bitcoin potrebbero fornire la base ideale per un sistema di credenze collettive e nuova fiducia. Pertanto, i sistemi algoritmici possono essere utilizzati per aggiungere o modificare la nostra ontologia sociale.

Floridi fa notare come i computer e gli algoritmi siano dispositivi che comportano trasformazioni radicali, dal momento che costruiscono ambienti in cui l’utente è in grado di entrare tramite porte di accesso (possibilmente amichevoli), sperimentando una sorta di iniziazione. Secondo Floridi non vi è un termine per indicare questa nuova forma radicale di costruzione, cosicché possiamo usare il neologismo riontologizzare per fare riferimento al fatto che tale forma non si limita solamente a configurare, costruire o strutturare un sistema (come una società, un’auto o un artefatto) in modo nuovo, ma fondamentalmente comporta la trasformazione della sua natura intrinseca, vale a dire della sua ontologia. In tal senso, computer e algoritmi non stanno soltanto ricostruendo il nostro mondo: lo stanno riontologizzando.

Infine, se guardiamo all'etica, vediamo gli impatti filosofici più evidenti degli algoritmi. Ho presentato al riguardo diversi esempi in molte occasioni e in molti post. I sistemi algoritmici a volte vengono presentati alle persone come apolitici, tecnocratici e privi di valore. Sono tutto tranne questo. Poiché sono costruiti tramite operazioni di giudizio e sono frutto di discernimento sono atti fondamentalmente etici. L'etica è nel cuore della realizzazione di algoritmi e principi etici trasparenti e comunicabili devono essere inclusi nel tradurre compiti in algoritmi, specie quelli che modificano o interagiscono con la vita di milioni di persone. Ci sono sia aspetti positivi che negativi in questo. Se ben progettati, gli algoritmi possono essere utilizzati per risolvere importanti problemi morali in modo equo ed efficiente. Senza approfondire l'esempio sembra che gli algoritmi di corrispondenza utilizzati per facilitare i trapianti di reni potrebbero essere un buon esempio di tutto questo. Ho già scritto, in post precedenti, di come algoritmi mal disegnati hanno amplificato pregiudizi impliciti nel processo decisionale sociale - il caso di Propublica. Bisogna essere consapevoli che i pregiudizi impliciti possono alimentare la progettazione di sistemi algoritmici, e che una volta che tali sistemi sono attivi e in esecuzione, possono avere esiti imprevisti e imprevisti.

Da queste brevi cosiderazioni emerge una consapevolezza: è arrivato il tempo di pensare filosoficamente il software.

705 visualizzazioni0 commenti

Post recenti

Mostra tutti
bottom of page