Prendendo spunto del libro di Ellen Ullman, Life in Code: A Personal History of Technology proviamo a fare un'incursione filosofica nel mondo delle AI. Dei vari approcci che offre la filosofia, proviamo a prendere in prestito alcune categorie fenomenologiche e chiediamoci: sono pensabili tutti i tipi di AI? E sopratutto possiamo realizzare qualsiasi tipo di AI pensabile?
Partiamo da Life in Code... Iniziamo dalle suggestioni di Life in Code. Scelto come uno dei migliori libri del 2017 dei recensori del New York Times, di GQ, di Slate, del San Francisco Chronicle, di Bookforum e di Kirkus, il testo della Ullman, che segue il bestseller Close to the Machine, prende sul serio le trasformazioni che la Digital Age ha prodotto.
Seguendo la narrazione dell'autrice dobbiamo riconoscere che gli ultimi venti anni ci hanno portato, in tempi brevissimi, alla nascita di Internet, allo sviluppo dell'intelligenza artificiale, all'ubiquità di computer un tempo inimmaginabilmente potenti e alla profonda trasformazione della nostra economia e della nostra società. Ellen Ullman ha vissuto queste trasformazioni lavorando all'interno di quella nascente cultura della tecnologia: Life in Code racconta la continua storia dei cambiamenti che la tecnologia ha operato con una prospettiva unica e profonda.
Dopo venti anni nel campo, la storia che Ullman racconta non è né un trionfo sfrenato né una nostalgica negazione del progresso. È necessariamente la storia della perdita dell'innocenza della tecnologia digitale dopo essere entrata nel mainstream culturale, ed è una valutazione personale di tutto ciò che è cambiato, e di tutto quello, che tanto nelle riflessioni dell'autrice, che non lo ha fatto.
Da un punto di vista letterario Life in Code è un testo essenziale per la nostra comprensione degli ultimi vent'anni e, forse, anche dei prossimi venti.
Prendiamo spunto dalla terza parte del suo libro intitolata "Life, Artificial". In questa sezione Ullman racconta dell'intelligenza artificiale, della robotica e del desiderio di creare una vita artificiale.
In particolare sui nostri tentativi di costruire una vita artificiale, scrive:
Ciò che queste concezioni della sensibilità umana hanno in comune, e il motivo per cui non riescono a descriverci, è un certo disprezzo per il corpo: l'assoluta mancanza di un corpo nella prima intelligenza artificiale e in formulazioni successive come quella di Kurzweil (la corteccia solitaria, scansionata e scaricata, un cervello in un vaso); e il disprezzo per questo corpo, questa carne di mammifero, nella robotica e in ALife [vita artificiale] (questa e le altre traduzioni del testo sono mie).
Mi sembra molto interessante che Ullman, facendosi interprete di un filone importante nella teoria femminista, colleghi la scarsa capacità di emulazione dell'intelligenza generale umana con la sua negazione del corpo. Secondo l'autrice il nostro pensiero deve essere collegato ai corpi, al processo fisico umano, al sangue e alla carne. Secondo la Ullman, che qui ripete le tesi femministe, la tradizione occidentale è stata dominata dagli uomini e questo ha portato a una totale astrazione, di cui Platone sarebbe il prototipo. Ma nell'esperienza dell'autrice l'astrazione è anche uno dei temi più importanti nella programmazione che cita un noto modo di dire delle IT: "non c'è alcun problema nel calcolo che non possa essere risolto aggiungendo uno strato di astrazione". Volendo poi offrire anche chiavi di metalettura potremmo ironizzare sul fatto che nell'affrontare il tema della robotica Ullman citi Cynthia Breazeal.
Indaghiamo la questione Se partiamo dalle prospettive di Life in a code, dobbiamo riconoscere la presenza di un certo horror carnis - un terrore della carne - che è infuso nei nostri pensieri sulla robotica. Scrive sempre la Ullman: "Questo sospetto sulla carne, questa ricerca di un'intelligenza disincarnata, persiste oggi". Dobbiamo riconoscere che l'autrice fa trasparire nel suo scritto un continuo disagio per le conversazioni umane che, negli ultimi vent'anni, si sono trasformate in messaggi vocali, in posta elettronica. Dobbiamo riconoscere che anche questo fattore alimenta certamente la critica all'astrazione. Secondo la Ullman così tanto di ciò che significa essere umani esiste e si percepisce solo se rimane "infuso" nella realtà della carne, cioè nel nostro corpo.
Arricchendo le riflessioni della Ullman con la fantascienza che anima il nostro inconscio grazie al mito collettivo che plasma la cultura pop, potremmo chiederci cosa pensiamo che avremmo trovato all'interno di uno dei robot che popolano i Libri della Fondazione di Isac Asimov. Carne? Parti metalliche? I robot di Asimov nei suoi racconti sono indistinguibili dagli umani. Philip K. Dick ha un problema simile in Do Androids Dream of Electric Sheep?, anche se le sue storie sono molto più in sintonia con le ironie e le contraddizioni della robotica. I robot di Dick sono chiaramente senzienti e possono fare sesso con gli umani (illegalmente ma si sa come vanno queste cose ...), ma hanno anche chiaramente "parti" all'interno, una sorta di sistema nervoso elettromeccanico. Se li separi, "saltano" (o qualcosa del genere poiché Dick usa il termine "sproing"). Non sai davvero se sono robot finché non sono morti. Ma una volta che sono morti, c'è chiaramente qualcosa in loro che lo rende ovvio.
Un ritratto di Philip K. Dick in uno scenario ispirato al suo Blade Runner
Prima di leggere il testo di Ullman più volte mi sono chiesto come pensare filosoficamente gli algoritmi e la AI.
Continuo a pensare che questa nuova pagina della nostra storia guidata dalla diffusione di questa tecnologia di natura general purpose che è l'AI debba in prima istanza essere pensata e non solo implementata. Anzi che per poter capire cosa possiamo implementare e cosa possiamo eticamente fare di tutto quello che possiamo tecnicamente fare, dobbiamo prima pensare l'AI in termini filosofici. Ora grazie alla Ullman mi sembra possiamo continuare a riflettere in questa scia. In particolare mi sembra che un punto interessante arriva un paio di capitoli dopo questa incursione nel mondo della carne: AI e desiderio. Il desiderio, ovviamente, è un tema importante nel pensiero critico. Ma senza spingerci troppo lontano continuiamo a farci guidare dalle suggestioni di Life in Code: cosa potrebbe volere un'intelligenza artificiale? Anche questa questione è collegata al problema della corporeità: cosa potrebbe "provare" un'intelligenza artificiale?
Ecco qui è necessario un pensiero filosofico perché i ragionamenti si intersecano con la fantasia con i miti Sci-Fi della cultura pop e dove le cose diventano difficili da schematizzare in modo chiaro e distinto. Sappiamo, e ne abbiamo parlato in numerosi post, che siamo in grado di creare macchine che giocano a Go meglio degli umani. Sono anche disposto a ipotizzare, non così tanto in realtà..., che un computer sarà un giorno in grado di fare qualsiasi task meglio di me. Esistono già programmi in grado di scrivere articoli basati su un feed di dati, ci sono programmi in grado di suonare pianoforti, aggiungete un corpo robotico fatto di sofisticati ed energeticamente perfetti attuatori meccanici e abbiamo robot che possono andare a ritirare la posta all'ufficio postale, aggiungere alcune telecamere e otteniamo programmi che possono riconoscere gli uccelli, i fiori e altri oggetti.
Molte voci criticano l'hype che oggi circonda il mondo delle AI - non confondete mai la critica che gira sull'hype con una critica sull'AI stessa...- perché tutti questi successi che la macchina mostra sono in compiti separati e specifici. Da questo punto di vista mi sento di unirmi al coro. Il software che gioca a Go non può ritirare la posta e così via. Questo significa, se vogliamo restare realistici, che abbiamo realizzato enormi progressi in forme specifiche di bot o robot che mostrano comportamenti che visti in un umano definiremo intelligenti ma questo non assomiglia neanche lontanamente a quella che potremmo definire una "intelligenza generale". Cioè una macchina per dirsi intelligente in senso analogo a quello che utilizziamo per un membro della nostra specie dovrà possedere "una certa qual proprietà" che la renderà tale e non dovrà solo mostrare dei tratti di auto-adattamento che le permettono di svolgere compiti molto specifici in modo autonomo adattandosi al variare del contesto operativo.
Tuttavia per continuare questa riflessione, proviamo a esercitare ancora la nostra immaginazione - anche questa una capacità unicamente umana - e vediamo dove possiamo pensare di andare. Posso immaginare di realizzare un software che faccia tutto ciò che abbiamo elencato sopra, e molto altro ancora? Sì, da un punto di vista teorico penso di si. Non penso che lo realizzeremo a breve, ma fondamentalmente è un problema di integrazione tra diversi sistemi. Una volta risolti i singoli pezzi, dovrebbe essere possibile assemblarli in un insieme organico e funzionante.
Ecco dove però il percorso immaginativo diventa difficile. Posso immaginare che quel software un giorno mi dica che vuole giocare a Go? Posso immaginare di camminare e sentire un computer dire "Ehi, Paolo, ti va una partita?" Beh, certo da un punto di vista tecnico potrei prendere AlphaGo e connetterlo ad un Amazon Echo e fargli chiedere ai passanti se vogliono giocare. Con una telecamera e un buon sistema di visione artificiale, potrebbe persino identificare i potenziali avversari e chiamarli per nome.
Ma questo significherebbe che il computer vuole giocare, come parliamo di noi quando "abbiamo un desiderio"? È lì che la mia immaginazione fantastica si trova in cattive acque. Alla luce delle neuroscienze forse oggi dovrei dire che non so nemmeno fino in fondo cosa significhi questa domanda. Come può un computer decidere se giocare a Go o guardare dei fiori o ascoltare musica? Posso immaginare un senso programmabile dell'estetica; ma non riesco ancora a immaginare il desiderio di fare questo piuttosto che quello. Non riesco a immaginare un programma che dica "Mi piacerebbe suonare il piano meglio, quindi passerò un po' di tempo a esercitarmi".
Evidentemente quando parlo di "immaginare" intendo un pensare un modo tecnico perché accadano queste cose nella macchina. Cioè, uscendo da questa narrativa del sognatore, non so come si possa dare una coscienza a una macchina. La persona è senziente e cosciente in questa sua vita nella carne, la macchina no. E nessuno sa se la differenza differenza sia tecnica (dal punto di vista di chi scrive la riposta qui si pone su un altro livello ed assolutamente diversa: la coscienza non è una questione tecnica).
Torniamo a noi e continuiamo la nostra indagine razionale. Oggi il machine learning non riguarda dispositivi che superano gli umani ex nihilo. Infatti i sistemi di AI diventano bravi in quello che fanno, grazie all'allenamento (sui dati o nella prassi). Questo fa di queste capacità un qualcosa che, filosoficamente, sembra molto simile alla pratica di un apprendista ed è, tecnologicamente, ancora molto laboriosa. Un programma potrebbe certamente rilevare un tasso di errore inaccettabile nel suo operare e rimettersi in modalità di training.
Da un punto di vista di pensiero, ho un problema analogo con la sensibilità. Sì, possiamo dare a un'AI una serie di strumenti meccanici, usando una metafora volutamente ambigua, possiamo dargli un corpo, rendendo il bot un robot. Possiamo costruire sensori renderli operativi in quel corpo. E possiamo far gemere il robot o gridare se è ferito. Ma non riesco ancora a immaginare il robot che sente dolore nel modo in cui un essere umano o un animale sente dolore.
Anche volendo per un attimo accogliere le ipotesi più riduzioniste delle neuroscienze, possiamo dire che il sistema senziente umano non è altro che un grande circuito elettrico. Quindi un dente che fa male non sarebbe altro che un circuito analogo a quello di un hard disk: se l'hard disk è in uso si accende una spia, se mi fa male un dente si accende una spia analoga. Però se a fine giornata un server ha processato molti dati la spia sarà stata accesa ininterrottamente, se a me ha fatto male il dente tutto oggi è stata una pessima giornata. Nessuna visione dell'umano, anche la più riduzionista, può spiegare questa differenza. Questa qualità non è riducibile a nessuna quantità, e quindi non è computabile. Parliamo qui di differenze qualitative che fanno di noi delle persone: esseri viventi senzienti e dotati della capacità di riflettere sul senso e sul significato di questo sentire - la ragione.
Tornando a noi e allo scenario narrativo che abbiamo adottato per parlare di questi temi, dobbiamo riconoscere che la ragione per cui non riusciamo ad immaginare il desiderio di un robot, o il suo dolore, non ha nulla a che fare con le capacità, reali o immaginarie, del nostro hardware o software. Ha tutto a che fare con il nostro capire la qualità della persona umana: non riesco a immaginare di mettere quel desiderio nel silicio - o nel DNA, o in qualsiasi altra parte costituirà i nostri futuri computer. Questo è il punto in cui la mia immaginazione fallisce. Non riesco a immaginare di realizzare una macchina in grado di volere.
Non è solo che non so come. Io non so, materialmente, come scrivere un programma che giochi a Go, ma so che ci sono persone che possono farlo. C'è un punto in cui la mia capacità di immaginare si ferma e basta. La "resa" è legata al fatto, per riprendere le riflessioni su Asimov e Dick di aver visto "l'interno" della macchina. "Vedere", cioè conoscere le determinazioni logiche delle necessità di funzionamento delle AI mi rende impossibile immaginare desiderio, volontà, sensibilità e ogni tipo di interiorità. Il paradosso dell'interiorità è che non esiste se riesci a vedere la necessità. LA nostra interiorità, il nostro essere persone, è il luogo dove finisce la necessità e inizia l'unicità non necessitata da nulla. Il nostro pensiero, l'arte, la bellezza e tutte le altre cose che ci stupiscono trovano il loro fondamento proprio nel loro non essere il frutto di alcuna logica stringente ma opera di "qualcosa" - in realtà di un "qualcuno" - che è altro e non restringibile o rinchiudibile in alcun determinismo.
E questa cosa ci deve importare?
Se si, perché?
Ogni opera umana che diciamo essere un'opera dell'ingegno come una poesia, cioè un'unicità non necessitata ma libera e quindi anche passibile di protezioni legali come il copyright, è importante a causa della consapevolezza umana dietro di essa? Sarebbe la stessa cosa se fosse solo un abile incrocio di parole realizzato meccanicamente da un algoritmo?
La poesia non è intenzionalmente costruita per ottenere un effetto piacevole in chi la legge mediante un algoritmo di machine learning. Se una macchina di DeepMind tirasse fuori delle frasi come queste, ponendo al loro termine un nome a cui dedicarle e pubblicandole, mi interesserebbe? E perché? Ha importanza che ci sia un lettore e che questo componimento sia indirizzato a qualcuno? Un computer potrebbe certamente usare le parole "delizioso" e "stupefacente", ma che vuol dire che non possa mai provare cose come "delizioso" e come "stupefacente"?
Una poesia è una dichiarazione di qualcuno che ha bisogno di essere riconosciuto e che desidera condividere questa interiorità con un altro capace di provare cose analoghe nella sua interiorità; è un'opera fondata sui desideri.
Potrebbe un'intelligenza artificiale desiderare scrivere una poesia o riceverne una? Se il computer è in definitiva una macchina che funziona grazie all'astrazione matematica, che sia un'astrazione dalla carne o l'astrazione di ridurre la conversazione umana alla posta elettronica, la caratteristica chiave del desiderio e di ogni poesia è che sono opere che sfidano ogni astrazione formalizzante come quella delle logiche matematiche.
Torniamo a Ullman. Secondo il testo dell'autrice Breazeal pensa che i computer abbiano desideri non simili ai nostri: desideri di auto riparazione, di carburante, o di qualunque cosa che gli serva per funzionare.
Ullman ha difficoltà a immaginare la "vita interiore" di un robot e non trova quello che può immaginare per nulla avvincente: meglio essere un umano e desiderare cose umane piuttosto che estasiarsi su macchine che sono diventate conoscitori della corrente elettrica.
Scrittori come Asimov secondo questa prospettiva avrebbero danneggiato il discorso sull'intelligenza artificiale prima ancora che iniziasse, immaginando macchine indistinguibili dall'uomo, senza pensare abbastanza a come le macchine sarebbero state diverse.
Ma siamo sicuri che sia così?
Ma mi chiedo se la mia incapacità di immaginare un'AI con desiderio sia semplicemente un fallimento della mia immaginazione oppure è una limitazione fondamentale di ciò che è realizzabile?
Anche questa è una questione qualitativa ed è fondamentale tentare di rispondere per non perdere di vista la nostra specificità e il possibile - etico e sociale - che vogliamo affidare alle macchine.