top of page
Immagine del redattorePaolo Benanti

Gato di DeepMind: primo passo per un'AI come l'uomo?

Ispirati dai progressi nella modellazione linguistica su larga scala, i ricercatori di DeepMind, un'azienda inglese di intelligenza artificiale controllata dal 2014 da Alphabet, la capofila di Google, hanno applicato un approccio analogo per la costruzione di un singolo bot generalista in campi esterni al dominio degli output di testo. Il bot, chiamato Gato, è un passo verso un'intelligenza artificiale generale (GAI)? Che cosa ci dice Gato sulle AI? E sull'uomo? Quello che segue vuole essere un tentativo di interrogarsi sul senso di quanto sta accadendo.

 

Gato funziona come una policy generalista multimodale, multi-task, multi-embodiment. La stessa rete neurale con gli stessi pesi può giocare ai videogame Atari, creare didascalie per immagini, rispondere nelle chat, ammucchiare scatole gestendo un braccio robotico e molto altro, decidendo in base al suo contesto se emettere testo, coppie articolari, pressioni di pulsanti o altri token.



Seguiremo la presentazione che i ricercatori di DeepMind stessi fanno di Gato in un articolo in fase di pre-pubblicazione e nel loro blog, per poi fare alcune considerazioni di fondo.


Durante la fase di addestramento di Gato, i dati provenienti da attività e modalità diverse vengono serializzati in una sequenza piatta di token, raggruppati ed elaborati da una rete neurale trasformatrice simile a un modello linguistico di grandi dimensioni. La perdita viene mascherata in modo che Gato predica solo gli obiettivi di azione e testo.



Quando si utilizza Gato, un prompt, come una dimostrazione, viene tokenizzato, formando la sequenza iniziale. Successivamente, l'ambiente produce la prima osservazione, anch'essa tokenizzata e aggiunta alla sequenza. Gato campiona il vettore delle azioni in modo autoregressivo, un token alla volta.



Una volta campionati tutti i token che compongono il vettore di azioni (determinato dalla specifica di azione dell'ambiente), l'azione viene decodificata e inviata all'ambiente, che passa a produrre una nuova osservazione. Poi la procedura si ripete. Il modello vede sempre tutte le osservazioni e le azioni precedenti all'interno della sua finestra contestuale di 1024 token.



Gato è stato addestrato su un gran numero di insiemi di dati che comprendono l'esperienza dell'agente in ambienti simulati e reali, oltre a una serie di insiemi di immagini e linguaggio naturale. Il numero di compiti in cui le prestazioni del modello Gato pre-addestrato sono superiori a una percentuale del punteggio degli esperti, raggruppati per dominio, è mostrato qui.



Le immagini seguenti mostrano anche come il modello Gato pre-addestrato, con gli stessi pesi, sia in grado di eseguire la didascalia di un'immagine, di partecipare a un dialogo interattivo e di controllare un braccio robotico, oltre a molti altri compiti.



Sebbene gli agenti generalisti siano ancora solo un'area di ricerca emergente, il loro potenziale impatto sulla società richiede un'analisi interdisciplinare approfondita dei loro rischi e benefici. Per motivi di trasparenza, documentiamo i casi d'uso previsti per Gato nella scheda del modello in Appendice A. Tuttavia, gli strumenti per mitigare i danni degli agenti generalisti sono relativamente poco sviluppati e richiedono ulteriori ricerche prima di essere impiegati.



Sebbene siano ancora allo stadio di proof-of-concept, i recenti progressi nei modelli generalisti suggeriscono che i ricercatori sulla sicurezza, gli esperti di etica e, soprattutto, il pubblico in generale, dovrebbero considerare i loro rischi e benefici. Al momento non stiamo distribuendo Gato a nessun utente e quindi non prevediamo un impatto immediato sulla società. Tuttavia, dato il loro potenziale impatto, i modelli generalisti dovrebbero essere sviluppati in modo ponderato e utilizzati in modo da promuovere la salute e la vitalità dell'umanità.



Cosa impariamo da Gato? Siamo di fronte al primo passo per realizzare una intelligenza come quella umana?


La risposta breve è no. Per almeno due motivi.


Il primo riguarda la natura di queste macchine che di fatto riprendono la macchina di Turing. In informatica una macchina di Turing è una macchina ideale che manipola i dati contenuti su un nastro di lunghezza potenzialmente infinita, secondo un insieme prefissato di regole ben definite. In altre parole, si tratta di un modello astratto che definisce una macchina in grado di eseguire algoritmi e dotata di un nastro potenzialmente infinito su cui può leggere e/o scrivere dei simboli.


Introdotta nel 1936 da Alan Turing come modello di calcolo per dare risposta all'Entscheidungsproblem (problema di decisione) proposto da Hilbert nel suo programma di fondazione formalista della matematica, è un potente strumento teorico che viene largamente usato nella teoria della calcolabilità e nello studio della complessità degli algoritmi, in quanto è di notevole aiuto agli studiosi nel comprendere i limiti del calcolo meccanico; la sua importanza è tale che oggi, per definire in modo formalmente preciso la nozione di algoritmo, si tende a ricondurlo alle elaborazioni effettuabili con macchine di Turing.



Secondo Turing tali macchine potevano, calcolando, arrivare anche a mostrare delle forme di pensiero e per arrivare a sostenere questa tesi inventò il cosiddetto Test di Turing.


Il Test di Turing venne pensato appositamente per valutare il livello di intelligenza di una macchina, ma come definire l’intelligenza? Intelligenza, da intelligere, intendere, è la facoltà di conoscere e comprendere. Trattasi di una funzione attiva, che consente a breve termine di trovare soluzioni a problemi di tipo razionale, relazionale, motorio, visivo ed emozionale. Ad oggi l’intelligenza artificiale (IA) è all’ordine del giorno, vi sono diversi software e robot umanoidi definiti «intelligenti», eppure il Test di Turing risale alla metà del secolo scorso, quando le AI erano ancora in evoluzione. Nel 1950, il grande matematico Alan Turing fu il primo a domandarsi se le macchine fossero in grado di pensare, in un famoso articolo. Per rispondere al suo stesso quesito, si servì di un gioco chiamato «gioco dell’imitazione»:


Supponiamo di avere una persona, una macchina e un interrogatore. L’interrogatore si trova in una stanza separata dall’altra persona e dalla macchina. L’interrogatore ha il compito di determinare quale delle altre due è la persona e quale è la macchina. Egli conosce l’altra persona e la macchina come «X» e «Y», ma non sa quale etichetta corrisponda alla macchina e quale all’altra persona. Al fine di comprendere chi è X e chi è Y, è autorizzato a porre domande ad entrambi, quali ad esempio: «X, per favore, può dirmi se X gioca a scacchi?». Qualunque tra la macchina e l’altra persona sia X, deve rispondere alle domande rivolte a X. Lo scopo della macchina, che sia X o Y, è cercare di indurre l’interrogatore a concludere erroneamente che la macchina è l’altra persona; al contrario, l’obiettivo dell’altra persona è cercare di aiutare l’interrogatore a identificare correttamente la macchina. La macchina realmente in grado di pensare è quella che riesce ad imitare così bene la persona, da confondere l’interrogatore. Ipotizziamo ora di ripetere il gioco due volte: la prima con tre umani, la seconda con due uomini e una macchina. Se la percentuale di volte in cui l’interrogatore indovina chi è l’uomo e chi la macchina è simile prima e dopo la sostituzione del secondo umano con la macchina, allora l’algoritmo è considerato intelligente, dal momento che, in questa circostanza, non è distinguibile da un essere umano.


Con l’evoluzione delle IA, il test di Turing è stato man mano riformulato. Le ragioni sono diverse, dalla difficoltà della prima formulazione, alla nascita di nuove domande relative alla definizione di intelligenza artificiale. In particolare, il filosofo John Searle propose una modifica al test di Turing, che prese il nome di «stanza cinese», sostenendo l’inattendibilità del test originale come prova sufficiente a dimostrazione dell’intelligenza di un qualsiasi sistema informatico. In Minds, Brains and Programs, John Searle si oppose all’affermazione secondo cui «i computer opportunamente programmati hanno letteralmente stati cognitivi».

Una versione alternativa del test di Turing venne ideata da Searle e prese il nome di «stanza cinese».



Il protagonista dell’esperimento mentale proposto da Searle era lui stesso, chiuso in una stanza. Come nel test di Turing, dall’altra parte vi era un interlocutore, ma questa volta di lingua cinese che comunicava tramite ideogrammi. Dal momento che Searle non conosceva la lingua straniera, gli veniva fornito un dizionario che spiegava come comporre frasi sensate ordinando meccanicamente gli ideogrammi in un determinato modo. Egli doveva infatti rispondere a delle domande che gli venivano fatte dall’interlocutore straniero. L’obiettivo del filosofo era quello di ingannarlo, facendogli credere che stava capendo il senso del discorso, quando in realtà non conosceva il significato di nessun ideogramma. Searle non aveva consapevolezza di ciò che stava scrivendo nelle sue risposte, allo stesso modo la macchina del test di Turing non era cosciente di quello che sta facendo, eppure lo faceva. Ciò che il filosofo voleva dimostrare era che una macchina poteva solo simulare l’intelligenza. Searle era in grado di metter insieme gli ideogrammi meccanicamente, ma non per questo poteva essere identificato come «cinese». La macchina del test di Turing poteva simulare meccanicamente una discussione, ma non per questo poteva essere definita «intelligente». Searle voleva dimostrare nello specifico che la mente non poteva fare a meno della semantica. A prescindere dagli elementi che componevano la frase, non era possibile comprenderla senza capire l’interazione tra le componenti.


Finora, l’argomento che abbiamo descritto arriva alla conclusione che nessun computer adeguatamente programmato può pensare. Sebbene questa conclusione non sia la stessa di Turing, è importante notare che è comunque compatibile con l’affermazione secondo cui il suo è un buon test per l’intelligenza. Difatti fino a questo momento non abbiamo parlato di intelligenza in senso stretto, bensì di metacognizione, intesa come cognizione della propria stessa cognizione, e di coscienza, anche se indirettamente. Il fatto che Searl riesca a comunicare pur non avendo consapevolezza di ciò che scrive, descrive una mancanza cosciente di cognizione. Searle sa di non sapere il senso di ciò che sta scrivendo, eppure lo sta scrivendo. Se l’intelligenza consente a breve termine di trovare soluzioni a problemi, come abbiamo detto all’inizio, allora Searle è intelligente, così come la macchina del test di Turing. Dato un problema comunicativo, entrambi riescono ad affrontarlo. Entrambi sono intelligenti? Potrebbero. Ciò che è certo è che entrambi non sono coscienti del significato delle frasi che stanno componendo meccanicamente. Ciò che dimostra l’esperimento di Searle è una mancanza di consapevolezza più che una mancanza di intelligenza.



C’è da fare una distinzione in intelligenza artificiale forte e debole. Turing era a favore della tesi dell’AI cosiddetta «forte» (GAI) secondo cui è possibile costruire macchine capaci di simulare il pensiero umano. Un computer opportunamente programmato può davvero essere dotato di una genuina intelligenza, non distinguibile in nessun senso dall’intelligenza umana. Parliamo di «macchine dotate di mente in senso pieno e letterale», citando John Haugeland. Searle si oppose a questa concezione. Anche la tesi de l’AI debole (NAI) ritiene che le macchine possano effettuare compiti e risolvere problemi complessi che richiederebbero l’uso dell’intelligenza da parte degli esseri umani, ma in questo caso l’accento viene posto su ciò che un programma è in grado di fare, senza fare assunzioni sul modo con cui lo fanno. I processi dell’AI debole non per forza coincidono con quelli mentali umani. Non si parla di «mente» in senso stretto. Un programma che esplora sistematicamente tutte le mosse potrebbe effettivamente essere in grado di giocare a scacchi come un essere umano, o meglio di lui, ma lo farebbe in un modo differente. Nessun umano gioca a scacchi analizzando di mossa in mossa tutte le possibilità di azione. Se la AI forte parla di mente, quindi di intelligenza come una componente del sistema cosciente, la AI debole la intende come un’abilità isolata di problem solving. Tuttavia, in entrambi i casi si parla di intelligenza, qual è la «vera» definizione?


Al di là di questa problematica, appare qui evidente una prima grande questione: la coscienza non è un problema Turing-computabile.


C'è poi un secondo motivo e non riguarda la coscienza in sé ma il concetto di causazione. L’intelligenza artificiale come è stata definita da John McCarthy è “la scienza e l’ingegneria per creare macchine intelligenti, in particolare programmi per computer intelligenti. È correlata al compito simile di utilizzare i computer per comprendere l’intelligenza umana, ma l’AI non deve limitarsi a metodi biologicamente osservabili”. L’apprendimento automatico o machine learning è un sottocampo dell’AI che funziona secondo modelli di apprendimento automatico classici – detti non-deep – che richiedono un maggiore intervento umano per segmentare i dati in categorie. Il deep learning è a sua volta un sottocampo del machine learning che tenta di imitare l’interconnessione del cervello umano utilizzando le reti neurali. Le sue reti neurali artificiali sono costituite da strati di modelli, che identificano i modelli all’interno di un determinato set di dati. Questi sfruttano un volume elevato di dati di addestramento per apprendere in modo accurato, che di conseguenza richiede hardware più potente. Per quanto gli algoritmi di deep learning siano oggi fortemente associati con la realizzazione di AI di livello umano presentano enormi problemi per quanto riguarda la spiegabilità dei processi decisionali che mettono in pratica.


Per superare questa impasse si teorizza la realizzazione di una intelligenza artificiale forte o Strong AI, nota anche come Intelligenza Artificiale Generale (GAI). L’idea dei ricercatori è di sviluppare una GAI mediante la quale la macchina potrebbe avere un’intelligenza pari a quella umana, sviluppare l’equivalente di una coscienza ed avere la capacità di risolvere problemi, imparare e a pianificare azioni future. Di fatto la Strong AI mira a creare macchine intelligenti indistinguibili dalla mente umana che proprio come un bambino imparerebbero attraverso input ed esperienze progredendo nel tempo. I ricercatori, parte del mondo accademico e il settore privato stanno investendo molto nella creazione della GAI. Tuttavia, allo stato attuale dello sviluppo questa è solo un concetto teorico e nulla di tangibile che si possa avvicinare a questa è ancora stato realizzato. Il dibattito è molto acceso e alcuni citano Minsky ricordando le sue previsioni troppo ottimistiche sullo sviluppo delle AI, altri sono più radicali e arrivano a dire che i sistemi di AI forte non possono nemmeno essere sviluppati. Altri ancora, come Judea Pearl, pensano che sia possibile invece realizzare una macchina capace di inferenza causale e quindi possiamo realizzare il primo passo verso la realizzazione di una GAI.


Le linee di sviluppo verso cui vogliamo spingere le intelligenze artificiali includono la causazione. L’intera opera di Judea Pearl va in questa direzione. La sua ricerca sull’apprendimento automatico mostra come realizzare una macchina di inferenza causale richieda almeno tre livelli distinti di abilità cognitiva: vedere, fare e immaginare.

La prima abilità, che l’autore definisce come vedere o osservare, implica che la macchina sia in grado di individuare gli elementi di regolarità nei dati. Questa abilità è una capacità che, come uomini, condividiamo con molti animali e che al momento siamo in grado di realizzare con gli algoritmi di machine learning. Questo è ciò che fa un predatore quando osserva come si muove la preda e capisce dove questa si troverà probabilmente un momento dopo, ed è ciò che fa un programma informatico come AlphaGo di Deep Mind che ha analizzato un database di milioni di partite di Go in modo da capire quali mosse sono associate a una più alta percentuale di vittorie. Seguendo la definizione di Hume possiamo intuire che un evento è associato ad un altro se l’osservazione della variazione dell’uno cambia la probabilità di osservare una variazione nell’altro. Come abbiamo visto nell’esempio del diamante ci sono molti metodi elaborati per ridurre un gran numero di dati e identificare le associazioni tra variabili. La “correlazione” o “regressione” è una tipica misura di associazione e come abbiamo visto comporta l’adattamento di una linea a un insieme di punti di dati e la presa della pendenza di quella linea. Alcune associazioni potrebbero avere ovvie interpretazioni causali; altre no. Ma la statistica da sola non può dire quale sia la causa e quale l’effetto.


La seconda competenza prevede la capacità di prevedere gli effetti che alterazioni deliberate dell’ambiente e la scelta di quali tra le possibili diverse alterazioni può produrre un risultato desiderato. Nel mondo dei viventi, solo una piccola quantità di specie ha mostrato parte di questa abilità. L’uomo fa questo con l’uso di strumenti e artefatti tecnologici. Pearl fa notare che anche le specie che mostrano alcune capacità di utilizzare strumenti non possiedono necessariamente una “teoria” sul funzionamento dello strumento.


Per raggiungere questa consapevolezza serve un terzo livello: l’immaginazione. Judea Pearl mostra da un punto di vista matematico come questi tre livelli differiscano fondamentalmente tra loro mediante l’emergenza di proprietà non presenti al livello inferiore. Acquisire queste capacità è l’obiettivo di chi sviluppa la cosiddetta strong o general AI. Lo scopo di questa intelligenza artificiale detta forte è avere macchine con un’intelligenza simile a quella umana: in grado di essere motori di inferenze causali e quindi in grado di conversare con gli umani e guidarli. Fino ad oggi i risultati delle intelligenze artificiali, anche del più sofisticato deep learning, ha prodotto sistemi con capacità impressionanti ma in settori molto specifici, la cosiddetta narrow AI. Di fatto i prodigiosi risultati di previsione che ottengono queste macchine avvengono in una totale assenza di un modello causale di realtà ma quasi interamente in modalità associativa.



Gli strumenti che abbiamo realizzato lavorano su un flusso di dati – le osservazioni della realtà – a cui tentano di adattare una funzione matematica, in un modo analogo a quanto fa uno statistico che cerca di adattare una linea a un insieme di punti come nel caso del prezzo del diamante. Gato non è altro che uno strumento di questo tipo, anche se molto molto potente.


Le innovazioni introdotti dai neural networks consistono nell’aggiungere molti più strati alla complessità della funzione adattata, ma l’intero processo è guidato da dati grezzi. I grandi successi che compaiono nei media testimoniano solamente un continuato miglioramento in accuratezza grazie a quantità di dati sempre maggiori come nel caso del GPT-3 e di Gato ma non si tratta del salto qualitativo che stiamo cercando di realizzare. Judea Pearl mostra senza ombra di dubbio che questa rigidità è inevitabile in qualsiasi sistema che lavori a questo primo livello di quella che definisce Scala di causalità.


L’orizzonte più avanzato nello sviluppo delle AI vuole realizzare un modello causale sufficientemente forte e accurato può permetterci di usare i dati (osservazionali) per rispondere a nuovi tipi di domande. Il tipo di intelligenza artificiale che sviluppiamo ora non consente qualsiasi tipo di applicazione: che tipo di decisioni vogliamo o possiamo delegare a una macchina che funziona come un predatore che insegue una preda che fugge? L’intelligenza artificiale oggi è molto più simile a quella di un cane o di un cavallo che non a quella di uomo. Come il soccorso alpino sa bene, un cane da valanga può salvare delle vite indicando dove scavare anche senza un modello causale dietro la sua capacità olfattiva, ma non può di certo pilotare un elicottero o fare una diagnosi medica. Gato non si avvicina neanche lontanamente alla capacità di essere una macchina di inferenza causale.


Rimane allora una domanda. Come è possibile un sistema così flessibile?


La risposta la troviamo in recente libro di David Eagelman: L'intelligenza dinamica: L'evoluzione continua dei circuiti del nostro cervello. Proviamo a offrire una breve sintesi del suo contributo.

La persona che siamo dipende in uguale misura dall’ambiente che ci circonda e dal DNA che è dentro di noi: veniamo alla luce con un cervello in gran parte incompleto. La nostra genetica si fonda su un semplice principio: non bisogna costruire una struttura rigida, ma un sistema che si adatti al mondo circostante. Il cervello si adatta di continuo per rispecchiare sfide e obiettivi. Plasma le proprie risorse per rispondere a ciò che le circostanze richiedono. Quando non ha ciò che gli serve, lo crea.


Nel campo delle neuroscienze si parla di «plasticità cerebrale» (o neuroplasticità), ma talvolta rischia di essere fuorviante. In modo più o meno intenzionale, l’idea chiave suggerita dalla parola «plasticità» è che un oggetto viene sagomato una volta e poi rimane così per sempre: si dà forma al giocattolo di plastica e non lo si cambia più. Ma il cervello non si comporta in questo modo. Continua a rimodellarsi per tutta la vita. Diventa impossibile immaginare il cervello come un oggetto divisibile in livelli di hardware e software. Se vogliamo comprendere questo sistema dinamico, adattabile e avido di informazioni ci serve il concetto di liveware: un oggetto basato sul cablaggio dal vivo.


Il cervello è una «macchina dei compiti» – il cui scopo è svolgere mansioni come individuare il movimento o gli oggetti nel mondo – anziché un sistema organizzato intorno a sensi specifici. In altre parole, alle regioni cerebrali interessa portare a termine certi compiti, a prescindere dal canale sensoriale tramite il quale arrivano le informazioni.


Il lobo occipitale può essere invaso da molti compiti, non solo da quelli relativi all’udito. La memorizzazione, per esempio, trae vantaggio dallo spazio corticale extra. Il concetto generale è chiaro: più spazio si occupa, meglio è. Di tanto in tanto però questo porta a risultati controintuitivi. Quasi tutti noi nasciamo con tre tipi diversi di fotorecettori per la visione del colore, mentre le persone affette da discromatopsia ne hanno solo due tipi, o uno, o addirittura nessuno, e di conseguenza sono meno abili a distinguere i colori (o non ci riescono affatto). Ma non tutto il male viene per nuocere: queste persone infatti distinguono meglio le sfumature di grigio.


Ci siamo serviti dell’apparato visivo per introdurre i punti fondamentali, ma la riqualificazione avviene ovunque nel cervello. La riqualificazione neurale sostituisce il vecchio paradigma delle aree cerebrali predefinite con qualcosa di più flessibile. Lo spazio può essere assegnato ad altri compiti. Per esempio, i neuroni della corteccia visiva non hanno niente di speciale. Sono soltanto neuroni a cui è capitato di essere coinvolti nell’elaborazione dei bordi o dei colori in una persona che ha due occhi funzionanti. Nei non vedenti, quegli stessi identici neuroni possono elaborare informazioni di altro tipo.


Le mappe cerebrali non sono preprogrammate dalla genetica, ma vengono modellate dagli input. Dipendono dall’esperienza. Sono una proprietà emergente delle lotte di confine locali, non il risultato di un piano globale specificato in anticipo. Poiché i neuroni che si attivano insieme rafforzano la loro connessione, la coattivazione crea rappresentazioni contigue nel cervello. A prescindere da come è fatto, il nostro corpo finisce per essere mappato naturalmente sulla superficie del cervello.



Per afferrare questo concetto bisogna scendere più a fondo di un livello: non è il nostro chilo e mezzo di tessuto cerebrale a udire o vedere direttamente il mondo circostante. Anzi, il cervello è racchiuso in una cripta di silenzio e oscurità nel cranio. Vede solo i segnali elettrochimici che si riversano al suo interno lungo diversi cavi per la trasmissione dati. Questo è tutto il materiale che ha a disposizione.


In modi che stiamo ancora cercando di comprendere, il cervello è terribilmente bravo ad assorbire quei segnali e a ricavarne dei pattern, a cui assegna un significato. E con il significato si ha l’esperienza soggettiva. Il cervello è un organo che trasforma delle scosse elettriche al buio nel caleidoscopico spettacolo del mondo.


Tutte le sfumature e le fragranze e le emozioni e le sensazioni della vita sono codificate in migliaia di miliardi di segnali che sfrecciano nell’oscurità, proprio come un bellissimo screensaver sullo schermo del computer non è altro che una combinazione di tanti zero e uno. I polpastrelli o i bulbi oculari sono soltanto il dispositivo periferico che trasforma le informazioni provenienti dal mondo esterno in impulsi elettrici nel cervello. Dopodiché è il cervello a sobbarcarsi la fatica dell’interpretazione.


Qualunque informazione venga immessa nel cervello, il cervello vi si adatta e ne ricava quanto più materiale possibile. A condizione che i dati abbiano una struttura che rispecchia qualcosa di importante del mondo esterno (insieme ad alcuni altri requisiti che vedremo nei prossimi capitoli), il cervello riesce a capire come decodificarli.


Ne deriva una conseguenza interessante: il cervello non sa da dove vengono i dati, né gli interessa saperlo. Qualunque informazione riceva, si limita a trovare il modo di sfruttarla. Questo fa del cervello una macchina molto efficiente: un dispositivo computazionale multifunzione che assorbe i segnali disponibili e decide cosa farne in maniera (quasi) ottimale.



Gato allora essendo costruito sullo schema rilevato dalla naturale disposizione dei neuroni (neural network) gode di alcuni di questi fenomeni di rimodulazione competitiva delle funzioni. Quello che Eagleman chiama livewire è di fatto immesso in Gato nella sua stessa struttura software. Gato più che l'emulazione di una persona è una emulazione della nostra capacità di elaborare input esterni in schemi che possono sembrare coerenti.


Ma il cuore del mistero che siamo resta ancora oltre e invisibile. Se capiamo come i sensi possano essere elaborati dal cervello il "chi" che li elabora, io e voi, è altrove. Se Gato è multifunzione come l'area corticale dei sensi non si avvicina neanche lontanamente a un soggetto umano né tantomeno a una persona.


Oggi neuroscienze e intelligenze artificiali si sfiorano e si toccano, a volte illuminandosi a vicenda con modelli e metafore che fondano intere stagioni di ricerca.


Tuttavia, la persona e il computer ancora distano qualitativamente distanze incolmabili: una esiste, l'altra funziona.

893 visualizzazioni1 commento

Post recenti

Mostra tutti

1 comentario


gobbetti12
gobbetti12
16 may 2022

Grazie dell'articolo. Molto interessante.

Me gusta
bottom of page