L'intelligenza artificiale potrebbe ottenere un risparmio energetico 100 volte maggiore con le nuove sinapsi artificiali di IBM. Copiare le caratteristiche di una rete neurale nel silicio potrebbe rendere il machine learning utilizzabile sui piccoli dispositivi come gli smartphone.
Le reti neurali sono il diadema nella corona delle AI. Basta caricare i sistemi di dati e fanno cose come trascrivere discorsi o descrivere immagini con precisione quasi perfetta. Tuttavia le reti neurali, che sono modellate liberamente sulla struttura del cervello umano, sono in genere costruite nel software piuttosto che nell'hardware, e il software gira su chip convenzionali che sono molto energivori. Questo rallenta la diffusione di queste tecnologie.
IBM ha ora dimostrato che se si creano alcune funzionalità chiave di una rete neurale direttamente nel silicio - in hardware invece che in software - questo può rendere il sistema 100 volte più efficiente. Le nuove generazioni di chip costruite in questo modo potrebbero avere un effetto turbine nei prossimi anni sul machine learning.
Il chip IBM, in maniera analoga a quanto fa una rete neurale software, imita le sinapsi che collegano i singoli neuroni in un cervello. L'apprendimento avviene mediante la modulazione della forza di queste connessioni sinaptiche. In un cervello vivente, ciò avviene sotto forma di connessioni in crescita o in decrescita nel tempo. Questo è facile da riprodurre nel software, ma fino ad ora si è rivelato estremamente difficile da ottenere con l'hardware.
I ricercatori IBM hanno dimostrato in un paper pubblicato su Nature la realizzabilità di sinapsi microelettroniche. Il loro approccio trae fondamento dalle neuroscienze utilizzando due tipi di sinapsi: quelle a breve termine per il calcolo e quelle a lungo termine per la memoria. Michael Schneider, ricercatore presso il National Institute of Standards and Technology che sta ricercando hardware informatico ispirato dalle conoscenze neurologiche, è convinto che questo approccio "affronta alcuni problemi chiave", in particolare la bassa accuratezza, che ha rovinato i precedenti sforzi per costruire reti neurali artificiali in silicio.
I ricercatori hanno testato una rete neurale costruita con due semplici componenti per il riconoscimento delle immagini: la scrittura a mano e la classificazione delle immagini a colori. Hanno trovato che il sistema in hardware è accurato come una deep neural network costruita in maniera software ma consumava solo l'1% di energia in confronto.
La scoperta non è importante solo per l'intelligenza artificiale. Se si adatta alla produzione commerciale, potrebbe rivendicare una grande scommessa che IBM ha realizzato. Sebbene l'azienda al momento non venda chip, ha investito molto per reinventare l'hardware del computer, sperando che nuovi tipi di componenti microelettronici possano contribuire a dare impulso ai prossimi grandi progressi informatici. Questa nuova tecnica potrebbe essere un primo passo, rendendo il machine learning più efficiente e più facile da implementare su dispositivi di piccole dimensioni come gli smartphone.
Schneider è convinto che "un fattore di 100 volte nell'efficentamento energetico e nella velocità di allenamento per gli strati completamente collegati sembra certamente meritare ulteriori sforzi". Non tutti sono convinti. Kwabena Boahen, che studia architetture di computer a Stanford, dice che il lavoro gli ricorda il clamore che circonda "memristori", un tipo di transistor sintonizzabile in qualche modo analogo a una sinapsi, che è in fase di sviluppo da oltre un decennio.
Anche il design dei chip IBM è ancora relativamente goffo, costituito da cinque transistor e tre altri componenti dove ci sarebbe un transistor singolo su un normale chip. Alcuni aspetti del sistema, inoltre, sono stati finora testati solo in simulazione, una tecnica comune per la convalida dei progetti di microchip. IBM avrà ancora bisogno di costruire e testare un chip completo. Tuttavia, il lavoro potrebbe essere un passo significativo, biologicamente ispirato, verso un computer con la logica dell'AI scritta nel suo nucleo.
L'iniziativa di IBM segue le dichiarazioni di Microsoft sulla logica delle AI completamente software grazie ai chip FPGA di Intel di cui avevamo già parlato. Al di là della corsa tra i tre giganti, Google, Microsoft e Facebook, ci sembra interessante questa necessità di fusione hardware e software. Lasciamoci portare da qualche suggestiva metafora.
Di fatto questa è una versione metaforica e informatica dell'eterno dilemma della relazione tra mente e cervello. La natura razionale che possediamo è una questione di software (la mente) o di hardware (il cervello). Le neuroscienze ci dicono che siamo embodied, cioè incarnati.
Non esiste un software dell'uomo senza hardware e non esiste un hardware, il corpo, che genera il software. Se l'uomo è spirito incarnato e non due entità congiunte, qualsiasi sistema intelligente dovrà "condividere" analogicamente questa condizione. Quello che sembra evidente è che i vari dubbi che le AI suscitano (ontologici ed etici) trovano ora una nuova frontiere. Le AI hanno bisogno di "esistere" in una modalità che sembra sempre più inscindibile tra hardware e software.
Le assonanze di questa materia e non-materia ricordano cervello e mente e carne e spirito provocando ancora di più il pensiero filosofico.
Le AI nelle loro nuove forme prima ancora che una sfida tecnologica si presentano una intera sfida al pensiero. A "cosa" vogliamo affidare la capacità decisionale che fino ad oggi avevamo reputato come soltanto umane?