Di fronte al potere trasformante e pervasivo delle intelligenze artificiali, numerose voci, non tutte tecnologiche, si levano per lanciare appelli, adombrare scenari o chiedere regolamentazioni di questo nuovo e affascinante sviluppo tecnologico. Proviamo a cercare di immaginare quali effetti sociologici potrebbero introdurre le AI in un prossimo futuro.
Non tutte le voci sono concordi nell'analisi del fenomeni. Parafrasando Umberto Eco in un suo celebre saggio degli anni Sessanta, potremmo dire che ci sono folte schiere di apocalittici e altrettante numerose schiere di integrati. Tra gli apocalittici si sentono allarmi su come le AI porranno fine alla nostra società o alla stessa specie umana molti insistono sul futuro del lavoro e sull'avvento dei robot. Ma è questo lo scenario da temere? Vediamo se prima non siano altre le trasformazioni più radicali e imminenti.
Per essere chiaro fin da subito devo dire che non sono assoltamente convinto che l'avvento di quella che molti definiscono come un'intelligenza artificiale "superintelligente" sia prossimo o costituisca la minaccia più pressante dalle future generazioni di macchine che funzionano secondo modelli di deep learning. In effetti, per essere decisamente franco, non sono affatto certo che l'intera nozione di superintelligenza sia realizzabile e potrebbe essere nient'altro che un'ipotesi filosofica, importante e su cui riflettere, ma che non è altro che uno scenario accademico su cui riflettere.
Non sappiamo se una tale AI potrà mai essere realizzata, sviluppata o evoluta in futuro - qui sulla Terra o altrove nel cosmo...
Tuttavia, sebbene chi scrive non si senta né apocalittico né integrato, lo sviluppo di una tecnologia così pervasiva e trasformante ha degli effetti che possono radicalmente cambiare la nostra società e altrettanto profondamente cambiare le relazioni tra gli uomini e la comprensione che come specie abbiamo di noi stessi. Dal mio punto di vista la trasformazione più prossima e radicale che le AI possono produrre è una radicale distorsione di quello che riteniamo essere la verità e i modi che, come uomini, condividiamo per cercarla.
Allo stato attuale, in questo confronto con macchine che più voci definiscono intelligenti dobbiamo riconoscere che non abbiamo una convincente teoria quantitativa dell'intelligenza. Non esiste né una teoria che ci dica cosa intendiamo per intelligenza ("guarda è intelligente, riesce da solo ad aprire una scatola di fagioli"), né una che ci dia una scala di misura dell'intelligenza correlandola effettivamente con la complessità né, infine, se ci sia o meno un massimo teorico.
Qualcuno sostiene che l'intelligenza segua una curva analoga a quella della funzione logistica. In statistica, la curva logistica è una funzione ideata da P.F. Verhulst nel 1838 (e successivamente rielaborata e generalizzata da R. Pearl e L.J. Reed) per rappresentare con notevole approssimazione la legge di evoluzione di una popolazione (e in genere di una specie vivente) in base alle ipotesi che da una parte la popolazione tenda, rispetto al tempo, a moltiplicarsi in progressione geometrica e che d’altra parte a tale sviluppo si opponga una resistenza (costituita principalmente dalla limitazione dei mezzi di sussistenza) direttamente proporzionale al quadrato della popolazione. Questa curva è descritta dall'equazione P(t)=K/(1+Ce – ht), ove K, C e h sono costanti e t è il tempo che dà luogo a un grafico dalla caratteristica forma ad "S".
Potrebbe essere che l'intelligenza segua una curva di crescita simile a questa S della funzione logistica, come, del resto, tanti fenomeni naturali (e innaturali). Una funzione o curva logistica può iniziare con una crescita esponenziale, ma poi si appiattisce o si alza al plateu mentre le possibilità si saturano. Un semplice esempio è la crescita demografica idealizzata da Verhulst, in cui un rapido aumento del numero di organismi gioca contro la disponibilità di cibo o risorse, producendo, in definitiva, il livellamento.
Non è difficile immaginare che per l'intelligenza artificiale ci possa essere effettivamente un regime di crescita esponenziale, ma ciò richiederà una crescita esponenziale della complessità e forse, elemento più critico, dell'efficienza, della connettività, delle intercomunicazione e del flusso di dati delle parti - meccaniche o organiche che siano. Quindi non è nemmeno facile stimare come l'intelligenza possa saturarsi.
Ma dov'è la parte esponenziale della curva? È ancora davanti a noi o l'abbiamo già superata? E le nostre macchine, le nostre AI, saranno saturate prima di quanto potremmo supporre? Penso che siamo attualmente in una condizione di profonda ignoranza e fare previsioni è molto difficile. Per quanto ne sappiamo, l'intelligenza umana è già vicina al massimo universale possibile. Forse le risposte a queste questioni potranno venire solo da adeguate sperimentazioni o dallo sviluppo di quella teoria fondamentale dell'intelligenza che, come dicevamo in precedenza, ci manca ancora.
Pertanto in questa fase della nostra conoscenza, qualsiasi proposta o teoria su l'intelligenza aliena di esseri autonomi, di agenti "superintelligenti" dovrebbe essere presa come mera ipotesi accademica e come un'idea provocatoria.
Per tutte queste ragioni, non sono così preoccupato per l'avvento sulla terra di AI super intelligenti quanto guardo con scrupolosa attenzione il diffondersi di AI relativamente stupide il cui scopo - o meglio le cui abilità incidentali - sono in grado di manipolare la nostra relazione con le informazioni, con quelli che chiamiamo i fatti e con la realtà così come la percepiamo. Questa dimensione del nostro vivere potrebbe essere quello maggiormente minacciato dalle AI.
Per capire come dobbiamo introdurre una piccola digressione sul concetto sociologico di fiducia e di come le società e le credenze si colleghino a questo concetto.
La nozione di fiducia occupa un posto tutt'altro che secondario nel pensiero politico e sociale occidentale. Le teorie contrattualistiche del XVII e XVIII secolo considerano la fiducia un prerequisito essenziale dell'ordine politico e della fondazione del contratto sociale. Anche i padri fondatori della sociologia, più interessati a individuare l'elemento morale che permea l'ordine sociale, fanno un implicito riferimento a essa. I contenuti della fiducia sistemica o impersonale vengono generalmente qualificati come aspettative di stabilità di un dato ordine naturale e sociale, di riconferma, dunque, del funzionamento delle sue regole. Si tratta, perciò, di aspettative di regolarità d'ampia portata e a carattere generalizzato.
La fiducia si colloca, dal punto di vista cognitivo, in una zona intermedia tra completa conoscenza e completa ignoranza. L'aspettativa fiduciaria interviene sull'incertezza non già fornendo le informazioni mancanti, bensì sostituendole con una forma di 'certezza' interna che ha la valenza di rassicurazione positiva rispetto a eventi ed esperienze contingenti. L'incertezza viene resa più tollerabile con quest'atto di sostituzione che riduce la complessità in direzione di previsioni gratificanti per l'attore. L'aspettativa fiduciaria sostituisce, dunque, l'incertezza con un livello di 'certezza' e rassicurazione interna che varia secondo il grado di fiducia concessa. Essa rappresenta, comunque, un investimento cognitivo più elevato della semplice speranza. In caso di errore incappa, perciò, in conseguenze motivazionali negative più gravi.
Le capacità delle AI che si stanno diffondendo toccano proprio la formazione, lo sviluppo e il mantenimento della fiducia individuale e sociale. Usando tecniche come l'apprendimento contraddittorio, abbiamo già realizzato delle AI che possono imitare le nostre voci fino alla perfezione. Approcci simili potrebbero presumibilmente essere applicati al nostro stile di scrittura, all'invio di messaggi di testo e ai post che facciamo sui social media. Con lo spoofing del nostro aspetto ottenuto grazie all'analisi delle foto, possiamo generare foto false o generare video in cui apparentemente facciamo cose che non abbiamo mai fatto.
Probabilmente questi sistemi andranno oltre (se non lo hanno già fatto, è difficile stare al passo con gli sviluppi). Perché non generare intere notizie o colonne di rumors o pettegolezzi con un'AI? I tabloid di Hollywood non richiedono quasi mai fatti e le notizie mainstream a volte sembrano seguirne l'esempio.
C'è un potenziale straordinario nelle AI per generare flussi comunicativi in grado di ingannare qualcuno. Rubare i nostri dati personali ingannandoci, o creando una versione alternativa di noi che intraprende qualsiasi tipo di atto antisociale, anche criminale. O semplicemente manipolandoci per predisporci a volere certi beni, o votare in un certo modo, o credendo a certe cose. Se dovessimo sviluppare la prima AI evangelica questa potrebbe superare facilmente anche i migliori predicatori umani.
E a differenza delle superintelligenze ipotetiche (le cui motivazioni sono difficili da immaginare), usare le AI per sfruttare persone o per forzare la società segue un modello politico molto antico.
Noi umani abbiamo probabilmente eroso la realtà dal momento in cui i nostri antenati Homo sapiens hanno iniziato a comunicare e raccontare storie. Un buon racconto attorno al fuoco può aiutare a mantenere una storia verbale, o articolare regole morali e sociali, aiutando a portare coesione alle nostre famiglie e gruppi. Ma può, forse inevitabilmente, fuorviare, distorcere e manipolare.
Seguiamo, parafrasandolo, il ragionamento sul tema che sviluppa Yuval Noah Harari. 70.000 anni fa i nostri antenati erano animali insignificanti. La cosa più importante da sapere, sull'uomo preistorico, è che non era importante. Il suo impatto sul mondo non era di molto superiore a quello delle meduse. Oggi, al contrario, dominiamo questo pianeta. La domanda è: come ci siamo riusciti? Come ci siamo trasformati da scimmie insignificanti, intente a farsi gli affari propri in un angolo dell’Africa, a dominatori del pianeta Terra?
Gli umani controllano il pianeta perché sono gli unici animali capaci di collaborare in modo flessibile e in grandi masse. Sì, ci sono altri animali, come gli insetti sociali – le api, le formiche – che possono collaborare in grandi numeri, ma non lo fanno in modo flessibile. Collaborano solo in forme rigidamente predefinite.
Altri animali, come i mammiferi sociali, i lupi, gli elefanti, i delfini, gli scimpanzé, sono in grado di collaborare in modo molto più flessibile, ma lo fanno solo in piccoli numeri, perché la collaborazione tra gli scimpanzé si basa su un’intima conoscenza reciproca.
L’unico animale in grado di combinare queste due abilità, ossia collaborare in modo flessibile e farlo anche in grandi numeri è l’Homo Sapiens. Ma come lo facciamo esattamente? Cosa ci permette, unici tra gli animali, di collaborare in questo modo?
La risposta è la nostra immaginazione. Riusciamo a collaborare flessibilmente e con un numero infinito di estranei perché solo noi, tra tutti gli animali del pianeta, siamo in grado di creare e di credere in finzioni, in storie immaginate. Se tutti credono alla stessa finzione, allora tutti obbediscono e seguono le stesse regole, le stesse norme, gli stessi valori.
Da un punto di vista biologico, però, l'alterare la realtà è un comportamento non limitato alla nostra specie "intelligente". L'inganno è assai diffuso attraverso il mondo naturale. Gli animali si mimetizzano, o fingono di essere cose che non sono - dall'imitare l'aspetto di specie velenose a gonfiare piume, squame o pelle, o mandare parassitosamente la prole per le altre specie di cui preoccuparsi. I maschi di molte specie si adornano o costruiscono strutture seducenti e ricorrono a sotterfugi profondi nello sforzo di propagare i loro geni. L'inganno sembra essere tanto parte della selezione darwiniana quanto l'onestà. C'è una misura dell'idoneità evolutiva nella capacità di indurre in errore.
Le probabilità non sembrano essere alte perché le macchine siano migliori o differenti da questi modelli, sia in base al design sia a causa delle loro pressioni selettive e se vincere è tutto ciò che conta, beh, attenzione a cosa stiamo diffondendo nel tessuto sociale iperconnesso che abitiamo.
Naturalmente, come ha detto il fisico Niels Bohr, le buone previsioni sono terribilmente difficili da realizzare, specialmente quando si tratta del futuro.
Ma una cosa è certa, impareremo molto sulla traiettoria che l'intelligenza può sviluppare - assumendo, chiaramente, che possiamo vedere, conoscere e raccontare la verità.