Riportiamo il testo di un'intervista per Settimana con Marco Bernardoni.
Adattare le nostre strutture sociali alla nuova e inedita figura di società «costituita di agenti autonomi di tipo misto», che l’Intelligenza Artificiale (AI) configura come possibilità sempre meno remota è tema di cui è divenuto difficile sottostimare la portata.
A conferma viene un convegno – Intelligenza Artificiale: una sfida etica? – organizzato dal Pontificio consiglio per la cultura all’interno dell’iniziativa del «Cortile dei gentili», che si svolgerà il prossimo 6 luglio a Palazzo Borromeo, sede dell’Ambasciata d’Italia presso la Santa Sede. Paolo Benanti, francescano del Terzo ordine regolare e docente di Teologia morale alla Gregoriana, è uno dei relatori invitati al convegno insieme a Sebastiano Maffettone (LUISS Guido Carli) e Luciano Floridi (Oxford University). A lui abbiamo chiesto di parlarci della sfida etica rappresentata dall’immaginare una coesistenza tra uomo e robot (in ambiente di lavoro) che sia rispettosa della dignità umana.
La prima e fondamentale direttiva che le moderne macchine cognitive dovrebbero implementare la esprimerei con l’adagio latino: primum non nocere. La realizzazione di tecnologie controllate da sistemi di AI solleva tutta una serie di problemi, che – come è facile comprendere – si riferiscono anzitutto alla gestione dell’autonomia decisionale di cui questi apparati godono. E tuttavia la questione degli agenti morali autonomi, ovvero delle macchine cognitive in un ambiente di lavoro misto, che prevede la compresenza dell’uomo, non può esaurirsi in questa sola direttiva.
– Che cosa è necessario che queste macchine «imparino» per coesistere con l’uomo?
Direi che le moderne macchine sapiens – per usare un neologismo – dovrebbero apprendere almeno altri quattro elementi fondamentali, che possiamo considerare una declinazione operativa della dignità umana. Se saranno capaci di interagire nel rispetto di tali dimensioni, allora non solo le macchine non nuoceranno ma sapranno tutelare la dignità e la creatività proprie dell’operatore umano.
– Proviamo a elencare questi elementi.
Il primo, lo definirei una certa capacità di intuizione. Quando due persone collaborano una riesce ad anticipare e assecondare le intenzioni dell’altra, intuendo cosa sta facendo o che cosa vuole fare. Se vediamo una persona camminare a fatica con le braccia ingombre di oggetti, comprendiamo la situazione e la aiutiamo, agevolandone l’opera o sollevandola da parte del carico. Questa capacità intuitiva umana è alla base della grande duttilità che ci è propria e che ci ha permesso di organizzarci, fin dall’antichità, prima nella caccia e nell’agricoltura e in seguito nel lavoro. In un ambiente misto, le AI devono poter intuire le intenzioni degli operatori umani e adattarsi. Infatti, è la macchina a doversi adattare all’uomo e rispettare il suo ingegno e duttilità, non viceversa.
Poi, come secondo, indicherei la intelligibilità dell’azione. Le macchine cognitive vengono governate da software sviluppati per ottimizzare il consumo energetico, le traiettorie e le velocità operative dei servo apparati. Se un robot deve prelevare un oggetto, il movimento del suo braccio meccanico seguirà una traiettoria di minimo consumo energetico e temporale. Un uomo, invece, farà la stessa operazione in modo da far capire a chi gli sta intorno che cosa vuole fare. Vedendo un altro uomo in azione, l’operatore umano è capace di cogliere l’intenzione dell’agente non in forza di una operazione di ottimizzazione, ma della intelligibilità dell’azione stessa. Per questo, volendo garantire un ambiente di lavoro misto rispettoso della dignità umana, l’agire della macchina dovrà essere intellegibile all’uomo. Chi condivide con la macchina lo spazio di lavoro deve sempre poter intuire qual è l’azione che essa sta per compiere. Questo consente, tra l’altro, una coesistenza che non espone l’uomo a situazioni pericolose. Non è solo l’ottimizzazione dell’azione automatica quello che i software devono perseguire, ma sempre e anzitutto il rispetto dell’uomo.
– Rimangono due dimensioni.
Il terzo elemento da richiedere è l’adattamento. La AI consente già ora alle macchine di adattarsi alle condizioni ambientali per compiere azioni autonome. Gli algoritmi di AI dovrebbero però essere in grado di adattarsi non solo alle mutevoli condizioni ambientali, ma anche – in ambiente di lavoro misto – alle diverse personalità umane con cui devono interagire. Una automobile a guida autonoma, per fare un esempio, deve potersi adattare alle condizioni del traffico per non bloccarsi o provocare ingorghi. Ma essa dovrebbe potersi adattare anche alla sensibilità dei suoi passeggeri, i quali potrebbero essere esasperati dalla sua lentezza nel cambiare corsia o preoccupati dalla sua guida troppo aggressiva. L’uomo non è solo un essere razionale ma anche emotivo; è per questo che la macchina dovrebbe poter valutare e rispettare questa peculiare caratteristica, che riflette l’unicità della persona. L’attenzione a non mortificare tale unicità razionale-emotiva permette una coesistenza rispettosa della dignità delle persone.
Infine, come ultima caratteristica, parlerei di capacità per i software che governano la macchina di adeguare gli obiettivi. Infatti, se in un ambiente del tutto automatico l’assolutezza dell’obiettivo può essere una buona strategia, in un ambiente misto non lo è altrettanto. Affinché la macchina cognitiva interagisca in modo rispettoso con le persone, essa deve apprendere qual è l’obiettivo adeguato in una particolare situazione. Il robot non può avere come unica strategia quella di perseguire il suo obiettivo in modo assoluto, ma deve poter adeguare il suo agire in base all’agire e all’obiettivo di chi coopera con lui. Mi piace parlare della necessità, per la macchina, di implementare una sorta di umiltà artificiale, che le consenta di comprendere – caso per caso – se conviene sospendere o rimandare una certa funzione perché sono sorte altre priorità nelle persone con cui interagisce. La priorità operativa, insomma, va posta nella persona e non nella macchina. È il robot che coopera e non l’uomo che assiste il funzionamento della macchina.
– Come è possibile implementare in modo sicuro queste quattro caratteristiche in una macchina cognitiva?
Occorrono degli algoritmi di verifica indipendenti in grado di misurare e certificare le capacità di intuizione, intelligibilità, adattabilità e adeguatezza degli obiettivi sopra elencate. Tali algoritmi valutativi devono essere sviluppati rigorosamente in modo indipendente e affidati ad enti terzi di certificazione, che si facciano garanti della cosa. Tocca al governo poi provvedere un quadro operativo capace di trasformare la dimensione valoriale in strutture di standardizzazione, certificazione e controllo a tutela della persona e del suo valore negli ambienti di lavoro misti.
– A tale proposito, a che punto siamo nel nostro paese?
Con l’entrata in vigore del DPR 459/1996, l’Italia è entrata tra gli stati europei che – avendo recepito la cosiddetta “Direttiva macchine” – garantiscono la libera circolazione nel mercato comune solo a macchine che possiedono il marchio di conformità CE, che può essere rilasciata dal fabbricante o da un organismo ufficiale di certificazione. È ovvio che non basta fare controlli sulla sicurezza di installazione e delle condizioni operative delle macchine ma si tratta di garantire che lo spazio di autonomia di queste macchine cognitive rispetti sempre le direttive etiche fondamentali di cui dicevamo. Non bastano standard ma servono algoritmi in grado di valutare in modo intelligente l’adeguatezza delle AI destinate a cooperare con operatori umani. Solo così non subiremo l’innovazione tecnologica, ma potremo tentare di governarla e orientarla nella prospettiva di un autentico sviluppo umano anche nell’era delle intelligenze artificiali a-venire.