top of page
Immagine del redattorePaolo Benanti

Siamo pronti per un trattato internazionale sulle AI?


Se ci fosse un trattato internazionale sulle intelligenza artificiale all'orizzonte come dovrebbe essere? Come trovare una formulazione condivisa? Come applicarlo?

 

Le organizzazioni di tutto il mondo pubblicano principi per guidare la ricerca e lo sviluppo dell'intelligenza artificiale; diversi sono apparsi negli ultimi mesi. Sorprendentemente, questi principi riflettono un ampio consenso internazionale: 10 dei 12 principi più comuni sono presentati dal 90% delle organizzazioni, dal governo cinese all'Unione europea, inclusi Microsoft e Google DeepMind.

A giugno, i ministri del G-20 responsabili del commercio e dell'economia digitale hanno rilasciato una dichiarazione che includeva dei principi per un'intelligenza artificiale incentrata sull'uomo. Nel maggio 2019, gli Stati Uniti e altri 41 paesi hanno approvato i principi dell'OCSE, che potrebbero servire come bozza iniziale per un trattato internazionale.

L'articolazione dei principi di intelligenza artificiale varia. Alcuni appaiono come semplici dichiarazioni a frase singola; altri sono dichiarazioni di forma lunga. Alcuni sono specifici dell'organizzazione; altri sono specifici per paese. Alcuni riguardano il design, l'uso e la governance in particolare; altri coprono tutte e tre le aree senza specifiche particolari.

I 12 principi più comuni sono:

  • sostenere i diritti e i valori umani;

  • promuovere la collaborazione;

  • assicurare l'equità;

  • fornire trasparenza;

  • stabilire la responsabilità;

  • limitare gli usi nocivi dell'AI;

  • garantire la sicurezza;

  • riconoscere le implicazioni legali e politiche;

  • riflettere la diversità e l'inclusione;

  • rispettare la privacy;

  • evitare le concentrazioni di potere, e

  • contemplare le implicazioni per l'occupazione.

Eccoli in una tabella riassuntiva:

Tutti, tranne i principi elaborati da OpenAI, si occupano di trasparenza, responsabilità, diversità - inclusione e privacy. I due principi con il minor consenso sono quelle riguardanti l'evitare le concentrazioni di potere evitate, menzionate da tutti tranne Microsoft e Google, e considerare le implicazioni per l'occupazione, incluse solo in sei delle dieci organizzazioni che esaminate.

L'ampio consenso sulla necessità di principi però presenta alcune lacune di formulazione e di espressione nei principi stessi. I principi attuali devono assolutamente crescere nella loro specificità e affrontare la questione della loro applicazione specifica.

Sebbene esistano valori fortemente condivisi, esiste un'articolazione di questi valori in formulazioni costantemente vaghe.

Facciamo un esempio. I principi di Microsoft, per esempio, includono la seguente proposizione: "I sistemi di intelligenza artificiale dovrebbero responsabilizzare tutti e coinvolgere le persone". I principi di Google affermano: "Considerando lo sviluppo potenziale e gli usi delle tecnologie di AI, terremo conto di un'ampia gamma di fattori sociali ed economici, e procederemo dove crediamo che i benefici complessivi probabili superino sostanzialmente i rischi e gli svantaggi prevedibili". Sebbene la maggior parte di noi troverebbe difficile criticare nel merito questi principi, è difficile attuare qualcosa per farne " beneficiare tutta l'umanità ", ad esempio, o discernere cosa costituisce "un'ampia gamma di fattori sociali ed economici".

Tra i principi, ci sono molti punti unici che vale la pena considerare. I principi di The Future of Life richiedono di evitare una corsa agli armamenti di intelligenza artificiale in armi letali autonome. I principi di Pechino parlano di evitare i monopoli. L'educazione è stata discussa in diversi gruppi di principi. Le raccomandazioni vanno dalla creazione di curricula più ampi per ingegneri e tecnologi per educare le parti interessate ad aiutarle ad adattarsi all'impatto delle tecnologie dell'AI.

IEEE raccomanda la creazione di sistemi per la registrazione di tecnologie autonome che catturino i parametri chiave, come l'uso previsto e i dati di addestramento. E OpenAI discute la necessità che la leadership tecnica sia efficace nell'affrontare gli impatti sociali.

La continua discussione per definire e perfezionare i principi è sia urgente che importante dato il consenso emergente. Io personalmente sostengo che la discussione di principi specifici e attuabili sia una cosa importante e urgente che deve essere effettuata al più presto e con il maggior consenso possibile.

In linea con i 12 principi comuni che sono emersi, se ne potrebbero aggiungere altri. Per esempio:

  1. che l'AI ​​non conservi o divulghi informazioni riservate senza la previa approvazione esplicita da parte della fonte;

  2. che l'AI non rafforzi o incrementi alcun pregiudizio che esiste già nei nostri sistemi decisionali;

  3. che l'AI, in tutte le sue forme (sistemi robotici, autonomi, algoritmi incorporati), sia responsabile, interpretabile e trasparente, in modo che le persone possano comprendere le decisioni che le macchine prendono

  4. e, infine la più importante a mio giudizio, che le armi letali completamente autonome siano globalmente bandite.

Inoltre, tutti i sistemi di intelligenza artificiale dovrebbero essere dotati dell'equivalente di un interruttore di spegnimento che sia inespugnabile e non disinseribile.

Inoltre bisognerebbe lavorare nell'analogia del diritto. Questo porterebbe l'intelligenza artificiale ad essere soggetta all'intera gamma di leggi applicabili al suo equivalente operatore umano.

L'AI deve chiaramente rivelare, nel suo interagire con un essere umano, che è un artefatto non è umano rendendo illegale qualsiasi utilizzo delle AI che crei confusione sulla natura dell'artefatto rendendolo confondibile con un umano. Questi principi sono di particolare importanza e urgenza. Mi sembra fondamentale rendere evidente la natura artificiale del sistema prima di sviluppare artefatti che siano intrinsecamente "ingannevoli" per usi sociali: copie AI di persone defunte, giocattoli o partner sessuali dotati di AI, strumenti di compagnia per anziani, bambini o persone con deficit cognitivi o simili.

Inoltre in alcuni usi specifiche non basta una normatività generale. Le singole applicazioni delle AI (ad es. automobili a guida autonoma, giocattoli, interfacce utenti di particolari dispositivi che possono dare dipendenza) dovrebbero essere regolate individualmente, piuttosto che cercare di regolare il campo dell'AI in modo globale. Esattamente come esiste una normativa per l'energia elettrica e una specifica per una serie di utensili e veicoli elettrici.

A questo punto però compare anche una profonda nota di ottimismo. La sorprendente comunanza di principi espressa attraverso governi, associazioni professionali, laboratori di ricerca e società private suggerisce che abbiamo le basi per un trattato internazionale sull'intelligenza artificiale.

Il recente interesse e i rapidi progressi suggeriscono che è necessario passare rapidamente da principi vaghi ad azioni concrete. L'algor-etica deve farsi algor-politica per una AI democratica e favorevole allo sviluppo umano. si apre un tempo di trasformare in normative globali vincolanti quanto iniziato a fare in ambito accademico e dell'industria.

230 visualizzazioni0 commenti

Post recenti

Mostra tutti
bottom of page