L'intelligenza artificiale potrebbe reinventare la medicina o diventare l'incubo di ogni futuro paziente. Wired rivela che la Mayo Clinic memorizzerà i dati sanitari di tutti i pazienti che ha avuto nella sua storia nel cloud di Google e utilizzerà l'esperienza di BigG nell'intelligenza artificiale per avere nuovi strumenti e insight clinici. Ma Google ha commesso numerosi errori in precedenza e spesso ha violato la privacy delle persone. Opportunità o rischio?
La nostra storia parte nel 1880, quando la Mayo Clinic, uno degli ospedali e centri di ricerca medici più famoso del mondo, altro non era che una neonatà fraternità di chirurghi associatesi nel nome della misericordia al paziente e sul modello dei santi Cosma e Damiano. La Mayo era nata nel neo formato stato del Minnesota e offriva la migliore pratica medica a quello che all'epoca era un territorio di frontiera. Una delle caratteristiche dell'associazione di medici della Mayo era di scrivere appunti sui loro pazienti in pesanti libri rilegati in pelle. Ma nel 1907 un medico di nome Henry Plummer ebbe un'idea destinata acambiare la storia della medicina clinica. Plummer pensava che gli episodi della storia medica di un paziente dovessero essere conservati tutti in un posto unico e non sparsi tra i diari di molti medici. Questo gli fece introdurre un nuovo sistema, creando per ogni paziente della Mayo una cartella conservata centralmente e un numero identificativo univoco del paziente che doveva essere scritto su ogni pezzo di carta che vi finiva dentro: appunti del medico, risultati di laboratorio, corrispondenza del paziente, dati di nascita e di morte. Inoltre, riconoscendo il valore scientifico di questi dossier, ha convinto la leadership di Mayo a renderli disponibili per l'insegnamento e la ricerca a qualsiasi medico lavorasse presso la clinica.
Questo sviluppo segnò l'inizio della moderna conservazione della documentazione medica negli Stati Uniti. La sotoria ci insegna che fin dall'inizio di questa prassi, lo sforzo terapeutico dei medici è stato animato da una tensione inestricabile tra condivisione e segretezza - tra il potenziale di estrarre i dati dei pazienti per nuove intuizioni mediche e i diritti dei pazienti a mantenere tali informazioni private.
Il 15 settembre, quella storica tensione è tornata alla ribalta della cronaca perché la Mayo Clinic ha annunciato che Google avrebbe iniziato ad archiviare in modo sicuro i dati dei pazienti dell'ospedale in un angolo privato del cloud dell'azienda. Questo comporta il passaggio da Microsoft Azure, in cui Mayo ha archiviato i dati dei pazienti da maggio dello scorso anno, quando ha completato un progetto lungo anni per portare tutti i suoi dati di cura in un unico sistema di cartelle cliniche elettroniche. L'operazione di digitalizzazione prendeva il nome di Project Plummer in onore dell'inventore della cartella clinica.
Il cambiamento segnala le ambizioni dello storico ospedale per l'utilizzo futurio delle sue risorse di dati clinici dei pazienti. Google sta sviluppando nuovi sistemi nel tentativo di utilizzare l'intelligenza artificiale per migliorare l'assistenza sanitaria, con esperimenti di lettura di immagini mediche, analisi del genoma, previsione di malattie renali e screening per problemi agli occhi causati dal diabete. Come parte di questa partnership decennale, Google prevede di utilizzare la sua profonda esperienza di intelligenza artificiale sulla colossale raccolta di cartelle cliniche di Mayo. Il colosso della tecnologia prevede inoltre di aprire un ufficio a Rochester, nel Minnesota, per supportare la partnership, ma al momento non ha dichiarato quanti dipendenti saranno impiegati o quando apriranno.
I funzionari dell'ospedale affermano che saranno implementati controlli severi che limiteranno l'accesso di Google ai dati di Mayo. Tuttavia, nonostante le migliori intenzioni e gli obiettivi più elevati, i dati hanno mostrato fin'ora di trovare veri modi per sfuggire ai silos dove erano conservati. Le voci di alcuni esperti di dati sanitari si sono subito levate dicendo che ci sono fondati timori che questo tipo di partenariato scompigli i fili sfilacciati delle leggi - ormai vecchie e inadeguate - sulla privacy negli Stati Uniti e il mosaico di regolamenti diversi che disciplinano i dati medici.
"Il problema è che il modello di business di Google è utilizzare o vendere dati", afferma Lawrence Gostin della Georgetown Law School, che ha scritto ampiamente sulla riforma delle leggi sulla privacy dei dati sanitari. "Sono tutt'altro che convinto che Google potrebbe non utilizzare informazioni identificabili per i suoi scopi commerciali".
Si tratterebbe di informazioni che la società non dovrebbe avere a meno che i pazienti non acconsentano esplicitamente, secondo la US Health Insurance Portability and Accountability Act, o HIPAA, la più alta legge sulla privacy delle informazioni sanitarie del territorio. L'HIPAA richiede che i fornitori di assistenza sanitaria non rivelino a terzi informazioni sulla salute identificabili personalmente senza l'espressa autorizzazione del paziente.
Ma gli scettici come Gostin hanno motivo di dubitare che il famigerato stile operativo di Google nell'operare sui dati sia compatibile con il delicato settore dell'assistenza sanitaria. Alcuni degli altri esperimenti nel mondo della salute della società tecnologica di Paolo Alto hanno riscontrato problemi normativi e legali, tra cui un'app chiamata Streams che la sua affiliata DeepMind sta sviluppando in un assistente basato sull'intelligenza artificiale per medici e infermieri. Una partnership tra DeepMind e il Servizio sanitario nazionale del Regno Unito per provare l'app ha infranto la legge dando alla società un accesso eccessivamente ampio ai dati su 1,6 milioni di pazienti come ha rilevato un'indagine del 2017 dell'autority per la protezione dei dati del paese.
Nello stesso anno, Google ha stretto una partnership di data mining con il Medical Center dell'Università di Chicago - lo UCMC -, che ora viene portato in tribunale per aver infranto le leggi sulla privacy. Lo scorso giugno, un paziente ha fatto causa a UCMC e Google, sostenendo che la sua e migliaia di cartelle cliniche elettroniche di altri pazienti sono state consegnate a Google senza essere state ripulite dalle marcature temporali con data e ora.
Google e UCMC hanno entrambi negato le accuse. Se fosse vero, sarebbero una chiara violazione dell'HIPAA. Ma la causa non è stata sottoposta a HIPAA. Al contrario, fa valere pratiche commerciali ingannevoli e sleali ai sensi della legge sulla protezione dei consumatori dell'Illinois, nonché violazioni dei diritti della privacy presenti nel diritto civile. Il reclamo descrive come Google potrebbe, in teoria, ricevere legalmente cartelle cliniche de-identificate e quindi combinarle con i suoi vasti archivi di dati che gli permettono di sapere come le persone si comportano online, tra cui la geolocalizzazione, le query di ricerca e i post sui social media, per identificare nuovamente le persone e aggirare l'anonimizzazione.
"Fino a poco tempo fa l'attuale modo di pensare è stato che se questi documenti non hanno un nome, un indirizzo, allora non può succedere nulla di brutto, ma penso che non sia più vero", afferma Michelle Mello, esperta di diritto sanitario presso Stanford che ha scritto sul caso Google/UCMC. La studiosa sottolinea che l'HIPAA è stato emanato nel 1996, prima dell'esistenza di Google e quando i 20 milioni di utenti Internet degli Stati Uniti navigavano solo circa 30 minuti al giorno. Ciò che le aziende tecnologiche possono fare con i dati non identificati espone lacune nella privacy dei dati che si allargano con ogni ricerca di Google e post di Facebook, afferma.
“Anche quando sono stati trasmessi responsabilmente, una volta che questi dati sono disponibili, non sono più in custodia di aziende vincolate da normative di alcun tipo e non sappiamo quali collegamenti potrebbero essere eseguiti e dove questi dati potrebbero alla fine finiscono ", dice la ricercatrice di Stanford. "C'è molto che si può fare con i dati delle persone senza violare alcuna promessa dell'accordo legale".
Alla luce di questo tipo di preoccupazioni, i funzionari della Mayo Clinic affermano di essere stati attenti a come hanno strutturato la partnership di Google. Google sarà contrattualmente vietato dalla combinazione dei dati clinici di Mayo con qualsiasi altro set di dati, secondo un portavoce dell'ospedale. Ciò significa che tutti i dati che Google ha su una persona attraverso i suoi servizi rivolti al consumatore, come Gmail, Google Maps e YouTube, non possono essere combinati con il set di dati delle cartelle cliniche di Mayo. Per garantire ciò, l'ospedale renderà accessibili a Google solo i dati non identificati all'interno del cloud privato controllato da Mayo, dove è in grado di monitorare qualsiasi attività.
Gostin afferma che ciò dovrebbe rassicurare i pazienti in una certa misura, ma non è affatto una garanzia di privacy. "Obbligare Google ai propri impegni in materia di privacy è difficile e dovrebbe essere necessario l'intervento di Mayo a livello giudiziario", afferma. I pazienti probabilmente non avrebbero la possibilità di fare un loro ricorso legale se l'accordo non fosse rispettato. "La vera soluzione è la legislazione nazionale che impone una migliore privacy in più sfere", afferma. "Compresi servizi basati su dati e cloud, social media e Internet".
Mentre non è ancora in competizione con i cambiamenti climatici, il controllo delle armi, l'interferenza delle elezioni russe e altre priorità politiche che bruciano attualmente, la Mello ritiene che questo tipo di cambiamento sia inevitabile. "Il fronte che questa tecnologia sta muovendo non è in linea con le aspettative del pubblico in merito alla privacy", afferma. "Quindi penso che inizieremo presto a vedere una richiesta di regolamenti formali". Sulla questione del regolamento, Google ha rifiutato di fornire qualsiasi commento alla rivista Wired che ha cercato di indagare sulla questione.
Alcune considerazioni
Gli standard della pratica medica possono cambiare e di fatto cambiano man mano che arrivano le nuove tecnologie e cambiano i valori della società. Durante il periodo di Plummer e per molti anni dopo, i medici Mayo potevano scavare nei registri di qualsiasi paziente in nome della scienza. Quindi arrivarono l'HIPAA e le altre normative in materia di salute e diritto della persona.
Se pionieri come Mayo hanno trovato modi diversi di utilizzare i propri dati per far avanzare la ricerca medica. Tuttavia introdurre le AI produce un salto di qualità notevole.
L'analisi predittiva applicata dai sistemi di AI è un campo di indagine matematica che comprende una varietà di tecniche statistiche della modellazione predittiva, apprendimento automatico, e data mining che analizza fatti storici e attuali per fare predizioni sul futuro o su eventi sconosciuti.
Negli affari, i modelli predittivi ricercano schemi in dati storici e transazionali per identificare rischi e opportunità. I modelli trovano relazioni tra molti fattori che permettono valutazioni del rischio o del rischio potenzialmente associato con un insieme particolari di condizioni, guidando la presa di decisioni. Questi approcci tecnici forniscono un punteggio di predittività (probabilità) per ogni individuo (Cliente, impiegato, prodotto, SKU, veicolo, componente, macchina...) per determinare, informare o influenzare i processi organizzativi che appartengono ad un gran numero di individui.
L'analisi predittiva è usata in scienze attuariali, marketing, servizi finanziari, assicurazioni, telecomunicazioni, rivendita al dettaglio, nel settore turistico, della salute e delle scelte pubbliche. Il campo di utilizzo in questo caso è quanto mai singolare: la diagnosi medica sull'inferenza di parole chiave nell'anamnesi medica. L'anamnesi è il primo dei tre processi utilizzati nella fase analitica del processo diagnostico. Gli altri sono l'esame obiettivo e gli esami strumentali. L'anamnesi, in medicina, è la raccolta dalla voce diretta del paziente e/o dei suoi familiari (per esempio i genitori nel caso di un lattante o di un bambino), di tutte quelle informazioni, notizie e sensazioni che possono aiutare il medico, l'infermiere e le altre professioni sanitarie a indirizzarsi verso una corretta diagnosi di patologia o una adeguata procedura sanitaria.
Affidare la diagnosi a un'AI che lavora solo su questo pone non pochi problemi. Sia sull'affidabilità del sistema quanto sul possibile scarto tra il modello predittivo e la realtà. Se anche fossimo in grado di dimostrare un errore tollerabile nella diagnosi, cioè che la macchina identifica tutte le occorrenze di quella patologia con una percentuale maggiore o uguale a quella di un medico medio, ancora altre questioni rimangono aperte. In primo luogo se la macchina identifica il 90% delle labirintiti non è equivalente a dire che la macchina esegue il 90% delle diagnosi dei pazienti in maniera corretta. Inoltre bisogna chiedersi come i programmatori abbiano considerato la devianza dal modello predittivo. In altri termini parliamo di campane di Gauss, distribuzioni normali e deviazioni standard o di persone?
Inoltre qui si giocano delle questioni importanti sulla privacy e sulla regolamentazione pubblica. Come tenere insieme diritti del paziente e necessità della ricerca? Come far si che le istanze etiche siano efficaci nel profondo regno delle macchine dove solo gli algoritmi riescono ad operare? Come normare questi nuovi campi? Le nuove leggi che si faranno, adatte alle esigenze di privacy del momento attuale, sapranno non devono interrompere i progressi della medicina? Sapranno ispirare l'innovazione?
Anche queste sono questioni di algor-etica.