Stiamo vivendo un’accelerazione nello sviluppo ed adozione delle tecnologie per fronteggiare la pandemia, che si estendono dalla capacità di utilizzare i dati globali per prevedere, prevenire, contenere, diagnosticare e monitorare la malattia, al controllo dei comportamenti e dello stato di salute dei cittadini, una tendenza questa in atto già da anni in molti ambiti, ma particolarmente in ambito sanitario. Le soluzioni per fronteggiare la crisi sanitaria erano già presenti prima di essa: ad esempio, l’uso dei big data attraverso l’IA permette di automatizzare la valutazione di chi è a rischio e dire loro di vedere un medico, sottoporsi a test o auto-isolarsi. Il tracciamento dei contatti permette di comprendere il rischio di essere stati infettati ed essere portatori asintomatici.
E’ evidente quindi come nella gestione dell’attuale emergenza il tema dell’Intelligenza Artificiale e delle sue potenzialità sia tornato al centro della discussione, non solo per gli impieghi che se ne possono fare, ma anche per le questioni etiche che solleva.
Sono essenzialmente 7 gli ambiti in cui l’IA è capace di offrire un supporto alle gestione della presente emergenza:
- Sistemi di allerta rapida e di allarme per individuare precocemente lo scoppio di epidemie; la startup canadese Bluedot è ad esempio stata capace di predire lo scoppio di Covid-19 alla fine del 2019, inviando allarmi ai propri clienti il 21 dicembre 2019, dieci giorni prima del WHO
- Monitoraggio e predizione; l’IA è in grado di monitorare e predire come il COVID-19 si diffonderà nel tempo e nello spazio; al Carneige Mellon University, ad esempio gli algoritmi utilizzati per predire la diffusione dell’influenza sono stati ri-programmati sui nuovi dati COVID-19.
- Data dashboards: la diffusione di COVID-19 ha stimolato il proliferare di piattaforme che aiutano a visualizzare la diffusione dell’epidemia, come Microsoft Bing’s AI tracker, Healthmap
- Diagnosi e prognosi: secondo una revisione recente di UN Global Pulse, IA può essere utilizzato con livelli di accuratezza maggiori e con notevoli risparmi di tempo, per diagnosticare il virus, utilizzando X-rays e sistemi di scanning basati su Computed Tomography (CT);
- Robotica intelligente per l’assistenza dei pazienti, riducendo così il rischio di infezione per il personale sanitario, e per la disinfestazione di aree e superfici altamente infette.
- Chatbot ed assistenti vocali per l’assistenza in remoto dei pazienti domiciliari, che possono alleggerire il personale sanitario nell’assistenza dei malati non gravi, permettendo un maggiore monitoraggio ed una continuità di trattamento.
- Cure e terapie: una delle potenzialità dell’IA è quella di essere impiegata a supporto della ricerca di nuovi vaccini ed è quello che sta avvenendo anche per Covid-19. Ad esempio, Google’s DeepMind ha contribuito a predire la struttura delle proteine del virus, informazioni che potrebbero essere utili per la ricerca del nuovo vaccino; più nell’immediato, l’IA sta già assistendo la ricerca nell’identificazione di nuovi farmaci: aziende come l’inglese BenevolentAI stanno infatti usando tecniche di deep learning per individuare farmaci efficaci contro il Covid-19.
- Controllo sociale: un utilizzo estensivo di IA, già in atto in Cina, è quello di monitorare le persone, facendo uno scanning degli spazi pubblici, rendendo obbligatorio il distanziamento sociale e le misure di lockdown. Ad esempio, come descritto nel South China Morning Post, camere infrarossi e i sistemi di riconoscimento facciale sono state poste in aeroporti e stazioni di treni per intercettare le alte temperature delle persone e il fatto se stanno o meno indossando mascherine.
Negli ultimi anni, a fronte del riconoscimento delle grandi potenzialità dell’IA, si è anche talvolta commesso l’errore di considerarla panacea di tutti i mali; molti sono invece i limiti da tenere presente nell’uso di queste tecniche, limiti da tenere in conto a maggior ragione in contesti delicati come quello della salute delle persone, che stanno emergendo anche nel contesto attuale.
Un primo limite è legato alle carenze dell’organizzazione umana, alle quali non può sopperire l’IA: la carenza di tamponi, di DPI, di procedure di sicurezza consolidate, di personale sanitario, e più in generale di capacità di integrazione delle soluzioni di IA nei sistemi sanitari attuali.
Un secondo limite è proprio della natura dell’IA: gli algoritmi su cui si basa l’IA, per poter essere efficaci hanno bisogno di grandi quantità di dati, che non è sempre possibile avere a disposizione in tempi brevi, garantendo così l’utilità di questi sistemi nel momento del bisogno; inoltre alla quantità deve essere associata l’alta qualità dei dati, elemento reso critico dall’inaffidabilità e inaccuratezza delle fonti dei dati e dalla disomogeneità del loro formato; infine, la correzione delle distorsioni che possono essere presenti negli insiemi di dati analizzati non è sempre facile, fattibile, o conveniente. Questi elementi pongono dei limiti all’efficacia di utilizzare l’IA ad esempio per predire la diffusione dell’epidemia. Nell’immediato è in effetti più probabile che invece dell’IA per il monitoraggio e la predizione della diffusione delle epidemie vengano preferiti modelli epidemiologici già affermati.
Privacy e libertà vs. Salute e prevenzione?
Le tecnologie di IA già mature per le quali i dati esistenti permettono un’adozione immediata sono spesso legate alla sicurezza pubblica ed alla sorveglianza: ad esempio l’uso della computer vision per il monitoraggio di indicatori come la temperatura, o il riconoscimento facciale per la verifica dell’uso o meno della mascherina, ambiti in cui le tecnologie sono già diffuse e mature.
Questo riguarda anche l’utilizzo di app che permettono di monitorare gli spostamenti delle persone, mandare notifiche circa possibili rischi corsi nella frequentazione di determinate aree, e rendere possibile la ricostruzione retrospettiva delle linee di contagio, processando i dati tracciati dei contatti tra le persone grazie alla tecnologia bluetooth.
In queste ultime settimane è emerso con sempre maggior forza come le scelte di policy relative all’uso dei dati per la tutela della salute pubblica possono avere delle conseguenze dirompenti e negative sulla nostra privacy, che l’Unione Europea ha tentato di difendere attraverso l’adozione delle nuove regole sulla protezione dei dati, con il GDPR entrato in vigore nel 2018. In molti stanno lanciando allarmi rispetto al rischio che la reazione al COVID19 acceleri la costruzione di un’architettura dell’oppressione, e che la tutela della salute, sebbene fondamentale, possa anche essere il meccanismo attraverso il quale rendere accettabili modelli di “libertà sorvegliata”, attraverso iniziative di sfruttamento dei dati personali basate su scelta volontaria dei cittadini, ma stimolate da forti incentivi discriminanti, ad esempio della mobilità o dell’accesso a beni e servizi.
La tensione tra il rischio di una società del controllo totale da parte degli Stati o da parte delle società private si contrappone ad un modello più partecipativo basato sugli Open Data, dove la trasparenza sul funzionamento degli algoritmi e la gestione dei dati siano alla base dello sviluppo delle soluzioni che sfruttino queste grandi masse di dati a favore delle collettività.
A questo fine i governi europei stanno spingendo il mondo della ricerca verso lo sviluppo di modelli alternativi sia centralizzati (dove i dati sono aggregati in un unico luogo virtuale) che decentralizzati (dove i dati sono distribuiti su più nodi), nei quali i dati anonimizzati possano essere utilizzati per la gestione delle informazioni necessarie al tracciamento dei contatti tra le persone e quindi dei rischi di infezione.
Attualmente alcune iniziative pubblico-private paneuropee come DP-3T e la Pan-European Privacy-Preserving Proximity Tracing (PEPP-PT) stanno portando allo sviluppo di software con l’obiettivo di aumentare l’interoperabilità e la capacità di utilizzare il roaming, aderendo alla regolamentazione sulla privacy e fornendo dati epidemiologici per combattere la pandemia. Ma già nel corso dello sviluppo di queste soluzioni stanno emergendo molte critiche e problematiche, relative alla reale capacità di protocolli come il PEPP-PT (alla base del quale è stata sviluppata la app italiana Immuni) di preservare l’anonimato degli utenti.
Un ulteriore problema è legato alla possibilità di “libertà non sorvegliata” che sarà ancora possibile dopo l’adozione di queste soluzioni. Infatti, sebbene l’utilizzo delle app di tracciamento in Europa sarà sicuramente su base volontaria, la sua efficacia è possibile solo con l’adozione da parte di almeno il 60% della popolazione, un numero enorme che neanche le app più popolari (social network come Facebook o Instagram) hanno mai raggiunto. Per raggiungere questo obiettivo alcuni possibili scenari vedono l’adozione di incentivi molto duri che utilizzino come leva il fatto di renderla condizione necessaria per poter fruire dei vantaggi di mobilità, aspetto che evidenzia fortissime criticità in termini di violazione delle libertà individuale. La tensione tra libertà individuale e libertà collettiva è un altro dei dilemmi già presenti nella nostra società ben prima della crisi, che sta subendo un’accelerazione anche a causa della immensa potenza che l’IA sta dimostrando di poter fornire all’intelligenza collettiva in termini di uso delle informazioni e di controllo delle scelte ed azioni dei singoli.
Difficilmente questa tensione sarà estemporanea, e le decisioni che prenderemo influenzeranno il nostro destino e quello delle generazioni successive. L’aumento dell’efficacia e dell’efficienza nella risposta al virus non potrà essere l’altare sacrificale delle libertà acquisite. La sperimentazione di modelli aperti, trasparenti, che possano essere messi in discussione e continuamente migliorati attraverso l’intelligenza collettiva come strumento di tutela delle libertà e dei diritti umani non è forse mai stato così drammaticamente importante quanto in questi mesi.
Le Grandi Opere di domani devono essere qui già oggi
La pandemia che stiamo vivendo ha fatto emergere come l’Italia ed in termini di sistema anche l’Europa siano in una terra di mezzo, in una transizione non ancora avvenuta tra la sperimentazione già in atto di strumenti digitali, big data ed IA per capacitare l’intelligenza collettiva e l’inadeguatezza del sistema attuale a sfruttarne pienamente le potenzialità, a causa di un’assenza di investimenti (si pensi al problema del digital divide, che riguarda tanto l’istruzione quanto la sanità), della frammentazione di informazioni e procedure a livello regionale e locale, di visione strategica a livello nazionale, e ancor più spesso di omogeneità nell’applicazione degli indirizzi strategici esistenti. L’IA potrebbe essere il più grande potenziatore del meccanismo di intelligenza collettiva che è il nostro sistema sanitario nazionale, che ha già dimostrato in questi anni numerose difficoltà a divenire digitale. Come sottolineato da molti a livello internazionale, e da Calderini recentemente rispetto all’Italia, la necessità di un’infrastruttura nazionale dei dati che sia aperta, interoperabile ed in mano al settore pubblico è centrale per rendere possibile l’utilizzo efficace dei Big Data nella Sanità Nazionale, e sarà fondamentale iniziare a costruire questa grande opera prima di domani. Con l’accelerazione, questa sì auspicabile, generata dalla crisi.
Leggi anche:
>>Intelligenza oltre l’ostacolo: come l’IA può aumentare l’intelligenza collettiva