Intelligenza Artificiale Scienza e tecnologia, etica e impatto nella sanità

Francesca Rossi
Centro di ricerca IBM T.J. Watson di New York, USA

 

L’intelligenza artificiale supporta già gran parte delle nostre attività quotidiane e ci aiuta a prendere decisioni più informate. Il suo punto di forza è la capacità di derivare conoscenza da grandi quantità di dati. Ciò le permette di avere un impatto inclusivo in ambito sanitario. Ad esempio, può aiutare i medici nell’individuazione di diagnosi e terapie, supportare la telemedicina, accelerare lo sviluppo di nuovi farmaci e migliorare la gestione delle strutture sanitarie e dell’assistenza al paziente. Ma è fondamentale che rispetti i valori umani e lavori in sinergia con i pro- fessionisti del settore a supporto di tutti gli stakeholder, primi fra tutti i pazienti.

L’Intelligenza artificiale (Artificial Intelligence, AI) è una disciplina scientifica con lo scopo di costruire macchine in grado di risolvere problemi che richiedono intelligenza umana. Queste macchine possono essere dei sistemi software, o combinare software e hardware, come nella robotica o nelle auto a guida autonoma.

L’avventura scientifica dell’AI è nata più di 60 anni fa e include due principali aree di ricerca. Una è spesso chiamata l’AI simbolica o logica. In questa modalità, i ricercatori e gli sviluppatori capiscono come definire un problema (tramite simboli che descrivono le sue componenti principali) e come risolverlo, poi codificano questa soluzione in un algoritmo o delle regole, e trasformano questa soluzione in codice software per comunicarlo alla macchina. Questo modo di costruire macchine “intelligenti” è adatto quando il problema è ben definito. Un esempio tipico è trovare la strada migliore per andare da una città a un’altra, problema risolvibile da un classico algoritmo di AI che segue la logica per trovare la soluzione migliore in modo efficiente ed ottimo.

Un’altra grande area di ricerca è invece basata sull’analisi di dati e l’apprendimento automatico (machine learning), in cui l’AI riesce a trovare correlazioni e pattern invisibili alle persone perché “nascosti” in grandi quantità di informazioni. Questo approccio, che spesso usa strutture chiamate reti neurali, perché  traggono  ispirazione  dalla struttura del cervello umano, funziona molto meglio di quello basato su regole  e  logica  quando il problema da risolvere è troppo vago o ha troppe possibili istanze per poter essere descritto precisamente. Un esempio è l’analisi di una immagine per capire se contiene il volto di una persona. I volti delle persone possono essere molto diversi, e apparire in una immagine con diverse angolature. Questo rende praticamente definire un algoritmo che sicuramente (o con grande probabilità) riesce a dare la risposta corretta. Per ovviare a questo problema, si forniscono invece tantissimi esempi di soluzione del problema (cioè di immagini e corrispondenti risposte corrette) e si lascia che la macchina generalizzi da questi esempi per riuscire a dare la risposta corretta in una percen- tuale molto alta di casi anche su immagini mai viste prima. Oltre all’analisi di immagini, altri esempi in cui queste tecniche funzionano molto bene sono la traduzione au- tomatica da una lingua ad un’altra, la comprensione di comandi vocali, e l’analisi del testo per rispondere a domande (i cosiddetti chatbot).

Mentre le tecniche di AI basate su ragionamento logico hanno bisogno di un ambiente  “controllato” in cui le macchine si trovano a funzionare, e sono state usate con successo in molti ambiti (quali la programmazione ottimale dei turni del  personale  e  l’allocazione dei gate negli aeroporti), le tecniche di apprendimento automatico hanno dato alle macchine capacità “percettive”, quali la possibilità di interpretare correttamente un testo, un suono, una immagine, o un video. Questo ha permesso di am- pliare enormemente il campo applicativo dell’AI negli ultimi anni. E’ da notare che queste tecniche erano già state definite dai ricerca- tori di AI negli anni ’80, ma fino a pochi anni fa non davano risultati soddisfacenti per mancanza di dati sufficienti e di computer abbastanza potenti.

In realtà i due approcci all’AI sono spesso combinati, perché è vero che i dati forniscono informazioni utili per capire la realtà, ma è anche vero che senza un livello di ragionamento logico si può rischiare di cadere in tranelli cognitivi che porterebbero l’AI a interpretare questi dati in modo non corretto e quindi a prendere, o suggerire, decisioni sbagliate o potenzialmente dannose.

2. Capacità, Limiti e Rischi dell’AI

L’AI ha già innumerevoli applica- zioni. La usiamo quando paghiamo con una carta di credito, quando cerchiamo informazioni su web o facciamo una foto, per trovare la strada più breve per andare da un amico, quando parliamo al telefonino invece di scrivere o quando usiamo uno dei tanti social media per interagire con i nostri amici. Aziende e istituzioni in tutti i settori stanno gradualmente comprendendo l’utilità di tecniche di AI nelle loro operazioni: ospedali, banche e istituti finanziari, il settore manifatturiero e il settore pubblico. Qualunque sia il modello di business e l’ambito applicativo, l’AI può ottimizzare le operazioni, renderle più efficienti, migliorare le decisioni dei professionisti del settore e creare nuovi servizi e modalità di lavoro.

L’AI è spesso usata per decide come agire in una determinata situazione, o in modo autonomo o fornendo suggerimenti a coloro che saranno poi i decisori finali. Per le decisioni in ambito professionale, quali quelle relative a chi assumere, o se accettare una richiesta di prestito, o che terapia usare per un paziente, è molto importante, e anche sancito dalle leggi, che non vengano fatte discriminazioni (per esempio basate su età, ses so, razza o altre caratteristiche). L’AI può invece presentare “bias” (pregiudizi) che potrebbero portare a decisioni discriminatorie. Ad esempio, quando una banca nega il mutuo ad una persona, non vogliamo che questa decisione sia basata su fattori quali la sua razza o il suo sesso. Vogliamo che si basi solo su dati che siano rilevanti per l’accensione del mutuo e la capacità della persona di ripagarlo. Il problema è che, se si usano tecniche come quelle di machine learning, la discriminazione potrebbe essere nascosta nella grande quantità di esempi forniti alla macchina. Se questi esempi non sono rappresentativi delle diversità delle possibili situazioni, per la macchina sarà difficile generalizzare bene. Ad esempio, se le situazioni fornite contengono solo casi di mutuo accettato per uomini e mutuo rifiutato per donne, allora la macchina associerà il sesso all’accettazione o meno della richiesta di mutuo, e quando le verrà chiesto di decidere su una nuova richiesta potrebbe usare questa caratteristica del richiedente per prendere la decisione. Per evitare questo problema, è importante sviluppare tecniche che permettano di individuare e correggere i bias nei dataset, istruire gli sviluppatori a non inserirne anche involontariamente e documentare l’eventuale bias presente nel sistema di AI e non eliminato, al fine di definire gli usi più appropriati e quelli non adatti per la specifica applicazione.
Il rischio di decisioni discriminatorie è solo un esempio di possibili comportamenti dell’AI non allineati ai valori umani. Altri valori possono essere declinati, ad esempio, tramite vari codici di condotta, da seguire in ambito professionale. Ad esempio, i medici hanno un codice deontologico che devono seguire nel prendere decisioni. Se vogliamo affiancare ad un medico un sistema di AI che lo aiuti a decidere meglio, aiutandolo ad essere al corrente dei risultati scientifici o di tutti gli altri casi simili al paziente che sta curando, dobbiamo essere sicuri che questo sistema di AI sia al corrente anche del codi ce etico da rispettare, e che sappia seguirlo nel proporre possibili decisioni al medico (ad esempio nel decidere la terapia più adatta). Siamo sicuri che la macchina sappia gestire i dati dei pazienti rispettando le leggi sulla privacy che sono in vigore nello stato in cui si trova ad operare? Oppure, siamo sicuri che sappia che la scelta della terapia per un paziente non può basarsi su considerazioni di budget ma solo sul beneficio per la salute del paziente stesso? E’ quindi importante capire come codificare specifici principi etici in una macchina, come fare in modo che li segua e anche come fornirle informazioni per aiutare l’essere umano a seguirli, eventualmente segnalandogli eventuali deviazioni.
Non solo le decisioni devono essere allineate ai nostri valori, ma devono anche essere giustificate. Un sistema di AI deve essere in grado di spiegare perchè prende o suggerisce certe decisioni e non altre. Questa capacità, almeno per ora, è disponibile se si usa l’AI simbolica o basata su logica e regole, ma è invece meno attuabile con sistemi di

AI che usano tecniche di machine learning. Questo perchè, quando le decisioni sono basate sull’analisi di grandi quantità di dati, non è ovvio capire quali aspetti dei dati abbiano influito sulla decisione.
E’ anche importante definire una politica di uso responsabile dei dati usati per l’AI. La possibilità di derivare conoscenza dai dati è essenziale per fornire servizi personalizzati e analisi accurate, che permettono di predire trend futuri. Ma l’uso di grandi quantità di dati, anche personali, rende necessario un loro uso consapevole e dichiarato a chi li fornisce. In Europa la legge GDPR (General Data Protection Regulation) indica i diritti di chi fornisce i propri dati, ma anche in altre regioni del mondo è importante che la gestione dei dati sia dichiarata e decisa in modo collegiale.

3. L’etica dell’IA

L’etica dell’AI è un campo di studio multi-disciplinare e multi-stakeholder che mira a individuare i possibili rischi in soluzioni e prodotti basati sull’AI, con lo scopo di capire come far si che questa tecnologia così utile e trasformativa abbia un impatto positivo sulle persone e sulla società. Per raggiungere questo obbiettivo, coinvolge esperti di molte discipline e aziende/organizzazioni/istituzioni di vario tipo.
Negli ultimi anni, molte aziende, associazioni, governi e istituzioni hanno pubblicato o stanno lavorando ad articoli scientifici, principi, requisiti, regole, certificati o standard, con l’intento di studiare e affrontare alcuni degli aspetti elencati sopra e legati all’etica dell’AI. Esempi sono le Nazioni Unite, Il Foro Mondiale Economico, la Commissione Europea, la Casa Bianca, singole aziende come Google, Apple, o IBM, e organizzazioni come l’OECD (l’Organizzazione per lo Sviluppo e la Cooperazione Economica).
Tra le principali aziende che sviluppano questa tecnologia e la applicano in svariati scenari e settori, l’IBM è quella che naturalmente io conosco più a fondo e che a mio avviso ha l’approccio più olistico all’etica dell’AI, in cui vengono affrontati tutti gli aspetti con strumenti di vario tipo: principi, progetti di ricerca, strumenti open-source, prodotti e piattaforme, metodologie di governance ed educazione aziendale e anche collaborazioni con governi, altre aziende, associazioni e istituzioni. L’IBM è stata la prima azienda a pubblicare nel 2017 i propri principi per lo sviluppo dell’AI, individuando nella trasparenza e la fiducia due proprietà fondamentali, e indicando la volontà di creare AI a supporto dell’intelligenza umana e non per rimpiazzarla. Nel 2017 abbiamo anche definito e pubblicato una politica di gestione responsabile dei dati, che dichiara i dati di proprietà dei nostri clienti e quindi non riusabili per migliorare le soluzioni per altri clienti.
Questi principi guidano tutte le attività dell’azienda, a partire dai laboratori di ricerca, dove vengono studiate e sviluppate nuove soluzioni per creare un’AI “affidabile”, definita attraverso quattro linee principali: fairness (cioè non discriminazione), robustezza, spiegabilità e trasparenza. I ricercatori IBM creano soluzioni scientifiche e tecnologiche innovative per individuare e correggere il bias in AI, per dare all’AI la capacità di spiegare le proprie decisioni anche quando si usano tecniche di machine learning, per minimizzare gli errori di queste tecniche e quindi renderle più robuste, oltre a metodologie per documentare la creazione dell’AI e quindi dare trasparenza al processo di sviluppo.
Studi e programmi sull’impatto dell’AI nel mondo del lavoro vengono effettuati internamente o in collaborazione con istituzioni accademiche. Inoltre, programmi come P-TECH (Pathway to Technology) aiutano i giovani ad avere le giuste capacità e nozioni per entrare con successo in un mondo del lavoro che è ormai pervaso dall’AI.
Perchè un’azienda possa veramente produrre AI responsabile e affidabile, è necessaria una collaborazione e un coordinamento tra tutte le divisioni aziendali. Per questo

l’IBM ha istituito nel 2018 un comitato interno per l’etica dell’AI, che include rappresentanti della ricerca, le unità di business, i servizi, le comunicazioni, l’ufficio legale e chi si occupa della privacy dei dati, con lo scopo di favorire la condivisione di informazioni, processi e materiale utile sull’AI e la sua etica tra le varie divisioni e di aiutare le unità di business a discutere eventuali dubbi etici su soluzioni e prodotti.
Oltre al lavoro interno, l’IBM è anche impegnata a collaborare con molte altre aziende, università, istituzioni e governi per capire i migliori approcci per definire e sviluppare AI benefica per tutti. E’ con questo scopo che l’azienda è una delle sei fondatrici della Partnership on AI, una iniziativa globale nata nel 2017 e in cui ad oggi circa 100 partner discutono e lavorano insieme a tutti gli aspetti cruciali dell’etica dell’AI.
Molto importante sul tema della governance globale dell’AI è la collaborazione con la Commissione Europea, che è molto attiva nel declinare le linee guida etica per l’AI in Europa e nel capire come eventualmente regolamentare l’uso di questa tecnologia.

4. IA, COVID-19 e sanità

In questo momento difficile, in cui la pandemia COVID-19 ha stravolto la nostra quotidianità, le tecnologie digitali hanno mostrato la capacità di consentirci di rimanere connessi anche se fisicamente lontani. Questo ha permesso a molti di continuare a lavorare e agli studenti di progredire con la loro educazione e ha anche accellerato la digitalizzazione di molte attività in interi settori.

Nel campo medico, la combinazione di AI, cloud, dispositivi mobili e sensori ha permesso il monitoraggio di persone in quarantena e la gestione di pazienti che non potevano essere visitati fisicamente da un medico. Inoltre, molti consulti medici, anche non relative al COVID-19, per esempio per controlli di routine, sono stati trasformati da incontri fisici a virtuali. Le tecnologie digitali hanno iniziato a giocare un ruolo rilevante non solo per garantire i servizi essenziali, ma anche per riaprire le varie attività in condizioni di sicurezza.

Gli operatori del settore medico, finora impegnati nella gestione dell’emergenza, stanno riprogettando processi e modelli per la fruizione dei servizi sanitari e la condivisione di dati rilevanti. Inoltre, gli sforzi per lo sviluppo di un vaccino hanno scatenato una collaborazione tra industrie farmaceutiche, istituzioni sanitarie e aziende che forniscono tecnologia.

I computer più potenti sono stati usati con tecnologie di AI per accellerare l’individuazione di nuove medicine, per comprendere i meccanismi del virus e per testare velocemente milioni di molecole potenzialmente utili a rendere il virus inoffensivo. Ad esempio, IBM ha creato una partnership con l’Ufficio per le Politiche Scientifiche e Tecnologiche della Casa Bianca (il COVID-19 High Performance Computing Consortium) e con altre aziende per sfruttare l’enorme potenza di calcolo dei computer più veloci al mondo per aumentare la velocità e l’efficacia della ricerca sul virus. In Europa, una simile iniziativa è la Exscalate4CoV, una coalizione pubblica-privata organizzata dall’azienda Dompè con parner in 6 paesi Europei che ha lo scopo di sviluppare nuove medicine per COVID-19. Alcuni partner si occupano degli aspetti tecnologici (come il CINECA di Bologna, l’azienda ENI, e il Barcelona Supercomputing Center) e della potenza di calcolo e altri di quelli biologici.

Questa improvvisa e necessaria trasformazione del settore medico crea una discontinuità che richiede modifiche di processi, nuove risorse e nuove competenze. Nuove soluzioni vanno trovate velocemente per gestire la situazione attuale e per essere preparati a una eventuale futura ondata della pandemia. Le modifiche necessarie includono, ad esempio, metodi robusti di consegna di farmaci e di erogazione di servizi sanitari, diagnosi visuali e online, monitoraggio continuo dei dati dei virus per prevenire futu re pandemie, legami più stretti tra analisi scientifiche e soluzioni mediche, nuove modalità per i servizi sanitari (quali la digital health e la telemedicina), processi più veloci per individuare nuove medicine e vaccini e per definre protocolli clinici, e, infine, un passaggio accellerato da scoperte mediche alla creazione di prodotti per la tutti e la loro distribuzione.

Per supportare al meglio questa trasformazione, è necessario anche fornire a tutto il personale medico le necessarie competenze per poter fruire correttamente dei nuo vi strumenti tecnologici e capire il loro nuovo ruolo in un settore completamente trasformato, in cui la maggior parte dei servizi verranno erogati tramite la rete con processi che supportino la condivisione di competenze e dati. In particolare, i nuovi processi sanitari dovranno permettere a entità terze, autorizzate dai pazienti, di raccogliere e gestire dati medici e dovranno supportare al meglio lo spostamento dei dati invece che dei pazienti. Infine, i processi amministrativi dovranno essere semplificati e accellerati e supportare le varie attività tramite tecnologie di AI e Internet of Things. Sarà molto utile poter sfruttare l’esperienza di aziende esperte di tecnologia in altri settori per aiutare il sistema sanitario a definire questa transformazione.

5. Prospettive future

Siamo in un momento storico entusiasmante, in cui tecnologie come l’AI forniscono la possibilità di risolvere problemi importanti, quali quelli legati alla salute e al clima, di ottimizzare e migliorare i processi aziendali e di aiutare gli esseri umani a prendere decisioni migliori e più informate. La capacità di analizzare grandi quantità di dati e di derivare conoscenza da essi è fondamentale per raggiungere questi scopi.
E’ però anche necessario capire i possibili rischi insiti in questa tecnologia così trasformativa nel suo uso pervasivo nella nostra vita. Non solo le aziende, ma l’intera società deve capire in modo realistico le sue reali capacità, i suoi limiti e i suoi rischi, e individuare in modo condiviso le soluzioni tecnologiche e le regole per indirizzare l’AI verso la creazione di un futuro in cui i valori e i diritti umani vengano rispettati e l’unicità della nostra intelligenza venga amplificata.
Considerato l’impegno concreto di aziende, associazioni, governi e di molte altre istituzioni riguardo all’etica dell’AI, sono ottimista che questo futuro possa diventare realtà.

Francesca Rossi è un IBM Fellow e il Global Leader sull’Etica dell’IA dell’IBM, e lavora al Centro di ricerca IBM T.J. Watson di New  York, USA. Svolge la sua ricerca nell’ambito dell’Intelligenza Artificiale, in cui ha pubblicando più di 200 articoli scientifici in riviste e convegni internazionali.

Ha conseguito il dottorato di ricerca in informatica all’Università di Pisa, dove è poi rimasta per sei anni come ricercatrice. Successivamente, è stata professore (associato per tre anni e ordinario per diciassette) presso l’Università di Padova prima di passare all’IBM.

È fellow dell’Associazione europea dell’Intelligenza artificiale (A EurAI) e di quella internazionale (AAAI), ed è stata presidente dell’I- JCAI (International Joint Conference on Artificial Intelligence) e editore della rivista JAIR (Journal of AI Research). Partecipa a numerose iniziative riguardo l’etica dell’IA, come il gruppo di esperti di IA della comunità europea, e in quest’anno è stata il General chair del piu’ grande convegno mondiale di IA (AAAI 2020).

Da quest’anno è Presidente dell’AAAI, l’Association for the Advancemente of Artificial Intelligence, società scientifca internazionale che promuove la ricerca e l’uso responsabile dell’Intelligenza artificiale nel mondo. Pubblichiamo un suo recente scritto per Medicina e Cultura (2020;2:52-54) ritenendola iniziativa utile per I nostri Lettori.

Questa voce è stata pubblicata in Editoriale. Contrassegna il permalink.