Area Abbonati
LoginPassword
DOI 10.1701/2829.28580 Scarica il PDF (82,6 kb)
Recenti Prog Med 2017;108(12):500-502



L’intelligenza artificiale in medicina:
quali limiti, quali ostacoli, quali domande

Eugenio Santoro1

1Laboratorio di informatica medica, Dipartimento di Salute Pubblica, IRCCS - Istituto di Ricerche Farmacologiche “Mario Negri”.

Pervenuto il 16 novembre 2017.

Riassunto. I sistemi basati sull’intelligenza artificiale stanno iniziando a diffondersi anche in ambito medico per cercare di mettere in relazione, e così interpretare meglio, l’enorme mole di dati che arriva dalle numerose fonti oggi disponibili. Attraverso le metodiche di interpretazione dei dati offerte dai nuovi sistemi di intelligenza artificiale, nel corso di questi ultimi anni i produttori si sono concentrati nello sviluppo di modelli in grado di predire il rischio di incorrere in una data patologia, nella messa a punto di sistemi in grado di effettuare diagnosi precoci e nell’individuazione di cure basate sulle migliori e più attuali evidenze scientifiche. Pur svolgendo compiti inimmaginabili fino a pochi anni fa, i sistemi di intelligenza artificiale in sanità hanno difficoltà a imporsi stabilmente tra gli operatori sanitari e a entrare nei percorsi assistenziali. Tra le ragioni che ne limitano la diffusione, la carenza di prove di sicurezza, affidabilità ed efficacia, l’assenza di regolamentazione che accompagni negli ospedali l’impiego da parte degli operatori sanitari, la difficile attribuzione delle responsabilità in caso di errori e malfunzionamenti e i quesiti etici e di privacy che essi sollevano sono quelle sulle quali la comunità scientifica dovrà presto interrogarsi.

Artificial intelligence in medicine: limits and obstacles.

Summary. Data scientists and physicians are starting to use artificial intelligence (AI) even in the medical field in order to better understand the relationships among the huge amount of data coming from the great number of sources today available. Through the data interpretation methods made available by the recent AI tools, researchers and AI companies have focused on the development of models allowing to predict the risk of suffering from a specific disease, to make a diagnosis, and to recommend a treatment that is based on the best and most updated scientific evidence. Even if AI is used to perform unimaginable tasks until a few years ago, the awareness about the ongoing revolution has not yet spread through the medical community for several reasons including the lack of evidence about safety, reliability and effectiveness of these tools, the lack of regulation accompanying hospitals in the use of AI by health care providers, the difficult attribution of liability in case of errors and malfunctions of these systems, and the ethical and privacy questions that they raise and that, as of today, are still unanswered.

Dopo oltre trent’anni l’intelligenza artificiale torna di moda. Tanti sono gli anni che ci separano dalle applicazioni di intelligenza artificiale e di sistemi decisionali sviluppati negli anni Ottanta. Su questi temi è poi calato il silenzio, le aziende hanno iniziato a investire altrove (internet, B2B – altro neologismo molto in voga nello scorso decennio, fino ad arrivare agli smartphone, alle app, ai wearable e al cloud). A dare nuova linfa all’intelligenza artificiale e alle sue possibili applicazioni ci hanno pensato IBM (con il noto “IBM Watson”), Google (con “DeepMind”) e altri sistemi simili lanciati dai nuovi big dell’informatica che vedono nell’intelligenza artificiale e nelle nuove metodiche di analisi della mole di dati di cui oggi siamo circondati (cognitive computing, machine learning, chatbot, ecc.) nuove aree di business.

Tutto parte dai dati. Si calcola per esempio che nel corso degli ultimi due anni sia stato generato il 90% dei dati disponibili oggi nel mondo. Merito (o colpa) anche della diffusione di smartphone, wearable (come i braccialetti e gli orologi intelligenti) e Internet of Things che stanno producendo una quantità enorme di dati (si stima che ogni persona, attraverso queste sue appendici elettroniche e le operazioni che compie nella quotidianità, contribuisca a produrre al minuto 1,7 megabyte di dati), delle conversazioni su internet e sui social media (che producono informazioni utili a coloro che sono interessati a vendere servizi o a fornire risposte a esigenze) e della disponibilità di database nei quali i nostri dati sono conservati. A differenza di quanto accadeva in passato, l’80% dei dati che generiamo sono non strutturati, caratteristica questa che rende la loro interpretazione particolarmente complicata.

In ambito sanitario si è poi assistito a una proliferazione delle fonti da cui questi dati provengono. I successi della genomica hanno contribuito a generare enormi quantità di dati (solo parzialmente utilizzati), a cui si aggiungono quelli raccolti da app mediche e dai wearable usati in contesti sanitari, quelli provenienti dai social, e quelli custoditi nei database che contengono le cartelle cliniche, il sapere scientifico (per es., Medline o la Cochrane Library) e le linee guida condivise.




È quindi naturale che i produttori di intelligenza artificiale abbiano a un certo momento puntato l’attenzione al mondo della salute. Attraverso le metodiche di interpretazione dei dati offerte dai nuovi sistemi di intelligenza artificiale nel corso di questi ultimi anni, i produttori si sono concentrati nello sviluppo di modelli predittivi sull’incidenza di una data patologia su un individuo rispetto alla popolazione generale per definire il rischio di sviluppare quella patologia e nella messa a punto di sistemi in grado di effettuare diagnosi precoci (così da poter agire tempestivamente con le cure più appropriate)1, nella creazione di ambienti basati su chatbot (cioè programmi che simulano una conversazione tra robot e essere umano) in grado di fornire le giuste informazioni ai pazienti e così accompagnarli nel loro processo di cura2, nell’identificazione di molecole (tra le tante che la ricerca di base propone) sulle quali puntare nel passaggio dal laboratorio alla clinica3.

Molte altre sono le possibili applicazioni sulle quali l’intelligenza artificiale potrebbe fornire ulteriori aiuti. L’idea di base del progetto Human Technopole è legata strettamente all’impiego dell’intelligenza e dei big data per analizzare in modo integrato i dati genomici, medico-sanitari, nutrizionali ed economico-sociali, con l’obiettivo di individuare possibili cure per diverse patologie4. L’analisi delle conversazioni sui social attraverso tecniche di intelligenza artificiale, che già oggi permette di elaborare dati legati alla frequenza dei sintomi di una malattia, agli effetti collaterali registrati dal paziente in seguito all’assunzione di un dato farmaco e alla diffusione di specifiche malattie infettive5,6, potrebbe essere applicata ai testi per migliorare la comprensione dei “campi note” di una cartella clinica elettronica al fine di catturare in profondità dettagli che racchiudono informazioni di valore sulla salute del paziente, o per comprendere domande complesse poste in linguaggio naturale a cui rispondere con suggerimenti basati sulle migliori evidenze scientifiche.

IBM Watson, il supercomputer dotato di intelligenza artificiale diventato famoso nel 2011 per aver sconfitto i campioni del gioco Jeopardy (un famoso gioco a quiz televisivo in onda negli Stati Uniti), è uno dei casi più noti dell’impiego dell’intelligenza artificiale in medicina. La sua versione “Watson for Oncology” oggi accompagna il lavoro degli oncologi di oltre 50 centri ospedalieri sparsi in tutto il mondo (ma con una prevalenza in Asia) e ne supporta l’attività confrontando i dati dei loro pazienti con la letteratura prodotta dalle riviste mediche, con le linee guida sviluppate dalle associazioni scientifiche internazionali e con lo “storico” di casi simili affrontati in passato per identificare una diagnosi e proporre la cura più appropriata7.

Si tratta di un’evoluzione dei tradizionali sistemi per il supporto alle decisioni cliniche ed è stato istruito dai medici oncologi dello Sloan Kettering Cancer Center di New York nel corso degli ultimi anni attraverso la somministrazione di protocolli terapeutici e regole per imparare ad applicarli nelle diverse situazioni e nella molteplicità delle casistiche. Sebbene il suo sviluppo si estenda agli ultimi 6 anni, il sistema è ancora agli esordi e promette entro poco tempo di trattare adeguatamente 12 tipologie di tumore che contano l’80% dei casi di tutto il mondo. I suoi sostenitori dichiarano che in futuro sarà in grado di curare i pazienti oncologici in maniera più equa, perché darà ai loro medici la possibilità di accedere alle conoscenze e alle cure più all’avanguardia, indipendentemente dal luogo in cui essi risiedono.

Tuttavia non mancano le voci critiche provenienti da alcuni medici, scienziati e osservatori della stampa specializzata sui benefici che Watson for Oncology potrà portare8. Alcune di queste si concentrano sui possibili bias metodologici che il sistema rischia di introdurre sia nella fase di training (i dati utilizzati per istruire il sistema provengono dalle storie cliniche dei pazienti statunitensi, usati come standard), sia nella scelta dei protocolli terapeutici da implementare (basati prevalentemente su studi e linee guida statunitensi). Su questi aspetti è nota la posizione di diversi autori che osservano come eventuali bias insiti nei sistemi di intelligenza artificiale possano discriminare i pazienti non sufficientemente rappresentati e portare quindi a conclusioni errate se non pesati e considerati a sufficienza9. Altre, secondo lo stesso report8, hanno a che fare con il numero, per ora limitato, di forme di tumore che il sistema è in grado di riconoscere, e con la difficoltà a istruire nuovamente il sistema ogni volta che le linee guida sulle quali basa le sue decisioni cambiano o vengono aggiornate.

Non aiuta certamente a mitigare tali voci il clamoroso (e recente) fallimento del progetto Oncology Expert Advisor, nato dalla collaborazione tra il MD Anderson Cancer Center e la stessa IBM per lo sviluppo di un sistema simile a Watson for Oncology (che si sarebbe dovuto concentrare sulla identificazione dei migliori protocolli terapeutici per la leucemia e il tumore al polmone), e che ha visto andare in fumo 60 milioni di dollari in 4 anni10.

È tuttavia da evidenziare come i sistemi di intelligenza artificiale in sanità, pur svolgendo compiti inimmaginabili fino a pochi anni fa, per diverse ragioni hanno ancora difficoltà a imporsi stabilmente tra gli operatori sanitari ed entrare nei percorsi assistenziali.

La prima riguarda la carenza di studi clinici randomizzati pubblicati su riviste peer-reviewed che ne dimostrino l’affidabilità e/o la maggiore efficacia rispetto ai sistemi tradizionali nel fare previsioni, diagnosi o nel suggerire terapie appropriate. Per esempio, per quanto riguarda Watson for Oncology, esistono quasi esclusivamente studi presentati a congressi scientifici11 che misurano l’accordo (peraltro stimato in certi casi anche in 90-95%) tra i suggerimenti forniti dal sistema e quelli provenienti dagli oncologi. Non va meglio a DeepMind di Google o alle corrispondenti iniziative portate avanti da Microsoft e da Facebook, per le quali esistono poche pubblicazioni che illustrano i risultati raggiunti in ambito sanitario.

Tutto ciò crea una certa diffidenza da parte dei medici verso l’impiego dei sistemi basati sull’intelligenza artificiale e un limite da parte dei decision maker alla loro adozione. Una maggiore cultura (sia da parte dei produttori di sistemi di intelligenza artificiale, sia da parte di istituzioni e organizzazioni sanitarie e regolatorie) nei confronti della ricerca medica, unita a una maggiore disponibilità a investire in questo ambito, potrebbe aiutare a uscire da questa situazione di stallo.

C’è poi il problema delle attribuzioni di responsabilità in caso di errori medici che si intreccia con i bias metodologici citati prima (i quali interessano la gran parte dei sistemi di intelligenza artificiale in sanità). Se un sistema di intelligenza artificiale sbaglia una diagnosi di chi è la colpa? Di chi lo ha sviluppato? Di chi lo ha distribuito? Del medico che ha preso la decisione? Su questo aspetto probabilmente il legislatore dovrebbe prendere una posizione chiara.

Un altro capitolo riguarda la tutela della privacy e della sicurezza. In questo ambito esiste un accordo unanime sul fatto che l’implementazione dell’intelligenza artificiale debba essere accompagnata da una riflessione attenta del legislatore che sappia garantire una reale tutela dei diritti dei cittadini e dei pazienti. Tra le varie questioni aperte, una riguarda, per esempio, il consenso al trattamento dei dati sanitari personali a opera di sistemi di intelligenza artificiale. Non si tratta di una questione secondaria, come dimostra il recente stop a una iniziativa congiunta di Google DeepMind e National Health Service inglese avvenuto proprio perché i pazienti non erano stati correttamente informati su come i propri dati sarebbero stati impiegati12.

Altre questioni riguardano la regolamentazione dei sistemi di intelligenza artificiale e sollevano ulteriori quesiti, a cui si dovrà prima o poi dare una risposta. Per esempio ci sarebbe da chiedersi se tali sistemi non debbano essere considerati al pari dei dispositivi medici, se non sia necessario validare/certificare la sicurezza dei “digital treatment adviser”, e su come essi possano essere integrati nel contesto lavorativo di medici e infermieri3. È necessario poi che i sistemi di intelligenza artificiale spieghino agli operatori come sono arrivati alla loro conclusione e decisione, fornendo le prove che sono alla base del loro ragionamento, in modo tale che essi possano eventualmente decidere di rifiutarsi di seguire il suggerimento se ritengono che siano stati commessi eventuali errori3.

Andrebbe poi evidenziato e studiato il pericolo di sovra-affidamento e di eccessiva dipendenza da tali sistemi che potrebbero avere seri effetti di dequalificazione e desensibilizzazione dei medici al contesto clinico13.

E infine c’è la questione etica, che non si limita al solo problema dell’inevitabile perdita di posti di lavoro (anche se sarebbe più corretto parlare di trasformazione dei posti di lavoro), ma che potrebbero condurci a scenari fantascientifici nei quali, per esempio, due sistemi di intelligenza artificiale iniziano a parlare tra loro una lingua sconosciuta all’uomo. Sembra fantascienza, ma è successo di recente in un esperimento che Facebook ha deciso di sospendere14. Rimane infine da chiedersi, sempre dal punto di vista etico, come si comporterebbe un eventuale sistema di intelligenza artificiale quando fosse usato per prendere decisioni sulle cure di fine vita dei pazienti, dovendo scegliere tra l’accanimento terapeutico e l’interruzione della cura. Conforta tuttavia segnalare che su questi e altri aspetti etici e legali l’Unione Europea si è mossa per tempo e sta lavorando a una bozza contenente raccomandazioni per disciplinare le applicazioni di robotica e di intelligenza artificiale15.

Conflitto di interessi: l’autore dichiara l’assenza di conflitto di interessi.

Bibliografia

1. Coiera E. Guide to Health Informatics (3rd Edition). London: CRC Press, 2015.

2. Burgess M. The NHS is trialling an AI chatbot to answer your medical questions. Wired 2017, 5 January 2017. https://goo.gl/E2EEGv (ultimo accesso: 16 novembre 2017).

3. Coiera E, Baker M, Magrabi F. First compute no harm. The bmjopinion.com, July 19, 2017. https://goo.gl/5ufXD9 (ultimo accesso: 16 novembre 2017).

4. Human Technopole. https://goo.gl/y2yT79 (ultimo accesso: 16 novembre 2017).

5. Pitts PJ, Louet HL, Moride Y, Conti RM. 21st century pharmacovigilance: efforts, roles, and responsibilities. Lancet Oncol 2016; 17: e486-e492.

6. Salathé M. Digital pharmacovigilance and disease surveillance. Combining traditional and big-data systems for better public health. J Infect Dis 2016; 214 (suppl 4): S399-S403.

7. IBM Watson for Oncology. https://goo.gl/HThBua (ultimo accesso: 16 novembre 2017).

8. Casey R, Swetlitz I. IBM pitched its Watson supercomputer as a revolution in cancer care. It’s nowhere close. STAT, 5 settembre 2017. https://goo.gl/3fbrwp (ultimo accesso: 16 novembre 2017).

9. Reynolds M. Bias test to prevent algorithms discriminating unfairly. New Scientists 2017; 3119; 29 marzo 2017. https://goo.gl/oYL8Mg (ultimo accesso: 16 novembre 2017).

10. Mulcahy N. Big Data Bust: MD Anderson-Watson Project Dies. Medscape News, 22 febbraio 2017. https://goo.gl/nqC2w2 (ultimo accesso: 16 novembre 2017).

11. IBM. At ASCO 2017 clinicians present new evidence about Watson Cognitive Technology and cancer care. https://goo.gl/RUCU1z (ultimo accesso: 16 novembre 2017).

12. Hern A. Google DeepMind 1.6m patient record deal ‘inappropriate’. The Guardian, 16 maggio 2017. https://goo.gl/j5jfYP (ultimo accesso: 16 novembre 2017).

13. Cabitza F, Alderighi C, Rasoini R, Gensini GF. Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina. Recenti Prog Med 2017; 108: 397-40.

14. Field M. Facebook shuts down robots after they invent their own language. The Telegraph, 1 agosto 2017. https://goo.gl/MqzkRA (ultimo accesso: 16 novembre 2017).

15. Committee on Legal Affairs. Draft Report with recommendations to the Commission on Civil Law Rules on Robotics: European Parliament, 2016.

Il Pensiero Scientifico Editore
Riproduzione e diritti riservati  |  ISSN online: 2038-1840