Dalla letteratura

In collaborazione con l’Associazione Alessandro Liberati – Network Italiano Cochrane
www.associali.it

4words - Le parole dell’innovazione in sanità

Anche quest’anno, come già accaduto nel febbraio del 2017, Recenti Progressi in Medicina dedica le pagine della rubrica “Dalla letteratura” a un rapido resoconto degli interventi degli otto relatori – italiani, inglesi e nordamericani – che, da punti di vista diversi, hanno approfondito il significato e la complessità delle parole chiave discusse alla seconda riunione annuale “4words – Le parole dell’innovazione in sanità”: innovazione, scelte e decisioni, management della ricerca, intelligenza artificiale.

Ci auguriamo così di tenere aperto il confronto e sollecitare fra i lettori la discussione sulla sanità che sta cambiando. www.forward.recentiprogressi.it




Trisha Greenhalgh:
uno strumento per prevenire i fallimenti e garantire il successo

Perché così tanti progetti tecnologici nel settore sanitario falliscono? Questa è la domanda da cui prende spunto l’intervento di Trisha Greenhalgh che illustra un nuovo framework per studiare la non adozione, l’abbandono e il fallimento nello scale-up, la diffusione e la sostenibilità (NASSS) delle tecnologie sanitarie e assistenziali. Pubblicato nel novembre 2017 è diventato rapidamente uno degli articoli più scaricati mai comparsi sul Journal of Medical Internet Research1. Vari ricercatori, società di design, consulenti e responsabili delle politiche hanno iniziato da allora a usarlo per guidare, supportare e valutare lo sviluppo, l’adozione, l’implementazione e il potenziamento di programmi supportati dalla tecnologia.

Si ritiene che circa l’80 per cento dei progetti di cambiamento supportati dalla tecnologia nell’assistenza sanitaria e sociale sia destinato al fallimento. Il motivo, in realtà noto a tutti, è che sono complessi. Greenhalgh sostiene convinto che sia il momento di “spacchettare” la questione complessità, perché i progetti tecnologici che falliscono sono costosi, dispendiosi in termini di risorse e potenzialmente dannosi a livello sia umano sia di sistema. Molte tecnologie promettenti, continua Greenhalgh, non vengono adottate affatto (per es., a causa della “resistenza” dei medici), oppure vengono adottate ma rapidamente abbandonate (per es., quando diventa chiaro che il loro utilizzo crea problemi da qualche altra parte nel sistema).




Lo scale-up delle tecnologie adottate con successo su piccola scala (per es., in progetti dimostrativi di verifica teorica – forse come parte di uno studio controllato randomizzato) può risultare difficile o impossibile da realizzare localmente oltre il gruppo iniziale degli entusiasti, e può rivelarsi impossibile diffondere quelle stesse tecnologie altrove (anche quando i setting sembrano confrontabili). Tra l’altro, pochi progetti tecnologici sono sostenuti nel tempo in modo che possano adattarsi a un contesto in evoluzione.

Queste cinque sfide (non adozione, abbandono e fallimento nello scale-up, diffusione e sostenibilità) hanno ispirato lo sviluppo e il test del framework NASSS che punta a spiegare questi fenomeni.

Il framework nasce dalla fusione di una ricerca primaria e una secondaria, spiega la Greenhalgh. NASSS infatti si basa sulla più ampia revisione sistematica mai pubblicata sull’adozione della tecnologia nel settore sanitario, a cui si aggiunge un ampio e diversificato campione di studi di casi aziendali seguiti fino a tre anni. I domini presi in considerazione sono sette: la malattia o condizione, la tecnologia, la proposta di valore, il sistema adottante (pazienti, personale), le organizzazioni che adottano, il sistema più ampio e il tempo (perché niente resta fermo, tutto si evolve e si adatta durante l’evoluzione). Ogni dominio del framework può essere semplice (cioè, con poche componenti e categorie chiare e prevedibili – per es., “preparare un sandwich”), complicato (con più componenti e problemi – per es., “costruire un razzo”) o complesso (dinamico, ambiguo, imprevedibile, non facilmente disaggregabile nelle componenti che lo costituiscono). Esaminando i domini, precisa la Greenhalgh, è sufficiente prendere in considerazione la situazione semplice e quella complessa che in effetti sono molto diverse; mentre la situazione complicata è, di fatto, quella semplice ma più complicata.

In relazione al primo dominio, la “malattia o condizione” è semplice quando è ben caratterizzata, ben conosciuta e prevedibile, mentre è complessa quando è poco caratterizzata, imprevedibile oppure ad alto rischio. In relazione ai fattori socioculturali e alle comorbilità, una condizione semplice è improbabile che possa creare gravi problemi nella cura (per es., un’anca rotta, o anche un attacco di cuore: grave, sì, ma con un trattamento prevedibile). Una condizione complessa ha invece molte comorbilità ed è difficile inserire il caso del paziente in una serie di linee guida.

Rispetto al dominio “tecnologia”, riprende la Greenhalgh, una tecnologia semplice (per es., un telefono) è agevole da aggiungere o è già installata, misura direttamente la condizione (o il suo cambiamento), non ha bisogno di istruzioni per funzionare o si tratta di istruzioni essenziali, il modello di fornitura è generico, plug-and-play, e può essere facilmente sostituita (pensate al caso di un laptop).

Al contrario, una tecnologia è complessa (per es., la medicina a distanza) quando: richiede un processo attento di integrazione in sistemi tecnici complessi; il collegamento tra i dati e la condizione (in particolare, il cambiamento) non è immediato; è necessario un training avanzato per gestirla; ha bisogno di una significativa riconfigurazione e di un adattamento del sistema in cui si inserisce.

La “proposta di valore” può riferirsi allo sviluppatore o al paziente. Dal punto di vista dello sviluppatore, la proposta di valore è semplice se il business case è chiaro e promettente, con ragionevoli probabilità di ritorno dell’investimento; parallelamente, dal punto di vista del fruitore, la tecnologia deve essere desiderabile, sicura e costo-efficace. Diventa invece complessa dal punto di vista dello sviluppatore se il business case è improbabile e presenta seri rischi per gli investitori, mentre, dal punto di vista del paziente, se non è desiderabile, è poca sicura, inefficace o troppo costosa.

Dal punto di vista di chi adotta la tecnologia, in una situazione semplice i membri dello staff si limitano a proseguire nel loro lavoro, i cambiamenti di ruoli e pratiche non ci sono o sono minimi, la tecnologia li aiuta a essere più veloci o più efficienti, pazienti e familiari non sono coinvolti. Mentre in una situazione complessa compare una minaccia al tipo di lavoro, allo scopo della pratica o all’identità professionale, i compiti affidati al paziente sono complessi, la rete familiare è attiva e coinvolta, con i problemi del caso.

Rispetto all’organizzazione, prosegue la Greenhalgh, una situazione semplice implica un’unica organizzazione coinvolta, fondi adeguati e una prospettiva di risparmio ben chiara, nessuna influenza sulle routine del team; per l’implementazione, inoltre, esiste già una visione condivisa e sono necessari soltanto pochi, semplici compiti. Una situazione complessa al contrario prevede molte organizzazioni coinvolte e non in partnership, cambiamenti potenzialmente dirompenti rispetto alle routine; infine, è richiesto un lavoro notevole sulla visione e sull’implementazione dell’innovazione.

Dal punto di vista del sistema più ampiamente considerato, ci si trova di fronte una situazione semplice se c’è una proposta politica dietro, se non sono presenti ostacoli dal punto di vista regolatorio, se i gruppi professionali e i cittadini hanno un atteggiamento positivo rispetto all’innovazione. Mentre la situazione si rivela complessa quando è presente una forte opposizione politica, gli ostacoli legali e regolatori sono molti e difficili da risolvere, e, infine, professionisti e cittadini sono sul piede di guerra.

L’ultimo dominio del framework NASSS è il tempo. Non basta adattare la tecnologia una volta per tutte: nel corso del tempo possono presentarsi barriere significative ai cambiamenti necessari, soprattutto se la tecnologia è rigida. All’opposto, se l’organizzazione prevede e incoraggia azioni di adattamento e riflessione sul cambiamento, il risultato è una gestione semplice delle evoluzioni necessarie.

In generale, riassume la Greenhalgh, se prevalgono nei domini le situazioni complesse sarà quasi impossibile implementare i cambiamenti necessari alla nuova tecnologia: in sintesi, la complessità in più domini NASSS appare fortemente predittiva del fallimento del programma. Mentre l’attenzione proattiva alla riduzione della complessità nei diversi domini NASSS nelle fasi iniziali della pianificazione può ridurre il rischio di fallimento (anche se questa ipotesi è ancora da testare empiricamente).

Finora il framework è stato usato dal team che l’ha ideato soprattutto per creare nuove tecnologie e per identificare soluzione tecnologiche che hanno poca probabilità di avere successo, per progetti di implementazione ma anche per illustrare fallimenti nell’implementazione di una tecnologia. Ultimamente si è rivelato utile per elaborare linee guida necessarie a orientare gli investimenti in programmi di sviluppo di nuove tecnologie da parte dei sistemi sanitari nazionali. La Greenhalgh conclude il suo intervento evidenziando come le prospettive di applicazione del framework non si esauriscano qui, rimandando a futuri, auspicabili sviluppi.

Alessio Malta

Bibliografia

1. Greenhalgh T, Wherton J, Papoutsi C, et al. Beyond adoption: a new framework for theorizing and evaluating nonadoption, abandonment, and challenges to the scale-up, spread, and sustainability of health and care technologies. J Med Internet Res 2017; 19: e367. doi: 10.2196/jmir.8775.




Roberto Cingolani:
quando l’innovazione diventa utile alla società

Esordisce raccontando che a volte “la sorpresa è dietro l’angolo”, Roberto Cingolani, fisico e direttore scientifico dell’Istituto italiano di tecnologia (IIT) di Genova, perché sempre più spesso tecnologie nate per altri scopi si dimostrano essere la soluzione di problemi che ancora non si conoscevano quando sono state sviluppate. Non risiede ovviamente solo nella serendipità la spiegazione dei promettenti successi che le innovazioni tecnologiche stanno ottenendo nel settore sanitario, quanto nel fatto che mondi come quello della fisica, delle nanotecnologie e della meccanica quantistica – fino a qualche tempo fa lontani dalla medicina – abbiano cominciato a parlarsi e a confrontarsi su metodi, possibilità e risoluzioni di quesiti aperti1,2.

Sono tre gli ambiti in cui si stanno manifestano queste felici interazioni: il primo è quello dell’intelligenza artificiale o della robotica intelligente, il secondo è quello della meccanica quantistica e il terzo quello dei sistemi informatizzati con capacità computazionale elevata.

Per mostrare come l’intelligenza artificiale possa venire in aiuto della medicina, Cingolani mostra il filmato di un umanoide in grado di muoversi come un buon karateka, dotato di una visione neuromorfica e di un apparato vestibolare simile al nostro, che presenta la nostra stessa capacità sensoriale. Grazie alle sue capacità di “compliance”, ossia di “cedevolezza”, l’umanoide è una macchina “gentile” con l’essere umano, in grado di fermarsi quando lo urta. Questo perché si è arrivati a imitare la biomeccanica dell’uomo in modo molto avanzato sia dal punto di vista dell’equilibrio dinamico sia del posizionamento.

Cosa ha a che fare tutto questo con la nostra salute? La risposta sta nella capacità di questo tipo di macchine nell’aiutare chi ha perso la mobilità a muoversi meglio. “Dopo aver trascorso anni a educare la macchina a muoversi come il migliore di noi”, spiega infatti Cingolani, “questa macchina può ora restituirci la cortesia, rieducando i pazienti al movimento”. Sono stati, così, sviluppati strumenti per la riabilitazione della parte alta e bassa del corpo, molto meno evocativi dei robot, perché non hanno la forma di un umano, ma sono dotati della stessa intelligenza e biomeccanica di un umanoide. Si tratta di esoscheletri o protesi bioniche che, una volta indossate, aiutano il paziente a recuperare la mobilità fisica perduta. Il medico e il fisioterapista rimangono i driver del processo di riabilitazione, con il valore aggiunto che queste macchine consentono di trattare il paziente in maniera personalizzata e con un livello di precisione quantitativa che nessun essere umano potrebbe applicare perché dotata di una capacità potentissima di parallelizzare le terapie. Possibili beneficiari di questa nuova frontiera della riabilitazione sono le persone che hanno subito un incidente, quelle colpite da ictus o da una malattia neurodegenerativa, che hanno problemi di mobilità legati all’età, come gli anziani, o con problemi di neurosviluppo, come gli autistici.




Questi risultati si sono potuti ottenere, ci tiene a sottolineare Cingolani, grazie alla collaborazione con il mondo ospedaliero e con lo stesso INAIL, perché solo chiedendo direttamente al customer che cosa gli serva realmente, gli scienziati possono avviare progetti di ricerca utili per la società. Da questo approccio è scaturito uno studio fatto in collaborazione con molti ospedali sulle probabilità di caduta degli anziani, attuato attraverso piattaforme intelligenti in grado di registrare la capacità di equilibrio e fornire una misurazione quantitativa della stabilità del paziente anziano. Si tratta di una ricerca importante, che apre la strada alla possibilità di certificare la stabilità di un paziente con implicazioni sia dal punto di vista terapeutico sia da quello assicurativo: tra 35 anni il 65 per cento della popolazione avrà più di 65 anni di età con costi enormi e di lunga durata. Con la stessa filosofia, l’IIT ha avviato una sperimentazione con l’Ospedale Gaslini di Genova che ha interessato i bambini con diagnosi certificata di autismo. Si è infatti scoperto che questi bambini reagiscono a terapie riabilitative in maniera più efficace quando il loro interlocutore non è un essere umano ma un umanoide, che ha la capacità di fare movimenti mirror like, di stabilizzare lo sguardo e soprattutto di misurare esattamente la cinematica delle traiettorie del paziente in maniera molto accurata, cosa che il medico può fare solo empiricamente e non in maniera quantitativa.

Come si è arrivati a realizzare macchine in grado di “valutare” i nostri movimenti e capire quando si manifestano delle deviazioni dalle traiettorie reali, dei tremolii, degli impercettibili movimenti, che il medico non può vedere, non stando 24 ore su 24 con il paziente e non avendo una capacità di osservazione così precisa, ma che possono essere prognostici con largo anticipo di una patologia degenerativa? “Semplicemente testando centinaia di persone che camminano, le stesse che percorrono i nostri corridoi”, spiega Cingolani. “Gli algoritmi che sviluppiamo nell’ambito dell’intelligenza artificiale sono in grado di vedere delle alterazioni dalle condizioni di equilibrio ideali della camminata tipica che possono essere indicatori molto precoci di qualcosa che non va nell’anziano, in chi ha avuto un incidente e così via. È chiaro che tutto questo non è altro che un esempio di augmented performance, perché queste macchine fanno tutto quello che farebbe ogni essere umano con un livello di precisione assolutamente più elevato, dovuto innanzi tutto alla costanza della misurazione, in secondo luogo alla potenza del calcolo e al parallelismo (ossia al fatto che centinaia di persone sono monitorate insieme senza che se ne accorgano)”.

Sempre in collaborazione con l’INAIL viene svolta la ricerca per la realizzazione delle protesi della mano. Serve infatti la collaborazione dei pazienti INAIL per educare l’arto “fantasma” ad apprendere la biomeccanica di una mano vera. “Senza l’esperienza diretta di questi pazienti”, sottolinea Cingolani, “non si arriverebbe a poter sviluppare questa tecnologia on demand e a customerizzarla. Oggi invece abbiamo sviluppato il prototipo per la mano dell’uomo, della donna e del bambino. È una tecnologia molto semplificata rispetto all’umanoide del quale abbiamo parlato all’inizio, ma che possiamo utilizzare tutti i giorni e che cambia davvero la vita delle persone”.

Così come può cambiare la vita di un anziano poter disporre di un esoscheletro dotato di una batteria leggera e di velcri che gli consentono di indossarlo da solo, grazie al quale può alzarsi di notte per andare in bagno senza dover ricorrere all’aiuto di nessuno. Anche questa tecnologia è nata ascoltando le richieste dei pazienti INAIL e ha un costo inferiore ai 50.000 euro, “un quinto del costo di una tecnologia di rilevazione militare”, ricorda Cingolani.

Sempre nell’ambito delle tecnologie robotiche che vengono in aiuto del paziente, il direttore dell’IIT spiega che ora ci si sta ponendo il problema dell’empatia tra la macchina e il suo utilizzatore. Questo non significa solo che la macchina deve essere in grado di riconoscere lo stato emotivo delle persone con cui interagisce (e quindi di mettere, per esempio, una musica che piace al paziente se vede che ha le sopracciglia corrucciate), ma che deve avere essa stessa un’espressività che comunichi uno stato emotivo tranquillo e costante al paziente. È questo uno studio che l’IIT sta svolgendo con la Fondazione Don Gnocchi, con l’obiettivo di produrre robot molto economici, che dovrebbero costare come uno scooter, ma dotati di intelligenza artificiale molto sviluppata, e quindi in grado di eseguire degli ordini come quello di portare un bicchiere d’acqua al paziente che è in un’altra stanza. Per eseguire questo ordine il robot deve riconoscere, oltre all’ordine, anche il bicchiere, la bottiglia e il posto. Per farlo, deve potersi muovere in un’infrastruttura wireless estremamente veloce (a 5 o 6 giga), che gli consenta di effettuare i supercalcoli necessari. Entra quindi in gioco un altro aspetto molto importante, quello delle infrastrutture. Perché senza infrastrutture avanzate un paese non può aspirare alla medicina del futuro. Queste stesse infrastrutture sono quelle che servono alla chirurgia robotica, per teleoperare in aree 5 giga a 100 metri di distanza dalla sala operatoria con precisione micrometrica.




La meccanica quantistica ci viene incontro, spiega ancora Cingolani, anche per effettuare diagnosi là dove non ci sono gli ospedali. Con l’aiuto del biologo, grazie a un fenomeno che prende il nome di “interazione plasmonica”, siamo in grado di potenziare la capacità di rilevamento di alcuni marcatori anche di 1-10 milioni di volte e quindi di anticipare la diagnosi di molte patologie. Si aprono così prospettive interessanti per la genetica, perché i test effettuati con questa tecnica potranno consegnarci i risultati in tempo reale e a costi veramente molto contenuti. Il tutto partendo da una piccolissima quantità di campioni prelevati dal paziente (saliva, sangue o capelli) o dal sistema che si vuole analizzare, perché l’amplificazione della sensibilità diagnostica di questi marcatori potrebbe essere utile anche per scoprire episodi di sofisticazione alimentare, come nel caso del pesce o dello zafferano, oppure per evidenziare il deterioramento di un alimento attraverso il cambiamento di colore della scatola che lo contiene, impregnata del marcatore.

Ma una delle prospettive ora più affascinanti, che si è aperta con l’impiego dell’intelligenza artificiale, della meccanica quantistica e dei supercomputer, è quella di rendere possibile addirittura la progettazione e l’accelerazione dal punto di vista chimico della produzione di un farmaco. E questo, “oltre ad abbattere i costi, rende più gestibile la filiera della produzione, più democratica la medicina e probabilmente contribuisce più di qualunque altra tecnologia a diminuire le disuguaglianze. Questo risultato da solo vale tutto lo sforzo tecnologico impiegato, a partire da un robot per arrivare alla meccanica quantistica”, sottolinea Cingolani. “Per raggiungerlo”, conclude, “servono infrastrutture massive, che costano fatica, sono interdisciplinari, non hanno un capo o un proprietario, ma gente umile che sia disposta a parlare partendo dalle necessità, in questo caso della clinica, che suggerisce la direttiva”.

Mara Losi

Bibliografia

1. Cingolani R. Il mondo è piccolo come un’arancia. Una discussione semplice sulle nanotecnologie. Milano: Il Saggiatore, 2014.

2. Cingolani R, Metta G. Umani e umanoidi. Vivere con i robot. Bologna: Il Mulino, 2015.

Danielle Ofri:
ascoltare il paziente e comunicare con lui

Danielle Ofri, medico da oltre venticinque anni al Bellevue Hospital di New York e docente alla New York University School of Medicine, alla clinica e all’insegnamento affianca un’intensa attività di scrittrice e conferenziera. Le citazioni letterarie ricorrono spesso nelle sue pagine, così come le metafore che legano medicina e arte, e non a caso il suo intervento a “4words 2018” si apre con un celebre aforisma di George Bernard Shaw: “L’unico grande problema della comunicazione è l’illusione che abbia avuto luogo”.

Questo ci porta subito nel vivo del problema: il trasferimento di un messaggio dal paziente al medico (e viceversa) può sembrare semplice, ma è in realtà veramente difficile da realizzare in modo efficace. Per dimostrarlo, Ofri riporta l’esempio di quanto accaduto tra una giovane malata dal quadro clinico estremamente critico, complesso e multiforme, e il suo medico, una dottoressa vivace ed energica preoccupata di fare le giuste scelte per la sua paziente. La ragazza voleva tentare cure sempre più rischiose e non testate per delle diagnosi che non erano definitive; il medico pensava che non fosse giusto prescrivergliele e tentava di dissuaderla, ma per la paziente era in gioco la vita, non c’era tempo a disposizione per concedersi esitazioni. Sentire da ciascuna delle due la propria versione dei colloqui intercorsi tra loro – sottolinea Ofri – era come vedere la scena di un film da due punti di vista totalmente diversi. Erano l’esempio lampante di una comunicazione non riuscita, nonostante l’impegno, l’affetto reciproco e i buoni propositi di entrambe. Non a caso, è stata proprio la loro storia dai risvolti drammatici a ispirare il libro di Danielle Ofri Cosa dice il malato, cosa sente il medico, che fa luce sui più comuni tranelli e sulle principali sfide della comunicazione tra il paziente e il suo terapeuta1.

Si pensa di solito che, per funzionare, questa comunicazione debba essenzialmente essere caratterizzata da garbo e affidabilità e per molto tempo i medici non hanno ricevuto una specifica formazione alle tecniche su cui deve essere impostata, afferma Ofri. Dopo anni di esperienza clinica e di colloqui con le diverse parti in gioco, però, è giunta alla conclusione che la comunicazione tra medico e paziente non rappresenti solo un “modo” di parlare: a suo avviso, al contrario, è il più importante strumento diagnostico a disposizione del medico. Quando non funziona il computer o un’apparecchiatura medica, o in presenza di scarsità di risorse come avviene nei paesi del terzo mondo, si può ugualmente praticare la medicina. Ma quando si ha un paziente che non è in grado di comunicare, per esempio perché affetto da demenza, fare della “buona” medicina diventa una sfida particolarmente complessa2.

Se dunque quello che il paziente dice al medico ha senza dubbio un ruolo fondamentale nell’orientare la diagnosi, va anche detto che i medici tendono a dominare la scena, in particolare con le donne, gli anziani, gli obesi, le persone più svantaggiate… Dopo pochi secondi, in media 12 per la precisione, interrompono il paziente. Il loro istinto da detective prende il sopravvento e questo, secondo Danielle Ofri, è all’origine della maggioranza degli errori medici. Ma davvero il paziente divagherà all’infinito se il medico non lo guida con le sue domande? Uno studio svizzero che si è proposto di scoprirlo con metodi scientificamente ineccepibili ha dato dei risultati sorprendenti: la durata media del “monologo” dei pazienti, se non venivano interrotti, era di 92 secondi.




Subito dopo aver letto questo articolo, cronometro alla mano, Ofri ha deciso di metterlo alla prova per un giorno nel suo ambulatorio. La sorte ha voluto che, dopo tre malati i cui resoconti avevano richiesto dai 30 ai 40 secondi, fosse entrata nell’ambulatorio Josefina Garza: la paziente più prolissa e piena di disturbi che le potesse capitare, esattamente quella che può travolgerti con i suoi problemi. Rassegnata a far sballare ogni sua statistica, la dottoressa Ofri l’aveva ascoltata pazientemente – per un tempo che le era parso interminabile – mentre descriveva ogni suo minimo problema di salute fisica e psicologica. Alla fine, con sua grande sorpresa, aveva verificato che la signora Garza aveva parlato per soli 4 minuti e 7 secondi, durante i quali la dottoressa Ofri aveva preparato una lista dei sintomi da discutere assieme. Dopo la visita, che non aveva poi “sforato” così tanto i tempi rispetto alla media, la signora Garza le aveva detto una cosa che non si era mai sentita dire da un paziente: che il solo parlare l’aveva già fatta sentire meglio. Riflettere su questo l’aveva resa consapevole di essersi sentita meglio a sua volta. Questo episodio, afferma, l’ha portata alla convinzione che dedicare anche un solo minuto di attenzione esclusiva al paziente, ascoltandolo, guardandolo negli occhi, evitando di fissare il computer, è indispensabile per evitare errori e gestire meglio la situazione. Da allora, assicura Ofri, ogni visita successiva era stata sempre più “efficiente”.

Ma ci sono prove che il colloquio influenzi effettivamente gli esiti clinici? A questo proposito Danielle Ofri riporta i risultati di un interessante studio sul dolore postoperatorio svolto nel 1964, quando gli interventi chirurgici a cielo aperto causavano dolori molto forti che necessitavano di alte dosi di antidolorifici. Questo studio epocale ha dimostrato che i pazienti a cui prima dell’operazione venivano fornite dagli anestesisti dettagliate spiegazioni sulle caratteristiche del dolore che avrebbero provato, e su come minimizzarlo rilassando i muscoli, avevano bisogno del 50 per cento in meno di antidolorifici e venivano dimessi dall’ospedale tre giorni prima. Dunque massimi risultati, sia clinici che economici, con un intervento decisamente low-tech: 20 minuti di semplice conversazione.

Questo dimostra che se un medico parla con un paziente (e lo sottopone a un buon esame fisico) può risparmiare anche sulle altre tecnologie, che diventano un supporto per la verifica di una diagnosi e non il primario strumento diagnostico. L’efficacia degli interventi clinici è senz’altro da mettere in relazione con questo problema, tanto più considerando che le diagnosi più comuni si fondano su semplici conversazioni. Basti pensare alle malattie croniche come quelle cardiache, il diabete o l’enfisema, che comportano il maggior numero di visite negli ambulatori medici e richiedono soprattutto una buona informazione del paziente e l’educazione ai corretti stili di vita da tenere.

Se parliamo di innovazione in medicina, esorta dunque Danielle Ofri, dobbiamo sempre tenere al centro la comunicazione medico-paziente: è un investimento, è una tecnologia molto flessibile, potente ed economica, e oltretutto è priva di effetti collaterali. E conclude poi la sua relazione con lo stesso espediente usato per iniziarla: una citazione. Questa volta da una poesia di un cardiologo di Atlanta, John Stone, che veniva letta agli studenti che si laureavano in medicina presso la Emory university: “Imparerete a vedere più acutamente con la coda dell’occhio, a udire meglio con il vostro orecchio interiore”. Non si potrebbe immaginare una sintesi più acuta della necessità di non essere superficiali nell’ascoltare il paziente e comunicare con lui.

Bianca Maria Sagone

Bibliografia

1. Ofri D. What doctors say, what patients hear. Boston: Beacon Press, 2017. Ed. it. Roma: Il Pensiero Scientifico Editore, 2018.

2. Ofri D. What doctors feel. How emotions affect the practice of medicine. Boston: Beacon Press, 2013.

Holger Schünemann:
il metodo GRADE per governare l’incertezza

“Per prima cosa, non nuocere? Una pura illusione. È assolutamente impossibile mettere in pratica questo principio: con ogni intervento che effettuiamo, con ogni procedura diagnostica che proponiamo ai pazienti possiamo causare loro un effetto indesiderato o una conseguenza negativa. Non si può essere sicuri di non nuocere. Alla fine si tratta di bilanciare danni e benefici. La vera domanda che un medico ha il dovere di porsi sempre è come fare per evitare di causare un danno netto al paziente. Specularmente, un outcome è positivo solo se ha un effetto positivo netto”. È mettendo in crisi il celeberrimo comandamento di Ippocrate che Holger Schünemann, a capo del Department of health research methods, evidence and impact della McMaster university e direttore della Cochrane Canada, ha aperto la seconda relazione della sessione di “4words 2018” dedicata al tema “Scelte e decisioni”.

Occorre analizzare rischi e benefici di ogni singola procedura medica, valutare i pro e i contro nello specifico caso che si deve affrontare e decidere in modo informato, razionale e trasparente, ha spiegato Schünemann: “Lo strumento che dovrebbe assisterci in questo tipo di approccio sono le linee guida. A questo scopo appunto vengono stilate partendo dalle evidenze disponibili, per assistere operatori sanitari, pazienti e stakeholder nel processo decisionale in modo che possano fare interventi appropriati, sia a livello di procedure cliniche sia a livello di salute pubblica. Le linee guida enunciano delle raccomandazioni, come sappiamo. E le raccomandazioni hanno una forza diversa: possono essere ‘strong’, forti (sono come un semaforo verde, di regola va applicata la raccomandazione), ma sono soprattutto ‘conditional’, condizionali, cioè dipendono da una serie di circostanze (sono come un semaforo giallo, devi procedere con attenzione)”.




Dopo oltre un ventennio di confusione crescente, un gruppo di lavoro internazionale ha messo a punto il GRADE (Grading of Recommendations Assessment, Development and Evaluation), un sistema unificante, trasparente e sensibile di valutazione della qualità dell’evidenza1,2. L’obiettivo è quello di fornire una metodologia condivisa e universale per proporre raccomandazioni; dividere la qualità delle evidenze dalla forza delle raccomandazioni; spiegare il motivo alla base di questi giudizi mediante il “GRADE evidence profile”; proporre un metodo sistematico e riproducibile per stabilire la forza delle raccomandazioni. Spiega Schünemann: “Oltre cento istituzioni sanitarie al mondo (tra le quali OMS, NICE, CADTH, CDC, AHRQ), società scientifiche e istituzioni accademiche utilizzano ormai il GRADE per le revisioni sistematiche, l’HTA e le linee guida. Il gruppo GRADE ha già ricevuto oltre 30.000 citazioni – e chi lavora nel campo dell’editoria medica sa cosa vuol dire un numero di questa grandezza – e ha prodotto una serie di pubblicazioni e una app (GRADEpro, scaricabile all’indirizzo www.gradepro.org). Sono stati istituiti dei centri GRADE in giro per il mondo: ne abbiamo in Canada, Cina, Germania, Spagna, Italia, Libano, Colombia, Australia già attivi, ed è prevista a breve l’apertura di altri in Giappone, Sudafrica, Brasile, Polonia”.

L’approccio GRADE è strutturato in fasi successive: la formulazione di un quesito clinico con scelta e valutazione formale degli outcome a esso correlati; la valutazione sistematica della letteratura scientifica e della qualità delle prove reperite; la valutazione dei benefici e dei rischi associati all’intervento preso in esame, considerando le preferenze dei pazienti, la fattibilità e l’impiego di risorse necessario; la definizione formale della forza della raccomandazione. “Per utilizzare operativamente il metodo GRADE nel decision making sono stati sviluppati degli evidence to decision (EtD) frameworks che forniscono una procedura strutturata attraverso la quale i gruppi di ricercatori possono fornire raccomandazioni basate sulla migliore evidenza scientifica. La maggior parte delle raccomandazioni e dei suggerimenti sviluppati con questo framework saranno ovviamente etichettati propriamente come condizionali e si dovranno quindi specificare le condizioni che permettono l’applicazione di ogni singola raccomandazione”, puntualizza Schünemann.

Attualmente uno dei progetti più importanti a cui si sta lavorando col metodo GRADE a livello internazionale è la stesura delle nuove linee guida sul tromboembolismo venoso a cura dell’American society of hematology. Durante il suo intervento, Schünemann ha utilizzato come esempio di applicazione di EtD un quesito sulla somministrazione di eparina nei pazienti oncologici trattati con chemioterapia. Alla fine il panel di esperti ha deciso che nei pazienti oncologici che ricevono chemioterapia in ambulatorio la tromboprofilassi di routine non è indicata. In particolare, nei pazienti a basso rischio di tromboembolismo venoso c’è una forte raccomandazione contro la tromboprofilassi di routine, nei pazienti a rischio medio c’è una raccomandazione condizionale contro la tromboprofilassi di routine e soltanto nei pazienti a elevato rischio c’è una raccomandazione condizionale per la tromboprofilassi di routine con eparina.

Schünemann ha così concluso: “Di fronte alla complessità della letteratura scientifica e all’overload di informazioni di scarsa qualità a disposizione dei pazienti, che ormai girano con un supercomputer in tasca, il processo di decision making – sia esso individualizzato o condiviso – va effettuato attraverso il metodo GRADE, per permetterci di opporre fiducia e tranquillità alla marea dell’incertezza”.

David Frati

Bibliografia

1. Morgano GP, Amato L, Parmelli E, et al. GRADE Evidence to Decision (EtD) framework: un approccio sistematico e trasparente per prendere decisioni informate in ambito sanitario. 1: Introduzione. Recenti Prog Med 2017; 108: 402-24.

2. Alonso-Coello P, Oxman AD, Moberg J, et al. GRADE Evidence to Decision (EtD) frameworks: a systematic and transparent approach to making well informed healthcare choices. 2: Clinical practice guidelines. BMJ 2016; 353: i2089.

Cristina Messa:
aprire un dialogo tra università e industrie e fare rete

Cristina Messa, alla guida di un’università giovane, l’Università Milano-Bicocca, che quest’anno festeggia il ventesimo anniversario, è intervenuta sul management della ricerca dal punto di vista di chi fa produzione scientifica.

Secondo Messa, nell’ambito di ricerca e sviluppo, tre sono le attività fondamentali: la valorizzazione della ricerca di base e applicata, lo sviluppo di soluzioni e innovazioni che siano trasferibili al mercato e che possano essere scalabili, la formazione delle nuove generazioni1-4.

Un concetto che il rettore tiene a sottolineare è quello della responsabilità, che deve essere un elemento chiave della buona ricerca scientifica. Per fare buona ricerca, “gli atenei e la società devono nutrire grandi aspettative in relazione allo standard, alla professionalità e all’integrità degli scienziati, e devono vigilare per assicurare che etica e buone pratiche siano sempre al primo posto dei valori della ricerca. Tra le responsabilità dei ricercatori rientrano: l’accuratezza e la credibilità dei dati e delle analisi prodotte, l’applicazione di una metodologia scientifica rigorosa e validata, la garanzia che il comportamento verso le persone coinvolte nella ricerca rispetti i più elevati standard e che le pratiche intraprese siano in accordo con la legge e verificabili. Il modello di ricerca e innovazione deve, dunque, costituire un esempio per crescere le generazioni di ricercatori futuri e per tutti i cittadini”.




Come è la nostra produttività scientifica? I dati riferiti dal rettore di Milano-Bicocca parlano di una produttività scientifica buona “e lo è ancora di più se rapportiamo la produttività scientifica all’investimento in ricerca, in termini sia di capitale umano sia di progettualità e finanziamento. Siamo al pari di Regno Unito e Canada. Nonostante lo scarso finanziamento, l’efficienza del sistema, per quanto riguarda la produttività, è decisamente elevata”.

Tanta ricerca, dunque, ma quant’è l’innovazione? Quali i punti di debolezza?

Tra i principali punti di debolezza dell’Italia il rapporto Science, technology and innovation country profile dell’Ocse (2014) indica:

basso rapporto tra spesa per ricerca e sviluppo e per prodotto interno lordo;

limitata presenza di ricercatori, soprattutto nel privato;

bassa attrattività internazionale di studenti, ricercatori e investimenti privati in ricerca e sviluppo.

Messa fa anche riferimento alla performance dell’Italia nell’ambito del programma Horizon 2020 e presenta alcuni dati (Eu, 19/06/2017):

circa 8 per cento del budget vinto in Italia;

i ricercatori italiani sono 168.000 (dati Ocse 2014), cioè il 6,2 per cento del numero totale di ricercatori nell’Unione europea (2.700.000);

l’Italia, nell’Innovation scoreboard 2017, si posiziona tra i paesi “innovatori moderati”.

Tanta ricerca, non altrettanta innovazione, dunque. “Se noi pensiamo a un percorso che va dai risultati della ricerca alla loro valorizzazione, incontriamo una fase di mezzo, fra l’accademia, la ricerca di base e l’impresa vera e propria, il mondo produttivo, che è stata chiamata la valle della morte”, fa notare Messa.

Quali soluzioni? “Chiaramente non possono essere a livello di singoli ma di sistema. Vanno studiate con i ministeri competenti, con le regioni, nel rapporto impresa-università. Per quest’ultimo aspetto l’università può fare molto, cambiando le proprie strategie e coinvolgendo fortemente il sistema industriale. Gli atenei svolgono un ruolo essenziale per lo sviluppo delle nuove imprese nelle prime fasi di avvio e incubazione, favorendo la creazione e il supporto di nuove attività di business originate dalla valorizzazione dei risultati delle attività di ricerca. La ricerca crea così valore e benessere anche per l’intera comunità e il territorio”.

Come formare le nuove generazioni? Secondo Messa è in atto un processo di rinnovamento, particolarmente visibile presso il suo ateneo. C’è bisogno di un capitale umano che sappia dialogare in maniera appropriata con l’accademia e con l’industria. “In tutta Italia, e anche da noi, ci si è concentrati molto su stage, tirocini e iniziative che portino i ragazzi direttamente nel mondo del lavoro, e sui dottorati industriali, che sono stati una rivoluzione per chi vedeva i dottorati come il primo gradino per entrare nell’accademia. Ci si è accorti che solo una quota inferiore al 10 per cento dei dottorandi entra nell’accademia, a livello nazionale. Altrettanto succede negli altri enti di ricerca. Dobbiamo quindi valorizzare il nostro dottorato anche insieme alle imprese”.

Tra le piattaforme progettuali di Milano-Bicocca, l’ateneo è particolarmente orgoglioso degli sviluppi della fondazione U4I (University4Innovation), condivisa fra tre università (Bergamo, Milano-Bicocca e Pavia) per rafforzare il legame tra ricerca e territorio. Parallelamente, Milano-Bicocca ha attivato o intensificato i rapporti con tutti i cluster regionali, con la Regione Lombardia, con gli enti pubblici di ricerca e le fondazioni, per rafforzare la collaborazione tra i diversi attori della filiera dell’innovazione. “In ambito di innovazione e salute sarebbe auspicabile che in futuro le università rafforzassero i loro rapporti anche con le IRCSS. Le università sono sempre più connesse alle imprese: è importante favorire forme di collaborazione e dialogo, come nel caso di Milano-Bicocca con Assolombarda, con cui sono attivi diversi progetti di sensibilizzazione che aiutino a trasferire i risultati scientifici al territorio oltre che definire nuove modalità didattiche per formare i professionisti del futuro”, sottolinea Messa. “L’elemento fondamentale di tutto questo sistema è la sinergia ma non solo tra università e imprese o tra mondo della ricerca e imprese. Perché anche la pubblica amministrazione e i cittadini fanno parte della sinergia. Quindi queste collaborazioni richiedono un percorso che non si limiti a valutare i reciproci vantaggi, anche dal punto di vista economico, e che favorisca la capacità di condivisione, supporto, scambio delle conoscenze, inclusione e discussione aperta. Un processo che si era fermato un po’ di tempo fa, ma che ora, in quasi tutto il sistema universitario, è considerato uno degli elementi più importanti. La Regione ha anche un ruolo fondamentale. Le politiche regionali sono quelle che dovrebbero unire ancora di più le accademie alle imprese”.

“Siamo in una fase di cambiamento molto importante, si corre tantissimo. Nel settore salute l’Italia è particolarmente forte, sia nel campo assistenziale, perché è uno dei pochi paesi che riesce a mantenere il sistema sanitario universalistico, sia dal punto di vista della ricerca, attraverso una rete molto forte che passa dagli IRCCS, dagli enti di ricerca e dalle università. Se riuscissimo a trasferire ancora di più nel nostro sistema produttivo quello che viene prodotto nei laboratori – conclude Messa – potremmo migliorare e diventare ‘buoni’ innovatori”.

Arabella Festa

Bibliografia

1. Lio P. Referendum Milano. Messa: “Ora si faccia correre la ricerca”. Corriere della Sera, 25 ottobre 2017.

2. Bricco P. La nuova trincea dei ragazzi della classe ’99. A tavola con Maria Cristina Messa. Sole 24 Ore, 16 aprile 2017.

3. Mariani L. Un rettore “al femminile”. Intervista a Maria Cristina Messa. Wall Street Internazional, 12 marzo 2016.

4. Fregonara G. Atenei troppo piccoli, non sanno cogliere i cambiamenti del lavoro. Intervista a Maria Cristina Messa. Corriere della Sera – Cronaca di Milano, 16 settembre 2010.

Mario Pianta:
la politica della ricerca

Il sistema della ricerca e dell’innovazione in Italia, in particolare nel settore della salute che va dalla ricerca medica e biologica di base all’industria farmaceutica, fino alle attività sanitarie e a quelle collaterali, pubbliche e private, è a un momento di svolta: in dieci anni di grave crisi, le politiche di austerità nella spesa pubblica hanno infatti aggiunto, ad alcune debolezze strutturali del sistema tecnologico italiano, nuove difficoltà legate alla gestione delle risorse. Con queste parole Mario Pianta, professore di politica economica dell’Università di Roma Tre, commenta i dati emersi dal Rapporto per l’Osservatorio su ricerca e innovazione (RIO) del Joint research centre della Commissione europea1.

In Italia, dal 2008 a oggi, la produzione industriale è scesa del 20 per cento, i centri decisionali si sono spostati all’estero e la spesa pubblica per ricerca e sviluppo è diminuita, in termini reali, del 21 per cento. Siamo quindi lontanissimi dalla quota del 3 per cento del PIL delineata dalla strategia Europa 2020, elaborata dall’Unione europea per agevolare l’uscita dalla crisi economica e rispondere in maniera adeguata alle sfide del decennio 2010-2020.




La caduta più grave è stata quella degli stanziamenti pubblici destinati all’università e al finanziamento di istituti e progetti di ricerca. Sostanzialmente si è passati da 9 a 7 miliardi di euro: un taglio di 2 miliardi che ha portato a una serie di gravi ripercussioni. Le università hanno perso quasi il 17 per cento del proprio organico tra ricercatori e professori passando da 60.000 a 50.000 unità: una flessione pesantissima che va a sommarsi alla riduzione, per la prima volta dall’unità d’Italia, del numero di studenti universitari e di laureati. Il nostro paese sta arretrando in modo drammatico partendo da una situazione in cui già era, sul piano tecnologico e della ricerca, tra i fanalini di coda dell’Europa.

Il rischio – spiega Pianta – è quello che di trovarsi di fronte a un invecchiamento e impoverimento sistematico del sistema universitario, difficile da ricostruire. Un impoverimento in chiave dinamica delle risorse umane che, già grave, potrebbe portare, tra alcuni anni, a un crisi strutturale delle capacità di ricerca e innovazione. “Abbiamo il problema di dover finanziare, in primo luogo, un recupero di competenze tecnologiche e invece stiamo assistendo a una fuga di cervelli con migliaia di laureati e ricercatori che lasciano l’Italia”.

Anche dal punto di vista di ricerca e sviluppo realizzati dalle imprese private si registra un sostanziale calo. Il rapporto ISTAT sull’innovazione delle imprese 2012-2014 indica che solo il 50 per cento delle nostre imprese è stato in grado di generare innovazione, sebbene l’industria del farmaco abbia investito 1 miliardo di euro, cifra inferiore a quella spesa da altri paesi europei (per es., un terzo di quanto speso dalla Germania), ma superiore alla media registrata in altri settori nazionali2.




Siamo quindi in una situazione in cui esistono competenze e aree di alta specializzazione nella ricerca di base, nelle applicazioni e nello sviluppo del settore industriale collegato al sistema della salute, ma la soglia dimensionale di questo settore e l’assenza di soggetti forti che possano costruire una coerente politica di sviluppo economico impediscono all’Italia di emergere.

Tutto ciò a fronte di ottime prestazioni del sistema sanitario pubblico universalistico italiano, punto di forza fondamentale del paese che è, tuttavia, sottofinanziato, così come molte altre attività pubbliche. In tal senso le politiche degli ultimi trent’anni, all’insegna della privatizzazione, hanno usato come principale strumento d’intervento gli incentivi fiscali, troppo spesso, però, erogati “a pioggia” a tutte le imprese, indistintamente.

Tali politiche – continua l’economista – possono servire in alcuni casi, ma sono sostanzialmente sbagliate perché non distinguono la diversità delle attività economiche e, soprattutto, perché non risolvono quella che è la difficoltà di base, ossia la mancanza di domanda di beni e servizi.

È importante, quindi, creare una prospettiva d’espansione produttiva, occupazionale e di domanda pubblica, individuando alcune aree prioritarie, ottimizzando le risorse e indirizzandole in modo più efficace in tale direzione. Oltre ad aumentare quantitativamente il livello di risorse destinate alla ricerca, qualitativamente è necessario perseguire una strategia attiva, finalizzata all’equità produttiva, che veda il sistema della salute come un sistema integrato, che, come tale, riceva stanziamenti e risorse specifici.

Per orientare e stimolare gli investimenti in direzioni selezionate, coerenti con le esigenze di sviluppo del paese è necessaria una mano pubblica che, gestendo le risorse finanziarie e dando vita a una banca pubblica d’investimento e a nuovi soggetti finanziari, leghi la politica dell’innovazione alla politica industriale e delle infrastrutture in modo da rendere il sistema più coerente ed efficace.

Stefania Mengoni

Bibliografia

1. Nascia L, Pianta M, Isella L. Rapporto Paese RIO, Italia, 2016. JRC Science and policy report, European commission, Joint research centre, Brussels, 2017.

2. Report ISTAT. L’innovazione nelle imprese. Anni 2012-2014. Roma, 2016.

Ziad Obermeyer:
l’intelligenza artificiale al servizio delle decisioni mediche

“La medicina è piena di scelte difficili”. Si è aperta con queste parole la prima relazione della sessione di “4words 2018” dedicata al tema dell’intelligenza artificiale, tenuta da Ziad Obermeyer, assistant professor di Medicina d’urgenza al Brigham & Women’s hospital di Boston e assistant professor di Health care policy alla Harvard medical school. Il medico statunitense ha descritto il caso dei pazienti che si presentano al pronto soccorso lamentando dolore al petto, respiro corto, sudorazione o altri sintomi potenzialmente indicativi di un infarto del miocardio. “Per i medici è molto difficile identificare correttamente un evento in corso”, ha sottolineato. “Tuttavia, devono decidere rapidamente se sottoporre il paziente a test estremamente costosi o correre il rischio e mandarlo a casa”.

Purtroppo, molto spesso la scelta si rivela sbagliata. I livelli di performance in termini di valutazione del rischio di infarto del miocardio sono molto bassi: si fanno troppi esami e si ottengono pochi risultati. “Tra le persone testate – ha spiegato il medico di Boston – sono pochi quelli che vanno incontro a un reale beneficio clinico”. Da qui la volontà di ottimizzare il meccanismo di stratificazione del rischio, processo in cui l’intelligenza artificiale potrebbe avere un ruolo fondamentale. Infatti, secondo Obermeyer, grazie a queste tecnologie sarà possibile ottenere valutazioni del rischio estremamente accurate, calcolate sulla base delle caratteristiche del singolo soggetto. Questo permetterebbe di ridurre del 40 per cento il numero dei test effettuati – con un risparmio pari a 1 miliardo di dollari l’anno solo negli Stati Uniti – e del 60 per cento quello degli infarti del miocardio non diagnosticati – con una possibile diminuzione del 20-50 per cento della mortalità associata.

Obermeyer ha quindi riportato i risultati di uno studio del suo gruppo di ricerca1 in cui si è utilizzato un algoritmo di machine learning per elaborare, attraverso l’analisi di 3201 variabili, il rischio di infarto miocardico dei soggetti giunti al Pronto Soccorso del Brigham & Women’s hospital. Sulla base del rischio predetto dall’algoritmo i pazienti sono stati poi divisi in 10 gruppi, per ognuno dei quali si è calcolato il numero di test realizzati (stress test o cateterismi cardiaci, entro una settimana dalla visita) e quello di rivascolarizzazioni effettuate (entro una settimana dal test). Per i soggetti inclusi nel decile caratterizzato dal rischio minore, la prescrizione di esami diagnostici è risultata associata a un vantaggio clinico solo nell’1,7 per cento dei casi. “Traducendo questi dati in termini di rapporto costi-efficacia – ha spiegato Obermeyer – nel gruppo dei pazienti con un rischio minore questi test si associano a un costo annuo per vita salvata di quasi 600.000$, ben oltre la soglia di 100.000$ utilizzata in genere per definire un rapporto accettabile”.

Per quanto riguarda i pazienti più a rischio, invece, un vantaggio clinico è emerso nel 42 per cento dei casi. “Tuttavia, se inseriamo nel nostro modello anche i pazienti non testati – spiega Obermeyer –, vediamo che solo il 17 per cento di quelli considerati [dall’algoritmo] ad alto rischio viene sottoposto a test”. Analizzando outcome diversi dalla procedura di rivascolarizzazione, come per es. i livelli di troponina, è emerso che il 22 per cento di questi pazienti presentava evidenze biologiche tipiche di un danno cardiaco. “Anche tra i soggetti non testati, quindi, il nostro modello è risultato in grado di individuare i soggetti a rischio di infarto del miocardio”, ha sottolineato Obermeyer. A conferma di ciò, il medico del Brigham & Women’s hospital ha presentato due grafici, uno relativo alla mortalità e uno alla presenza di aritmie potenzialmente letali (fibrillazione ventricolare e tachicardia ventricolare) in quella popolazione: entrambi mostravano un picco in relazione ai gruppi di soggetti ad alto rischio.

Obermeyer è poi passato a descrivere i dati relativi alla variabilità esistente tra i medici in termini di valutazione del rischio. “Ad alcuni clinici basta sentire la parola ‘petto’ per decidere di sottoporre un paziente a uno stress test”, ha spiegato. “Abbiamo diviso i medici in cinque gruppi sulla base della loro propensione a prescrivere questi esami e analizzato le loro prestazioni rispetto ai rischi previsti dall’algoritmo”, ha spiegato Obermeyer. “È emerso che i medici che prescrivono il numero maggiore di test lo fanno fino a tre volte di più con i pazienti a basso rischio – un dato negativo – ma anche fino due volte di più con quelli ad alto rischio – un dato positivo”. L’obiettivo deve essere quindi quello di trovare il giusto compromesso tra le due tendenze. Per esempio, i ricercatori hanno preso in considerazione i pazienti visitati dai medici che proponevano più test e realizzato una simulazione impostando il testing rate del gruppo di medici che lo faceva di meno, lasciando all’algoritmo il compito di identificare i soggetti ad alto rischio. “Così facendo, è stato possibile individuare il 55 per cento di infarti miocardici in più”, ha spiegato Obermeyer.

Il medico del Brigham & Women’s hospital di Boston ha infine riassunto i punti più importanti della sua relazione: “Spesso si pensa all’intelligenza artificiale in termini di possibili applicazioni tecnologiche, mentre io credo che sia utile soprattutto ai fini di una maggiore comprensione”. Questi risultati, per esempio, hanno permesso di capire che il processo di valutazione del rischio dei pazienti che presentano sintomi riconducibili a un infarto del miocardio determina un rapporto di costi-efficacia negativo. Le strategie utilizzate attualmente per risolvere questa situazione, come l’introduzione di incentivi o la modulazione dei prezzi delle procedure, non sono funzionali a migliorare la situazione: “Il problema sono i limiti cognitivi della mente umana, non i prezzi dei test”, ha sottolineato Obermeyer. In conclusione, dallo screening oncologico alla valutazione delle embolie polmonari, sono moltissime le situazioni in cui il potere predittivo del machine learning potrebbe risultare determinante. Sarà però necessario cambiare approccio nei confronti di queste tecnologie, spesso viste come strumenti utili solo a semplificare o a velocizzare il lavoro umano: “Questa potrebbe essere la peggiore delle ipotesi”, ha concluso il medico statunitense2. “Non dovremmo porci l’obiettivo dell’automazione, ma quello della trasformazione”.

Fabio Ambrosino

Bibliografia

1. Obermeyer Z, Emanuel EJ. Predicting the future: big data, machine learning, and clinical medicine. N Engl J Med 2016; 375: 1216.

2. Obermeyer Z, Lee TH. Lost in thought. The limits of the human mind and the future of medicine. N Engl J Med 2017; 377: 1209-11.




Federico Cabitza:
intelligenza artificiale, una questione di prudenza

“La tecnologia dovrebbe farci vedere più lontano e più in profondità, ma lasciare a noi l’interpretazione di cosa vediamo”. Uno dei (diversi) concetti chiave che emergono dalla riflessione di Federico Cabitza su intelligenza artificiale, machine learning, interazione uomo-macchina che ha chiuso la quarta e ultima sezione del convegno “4words 2018”. Una chiusura che, come l’intero progetto Forward, non coincide necessariamente con risposte definitive alle domande che ci si è posti, ma piuttosto con ulteriori domande che divengono l’apertura verso qualcos’altro.

Se molto si è detto e si continua a dire sui vantaggi che la medicina sembra poter trarre dall’applicazione dell’intelligenza artificiale (tra i due grandi poli della hipe, l’esagerazione, di stampo giornalistico, e della hope, la speranza, degli addetti ai lavori), meno invece si è riflettuto sui limiti e i “rischi” della stessa, e quindi sui dubbi che possono derivarne (il “terzo escluso” la cautela, la prudenza)1. A partire proprio dalla sua definizione, “intelligenza artificiale”, che in realtà altro non indica se non “l’automazione di compiti intelligenti”, compiti che – se eseguiti da un essere umano – gli avrebbero richiesto un qualche tipo di competenza e intelligenza. “Non quindi un’intelligenza nuova, differente, alternativa ‘che fa qualcosa per noi’, ma piuttosto ‘un fare’ che un’intelligenza (ossia noi) può apprezzare per i suoi servizi”, dichiara Cabitza, mettendo immediatamente l’accento sull’aspetto di semplificazione, automazione ed efficientamento di qualcosa che ci aiuta nei compiti complessi o ci solleva da quelli gravosi e ripetitivi, e anticipando implicitamente la riflessione ulteriore e successiva su potenziamento sensoriale e potenziamento cognitivo.

Nonostante il grande interesse che l’argomento dell’intelligenza artificiale suscita, nonché le grandi speranze e progettualità che porta con sé (hipe-hope), attualmente in medicina, nella scala dei livelli di automazione in ambito di decisione proposta una ventina di anni fa da Parasuraman2, non si va oltre il livello 4 di interazione tra macchina ed essere umano: a questo livello il sistema o seleziona e presenta al medico un insieme ristretto di opzioni (diagnostiche o prognostiche) o ne suggerisce una in alternativa (una diagnosi, in particolare), lasciando però al medico, all’essere umano, la decisione finale. Tra il livello più basso 1 – in cui la macchina non dà alcuna assistenza e l’essere umano prende tutte le decisioni e compie tutte le azioni – e il livello più alto 10 – in cui la macchina decide tutto, agisce autonomamente e ignora l’essere umano - si pone il confine tra aumentazione delle capacità cognitive (livelli 2-4) e diminuzione/depotenziamento di quelle stesse capacità (livelli 5-9), con il progressivo dimenticarsi come si fanno le cose dovuto all’eccessivo ricorso a un supporto che fa le cose meglio di noi, in maniera più accurata. Progressivo dimenticarsi che è una delle conseguenze inattese e non volute dell’adozione di sistemi a supporto delle decisioni di tipo “oracolare”3: sistemi, sì, molto accurati (e proprio di “mania dell’accuratezza” parlerà Cabitza nelle sue conclusioni), ma anche poco trasparenti e poco comprensibili nelle scelte che effettuano.

Da questo momento in avanti, Cabitza ricorre a una serie di immagini e di metafore creative per provocare l’audience e far avanzare il ragionamento (anche) sui binari della “prudenza”, introducendo l’analogia tra aumentazione sensoriale e aumentazione cognitiva, secondo la quale quella stessa tecnologia che potenzia e amplifica i nostri sensi (si pensi allo stetoscopio, al microscopio, ai raggi x) può facilmente condurre a potenziare egualmente anche le nostre capacità interpretative e cognitive. Analogia che – stando a Cabitza – è “fuorviante e pericolosa”. Ma la riflessione scientifica su tecnologia amplificante e osservazione della natura non è di oggi. Già Galileo, nel 1610 – nel Sidereus Nuncius – potendo osservare e quindi descrivere la faccia visibile della Luna grazie a un primo rudimentale telescopio concludeva – da scienziato vero – che una cosa è l’osservazione, altra l’interpretazione di ciò che si è potuto osservare, anche se con i sensi infinitamente amplificati da una qualche tecnologia disponibile. D’altronde, nella stessa immagine radiologica di un polmone due esperti possono interpretare quella stessa macchia scura come un tumore o un enfisema (come i “channel” mappati e descritti da Schiaparelli nell’osservazione del pianeta Marte, che diventano i “canal” osservati da Pickering sullo stesso pianeta due anni dopo). “Il punto è che l’elemento decisivo non risiede tanto nel senso della vista, potenziato dalla tecnologia, ma nell’interpretazione corretta del fenomeno osservato, nel capire cosa si sta osservando e inserirlo in un quadro di ‘sense making’ complessivo”, conclude Cabitza.

Relativamente all’aumentazione, si tratta piuttosto di un’alleanza tra la macchina e l’essere umano in cui ciascuna parte dà il proprio contributo mettendo a disposizione ciò che sa fare meglio (come descritto bene dal Modello Centauro di Kasparov): intuizione, creatività, comunicazione il medico, ossia l’essere umano; capacità di calcolo, ricerca e reperimento di informazioni dettagliate all’interno di una enorme mole di dati la macchina. E sebbene questa risulti in grado di cogliere e rappresentare con estrema accuratezza alcuni dati ed elementi di un contesto esistenziale e clinico che un medico, per es., si trova ad affrontare, essa non potrà mai cogliere l’ampiezza della variabilità e l’ambiguità di quel contesto (come non è possibile per il bambino della “Pozza di Sant’Agostino” del Botticelli mettere tutto il mare nella piccola pozza fatta sulla riva). Anche gli algoritmi più potenti non possono eludere la variabili confondenti e le correlazioni spurie, delineando una semplice verità, ossia che “il vero problema dell’applicazione della tecnologia informatica in medicina è quello dei dati, della loro accessibilità, qualità, validità e della cosiddetta ‘informatività clinicamente rilevante’”.

Cabitza, quindi, ci mette in guardia dal proiettare aspettative e abilità su sistemi che di fatto non sono intelligenti ma semplicemente in grado di leggere i dati che generano, potendo addirittura introdurvi sia le risposte corrette sia i nostri bias (come Hans, il cavallo intelligente dell’ultima metafora creativa proposta). E, per non cadere in questa tentazione, va superata la mania dell’accuratezza, visto poi che proprio quell’accuratezza del 90% di cui i sistemi di intelligenza artificiale sono capaci, in alcune recenti ricerche, è stata migliorata da normali cani domestici (per il loro fiuto) e addirittura da piccioni allenati a identificare neoplasie dalle mammografie o tumori al polmone!

Ma si può avanzare. Ossia, si può andare oltre i limiti e i rischi fin qui descritti. Superando due grandi ambiti informatici che poco comunicano tra loro: “l’interazione uomo-computer” (interazione dell’uomo con i dati) da una parte, e “l’intelligenza artificiale” dall’altra. Quando, infatti, il dato fornito al medico si delinea come una raccomandazione, un suggerimento, ossia “una scorciatoia cognitiva”, ecco prospettarsi un terzo ambito informatico, che è anche un nuovo terreno di correlazione, quello dell’interazione “uomo-intelligenza artificiale”, dove l’approccio richiesto deve necessariamente essere di tipo sperimentale. Le tecnologie a supporto delle decisioni vengono così validate sul campo valutandone l’usabilità, ossia l’efficienza, l’efficacia e – non da ultima – la soddisfazione dell’uomo che con esse interagisce. Da ciò, infine, l’assoluta necessità di studi sperimentali in cui il confronto sia tra team di medici che utilizzano sistemi di intelligenza artificiale e team di medici che non li utilizzano, e non tra medico e intelligenza artificiale. Solo in questo modo potranno evidenziarsi differenze significative o meno, sia per i pazienti sia per i medici.

Manuela Baroncini

Bibliografia

1. Cabitza F, Alderighi C, Rasoini R, Gensini GF. Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina. Recenti Prog Med 2017; 108: 397-401.

2. Parasuraman R, Sheridan TB, Wickens CD. A model for types and levels of human interaction with automation. IEEE Trans Syst Man Cybern A Syst Hum 2000; 30: 286-97.

3. Cabitza F, Rasoini R, Gensini GF. Unintended consequences of machine learning in medicine. JAMA 2017; 318: 517-8.

La pressione del non sentirsi all’altezza
Essere direttore di una rivista

Intervista a Federico Marchetti

I direttori delle riviste scientifiche hanno un ruolo delicato. Gli editor delle “grandi” riviste internazionali possono direttamente determinare fortuna e sfortuna di prodotti farmaceutici o di dispositivi medici, scegliendo il modo per pubblicare gli studi che li riguardano. Anche chi ha la responsabilità di coordinare il lavoro editoriale a un periodico a diffusione perlopiù nazionale, però, può esercitare una certa influenza e a sua volta essere esposto a tensioni di diversa natura, dalle rivalità accademiche agli imbarazzi che possono derivare dal conoscere direttamente buona parte dei potenziali autori.

Ne abbiamo parlato con Federico Marchetti, direttore dell’Unità operativa complessa di pediatria e neonatologia della AO di Ravenna e editor di Medico e bambino.

Chi dirige una rivista di medicina sente su di sé una pressione maggiore rispetto ai propri colleghi? Sente di essere un po’ più “corteggiato”?

Chi dirige una rivista sente su di sé un peso maggiore nell’essere all’altezza dei compiti. Nel senso di essere partecipe dei contenuti della rivista (articoli, rubriche, lettere, editoriali) che siano utili per il lettore (da un punto di vista di aggiornamento, culturale e pratico). Nel caso specifico della rivista Medico e bambino per i pediatri, di famiglia, ospedalieri, specializzandi. Può sembrare una risposta “fuori tema”, ma in realtà non lo è. Infatti è questa “la pressione” che guida le scelte editoriali; non sento altre pressioni, non c’è una scelta che deve tenere conto di una pressione che deriva dall’industria farmaceutica, da aziende o da altre istituzioni. Se fosse così penso che la rivista, rispetto alla sua storia, non esisterebbe o sarebbe molto diversa da quello che è. Se fosse così non sarei direttore della rivista Medico e bambino. Questa convinzione riguarda quello che posso dire io come direttore scientifico della rivista, ma riguarda anche il coordinamento scientifico (e lo stesso comitato editoriale).




Come editor di una rivista vicina a specifiche istituzioni ospedaliere, può capitare di essere influenzato nel giudicare dei contributi che da quelle strutture provengono? Quali precauzioni possono funzionare, nella tua esperienza, per una revisione critica imparziale?

Sì, è vero. Può succedere che, in un contesto soprattutto nazionale a cui è rivolta la rivista Medico e bambino, si conoscano bene gli autori dei contributi. Questo indubbiamente può determinare un giudizio “a priori” (rispetto a presunta competenza, conoscenza, di quelle che sono le opinioni che in qualche modo si conoscono da parte degli autori). Ma è indispensabile andare oltre questo giudizio iniziale. Il metodo migliore è sempre quello: una revisione esterna del lavoro da parte di figure professionali che ricevono il contributo, la maggioranza delle volte in anonimo (non sanno chi sono gli autori). È una scelta che può essere discutibile ma che personalmente ritengo giusta.

La scelta dei revisori è basata sulle competenze note (delle persone che si individuano), ma anche sulla leggibilità e praticità del contenuto (c’è quasi sempre un pediatra di famiglia che fa da revisore). Capita a volte che i giudizi siano contrastanti tra i revisori, e in questo caso il giudizio ulteriore riguarda tutti o quasi tutti i componenti del coordinamento scientifico. Una sintesi finale è stata sempre possibile, a volte con accesi dibattiti, ma basati sempre ed esclusivamente sui contenuti, non su pressioni di altro tipo. Basta a volte vedere il prima e il dopo di un lavoro. Ci sono margini di miglioramento importanti in alcuni lavori, che gli stessi autori riconoscono, pur essendo consapevoli che il processo di revisione di un lavoro è a volte fastidioso, lungo, a tratti poco comprensibile.

La tua firma è spesso presente tra quelle degli autori di articoli che escono su Medico e bambino: come funziona la revisione in casi del genere?

Talvolta un direttore della rivista compare spesso (troppo) come autore di contributi: mi chiedo sempre se sia giusto o meno. Ma la storia di Medico e bambino ha delle peculiarità che possono spiegare il fatto che tutti i componenti del coordinamento scientifico e delle stesso comitato editoriale scrivono molto per la rivista: è l’idea originale di una progettualità che vive, come è scritto nel “Chi siamo” di presentazione, secondo questi principi: «È dedicata con larga prevalenza alla Pediatria ambulatoriale (ma anche ospedaliera) ed è ispirata, senza forzature, ai principi dellEBM. La rivista è riuscita a mantenere, in questi anni, una posizione di indipendenza e di distanza critica nei riguardi di mode e di influenze non strettamente scientifiche e di mercato». Ognuno ha voglia di scrivere quello che vive nella realtà assistenziale quotidiana, in una visione allargata, ma di condivisione stretta di idee e di buone pratiche, raccontando anche esperienze sul campo. Non è un atto di presunzione, o di verità assoluta, ma di confronto di idee. E su questo c’è il grande desiderio a volte di dire la propria.

Il processo di revisione è lo stesso, sapendo bene che il giudizio finale può essere ancora più critico, proprio perché viene dall’interno di chi coordina la rivista. Ricordo più di un articolo scritto da me che è stato sonoramente criticato e bocciato. Mi è servito molto ed è servito soprattutto alla rivista.

Sappiamo quanto conti pubblicare per la carriera professionale di un medico: può capitare che sia richiesto un occhio di riguardo per dei lavori da parte di colleghi?

No, non è mai successo che ci sia stato un occhio di riguardo nei confronti di colleghi che hanno fatto pressione per favorire la pubblicazione. Per diversi motivi. Chi manda un contributo a Medico e bambino non lo fa mai (o quasi mai) per un uso professionale di carriera. A volte lo può fare per una “immagine” di visibilità del proprio gruppo di lavoro. Ma il contenuto vale come regola assoluta in merito alla pubblicazione o meno del lavoro.

Medico e bambino è recensita su Scopus, Google Scholar, Embase (non su Pubmed), è in lingua italiana, è difficile capire quanto queste indicizzazioni abbiano valore per la carriera di un professionista. Ma a questo proposito posso rispondere con una battuta che riguarda me personalmente. Ho partecipato a un concorso nazionale (non dico quale ma è forse intuibile) in cui si chiedeva se si era responsabili come direzione di riviste recensite o facenti parte di comitati editoriali di riviste sempre recensite. Ho dichiarato di essere direttore della rivista Medico e bambino (la più letta della pediatria italiana). Questo titolo NON è stato riconosciuto dal mondo “accademico”. È un esempio personale (di cui mi scuso) ma forse fa capire bene quali conflitti di… disinteresse possono esserci a volte nella direzione di una rivista e quanto una parte del mondo scientifico possa essere “non obiettiva” in un giudizio. Vale di più essere nel comitato editoriale di una piccola rivista internazionale senza essere parte in nulla in merito al contenuto della rivista stessa (che a volte ha grandi conflitti di interesse) o fare parte di una rivista (lo stesso indicizzata) che ha storicamente una grande visibilità nazionale, come riconosciuto dalle stesse persone che hanno espresso il giudizio? Ma evidentemente non è sufficiente!

Che tipo di policy segue la rivista che dirigi nei confronti delle industrie?

Medico e bambino vive grazie agli abbonamenti e anche grazie alla pubblicità. C’è a mio avviso un punto di forza (non assoluto, non se mpre di assoluta garanzia) che riguarda, in merito alla domanda specifica, la rivista Medico e bambino. La pubblicità è seguita da persone che non conoscono i contributi della rivista (se non a posteriori, quando i singoli numeri vengono pubblicati o a stampa o online); chi cura i contenuti scientifici della rivista (il direttore e il coordinamento scientifico) non conosce la pubblicità che viene riportata in ciascun numero. A volte è capitato per coincidenza che alcuni articoli parlassero di prodotti oggetto di pubblicità: sia in senso favorevole sia in senso non favorevole. Si è chiesto alla segreteria della rivista di evitare, se possibile, queste coincidenze che sembrerebbero essere volute, ma che volute non sono. Questa a mio modesto avviso è una politica non cercata, ma nata storicamente “nell’indipendenza assoluta” tra contenuti e pubblicità, che è di grande rispetto per il lettore in primis, ma anche per le stesse aziende.

M&B fa differenza tra i diversi tipi di aziende (farmaceutiche, di dispositivi, alimentari, assicurative, editoriali)?

Non mi risulta che ci siano delle differenze tra i diversi tipi di aziende, che tuttavia devono rispettare alcune regole di principio che chi è incaricato di seguire la raccolta della pubblicità deve conoscere molto bene e che, personalmente, non mi vedono coinvolto come direttore scientifico. Quando queste regole sono al limite, è successo alcune volte (molto raramente) che sia stato chiesto un parere ai componenti del coordinamento scientifico che lo hanno riportato sempre in modo unanime, quasi sempre esprimendo un parere negativo.

Mi chiedo se tutto questo sia giusto o meno. Ma credo alla fine, per come funzionano le cose, nell’indipendenza di cui parlavo, che sia giusto così. Ed è anche forse il motivo per cui chi è incaricato della conduzione scientifica della rivista non ha mai ricevuto pressioni. Vorrei concludere a riguardo con un esempio concreto. È stato pubblicato un inserto sui vaccini, prima che ci fosse l’attuale obbligo vaccinale. Un inserto che è stato presentato da alcuni illustri esperti che riportavano le loro opinioni. Mi è stato chiesto se volevo scrivere anche io una breve presentazione. Per questo sarei stato pagato, per il lavoro che dovevo svolgere come consulente (una piccola cifra). Ho detto di no, perché non era giusto che il direttore della rivista che accompagnava l’inserto ricevesse un contributo. Era o avrebbe potuto sembrare un palese conflitto di interesse.