L’evoluzione della ricerca clinica.

Con il variare della domanda di salute e l’incorporazione della tecnologia informatica stanno cambiando disegni degli studi, raccolta e analisi dei dati

Luigi Tavazzi1

Clinical research evolution.
In parallel with the current changes in welfare expectations and information technology incorporation, study designs and data collection and analysis are quickly changing as well.

Summary. The development of both technology, biological, and clinical knowledge leads to remarkable changes of scientific research methodology, including the clinical research. Major changes deal with the pragmatic approach of trial designs, an explosive diffusion of observational research which is becoming a usual component of clinical practice, and an active modelling of new research design. Moreover, a new healthcare landscape could be generated from the information technology routinely used to collect clinical data in huge databases, the management and the analytic methodology of big data, and the development of biological sensors compatible with the daily life delivering signals remotely forwardable to central databases. Precision medicine and individualized medicine seem to be the big novelties of the coming years, guiding to a shared pattern of patient/physician relationship. In healthcare, a huge business related mainly, but not exclusively, to the implementation of information technology is growing. This development will favor radical changes in the health systems, also reshaping the clinical activity. A new governance of the research strategies is needed and the application of the results should be based on shared ethical foundations. This new evolving profile of medical research and practice is discussed in this paper.

Introduzione

Gran parte degli sviluppi della medicina è stata ed è tuttora strettamente legata a scoperte o perfezionamenti della tecnologia, che consentono l’esplorazione di spazi nuovi del sapere. Questo comporta variazioni metodologiche a volte radicali nella conduzione della ricerca scientifica. Oggi la metodologia della ricerca clinica è in rapidissima evoluzione. Nel presente lavoro si accennerà ad alcuni aspetti innovativi di questo percorso.

I trial

Entrando nell’universo della metodologia della ricerca clinica, ci si confronta innanzitutto con i trial randomizzati, gli studi di ampie dimensioni che valutano efficacia e sicurezza di nuovi trattamenti per la pratica clinica. Sono considerati il gold standard della ricerca diagnostica e terapeutica. Peraltro oggi sono molto criticati, per una serie di ragioni. Prima di considerarle, va però chiarito un punto.

Per documentare con ragionevole certezza la sicurezza e l’efficacia di un nuovo farmaco, di un presidio o di una procedura terapeutica (in studi di gruppi paralleli contro placebo o un intervento di confronto) o per determinare se i benefici del nuovo trattamento sono non minori (in studi di non inferiorità) o incrementali (in studi di superiorità) nei confronti della terapia esistente, i trial controllati randomizzati sono insostituibili. La randomizzazione è l’unico strumento tecnico oggi disponibile che può offrire risultati sufficientemente solidi da produrre “evidenze” per l’integrazione del trattamento valutato nella pratica clinica. La ragione è semplice. Se il campione arruolato è sufficientemente ampio, la randomizzazione consente di assicurare che i gruppi messi a confronto (quello che riceve il trattamento in studio e il gruppo di controllo) siano bilanciati per confondenti noti, ignoti o non rilevati nello studio. In sostanza, che siano effettivamente comparabili. Tra l’altro, questo consente di utilizzare appropriatamente svariati test statistici altrimenti non applicabili.

I problemi dibattuti riguardo ai trial di popolazione (o di mortalità/morbilità, o di fase 3) non riguardano quindi il loro ruolo, ma le modalità con le quali gli studi vengono condotti, i dati sono analizzati e i risultati utilizzati. Nella tabella 1 ne è riportata una sintesi.

In sostanza, complessità e fiscalità delle normative (diverse da Paese a Paese) e della prassi trialistica, insieme alla globalizzazione degli studi, comportano costi altissimi, sostenibili da poche aziende che li intraprendono solo se promettono ritorni economici rapidi. Il “medical research-industrial complex” è il grande attore dei trial terapeutici. Con questa impostazione, larga parte dei quesiti clinici pratici è condannata a restare senza risposta. Lo dimostra il fatto che in tutte le linee-guida internazionali i tre quarti delle raccomandazioni non sono basati su evidenze cliniche formali, ma su esperienze più o meno consolidate di “esperti”.




Nel mondo medico-scientifico c’è sostanziale condivisione sul fatto che struttura organizzativa ed efficienza dei trial vadano migliorate. I disegni devono essere resi più flessibili per adattarli alla realtà clinica e migliorare l’efficienza analitica. I trial devono essere meno costosi per limitare la barriera della disponibilità di risorse economiche e conseguentemente la selezione degli obiettivi in rapporto agli interessi dei finanziatori; devono essere, infine, più pragmatici perché producano risultati utilizzabili per orientare le decisioni cliniche quotidiane. Ne accenneremo più avanti. Una nuova normativa sui trial clinici è stata recentemente approvata dal Parlamento Europeo1. Se ne vedranno vantaggi e applicabilità. Comunque, le considerazioni sopra esposte hanno generato negli ultimi anni una voce corale di ricercatori e editorialisti, per lo più di area cardiovascolare, che richiede un’azione decisa: per rompere gli schemi occorrono “large simple trials”2,3. Posizione, peraltro, già avanzata autorevolmente nel lontano 19674. Altri, come Califf et al.,5 hanno risposto: «Large simple trials: really, it can’t be that simple!», impostando un razionale scenario della ricerca clinica a venire.

Peraltro, è ovvio che la randomizzazione non è applicabile a tutti i quesiti clinici, non è facilmente compatibile con la pratica clinica, non è applicabile retrospettivamente (benché alcune modalità per farlo siano state proposte)6. Esistono numerosi tentativi formali di supplenza della randomizzazione, sostanzialmente finalizzati alla composizione di gruppi di soggetti, per lo più estratti da database osservazionali, identificabili, e diversi tra loro per una caratteristica specifica che si intende valutare (l’assunzione o no di un farmaco, la presenza o l’assenza di una comorbilità, il genere, ecc.), ma simili per tutto il resto, e quindi considerati comparabili. Un esempio tipico è il “propensity matching”7. Il limite più rilevante di queste tecniche statistiche sta nel fatto che nella smisurata varietà di caratteristiche genetiche e fenotipiche che caratterizzano un individuo, per la stragrande maggioranza ignote o comunque non rilevate e quindi assenti nei database sorgenti dei dati, pochissime vengono scelte per definire i profili di matching. Ne deriva che l’omogeneità – e quindi la comparabilità – dei gruppi è sempre aleatoria e i risultati, anche se i dati sono trattati nel modo migliore dal punto di vista analitico, mantengono un imponderabile margine di incertezza.

Un limite importante, intrinseco alla metodologia trialistica, è che i risultati riguardano gruppi di soggetti, e l’applicabilità individuale resta ipotetica. Basti pensare al Number Needed to ­Treat (NNT), che indica il numero di persone da trattare per un tempo dato per prevenire un evento. Si tratta spesso di molte decine. Anche per questa ragione nei trial è consueta l’analisi di sottogruppi costituiti in base a una singola caratteristica considerata rilevante (genere, presenza o no di una comorbilità, ecc.). La debolezza di queste analisi sta nella perdita di potenza statistica legata alla frammentazione numerica dei soggetti e alla possibilità di significatività statistiche dovute a fluttuazioni casuali (evenienza certa se le sottoanalisi si moltiplicano). Inoltre, i determinanti dell’evoluzione di qualunque malattia sono molteplici e considerarne uno solo porta a gradi elevati di approssimazione. Anche a fronte della crescente pressione culturale e sociale verso la personalizzazione della medicina, vengono proposte tecniche alternative di analisi basate sulla valutazione (anche retrospettiva) del livello individuale di rischio di incorrere in eventi dei pazienti inclusi nello studio. Vengono aggregati sottogruppi con range di rischio diversi, comparando tra loro rischi e benefici del trattamento in studio6,8. Al medico pratico è lasciato il riconoscimento del fenotipo al quale il suo paziente appartiene e l’analisi probabilistica del beneficio/rischio che gli si attribuisce prescrivendogli il trattamento. È un approccio intelligente di personalizzazione terapeutica, peraltro poco utilizzato.

La ricerca osservazionale

La ricerca osservazionale, considerata per lungo tempo una ricerca minore, è esplosa negli ultimi anni. Perché? Innanzitutto per ottenere informazioni di ordine epidemiologico e gestionale che solo la ricerca osservazionale può dare, a tutti i livelli. Dai sistemi sanitari nazionali che devono essere gestiti in base alla realtà mutevole dell’epidemiologia e della tecnologia e quindi devono essere continuativamente “osservati” per verificarne i bisogni, soddisfatti o da soddisfare, per finire ai singoli centri clinici che per governare la propria struttura devono conoscere in dettaglio i percorsi diagnostico-terapeutici interni, i risultati clinici, immediati e a distanza, e l’uso delle risorse. Va detto in proposito che il rischio maggiore per la ricerca osservazionale è che possa essere considerata facile ed economica. Non lo è. Studi osservazionali condotti in modo artigianale o approssimativo possono fornire risultati equivoci o errati. Nella tabella 2 sono riportati alcuni obiettivi, autoesplicativi, della ricerca osservazionale convenzionale.




Comparative effectiveness e Registri-trial

Negli ultimi anni, la frattura metodologica fra tra ricerca randomizzata e ricerca osservazionale si è andata gradualmente ricomponendo in nuovi approcci, per lo più complementari.

Uno è la cosiddetta “comparative effectiveness research” (CER). Si basa sul principio dell’inserimento nella pratica clinica di condizioni metodologiche che consentono di effettuare comparazioni tra percorsi diagnostici, pratiche terapeutiche, presidî e farmaci con metodologie molto diverse, inclusive di approcci osservazionali retrospettivi o prospettici, o della randomizzazione. A prescindere dal disegno specifico dello studio, la caratteristica che uniforma la CER è il setting operativo che deve essere la pratica clinica standard, l’usual care. Si tratta quindi di un’importante pragmatizzazione della ricerca clinica, trasferita in un contesto pratico, ricco di domande aperte per rispondere alle quali mai verrebbe impostato, e tanto meno finanziato, un cantiere di ricerca.

I Registri-trial (o “Trial-registry”) sono un’applicazione della CER. Per lo più consistono nell’inserimento, nel contesto di un registro, della randomizzazione di una componente del processo diagnostico-terapeutico oggetto dello studio osservazionale, che peraltro procede invariato9,10. Vantaggi attesi da questo approccio empirico, ma metodologicamente rigoroso, sono riportati nella tabella 3. In sostanza, un arruolamento rapido di pazienti consecutivi con caratteristiche definite; buona qualità e controllo dei dati (se sono buoni i criteri messi in opera nel registro), un lavoro aggiuntivo minimo, l’abbattimento dei costi. Con l’attuale ampliamento del numero e dei volumi dei registri è facile prevedere che i Registri-trial si moltiplicheranno.




Usualmente i Registri-trial nascono con una componente randomizzata, inserita in un registro in corso. Conseguentemente questa metodologia ha trovato spazio prima che altrove in Nord-Europa, dove un’impostazione osservazionale a vasto raggio della pratica medica è in atto da circa 20 anni, in particolare in Svezia, dove sono stati realizzati da tempo numerosi registri ai quali, per una forte azione incentivante governativa, partecipa la quasi totalità degli ospedali. L’importanza decisiva del supporto governativo emerge sia nell’azione continuativa di controllo e di stimolo sui centri clinici, sia nel contributo alla raccolta di informazioni chiave. Per esempio, lo stato vitale e gli eventi clinici maggiori dei pazienti arruolati nel registro vengono trasmessi continuativamente da fonti ufficiali governative, rendendo semplice e certo il follow-up che è la componente più complessa, faticosa e incerta della ricerca clinica spontanea.

Il contributo della genetica

La genetica è un esempio di innovatività dirompente in medicina. Se ci si sofferma a considerare il percorso della conoscenza sul genoma umano, dalla ricerca di base alla pratica clinica, si ha una misura della formidabile rapidità di penetrazione dell’esplorazione conoscitiva e poi di incorporazione nella ricerca medica dell’esplorazione del più profondo dei “misteri” sul nostro pianeta: l’essenza e la continuità della vita.

Formalmente conclusa l’identificazione della struttura del genoma umano nel 2003, negli anni successivi ci si è concentrati sullo studio della biologia/fisiologia del genoma, poi gradualmente estesa alla patologia finché la genetica è entrata nella medicina come disciplina. Per alcune malattie, l’identificazione della o delle mutazioni geniche che le generano risolve del tutto il problema eziologico. Per malattie a eziologia e fenotipo complessi, come l’aterosclerosi, il problema è molto più intricato. Si pensi che, a oggi, l’intero corpo dei risultati ottenuti in studi coinvolgenti la genotipizzazione non spiega più del 10% della casualità di questa diffusissima patologia11. Comunque, una parte crescente della ricerca medica, in alcuni campi (per esempio, l’oncologia) più che in altri, richiede la genotipizzazione come condizione necessaria12. Negli Stati Uniti il Centered Outcome Research Institute ha lanciato un progetto di arruolamento di persone disponibili alla genotipizzazione e alla partecipazione alla ricerca medica. Oltre un milione di volontari, sani e ammalati, sono già stati inseriti in questa coorte13. A sua volta la US Veteran Administration ha lanciato il progetto One Million Veteran con la stessa finalità, applicata ai militari. Recentemente, 330.000 veterani appartenenti a questa coorte sono stati arruolati in studi clinici. In Gran Bretagna è in corso il “100.000 Genome Project”, che prevede la genotipizzazione di 100.000 persone inserite nel Sistema Sanitario Nazionale entro il 2017 (il target è stato recentemente incrementato a 500.000)14. In seguito si accennerà ad alcuni esempi di uso specifico delle informazioni genetiche come fondamento nell’impostazione della ricerca clinica.

Di fatto, in alcuni Paesi, la pratica (e il “mercato”) della genotipizzazione è in crescita esponenziale (oggi un’analisi completa del genoma umano costa circa 1000 euro, ma costerà sempre meno). Purtroppo non accelera proporzionalmente la capacità interpretativa dei risultati. Accanto a una rapida espansione della domanda è da attendersi una dilatazione potenziale dell’inappropriatezza e delle ambiguità interpretative. Si tratta dunque di una grande conquista scientifica da amministrare con competenza, guidando con saggezza il percorso non sempre facile dell’uso clinico di grandi scoperte scientifiche.

L’incorporazione della tecnologia informatica

La metodologia e la pratica osservazionale clinico-epidemiologica si stanno modificando con straordinaria rapidità nel mondo economicamente evoluto, in particolare nel Nord-America, per la crescente consapevolezza di alcuni Paesi della ricchezza delle informazioni ottenibili su vasta scala e nel lungo periodo con l’applicazione sistematica della tecnologia informatica. Per esempio, negli USA è iniziato da alcuni anni un processo di implementazione sistematica di una rete elettronica di raccolta dati (Electronic Health Recording - EHR) distribuito in tutta la rete ospedaliera pubblica – MEDICARE, MEDICAID – costituita da 447.842 ospedali, nella quale si stanno inserendo i Veteran Hospitals15,16. I costi sostenuti finora hanno superato i 30 miliardi di dollari, dei quali un terzo circa è stato erogato per incentivi al personale sanitario e circa due terzi agli ospedali. Nel 2015 altri 20 miliardi di dollari sono stati stanziati e assegnati a 65 aziende per completare il sistema che dovrà essere ultimato, verificato e approvato in ogni singolo Stato e in ogni ospedale (sottoposti ad auditing periodici i cui risultati vengono regolarmente pubblicati), entro la fine del 2018. È previsto che non tutti ce la faranno e si stima che le sanzioni, erogate nel periodo 2018-2020, ammonteranno a mezzo miliardo di dollari. Si tratta di fatto di un’informatizzazione forzosa del sistema sanitario pubblico statunitense. Nel processo in corso, grande attenzione viene posta anche ai prodotti di ricerca. Altri 10 miliardi e mezzo di dollari (10 miliardi all’NIH, mezzo miliardo alla FDA) sono stati stanziati per ricerca clinica in accompagnamento al 21st Century Cure Act17 definitivamente approvato nel luglio 2015 (notizie di stampa). Una struttura fondamentale nel processo è il Patient Centered Outcome Research network12,13 che comprende a tutt’oggi oltre 100 milioni di statunitensi attraverso il collegamento integrato di 13 grandi network clinici gestiti da istituzioni di ricerca medica e 23 database gestiti da pazienti. È da notare che non stiamo ancora parlando di numeri derivanti dal sistema EHR, tuttora in implementazione.

In pratica, cosa ci si aspetta da questa gigantesca operazione di collegamento informatico a tappeto del sistema sanitario statunitense?18 Innanzitutto una migliore governance del sistema basata su una conoscenza in tempo reale, trasversale e longitudinale, dello scenario epidemiologico e sanitario nel suo insieme e delle varie funzioni che lo compongono.

Oltre a una più vasta copertura sanitaria, ci si aspetta una migliore qualità dell’assistenza con una tracciabilità certa degli individui di cui si seguirà la storia indipendentemente dalle loro vicende e dai loro spostamenti grazie all’interoperabilità del sistema. Infine, aspetto più rilevante in questo contesto, si realizzerà uno straordinario sviluppo della ricerca medica osservazionale comprensiva della prevenzione primaria e secondaria e dell’assistenza in senso stretto.

Questa variazione di scala della numerosità delle popolazioni contattabili e osservabili può consentire, tra l’altro, una selezione rapidissima di gruppi coerenti, per arruolamenti in studi clinici o per l’esplorazione di problemi nuovi.

Qualche esempio recente da notizie di stampa medica e/o tecnica. Il contributo organizzativo di un’azienda attivata recentemente, branch della Apple, coinvolta nel processo di arruolamento di soggetti in uno studio cardiovascolare, ha consentito di arruolare via smartphone 24.000 persone in pochi giorni (Bishop lecture, American College of Cardiology Congress, S. Diego 2015). In un altro studio, di prevenzione cardiovascolare (Myheartcounts) 30.000 persone sono state arruolate via smartphone in due settimane. Un’azienda (23andMe) che produce kit per genotipizzazione ha lanciato un’offerta di testing genetico direttamente al pubblico raccogliendo in brevissimo tempo l’adesione di più di un milione di individui disponibili a essere genotipizzati e a partecipare a studi medici. È chiaro che stiamo entrando in un sistema sociale che sta muovendosi a una velocità mai sperimentata in passato, che richiede, tra l’altro, una regolamentazione rigorosa perché il rischio di abusi, errori, ecc. sembra molto alto. È chiaro altresì che l’intera struttura di conduzione della ricerca clinica andrà rivista integralmente.

Un campo che in questo contesto sta radicalmente modificandosi è quello della prevenzione. La microtecnologia sta offrendo una moltitudine di sensori, applicabili senza interferire con l’attività quotidiana, che registrano segnali biologici (battito cardiaco, pressione arteriosa, glicemia, attività fisica, ecc.) e i risultati possono essere registrati o trasmessi in remoto via smartphone. In pratica, intere comunità di persone interessate a essere monitorate potranno esserlo per tempi anche molto lunghi, continuativamente o in maniera intermittente, anche per la durata della vita.

Un risultato atteso dalla gestione informatica dei big data è l’individuazione dei cosiddetti “computable phenotypes”, ossia profili biologici e/o clinici (fenotipi) emergenti dalle covarianze tra i miliardi di dati archiviati, derivabili da codici che processano informazioni raccolte in dati fisiologici e clinici, tracciabili nel tempo, elaborati con programmi informatici complessi che procedono tenendo conto di quanto “apprendono” lavorando19,20. Nella tabella 4 sono riportati alcuni esempi di possibili fenotipi calcolabili. Da queste esperienze, per molti nuove, derivano non solo informazioni, ma anche possibilità di nuove elaborazioni metodologiche.




Nuove metodologie di ricerca clinica

La letteratura è ricca di nuove proposte. Citiamo due esempi significativi della dinamica metodologica in corso.

Una premessa importante. I trial clinici sono per lo più basati sulla strategia “one population, one drug, one disease” (o due farmaci nei nested trial). Questo tipo di studio valuta un trattamento in una popolazione “omogenea”, definita da una serie di solito nutrita di criteri di inclusione e di esclusione, e procede lungo un percorso rigido predefinito salvo interventi del Comitato per la Sicurezza (Data Safety and Monitoring Board), che è l’unico organo dello studio a conoscenza dei risultati che via via si accumulano. In generale, i trial di mortalità/morbilità, dei quali stiamo parlando, dal momento in cui si decide di effettuare lo studio alla conoscenza dei risultati, durano da 5 a 10 anni. Seguono ulteriori tempi per l’eventuale approvazione del trattamento da parte degli organi regolatori e altri tempi, diversi da Paese a Paese, per l’incorporazione del nuovo farmaco tra quelli adottati dal Sistema Sanitario Nazionale (rimborsabili). Questo approccio si è rivelato fallimentare in molte malattie complesse quali l’ictus, lo scompenso cardiaco acuto e altre nelle quali l’ammalato tipo, universale, di fatto non esiste.

Una modifica radicale del disegno dello studio è stata adottata nei cosiddetti “platform trial” (o “basket”, “bucket”, “umbrella”, “standing trials”) Le caratteristiche fondamentali che ne distinguono il disegno sono riportati nella tabella 521. Sintetizzando:

1. vengono testati trattamenti multipli;

2. la popolazione sperimentale è intenzionalmente eterogenea, per aspetti qualificanti della patologia (biomarker, genetica, severità dello stato clinico, fattori di rischio, età, ecc.);

3. l’approccio è “adattativo”, permette cioè variazioni di caratteristiche chiave del disegno, decise durante il corso dello studio, suggerite da informazioni che si vanno accumulando nel corso del trial;

4. la “piattaforma”, cioè il setting di conduzione dello studio, ha carattere permanente, o quanto meno continuativo. Alla valutazione di un farmaco, dovrebbe seguire quella di un altro medicinale, potenzialmente indicato per la stessa popolazione, anche se ovviamente i pazienti mutano nel tempo. Per esempio, un modello di questo tipo è stato applicato nel trial I-SPY 2, di fase 216 che valuta la terapia neoadiuvante in donne con tumore mammario avanzato. In base a 3 marker genetici vengono costituiti 8 sottogruppi distribuiti in 10 profili clinici. Pazienti allocate a trattamenti che mostrino efficacia in 1 o più profili clinici vengono “graduate” per l’inserimento in ulteriori trial di conferma. Con modelli simili l’Unione Europea ha lanciato studi nella patologia di Alzheimer e in pazienti ospedalizzati in terapia intensiva con gravi infezioni respiratorie acute in 100 ospedali europei.




Un altro modello rilevante è la serie dei cosiddetti “Master Protocol”. Nel NCI MATCH Project23 vengono inseriti 3000 pazienti con tumori solidi avanzati. Il materiale bioptico tumorale viene genotipizzato alla ricerca di una o più mutazioni geniche che possano essere considerate causali della neoplasia. Vengono così raggruppati pazienti con la stessa anormalità genetica [ma non con lo stesso fenotipo tumorale basato sulla sede di manifestazione primaria (tumore mammario, gastrico, ecc.) o sulle caratteristiche istologiche]. Farmaci specifici esistenti o prodotti ad hoc vengono testati in piccoli trial di fase 2 di una trentina di pazienti, che in rapporto all’evoluzione vengono inseriti in trial di verifica di beneficio o in linee di terapie diverse.

Questi approcci metodologici sono particolarmente appropriati per alcuni tipi di patologie nelle quali siano identificabili, almeno ipoteticamente, agenti causali specifici. Tipicamente, patologie a eziologia genetica. Una di queste è l’oncologia. In un recente articolo di apertura di un nuovo giornale della famiglia JAMA (JAMA Oncology), Ross et al.24 sottolineano l’elemento rivoluzionario nella ricerca oncologica di fare riferimento a una classificazione genetica anziché topografica o istologica, affermando che nel 96% dei tumori può essere identificata un’alterazione genetica potenzialmente causale e che nell’85% dei casi un trattamento eziologico può essere rinvenuto tra i farmaci noti.

In altri modelli, adottabili quando la randomizzazione individuale è problematica o impossibile, o poco funzionale come nell’analisi comparativa di efficacia/efficienza di servizi, vengono effettuate randomizzazioni di gruppi (cluster)25. Il disegno prevede un crossover random e sequenziale dei cluster, dal controllo all’intervento, finché tutti i cluster siano stati esposti. L’analisi deve tenere conto di alcuni potenziali bias intrinseci al metodo come l’eterogeneità dei cluster e il trend temporale della loro esposizione.

La medicina nella società che cambia: la medicina personalizzata

Da molti segnali appare chiaro quanto i pazienti siano sempre più presenti, individualmente e associativamente, nell’area medico-sanitaria26. Questo trend aumenterà e contribuirà a mutare sostanzialmente, oltre a metodi e pratiche preventive, i rapporti medico-paziente, verso uno “sharing work” con gli operatori sanitari.

Innanzitutto, è evidente quanto la domanda di salute e benessere atteso da parte di ciascuno sia gradualmente crescente in parallelo al benessere e alla durata della vita raggiunta. La medicina è meno sacralizzata che in passato, ma il clinico è comunque visto come un dispensatore/condizionatore fondamentale, che “deve” garantirla.

Inoltre, i pazienti sono sempre più proattivi. Come accennato sopra, negli Stati Uniti esistono esperienze di pazienti che gestiscono direttamente vasti registri di patologie sia rare sia comuni, che contribuiscono al network nazionale degli EHR. L’accesso diretto ai propri dati nei database nazionali ed eventuali collegamenti chiarificatori con medici addetti sono possibili in Svezia (tramite il sistema My Healthcare Contacts e il progetto My Care Pathways) e negli USA, dove la FDA offre a cittadini interessati disponibilità di training per l’accesso agli EHR nazionali (Healthcare Informatics online).

Un terzo aspetto rilevante, che vitalizza l’identità individuale dei pazienti, è la forte tendenza in corso allo sviluppo della medicina personalizzata e soprattutto della medicina di precisione (dall’inglese “precision medicine”, in attesa di una denominazione migliore in italiano)16. La prima indica l’individuazione della terapia ottimale per ogni paziente nel contesto complessivo dei trattamenti disponibili; la seconda riguarda la ricerca di fenotipi specifici di fatto sottogruppi nella popolazione di pazienti affetti da una data malattia nell’intento di identificare comportamenti diversi nella prognosi e nella risposta alle terapie. Oltre agli USA, anche l’Unione Europea (l’European Alliance for Personalised Medicine) e l’Inghilterra (il National Phenome Centre) hanno in atto programmi di ricerca su questo tema. Dovrebbe risultarne un importante sviluppo nella metodologia di analisi di sottogruppi, tema peraltro metodologicamente complesso ed esposto a errori interpretativi27,28 nell’ambito del quale la genomica svolge un ruolo nuovo e potenzialmente importante.

Un quarto aspetto riguarda l’attenzione crescente verso i cosiddetti “patient reported outcome” come end-point nei larghi trial correnti29. Grossolanamente, si parla di analisi della qualità della vita. In realtà esistono vari aspetti esplorabili, la maggior parte dei quali riguarda la qualità della salute30. Tuttavia, il punto centrale consiste nel dare rilievo alle percezioni e alle elaborazioni del paziente del proprio stato di salute e di soddisfacimento dei propri bisogni/aspirazioni, da considerare accanto a quelle rilevate dai sanitari.




Rischi

La straordinaria, rapidissima evoluzione della ricerca medica in corso ci porterà rapidamente alla medicina ideale? Sicuramente i passi avanti saranno giganteschi, ma il percorso non sarà senza rischi. Uno riguarda le difficoltà connesse all’implementazione sistematica delle tecniche informatiche nella pratica clinica, ora largamente differenziata per consuetudini degli operatori e disponibilità di mezzi. È già evidente negli USA riguardo all’incorporazione dell’EHR. I medici lamentano difficoltà operative, carenze di interconnessioni e tempi sottratti all’attività clinica per necessità “burocratiche”31.

Un’altra sfida, ovvia e connessa al punto precedente, è la ricchezza informativa e la qualità dei dati raccolti in termini di correttezza/accuratezza. I dati prodotti, se non trasmessi direttamente in database (come i segnali strumentali elaborati automaticamente), richiedono tempo per l’immissione e quanti più sono, tanto più tempo viene speso. D’altra parte, pochi dati danno poche informazioni. L’equilibrio in termini di efficienza andrà conquistato gradualmente e i controlli di qualità dei dati dovranno essere stretti (il che richiede tempo e personale addestrato).

Infine, i dati vanno analizzati e qui sorgono i problemi ben noti del management dei big data. I grandi numeri non annullano i bias metodologici, bensì li amplificano. In particolare, le analisi devono essere orientate in rapporto agli obiettivi assegnati ai database, il che richiede decisioni strategiche. L’orientamento può essere prevalentemente amministrativo/gestionale, finalizzato alla governance del sistema sanitario o, anche, conoscitivo/scientifico. In Germania esiste una diffusa informatizzazione dell’attività medico-sanitaria, guidata prevalentemente secondo il primo criterio, Negli USA il mondo accademico sta fortemente ponendosi come attore co-primario nell’impostazione e nell’uso dell’EHR32.

Benché la produzione di fenotipi calcolati offra grandi opportunità, anche qui esistono rischi. Uno è la creazione di patologie “calcolate”, non verificate adeguatamente nelle pratica clinica. Un altro è la frammentazioni di malattie in fenotipi non clinicamente significativi o, viceversa, l’aggregazione in base ad alcune somiglianze fenotipiche di patologie in realtà diverse.

Anche l’incorporazione sistematica della genetica nella pratica clinica, come si è già accennato, offre grandi opportunità, ma espone a grandi rischi33. Il primo è l’inflazione di dati genomici in un contesto culturale impreparato a interpretarli. Il secondo è l’attribuzione di valore causale a mutazioni geniche che non l’hanno con conseguenti errori diagnostico-terapeutici. Il terzo è la possibile “creazione” di farmaci per target irrilevanti.

Per questa ragione anche la ricerca farmacologica nel suo insieme dovrà essere attentamente vigilata. I “platform trial” o modelli metodologici simili potrebbero portare alla moltiplicazione di farmaci “nicchia” da studi in fase 2 con follow-up breve, proposti (o forzati) come salvavita a costo altissimo e difficili da gestire per non specialisti.

Premesse fondamentali all’utilizzabilità di dati raccolti da centinaia di migliaia o milioni di fonti in aggregazioni classificative sono l’incorporazione delle stesse definizioni per tutte le variabili che verranno incluse nei database e una nosografia clinica universale. Questo necessiterà di un mastodontico sforzo educazionale globale che dovrà essere affrontato, verificato e continuamente aggiornato nel tempo. Occorreranno quindi un forte controllo della correttezza e dell’uniformità dei dati prodotti e una rigorosa vigilanza degli organi regolatori.

Infine, e soprattutto, il governo delle strategie di ricerca e l’applicazione dei risultati dovranno basarsi su solidi principi di etica condivisa. Ci stiamo avventurando verso un futuro nel quale la medicina rigenerativa, che intenzionalmente non abbiamo preso in considerazione in questo articolo, potrà diventare letteralmente “creativa”. Il background culturale e le metodiche tecniche necessarie di ingegneria genetica e di modulazione della espressività genetica già oggi sono disponibili. Solo una condivisione sui fini della specie umana sul nostro pianeta e sui confini entro i quali la ricerca dovrà operare potrà consentire ai nostri discendenti di godere dei benefici e di limitare i rischi dei progressi della ricerca biologica e quindi anche della medicina.




Ringraziamenti

Un ringraziamento cordiale alla dott.ssa Elisa Ghizzardi per il solerte e competente supporto tecnico-scientifico.

Bibliografia

1. European Parliament Web Site. http://www.europarl.europa.eu/portal/en. Clinical trials: clearer rules, better protection for patients. 2014. Pubblicato online il 2 aprile 2014. Available from http://www.europarl.europa.eu/news/en/news-room/content/20140331IPR41186/html/Clinical-trials-clearer-rules-better-protection-for-patients

2. Eapen ZJ, Lauer M, Temple RJ. The imperative of overcoming barriers to the conduct of large, simple trials. JAMA 2014; 311: 1397-8.

3. Calvo G, McMurray JJV, Granger CB, et al. Large streamlined trials in cardiovascular disease. Eur Heart J 2014; 35: 544-8.

4. Schwartz D, Lellouch J. Explanatory and pragmatic attitudes in therapeutical trials. J Chronic Dis 1967; 2: 637-48.

5. Califf RM. Large simple trials: really, it can’t be that simple! Eur Heart J 2014; 35: 549-51.

6. Kent DM, Hayward RA. Limitations of applying summary results of clinical trials to individual patients: the need for risk stratification. JAMA 2007; 298: 1209-12.

7. Austin PC. Primer on statistical interpretation or methods report card on propensity-score matching in the cardiology literature from 2004 to 2006: a systematic review. Circ Cardiovasc Qual Outcomes 2008; 1: 62-7.

8. Perera R, Stevens RJ. Personalising results from large trials. BMJ 2015; 350: h553.

9. Frobert O, Lagerqvist B, Olivecrona G, et al. Thrombus aspiration during ST-segment elevation myocardial infarction. N Engl J Med 2013; 369: 1587-97.

10. Lauer MS, D’Agostino R. The randomized registry trial: the next disruptive technology in clinical research? N Engl J Med 2013; 369: 1579-81.

11. Björkegren JLM, Kovacic JC, Dudley JT, Schadt EE. Genome-wide significant loci: how important are they? Systems genetics to understand heritability of coronary artery disease and other common complex disorders. J Am Coll Cardiol 2015; 65: 830-45.

12. Collins FS. Exceptional opportunities in medical science: a view from the National Institutes of Health. JAMA 2015; 313: 131-2.

13. Califf RM. The new era of clinical research: using data for multiple purposes. Am Heart J 2014; 168: 133-4.

14. Genomics England. The 100,000 Genomes Project. Cited August 18 2015. Available from: http://www.genomicsengland.co.uk/the-100000-genomes-project

15. University of Illinois Chicago. USA. Cited August 18, 2015. Available from: http://healthinformatics.uic.edu/

16. Rubin RP. Precision Medicine: the future or simply politics? JAMA 2015; 313: 1089-91.

17. Avorn J, Kesselheim AS. The 21st century cures act: will it take us back in time? N Engl J Med 2015; 372: 2473-5.

18. Shor R. Is your electronic health record working for you and your patients? J Am Coll Cardiol 2015; 65: 2660-1.

19. Liao KP, Cai T, Savova GK, et al. Development of phenotype algorithms using electronic medical records and incorporating natural language processing. BMJ 2015; 350: h1885.

20. Shah SJ, Katz D, Selvaraj S, et al. Phenomapping for novel classification of heart failure with preserved ejection fraction. Circulation 2015; 131: 269-85.

21. Berry SM, Connor JT, Lewis RJ. The platform trial: an efficient strategy for evaluating multiple treatments. JAMA 2015; 313: 1619-20.

22. Thorpe KE, Zwarenstein M, Oxman AD, et al. A pragmatic-explanatory continuum indicator summary (PRECIS): a tool to help trialdesigners. J Clin Epidemiol 2009; 62: 464-75.

23. NCI National Cancer Institute. NCI – MATCH trial. USA. Accessed on August 18 2015. Available from: http://www.cancer.gov/about-cancer/treatment/clinical-trials/nci-supported/nci-match

24. Ross JS, Wang K, Gay L, et al. Comprehensive genomic profiling of carcinoma of unknown primary site: new routes to targeted therapies. JAMA Oncology 2015; 1: 40.

25. Hemming K, Haines TP, Chilton PJ, et al. The stepped wedge cluster randomised trial: rationale, design, analysis, and reporting. BMJ 2015; 350: h391.

26. Shuttleworth S, Frampton S. Constructing scientific communities: citizen science. Lancet 2015; 385: 2568.

27. Pitt GS. Cardiovascular precision medicine: hope or hype? Eur Heart J 2015; 36: 1842-3.

28. Kasenda B, Schandelmaier S, Sun X, et al. Subgroup analyses in randomised controlled trials: cohort study on trial protocols and journal publications. BMJ 2014; 349: g4539.

29. Anker SD, Agewall S, Borggrefe M, et al. The importance of patient-reported outcomes: a call for their comprehensive integration in cardiovascular clinical trials. Eur Heart J 2014; 35: 2001-9.

30. Botturi D, Rodella S. Patient-reported outcomes: definition and measurement. Recenti Prog Med 2014; 105: 233-42.

31. Gellert AG, Ramirez R, Webster LS. The rise of the medical scribe industry: implications for the advancement of electronic health records. JAMA 2015; 313: 1315-6.

32. Lander ES. Cutting the Gordian helix: regulating genomic testing in the era of precision medicine. N Engl J Med 2015; 372: 1185-6.

33. Johnson KE, Tachibana, Coronado GD. A guide to research partnerships for pragmatic clinical trials. BMJ 2014; 349: g6826.