Valutazione del rischio cardiovascolare durante trattamento con statine
Studi epidemiologici e clinici hanno dimostrato uno stretto rapporto tra incidenza di malattie cardiovascolari e livello di colesterolo presente nelle lipoproteine a bassa densità (LDL) e, conseguentemente, hanno indicato il livello sierico di colesterolo LDL come il più importante bersaglio della terapia (Third Report of the National Cholesterol Education and Treatment of High Blood Cholesterol in Adults (Adult Treatment Panel III) final report. Circulation 2002; 101: 477). Senonché l’esperienza clinica ha indicato che la riduzione delle LDL, da sola, non influenza le alterazioni delle altre componenti lipoproteiche che promuovono il rischio cardiovascolare Per conseguenza, altre misure del complessivo quadro lipoproteico sono state proposte sia nella terapia che nella prevenzione delle malattie cardiovascolari. Queste misure riguardano il colesterolo cosiddetto “non-HDL”, che è dato dalla somma della concentrazione del colesterolo in tutte le lipoproteine proaterogene, cioè le particelle VLDL, IDL e LDL e l’apolipoproteina B, che è la più importante apolipoproteina di queste particelle. Tuttavia esse sono state consigliate in caso di aumento dei trigliceridi oltre 200 mg/dL (2,3 mmol/L).
La valutazione di queste componenti lipoproteiche nella terapia e nella prevenzione, a confronto con la misura del colesterolo LDL, è stata studiata in un gruppo di pazienti con coronariopatia in trattamento con statine arruolati negli studi TNT e IDEAL (La Rosa JC, Grundy SM, Waters DD, et al, for the Treating to New Targets (TNT) Investigators. Intensive lipid lowering with atorvastatin in patients with stable coronary disease. N Engl Med 2005; 352: 1425. Pedersen TA, Faergeman O, Kastelein JJP, et al, for the Incremental Disease in End Points Through Aggressive Lipid Lowering (IDEAL) Study group. High-dose atorvastatin versus usual-dose simvastatin for secondary prevention after myocardial infarction: the IDEAL study: a randomized controlled trial. JAMA 2005; 294: 2437 ). Lo studio TNT ha compreso 10001 soggetti con coronariopatia stabilizzata e colesterolemia LDL <130 mg/dL (<3,4 mmol/L) assegnati con criterio random a ricevere 10 o 80 mg di atorvastatina pro die per un periodo di 4,9 anni in media. Nello studio IDEAL 8880 pazienti con storia clinica di infarto miocardico sono stati assegnati con criterio random a ricevere 20 o 40 mg di simvastatina oppure 80 mg di atorvastatina pro die per un periodo di 4,8 anni in media; la colesterolemia LDL è stata in media di 104 mg/dL (2,7 mmol/L) nei pazienti trattati con simvastatina e di 81 mg/dL (2,1 mmol/L) in quelli trattati con atorvastatina.
In questi due gruppi di pazienti sono stati misurati i livelli sierici di colesterolo “non-HDL”, di apolipoproteina B, di apolipoproteina A-1 e di colesterolo LDL, valutando il rapporto di questi parametri con l’incidenza di eventi cardiovascolari nel corso del trattamento con statine (Kastelein JJP, van der Steeg WA, Holmes I, et al, for the TNT and IDEAL Study groups. Lipids, apolipoproteins and their ratios in relation to cardiovascular events with statin treatment. Circulation 2008; 117: 3002).
Gli autori hanno osservato che, in corso di trattamento con statine, i livelli di colesterolo “non-HDL” e di apolipoproteina B sono risultati più strettamente associati con l’incidenza di eventi cardiovascolari dei livelli di colesterolo LDL. Inoltre, l’esame dei rapporti tra i parametri misurati ha indicato una associazione statisticamente evidente rispetto alla misura dei singoli parametri e che il rapporto più significativo è stato quello tra apolipoproteina B (con valore proaterogeno) e apolipoproteina A-1 (con valore antiaterogeno).
Gli autori ritengono che le differenze osservate nei rapporti con l’incidenza degli eventi cardiovascolari fra le diverse misure dei livelli di lipoproteine siano da attribuire alle differenze nella biologia dei vari componenti del quadro lipidico e lipoproteico.
A questo proposito ricordano che il colesterolo LDL rappresenta la quantità di colesterolo presente nelle particelle LDL, mentre il colesterolo “non-HDL” rappresenta il contenuto in colesterolo di tutte le lipoproteine aterogene, comprese quelle che contengono trigliceridi, e cioè VLDL e IDL, più le LDL. In condizioni normali la maggior parte di colesterolo aterogeno è contenuto nelle particelle LDL e vi è uno stretto rapporto tra colesterolo LDL e “non-HDL”, rapporto che si riduce quando si verifica un aumento in circolo delle lipoproteine ricche in trigliceridi che dà luogo a ipertrigliceridemia.
Mentre, secondo l’Adult Treatment Panel III (loc cit), la misura del colesterolo “non-HDL” va limitata alle condizioni di ipertrigliceridemia (≥200 mg/dL o ≥2,6 mmol/L), nello studio di Kastelein et al (loc cit) questa misura si è rivelata più valida di quella del colesterolo LDL nella previsione di eventi cardiovascolari, anche in soggetti con normale trigliceridemia, inducendo a ritenere che le particelle VLDL e LDL abbiano una rilevanza fisiopatologica in queste condizioni.
Gli autori sottolineano, inoltre, il ruolo delle apolipoproteine B e l’importanza della loro misura e ricordano, in proposito, che queste apolipoproteine sono componenti, insieme con il colesterolo “non-HDL”, della totalità delle lipoproteine aterogene in circolo. Inoltre, poiché ciascuna particella aterogena contiene una sola molecola di apolipoproteina B, la misura di queste apolipoproteine fornisce una indicazione precisa della quantità delle particelle aterogene in circolo.
I risultati conseguiti dimostrano che la misura delle componenti proaterogene e antiaterogene in circolo è maggiormente indicativa di eventi cardiovascolari di quella del colesterolo “non-HDL” e dell’apolipoproteina B singolarmente considerati; infatti in questo studio è stato rilevato che il rapporto apolipoproteina B/A-1 ha mostrato la più evidente correlazione con le condizioni cliniche dei pazienti esaminati. Questi risultati concordano con quelli di altri autori che hanno indicato che la misura dell’apolipoproteina A-1, antiaterogena, è più importante di quella del colesterolo “non-HDL” ( Lee JV, Parks JS. ATP-binding cassette transporter A1 and its role in HDL formation. Curr Opin Lipidol 2005; 16: 19).
Concludendo, gli autori ritengono di avere dimostrato la superiorità della misura del colesterolo “non-HDL” e dell’apolipoproteina B rispetto alla misura del colesterolo LDL nella previsione di eventi cardiovascolari in pazienti in trattamento con statine; infatti, nei pazienti adeguatamente trattati secondo le attuali linee guida e con colesterolo LDL ≤100 mg/dL (≤2,6 mmol/L), può persistere un “rischio residuo” (vedi questa Rivista, vol. 99, pag. 413, luglio-agosto 2008), che può essere evidenziato con la misura del colesterolo “non-HDL” e dell’apolipoproteina B. Pertanto le future linee guida dovrebbero consigliare pure queste misure come bersaglio primario della terapia: anche, e gli autori insistono su questo punto, nei pazienti con livello di LDL “molto basso”.
Gli autori sottolineano inoltre che il loro studio ha evidenziato l’importanza del rapporto apolipoproteina B/A-1, cioè tra apolipoproteine proaterogene e antiaterogene, pur riconoscendo che il valore di questo rapporto è tuttora oggetto di studio e di dibattito e attende, per la sua esatta definizione, ulteriori studi clinici controllati.
Meningite menigococcica: problemi attuali
Il meningococco (Neisseria meningitis) è la causa principale di meningite batterica nell’adulto e dell’endemia della malattia. Significativi progressi sono stati compiuti negli ultimi anni nella genotipizzazione di N. meningitis con conseguenti progressi nelle conoscenze della patogenesi e dell’epidemiologia e nelle possibilità di vaccinazione. Permangono tuttavia alcuni problemi riguardanti il quadro clinico, il decorso, i fattori prognostici e il trattamento.
Questi problemi sono stati discussi in un recente studio prospettico effettuato in Olanda a cura del Dutch Meningitis Cohort Study su 258 adulti con meningite meningococcica nei quali è stata eseguita genotipizzazione dei meningococchi isolati (Heckenberg SGB, de Gans J, Brouwer MC, et al. Clinical features, outcome and meningococcal genotype in 258 adults with meningococcal meningitis. A prospective cohort study. Medicine 2008; 87: 185),
Gli autori confermano che la meningite meningococcica permane ancora oggi una malattia grave con decorso sfavorevole nel 12% dei casi, mortalità nel 7% e sequele neurologiche nel 12% sopravvissuti (8% con perdita della funzione uditiva).



Il quadro clinico osservato è variato dalla meningite alla sepsi e la compromissione sistemica è stata indicata dalla comparsa di rash, ipotensione, tachicardia e frequente positività dell’emocoltura. In queste evenienze alcuni pazienti sono stati accolti in Unità di terapia intensiva e hanno avuto una prognosi infausta. Per contro i pazienti con quadro clinico esclusivamente meningitico hanno presentato un decorso clinico migliore. Gli autori confermano che la possibilità dell’insorgenza di un quadro settico indica la necessità di un immediato trattamento dei sintomi.
Per quanto riguarda la classica triade di cefalea, febbre e rigidità nucale e la compromissione del sensorio, gli autori riferiscono che due terzi dei pazienti studiati non presentavano questi sintomi; come riferito da altri autori, questi rilievi vanno tenuti presenti per una precoce diagnosi e un tempestivo trattamento (Thompson MJ, Nisis N, Perera R, et al. Clinical recognition of meningococcal disease in children and adolescent. Lancet 2006; 367: 397).
Gli autori segnalano inoltre che nel liquor di circa il 10% dei pazienti esaminati la conta delle cellule è stata inferiore a 100/mm3, pur essendo associata a segni di sepsi e a prognosi sfavorevole, e in 5 casi la conta dei leucociti, la proteinorachia e la glicorachia erano normali.
La terapia antibiotica è stata iniziata per via venosa prima del trasporto in ospedale soltanto in 2 pazienti. A questo proposito gli autori osservano che due problemi sorgono con la terapia prima del ricovero in ospedale: 1) la terapia antibiotica può rendere difficile l’identificazione di pazienti con meningite meningococcica, perché spesso i sintomi non sono specifici e i segni caratteristici possono inizialmente mancare e 2) non è ancora stabilito se in effetti i pazienti possano trarre vantaggio da un trattamento prima del ricovero, poiché i dati su questo punto sono controversi.
Gli autori osservano che la tomografia computerizzata (TC) del cranio, eseguita frequentemente in questi pazienti, rappresenta la più importante causa di ritardo della terapia e ricordano che in precedenti studi è stata segnalata un’associazione tra questo ritardo e la gravità del decorso della malattia (Proulx N, Frechette D, Toye B, et al. Delays in the administration of antibiotics are associated with mortality from adult acute bacterial meningitis. QJM 2005; 98: 291).
Un problema ancora dibattuto è quello dell’uso dei corticosteroidi nella meningite batterica. A questo proposito gli autori ritengono che il desametasone vada adoperato quando una TC del cranio debba precedere la puntura lombare. Nel loro studio il desametasone è stato usato in una minoranza di casi; vengono tuttavia citati studi nei quali il trattamento con desametasone prima della somministrazione di antibiotici o insieme a questa ha migliorato il decorso clinico e ridotto la mortalità in adulti con meningite batterica ( Van de Beek D, de Gans J, Mc Intyre P, et al. Steroids in adults with acute bacterial meningitis. Lancet Infect Dis 2004; 4: 139). Infine recenti linee guida della British Infection Society consigliano l’uso di corticosteroidi nei pazienti con sospetta meningite (Heyderman RS. British Infection Society. Early management of suspected bacterial meningitis and meningococcal septicaemia in immunocompetent adults. Second edition. J Infect 2005; 50: 373). Gli autori ricordano, peraltro, che l’uso di alte dosi di corticosteroidi non possono essere consigliate a pazienti con shock settico.
Per quanto concerne la genotipizzazione del meningococco, gli autori ricordano che il genotipo C11, strettamente associato al sierogruppo C, è apparso correlato a sepsi e a prognosi sfavorevole.
Nel concludere, si conferma la gravità della meningite meningococciaca e si sottolinea che la TC prima della puntura lombare è un’importante causa di ritardo della terapia antibiotica con evidente sfavorevole ripercussione sulla prognosi.
Prevenzione di epidemie tubercolari
Gli studi epidemiologici hanno indicato che mediante tipizzazione del DNA di Mycobacterium tuberculosis (MT) è possibile distinguere vari ceppi del batterio. I pazienti che risultano infettati da uno stesso ceppo così identificato formano un gruppo o “cluster”, indicando una recente trasmissione di MT e una sua probabile rapida diffusione. L’identificazione della formazione di un gruppo (“clustering”) è utile per dimostrare precocemente la comparsa di una epidemia. Pertanto molti studi sono stati diretti a riconoscere tempestivamente i fattori di rischio che favoriscono la formazione di “clusters” e la generazione di casi secondari e l’identificazione di questi fattori di rischio è utile per un efficace controllo dell’infezione tubercolare, in particolar modo nelle aree a bassa incidenza della tubercolosi.



Recentemente, al fine di prevedere lo sviluppo di grandi “clusters” (definiti come gruppi di 5 o più casi infettati dallo stesso ceppo), è stata studiata la possibilità di stabilire quali sono le caratteristiche dei primi due casi di un “cluster” che possano dar luogo alla diffusione del MT (Kik SV, Verver S, van Soolingen D, et al. Tuberculosis outbreaks predicted by characteristics of first patients in a DNA fingeprint cluster. Am J Respir Crit Care Med 2008; 178: 96).
La ricerca è stata svolta in Olanda, che è un’area a bassa incidenza dell’infezione tubercolare, raccogliendo i dati del Netherlands Tuberculosis Register (NTR) dal 1993 al 2004, escludendo i casi registrati prima del 1995, perché in questo periodo non sono stati disponibili i dati sulla tipizzazione del DNA.
Gli autori hanno potuto dimostrare che nuovi “clusters” di tubercolosi costituiti da 5 o più casi entro 2 anni, possono essere previsti in base alle caratteristiche dei primi 2 casi. I fattori che indipendentemente possono far prevedere tale diffusione sono risultati età inferiore a 35 anni, residenza in area urbana, nazionalità africana sub sahariana per almeno uno dei due casi e un periodo inferiore a 3 mesi tra la diagnosi di questi due casi. Per quanto riguarda l’associazione HIV-MT, che è riconosciuta come importante fattore di rapida diffusione, gli autori ricordano che questa associazione non è frequente in Olanda e pertanto non sono stati in grado di dimostrarne il ruolo nello sviluppo di “clusters” di grandi dimensioni.
Concludendo, gli autori sostengono che la maggioranza delle epidemie tubercolari può essere prevista dalle caratteristiche dei primi due pazienti in un episodio di “cluster”. Peraltro sottolineano che non è chiaro se questi stessi fattori predittivi possano applicarsi ad altre situazioni di diffusione dell’infezione tubercolare, poiché le modalità di trasmissione possono differire nelle diverse aree. Tuttavia l’identificazione e lo studio dei primi due casi consente, secondo gli autori, di adottare misure intensive per identificare le persone venute a contatto e prevenire la diffusione dell’infezione.
Nel commentare questi risultati, De Riemer et al (De Riemer K, De Jong BC. Catch them while you can! Am J Respir Crit Care Med 2008; 178: 5) osservano che la relativamente bassa incidenza di tubercolosi e la bassa prevalenza dell’infezione da HIV in Olanda limitano l’utilità dello studio della popolazione con coinfezione HIV-MT, che, come noto, comporta uno stretto controllo dell’infezione tubercolare. In proposito fanno notare che questi casi progrediscono facilmente verso forme tubercolari più attive. Inoltre ricordano che nella coinfezione HIV-MT, analogamente all’emergenza di ceppi MT antibiotico-resistenti, i fattori di rischio di “clusters” possono essere differenti, rendendo necessari più accurati e intensivi accertamenti.
Diagnosi di infezione tubercolare latente
L’identificazione e il trattamento dell’infezione tubercolare latente rappresentano il fondamento dell’eradicazione dell’infezione e, a questo fine, è avvertita la necessità di disporre di mezzi diagnostici che consentano di escluderla. La prove recentemente introdotte, basate sul rilascio di interferone gamma (IFN-γ) da parte delle cellule T (IGRAs: “interferon-gamma-release assays”) consentono di superare le limitazioni della prova della tubercolina (TST) dovute alla variabilità e alla soggettività dell’interpretazione del risultato e alla bassa specificità, perché il derivato proteico purificato (PPD), usato per questa prova, proviene da vari antigeni micobatterici presenti anche nei ceppi di Bacillo di Calmette-Guérin (BCG) e in micobatteri non tubercolari. I due tipi di prova di questo tipo sono, come noto, un saggio enzimatico immunosorbent su sangue intero (ELISA) (QuantiFERON-TB Gold e QuantiFERON-TB Gold In-Tube) e un saggio enzimatico immunospot (ELISpot) (T-SPOT-TB).
Le caratteristiche di queste due prove sono state recentemente oggetto di uno studio per confrontarle con la TST, al fine di valutare la loro utilità nella diagnosi di pazienti con sospetta infezione tubercolare attiva (Dosanjh DPS, Hinks TSC, Innes JA, et al. Improved diagnostic evaluation of suspected tubercolosis. Ann Intern Med 2008; 148: 325).



Gli autori hanno valutato una modificazione della prova ELISpot, denominata ELISpotPLUS che incorpora una nuova regione di differenza (Rv 3879c) che si trova presso la proteina antigene secreta precocemente (“early secreted protein”) di 6kD e la proteina -10(CFP10) (Ferrara G, Losi M, Roversi P, et al. Nuovi strumenti per una migliore diagnosi dell’infezione tubercolare latente. Recenti Prog Med 2006; 97: 123).
Sono stati esaminati 389 adulti che presentavano una sospetta infezione tubercolare ed è stato osservato che la prova ELISpotPLUS ha dato una sensibilità dell’89%, più alta di quella della prova della tubercolina con valore soglia di 15 mm (79%) e simile alla reazione tubercolinica con soglia di 10 mm (85%). Inoltre, la prova ELISpotPLUS ha presentato, rispetto alla prova ELISpot, una sensibilità superiore del 4,2%. Associando la prova ELISpotPLUS alla prova della tubercolina è stata ottenuta una sensibilità dell’99%.
Gli autori ritengono che, fermo restando il concetto che l’esame colturale rappresenta la prova ideale (il cosiddetto “gold standard”) ed è indispensabile per identificare una farmacoresistenza, i risultati da loro ottenuti consentono di trarre le seguenti conclusioni.
1) Un risultato negativo dell’ELISpotPLUS può escludere un’infezione tubercolare, qualora la probabilità pre-test sia bassa o moderata.
2) Quando la probabilità pre-test è elevata, l’uso di ELISpotPLUS associato alla TST consente di escludere l’infezione con grande probabilità.
3) Per contro, un risultato positivo di ELISpotPLUS o anche di ELISpot è di valore limitato, mentre nei soggetti con positività sia di ELISpotPLUS che della TST (che nella casistica degli autori rappresenta il 50% della popolazione esaminata) la probabilità di tubercolosi attiva è del 30%.
La percentuale dei risultati indeterminati con i due metodi ELISpot è stata simile (3-4%) a quella segnalata da altri autori e inferiore all’11-21% segnalato con il metodo ELISA su sangue intero (Ferrara G, Losi M, D’Amico E, et al. Use in routine clinical practice of two commercial blood tests for diagnosis of infection with Mycobacterium tubercolosis: a prospective study. Lancet 2006; 367: 1328).
Inoltre viene sottolineato che la sensibilità del 99%, osservata con l’associazione delle due prove, è dovuta al fatto che i pazienti con risultato negativo a una prova sono diversi da quelli con risultato negativo all’altra. Secondo gli autori, ciò significa che vi sono differenti processi immunologici alla base delle due prove.
Un ampio studio sul valore degli IGRAs nel predire il futuro sviluppo di un’infezione tubercolare attiva è stato recentemente eseguito confrontando la prova QuantiFERON-TB Gold In-Tube (QFT) con la TST in soggetti esposti a stretto contatto con persone con tubercolosi attiva, in relazione alla comparsa di infezione tubercolare entro due anni (Diel R, Loddenkemper R, Meywald-Walter K, et al. Predictive value of blood IFN-γ assay for the development of active tuberculosis disease after recent infection with Mycobacterium tuberculosis. Am J Respir Crit Care Med 2008; 177: 1164). Lo scopo di questo studio, dichiarato dagli autori, è quello di stabilire se le prove IGRAs sono più valide della TST nel prevedere lo sviluppo di tubercolosi attiva, poiché essi ritengono che, al momento attuale, il problema del valore prognostico nei riguardi della progressione di una tubercolosi latente non appare definitivamente risolto.
Gli autori hanno eseguito le prove QFT e TST in 601 soggetti immunocompetenti venuti a contatto con persone con tubercolosi attiva, seguendoli per 103 (±13,5) settimane. È stato osservato un valore predittivo di progressione di una tubercolosi latente verso una tubercolosi attiva significativamente maggiore della prova QFT rispetto alla TST; questa progressione è stata infatti del 14,6% per QFT contro 2,3% con TST. Questo risultato, che concorda con quello di precedenti studi di altri autori, dimostrerebbe che la prova QFT consente di identificare più accuratamente i soggetti effettivamente infettati da Mycobacterium tuberculosis, confermando che la prova TST è influenzata da reattività crociata con il BCG; infatti il 77% di TST-positivi è risultato vaccinato con BCG. In base a questi risultati gli autori ritengono che, avvalendosi della prova QFT al posto di TST, nel loro studio sarebbero stati identificati 66 soggetti contagiati, che sarebbero stati avviati alla chemioprevenzione, contro 243 identificati dalla TST. Ciò avrebbe consentito di intervenire specificatamente sui soggetti effettivamente a rischio di progressione verso una tubercolosi attiva.

Nel commentare questi risultati, Stout e Menzies (Stout JE, Menzies D. Predicting tuberculosis. Does the IGRA tell the tale? Am J Respir Crit Care Med 2008; 177: 1055) osservano che essi non possono essere estesi a soggetti sottoposti a screening per una infezione latente pregressa, perché non è ancora stabilita l’utilità delle prove IGRAs in questa condizione. Inoltre, secondo gli autori, si deve tenere presente che gli studi che hanno confrontato differenti prove IGRAs (QuantiFERON Gold/Gold In-Tube contro T-SPOT-TB) hanno segnalato risultati discordanti in una significativa percentuale di casi.

Le incertezze che ancora permangono sulla specificità e sulla sensibilità delle prove IGRAs e sul confronto tra queste prove e la TST nella diagnosi dell’infezione tubercolare latente hanno indotto a elaborare una meta-analisi dei risultati finora ottenuti nei più recenti studi su questo problema al fine di indicare aggiornate linee guida (Pai M, Zwerling A, Menzies D. Systemic review: T-cell-based assays for the diagnosis of latent tubercolosis: an update. Ann Intern Med 2008; 149: 177).
Da questa meta-analisi gli autori ritengono di poter trarre le seguenti conclusioni.
1) È confermato che le prove IGRAs mostrano una specificità definita “eccellente”, non influenzata dalla vaccinazione con BCG; tuttavia, mentre le due prove QuantiFERON si sono rivelate altamente specifiche in un grande numero di controlli, quella T-SPOT-TB ha mostrato una specificità più limitata; gli autori ritengono che su questo punto siano necessari ulteriori studi.
2) La TST è altamente specifica nei soggetti non vaccinati con BCG. Gli autori ritengono, in proposito, che le prove IGRAs, e in particolare, quelle QuantiFERON, siano utili nei soggetti vaccinati con BCG, specialmente in quelli vaccinati dopo l’infanzia o che hanno avuto multiple vaccinazioni con BCG.
3) Per quanto concerne la sensibilità, sia le prove IGRAs che la TST non hanno dato risultati uniformi nei vari esami e nei vari campioni misurati. Gli autori ritengono che ciò sia dovuto ai diversi quadri clinici e alla diversa gravità dei pazienti esaminati nei diversi studi e anche alla eventuale presenza di infezione da HIV. A questo proposito, è stato rilevato che nelle aree con alta incidenza di tubercolosi è stata osservata una sensibilità di queste prove minore rispetto a quella osservata nelle aree a bassa incidenza dell’infezione. I soggetti con tubercolosi che vivono in aree ad alta incidenza presentano una infezione in fase avanzata e sono spesso infetti da HIV o si trovano in condizioni di malnutrizione. Infatti, le situazioni di anergia dovuta alla malattia in fase avanzata, la malnutrizione e l’immunodepressione causata da HIV possono ridurre la sensibilità alle prove IGRAs.
4) Un risultato che, secondo gli autori, deve essere attentamente interpretato è stato quello della complessiva sensibilità della prova T-SPOT-TB che è stata più alta di quella mostrata dalle prove QuantiFERON.
Questa sensibilità della prova T-SPOT-TB potrebbe essere utile nella valutazione dei soggetti in condizioni di immunodepressione. Gli autori ricordano, a questo punto, che la diagnosi di tubercolosi attiva si fonda sulla dimostrazione microbiologica di Mycobacterium tuberculosis e che le prove immunologiche IGRAs e TST non dimostrano direttamente il micobatterio, ma indicano soltanto la risposta immuno-cellulare a una recente o pregressa infezione tubercolare. Inoltre viene sottolineato che nelle aree di alta incidenza di tubercolosi, nelle quali è frequente l’infezione latente, la positività delle prove IGRAs può non necessariamente indicare una tubercolosi attiva, mentre una prova IGRAs negativa non esclude in maniera assoluta una infezione attiva e queste considerazioni valgono anche per la TST.
5) Tenendo presente la mancanza di una prova ideale (il cosiddetto “gold standard”) per la diagnosi di tubercolosi latente, gli autori ritengono che la misura della specificità e della sensibilità delle prove per una infezione attiva non può possedere l’accuratezza necessaria per dimostrare una tubercolosi latente e la situazione è complicata dal fatto che, come detto sopra, specificità e sensibilità delle varie prove non sempre coincidono. Cosicché, secondo gli autori, non è di facile interpretazione l’interscambiabilità di queste prove.
Rimangono ancora senza risposta alcuni quesiti e cioè: 1) il valore prognostico di queste prove per identificare i soggetti con infezione tubercolare latente che sono a più alto rischio di tubercolosi attiva e che possano trarre vantaggio da una terapia preventiva, 2) i risultati dei più recenti studi indicano che le prove IGRAs hanno caratteristiche “dinamiche” che spiegano la possibilità di conversione o reversione nel tempo, 3) sono ancora limitati i dati su popolazioni ad alto rischio, quali bambini e soggetti immunocompromessi.
La prova di amplificazione nucleica
nel controllo dell’infezione tubercolare
In ambiente ospedaliero la prevenzione dell’infezione tubercolare consiste attualmente nell’accogliere i pazienti con sospetta infezione in reparti di isolamento respiratorio (IR) fino a quando il rischio di contagio sia sufficientemente basso.
Senonché, per determinare con sicurezza se un paziente sia ancora contagioso o, al contrario, non lo sia più, non sono attualmente disponibili metodi affidabili. Infatti la coltura di Mycobacterium tuberculosis, considerata la prova più sensibile a questo scopo, non è pratica a motivo del lungo periodo di tempo che richiede per avere una risposta. In sua vece è consigliata la ricerca di bacilli acido-resistenti nello striscio di espettorato ed è stato recentemente stabilito che un paziente con sospetta tubercolosi possa lasciare l’IR dopo che tre consecutive ricerche, eseguite in un periodo di almeno 2 giorni, risultino negative, oltre ovviamente, alla valutazione clinica della riduzione del rischio di contagio ( Jensen PA, Lambert LA, Iademarco MF, et al. Guidelines for preventing the transmission of Mycobacterium tuberculosis in health-care settings, 2005. MMWR Recomm Rep 2005; 54:1).



Tuttavia, anche con questa procedura, è possibile che pazienti con colture positive non vengano identificati da esami in serie dell’espettorato a motivo del basso numero di bacilli emessi. In effetti, nonostante queste difficoltà, i dati epidemiologici più recenti hanno mostrato una notevole diminuzione degli episodi di contagio.
Ma l’IR non è senza inconvenienti. A parte il costo legato alla necessità di accogliere i sospetti in camera singola e ai vari procedimenti di filtrazione, sterilizzazione e trattamento dei rifiuti, c’è da considerare che l’infezione tubercolare è frequentemente silente e non presenta segni o sintomi specifici e quindi non agevolmente e prontamente identificabile.
Recentemente per una rapida, sensibile e specifica identificazione di M. tuberculosis in un campione di espettorato è stata proposta una prova di amplificazione dell’acido nucleico del micobatterio. Infatti la sensibilità di questa prova presenta una soglia di identificazione di circa soltanto 1 micobatterio per 100 mL di campione di espettorato (Soini H, Musser JM. Molecular diagnosis of mycobacteria. Arch Pathol Lab Med 2001; 125: 122).
È stato condotto uno studio per stabilire se un unico esame di espettorato eseguito con tecnica di amplificazione dell’acido mucleico (NAA: “nucleic acid amplification”) è in grado di identificare efficacemente un paziente potenzialmente contagioso in maniera pari alla prova standard con tre consecutivi esami dell’espettorato per la ricerca di bacilli acido-resistenti (Campos M, Quartin A, Mendes E, et al. Feasibility of shortening respiratory isolation with a single  sputum nucleic acid amplification test. Am J Respir Crit Care Med 2008; 178: 300). Gli autori hanno esaminato con la prova NAA 493 soggetti con sospetta tubercolosi (dei quali 73% positivi per HIV) ammessi in un IR di un ospedale negli Stati Uniti; il 9,3% di questi soggetti presentava una coltura dell’espettorato positiva per M. tuberculosis.
La prima prova NAA ha identificato tutti i pazienti con tubercolosi che avevano un espettorato positivo anche quando il primo dei tre esami era negativo. Inoltre, quando confrontata con gli esami in serie dell’espettorato, la prova NAA ha mostrato sensibilità e specificità più elevate nell’identificazione di soggetti positivi per M. tuberculosis.
Gli autori ritengono, pertanto, che la prova NAA sul primo campione di espettorato è superiore alle attuali prove standard su campioni in serie di espettorato nello screening della permanenza dei pazienti sospetti in IR. Questa prova offre, secondo gli autori, la possibilità di escludere il pericolo di contagio, sia incrementando la percentuale di identificazione dei micobatteri, sia consentendo di dimettere prima un paziente dall’IR. In conclusione, si rimarca che la prova NAA non sostituisce la necessità di ottenere multipli campioni di espettorato per la ricerca di bacilli acido-resistenti, anche per controllare la negatività di NAA, che nello studio di Compos et al. è stata osservata nel 13% dei casi e, infine, per lo studio della sensibilità ai farmaci.
Durata della conservazione del sangue
da trasfondere e complicanze perioperatorie
È noto che milioni di unità di sangue sono trasfuse annualmente nei paesi sviluppati e che molti studi hanno indicato che la trasfusione di sangue accresce il rischio di complicanze anche gravi e di obitus in particolare modo negli interventi di cardiochirurgia.
Negli ultimi anni è stato segnalato che il rischio di queste complicanze aumenta quando il sangue trasfuso è stato conservato per lungo periodo di tempo (Tinmouth A, Fergusson D, Yee IC, et al. Clinical consequences of red cell storage in the critically ill. Transfusion 2006; 46: 2014) e la Food and Drug Administration (FDA) degli Stati Uniti ha stabilito che gli eritrociti non possano essere conservati oltre 42 giorni (Whitaker B, Sullivan M. The 2005 Nationwide Blood Collection and Utilization Survey Report. Bethesda, MD: AABB, 2006. Accessed February 22, 2008 at http://www.hhs.gov/bloodsafety/2005NBCUS.pdf.)
A tutt’oggi, tuttavia, si discute sul rischio della trasfusione di sangue “vecchio” rispetto alla trasfusione di quello “nuovo”, perché, mentre alcuni studi lo sostengono, altri lo negano.



Questo problema è stato recentemente oggetto di un’analisi retrospettiva del decorso di circa 6000 pazienti che hanno avuto interventi di by-pass coronarico e/o chirurgia valvolare assegnati a ricevere trasfusione di sangue conservato meno di 14 giorni oppure conservato oltre 14 giorni (Koch CG, Li L, Sessler DI, et al. Duration of red-cell storage and complication after cardiac surgery. N Engl J Med 2008; 358: 1229).
È stato osservato che la trasfusione di eritrociti oltre 14 giorni è stata associata a un significativo aumento del rischio di complicanze postoperatorie e a ridotta sopravvivenza dopo interventi di cardiochirurgia; inoltre nei pazienti trasfusi con sangue conservato oltre 14 giorni è stata osservata una maggiore frequenza di decesso durante il ricovero in ospedale, prolungata intubazione, insufficienza renale, sepsi, insufficienza multiorgano e associazione di gravi complicanze. Questi effetti avversi associati a trasfusione di sangue “vecchio” sono stati confermati dopo correzione per fattori perioperatori noti per contribuire a un più grave decorso, come caratteristiche demografiche, gruppo sanguigno, anomalie di laboratorio, coesistenti condizioni patologiche e tipo di intervento.
Gli autori ricordano che i meccanismi patogenetici che possono spiegare gli effetti avversi collegati alla trasfusione di sangue conservato a lungo non sono tuttora definitivamente chiariti; pur tuttavia, alcuni fattori possono contribuirvi. Le cellule ematiche conservate vanno incontro a progressive alterazioni strutturali e funzionali che possono essere reversibili o irreversibili e che iniziano dopo due o tre settimane di conservazione. Queste anomalie comprendono: 1) ridotta deformabilità che ostacola il flusso ematico microvascolare, 2) deplezione di 2,3–difosfoglicerato (2,3-DPG) che dà luogo a deviazione a sinistra della curva di dissociazione dell’ossiemoglobina cui consegue ridottta liberazione di ossigeno, 3) ridotta adesività e aggregabilità, 4) ridotta concentrazione di ossido nitrico (NO) e di adenosin-trifosfato (ATP) e 5) accumulo di sostanze proinfiammatorie.
Koch e collaboratori ritengono che i risultati da loro ottenuti inducano a ridurre i periodo di conservazione del sangue da trasfondere e riconoscono che ciò possa creare difficoltà nel mantenere un’adeguata disponibilità di sangue, anche perché è difficile ottenere un incremento delle donazioni.
A loro parere, per ridurre il tempo di conservazione del sangue da trasfondere si potrà ricorrere a metodi di recupero e riutilizzazione del sangue durante gli interventi oppure a nuovi metodi di conservazione al fine di ritardare le trasformazioni a questa legate.
Nel commentare questi risultati Adamson (Adamson JW. Newblood, old blood or no blod? N Engl J Med 2008; 358: 1295) si domanda: 1) è possibile generalizzarli a una popolazione più estesa di pazienti, tenendo presente che quella studiata da Koch et al ha un’età media di 70 anni e quindi un significativo numero di condizioni patologiche coesistenti? 2) È possibile che si verifichino interazioni tra apparecchiatura del by-pass e gli eritrociti trasfusi, interazioni che siano particolarmente dannose quando la loro conservazione sia più prolungata?
L’autore ricorda i programmi proposti per la conservazione e il “trattamento” del sangue da trasfondere intesi a correggere situazioni di anemia prima degli interventi, per il “recupero” intraoperatorio di sangue, per l’uso, in casi selezionati, di tecniche di emodiluizione preoperatoria o di agenti stimolanti l’emopoiesi (Goodnough LT, Shander AS. Blood management. Arch Pathol Lab Med 2007; 131: 695).