Blog Scire
Letteratura medica per la pratica clinica
Danilo di Diodoro – Informazione scientifica applicata – Azienda Usl di Bologna
 
Di seguito i post pubblicati in questa sezione, in ordine cronologico.
 
 
di Danilo di Diodoro (pubblicato il 21/07/2017 alle 11:08:50, in Post)

Farsi visitare dal proprio medico di famiglia periodicamente, diciamo una volta l’anno, anche quando si è in salute e non si ha alcun sintomo specifico. Ma ha un senso? Può essere utile per scoprire eventuali malattie o svelare in anticipo disturbi ancora silenti? Riduce il rischio di ammalarsi e può essere addirittura uno stratagemma per campare più a lungo? Si sono posti queste domande i medici del Beth Israel Deaconess Medical Center di Boston durante uno dei loro Grand Round, incontri durante i quali vengono affrontati temi controversi partendo da una revisione delle evidenze disponibili, poi discusse da due esperti e da tutti gli altri operatori sanitari presenti. Il Grand Round in questione è stato pubblicato sugli Annals of Internal Medicine. “Ho fatto l’ultimo controllo fisico un paio di settimane fa e ho già preso l’appuntamento con il mio medico per l’anno prossimo” dice la signora M., che ha 70 anni ed è sostanzialmente in buona salute, a parte un po’ di osteoartrite e una predisposizione familiare per il cancro al seno. Lei rappresenta il caso tipico del controllo annuale in piena salute, dal quale i medici dell’ospedale di Boston sono partiti per discutere questo argomento. “Attribuisco molto valore alla mia relazione con il medico” dice ancora la signora. “Dopo la visita, quando mi dice che sono in ottima salute, allora mi sento proprio bene.”

Dunque certamente la visita annuale ha un significato di rassicurazione per la paziente. Ma oggi si sa che questo genere di visite, per un adulto sano, non serve davvero, come indicano ben due diverse revisioni sistematiche. Proprio in base ai risultati di queste revisioni, due grandi agenzie mediche pubbliche americane, la Society of General Internal Medicine e l’American Board of Internal Medicine Foundation sconsigliano i medici di dedicare il loro tempo e le loro energie a queste visite, che negli USA rappresentano il motivo principale di incontro tra medico e paziente, impegnando circa 10 miliardi di dollari l’anno. Una scelta fatta anche alla luce del programma Choosing Wisely, che sta tentando di razionalizzare l’uso delle pratiche mediche, diagnostiche e terapeutiche, limitandole a quelle di dimostrata efficacia. Piuttosto, le generiche visite annuali dovrebbero essere sostituite da screening per specifiche malattie, a seconda dell’età e delle predisposizioni di ciascuno, oltre che da programmi di controllo per malattie croniche. Questa sarebbe la scelta più razionale ed economica.

La discussione tra gli esperti intervenuti durante il Grand Round non ha però trovato tutti d’accordo sulle conclusioni delle due grandi agenzie americane. Intanto perché comunque, come spesso accade con le revisioni sistematiche, le loro conclusioni sono state tratte da studi primari di qualità non elevata, per cui sull’argomento bisognerà fare ancora della ricerca; e poi perché alla fine quei sonori 10 miliardi di dollari spesi in generiche visite di controllo rappresentano solo lo 0,3 per cento della spesa sanitaria complessiva americana (in gran parte coperta da assicurazioni private dei cittadini). E poi ancora perché comunque le visite annuali rappresentano un’importante base per la continuità delle cure, per la conoscenza e la familiarità tra medico e paziente.

Su quest’ultimo punto bisogna riflettere. Non c’è dubbio che l’organizzazione sanitaria, e anche l’attività di ogni singolo medico, debbano attenersi a pratiche di riconosciuta efficacia e utilità, ma evitando il rischio di un approccio troppo ragionieristico, che non può portare buoni frutti. Nella Medicina c’è una componente di fiducia, di affidamento, che richiede lo “spreco” di una certa quantità di tempo. E’ un’esigenza emersa anche da un’indagine realizzata da FNOMCeO e Slow Medicine, pubblicata sulla rivista Recenti progressi in Medicina Una visita medica inutile per la rilevazione di sintomi misconosciuti o di malattie ancora silenti rappresenta comunque un importante momento di incontro tra medico e paziente, durante il quale si parla, si danno e ricevono consigli, si sciolgono dubbi, si dà corso a quella parte della cura fatta di elementi forse non immediatamente utili, ma fondamentali per il futuro. E’ un investimento, un utilizzo intelligente di risorse. Eviterà che un paziente non sufficientemente ascoltato dal suo medico si rivolga poi ad altri medici, andando a creare ingorghi e ripetizioni di visite ed esami, con rischi per la sua salute e certamente alla fine con un incremento delle spese sanitarie.

 
di Danilo di Diodoro (pubblicato il 04/05/2017 alle 12:00:00, in Post)

Giovedì 4 maggio 2017

Si discute molto, sui media tradizionali e sui social network, sull’efficacia e la sicurezza dei vaccini, come se fosse un tema sul quale le opinioni personali contano quanto i fatti acquisiti dalla ricerca scientifica. Viene da chiedersi come mai non si discuta altrettanto vivacemente sul trattamento dell’infarto del miocardio o sulla pericolosità dei Raggi X, come in effetti si chiede acutamente la dottoressa Lisa Rosembaum in un editoriale appena pubblicato sul New England Journal of Medicine.

Ma ovviamente la risposta è che se un argomento perde la sua natura nuda e cruda di fatto scientifico e diventa terreno di scontro ideologico e perfino politico, la comunicazione diventa improvvisamente difficile, se non impossibile.

Quando ci si trova in queste condizioni di invasione del campo della scienza da parte del dibattito sociale e politico, e vale per i vaccini, ma anche per il riscaldamento globale, improvvisamente non contano più i fatti, ma gli schieramenti. Lisa Rosembaum parla di “posizionamenti tribali” che non sono interessati ai fatti scientifici, quanto esclusivamente al proprio senso di appartenenza. “Dobbiamo smettere di credere che lo scetticismo rifletta una carenza di conoscenza”, scrive, “e che quindi possa essere rimediato fornendo dei fatti. Quando il dubbio è avvolto in una propria identità culturale o in forti emozioni, i fatti spesso non solo falliscono il compito di persuadere, ma possono ulteriormente consolidare lo scetticismo. Un fenomeno spesso chiamato ‘assimilazione faziosa’, che è stato dimostrato in molti ambiti, dalla pena di morte ai cambiamenti climatici, ai vaccini. Uno studio ha dimostrato che genitori esitanti se vaccinare o no il proprio figlio, sono diventati ancora meno propensi a vaccinarlo quando venivano loro date informazioni che smascheravano il mito che i vaccini possano causare l’autismo.”

Il dubbio e il sospetto contro la scienza possono quindi rendere impermeabili ai suoi dati e alle sue conclusioni, per quanto forti e inequivocabili essi possano essere agli occhi dell’élite scientifica. Perché questo è forse il cuore del problema. Chi ha una formazione scientifica e lavora all’interno di istituzioni fondate sulla scienza non si rende sufficientemente conto di quanto appartenga di fatto a un’élite, mentre la stragrande maggioranza delle persone si identifica piuttosto in gruppi che possono semplicemente essere “contro” e per i quali i fatti ritenuti incontrovertibilmente scientifici dall’élite puzzano di imbroglio. Più vengono sostenuti dall’élite, magari con una punta di disprezzo verso chi sembra proprio non capire, più lo scontro si radicalizza. D’altra parte, a pensarci bene, anche tra gli scienziati spesso si creano appartenenze radicalizzate a sottogruppi che continuano a scontrarsi per anni a colpi di ricerche e fatti, senza che si arrivi a una composizione. Le differenze di posizione, le appartenenze tribali, esistenti al momento all’interno della comunità scientifica sullo screening della mammella è solo uno dei tanti esempi possibili.

Il fatto è che oggi la scienza viene vista come una delle tante istituzioni alle quali è legittimo opporsi, non con diverse posizioni scientifiche, ma ponendosi semplicemente al di fuori del suo ambito. La scienza, e la Medicina in particolare, ha dato colpevolmente adito a sospetti per alcuni suoi comportamenti troppo disinvolti nel confronti di conflitti di interesse economici o accademici e quindi ha molte colpe. Sarebbe ora che la comunità scientifica vigilasse maggiormente sulla sua integrità etica e che si impegnasse in tentativi di comunicazione con la controparte che nella scienza oggi si riconosce sempre meno.

Bisogna evitare quello che secondo Lisa Rosembaum è “lo scontro tra scienza e credenza”. Il rischio è che attraverso questo scontro si approdi a quella che è stata chiamata l’epoca della post-verità, alla quale l’inserto Robinson di Repubblica del 30 aprile ha dedicato ampio spazio. Un’epoca postmoderna, come scrive il filosofo Maurizio Ferraris, intensamente segnata dal web, nella quale “l’umanità non è interessata a sapere il vero, ma ad avere ragione e a trovare conferma delle proprie convinzioni, ossia si è appropriata, in un momento di intensa democratizzazione, delle prerogative delle élite.” Quindi la scienza, e di nuovo la Medicina basata sulle prove in particolare, deve mobilitarsi trovando non facili vie di dialogo con un’umanità che sembra non più interessata al vero, altrimenti rischia di trasformarsi in un’élite sempre più ristretta, che opera in maniera isolata e che potrebbe essere rapidamente scalzata dalle posizioni che contano nella società.

 
di Danilo di Diodoro (pubblicato il 27/03/2017 alle 11:40:49, in Post)
Lunedì 27 marzo 2017

Ormai ci siamo: cominciano a entrare nella pratica clinica le prime applicazioni dei sistemi di editing genetico. Si tratta di tecniche che consentono di intervenire sul DNA modificandolo in maniera puntuale, proprio come si farebbe, in un testo, con la correzione di una pavala… parola. Si usano una sorta di forbici biologiche, ad esempio enzimi chiamati Transcription activator-like effector nucleases (TALENs), capaci di correzioni molto precise. Questa tecnica è stata recentemente utilizzata in Gran Bretagna per il trattamento di un bambino piccolo affetto da una forma refrattaria di leucemia linfoblastica, e ha mostrato di funzionare decisamente bene.

Interventi di questo tipo sono realizzati sulle cosiddette “cellule somatiche”, ossia cellule del corpo non coinvolte nel processo di riproduzione. Ne consegue che il risultato dell’intervento genetico non rischia di trasmettersi alla generazione successiva, nel caso qualcosa andasse storto o si manifestasse qualche conseguenza imprevista. Quindi, sebbene anche gli interventi sulle cellule somatiche sollevino interrogativi di tipo etico, ovviamente è sugli altri interventi, quelli sulle cellule coinvolte nel processo di riproduzione, che si appuntano le maggiori preoccupazioni etiche e di salute collettiva. Ma l’interesse scientifico e medico verso l’intervento di editing genetico su ovuli, spermatozoi, cellule pluripotenti ed embrioni ai primi stadi di sviluppo, è enorme. Interventi mirati su queste cellule potrebbero offrire il controllo sulla trasmissione di molte malattie genetiche, arrivando potenzialmente anche a eliminarle, come è quasi avvenuto per certe malattie infettive grazie all’uso dei vaccini.

Di questi argomenti si è discusso nel corso di un recente summit internazionale tenutosi a Washington, intitolato Human Gene Editing, al quale hanno partecipato scienziati, filosofi, eticisti, e che è stato riportato in sintesi sulla rivista Jama.

Molte preoccupazioni sono state sollevate anche rispetto alla possibilità di utilizzare queste tecniche per indurre cambiamenti permanenti nel DNA umano al fine di manipolare caratteristiche fisiche o intellettive, un obiettivo che probabilmente sarà tecnicamente raggiungibile in un futuro non molto lontano. E c’è chi si è spinto oltre, ipotizzando l’”arricchimento” della natura umana con caratteristiche finora a essa del tutto estranee. Charis Thompson, professore di Gender and Women’ Study all’University of California di Berkley si è chiesta: “Ma le future generazioni non hanno diritto di ricevere un genoma non manipolato?”. Circa la reale utilità clinica di intervenire con l’editing genetico sulle cellule germinali si è espresso Eric Lander del Broad Institute del MIT e Harvard, secondo il quale in realtà possediamo già tecniche di diagnosi genetica preimpianto che permettono ai genitori affetti da malattie genetiche di selezionare embrioni che non abbiano i geni difettosi. Una tecnica molto meno carica di potenziali rischi, anche se ovviamente non estranea a ripercussioni di stampo morale.

L’esperienza indica che la ricerca, anche quando esplora territori scottanti, non può essere fermata, quindi l’unica via è verosimilmente quella della sorveglianza etica. Secondo Alta Chiaro, professoressa di legge e bioetica all’University of Wisconsin di Madison, “è difficile controllare l’impulso umano a cercare nuovi trattamenti che sembrano offrire una reale speranza per il sollievo o perfino per la cura, ma la supervisione regolatoria è imperfetta o anche completamente mancante in alcune giurisdizioni.” Quindi si può dire che a livello internazionale il sistema non è ancora sotto controllo.

Ai timori ritengo vada associato l’ottimismo, almeno per usi che si presentano come decisamente favorevoli. Attraverso l’uso di un’altra tecnica di editing, chiamata CRISPR-Cas9, alcuni ricercatori guidati da Valentino Gantz della Section of Cell and Developmental Biology, University of California, San Diego, La Jolla, sono riusciti a creare zanzare geneticamente modificate, e quindi incapaci di trasmettere all’uomo il parassita della malaria.
 
di Danilo di Diodoro (pubblicato il 27/01/2017 alle 09:20:00, in Post)
Venerdì 27 gennaio 2017

Esiste una scala sorprendentemente evidente che accoppia la posizione socio-economica di ogni singolo individuo con il suo livello di salute e perfino con la sua aspettativa di vita. Quindi non è solo vero che chi è povero ha una salute peggiore rispetto a chi è benestante, ma è anche vero che il livello di salute continua a crescere lungo tutta la scala per toccare il massimo in cima, dove risiedono quelli che detengono le posizioni migliori. Potrebbe essere sintetizzata così la posizione autorevolmente sostenuta da Michel Marmot, presidente della World Medical Association e molto noto a livello internazionale come ricercatore nell’area epidemiologica. Il Pensiero Scientifico Editore ha appena pubblicato in Italia il suo libro intitolato “La salute disuguale”.

Se così è, e non c’è motivo di dubitarne, dov’è finita la filosofia di vita del disimpegno, quella che metteva in discussione i miti del lavoro e della carriera e che sembrava mettere al riparo dallo stress e dalle malattie cardiovascolari tipiche dei manager? “Chi ha mai diffuso la voce che lo stress è maggiore nei livelli più alti? Le persone in quella posizione hanno più pressioni psicologiche, però hanno anche una maggiore autonomia” dice Marmot. Il dato era emerso già nel classico studio Whitehall condotto tra il 1978 e il 1984 sugli impiegati britannici, che aveva dimostrato chiaramente come quelli dei gradini più bassi avevano in un determinato periodo di tempo un tasso di mortalità quattro volte superiore a quello di chi si trovava sul gradino più alto. Ma soprattutto, la salute migliorava progressivamente e costantemente con il rango. Questo è ciò che Marmot chiama “gradiente di salute”.

Non è però solo una questione di denaro, anzi, gli studi epidemiologici hanno ampiamente dimostrato che il denaro in sé e per sé conta solo quando è molto poco. Spiega Marmot: “Per i paesi poveri, piccoli incrementi del reddito sono associati a significativi aumenti dell’aspettativa di vita. E questo è ragionevole. Un paese con un reddito nazionale pro capite minore di $ 1000 può permettersi poco in termini di cibo, alloggio, acqua potabile, servizi igienico-sanitari, assistenza sanitaria e altro - cioè tutti quegli elementi che costituiscono il rimedio a ciò che ho definito ‘indigenza’. Con un piccolo incremento di reddito ci si può permettere molto di più.” Quindi, sebbene ciascuno di noi possa fare molto per la propria salute, seguendo regole ormai ben stabilite, siamo molto condizionati anche dal tipo di società in cui siamo inseriti.

Bastano questi pochi punti di partenza per capire che chi lavora nella sanità dovrebbe porsi il problema della salute con uno sguardo molto ampio. Dovrebbe tenere presenti le necessità di libertà individuale e di giustizia sociale, non solo per principi ideologici, ma anche perché promuovendole, di fatto promuove salute, allunga la vita, riduce il ricorso alle strutture sanitarie e i relativi costi. E dovrebbe anche puntare al miglioramento delle condizioni di vita e salute non solo delle fasce di popolazione più povera, ma anche a quello delle fasce posizionate a un livello socio-economico intermedio, dal momento che anche lì esiste un potenziale di miglioramento.

Gli esperti di politiche della salute invocano vere e proprie “Marmot Review”, processi in cui le istituzioni si interrogano sulla propria capacità di valutare il benessere della popolazione e di promuoverlo nella maniera più equa possibile. Ne sono state realizzate alcune, sia dall’Organizzazione Mondiale della Sanità, sia in diversi paesi europei. E in Italia? A questa domanda risponde nella postfazione del libro Giuseppe Costa dell’Università di Torino, che ricorda alcune disamine effettuate sulla disuguaglianza sociale in Italia, compresa una Marmot Review del 2014. Una revisione che ha iniziato a generare effetti concreti, con misure per il contrasto delle malattie della migrazione e della povertà e l’avvio degli Health Equity Audit, vere e proprie disamine di programmi, progetti e percorsi, finalizzate a verificarne concretamente l’effetto sui singoli strati socio-economici delle popolazioni.

I vantaggi possibili, se si riuscisse a proseguire verso questa strada, sarebbero spettacolari. Ad esempio è stato stimato che in Italia, eliminando lo svantaggio di mortalità dei meno istruiti verso i laureati, si potrebbe ottenere una riduzione media dei decessi tra il 20 e il 25 per cento.
 
di Danilo di Diodoro (pubblicato il 24/11/2016 alle 09:02:33, in Post)
Giovedì 24 novembre 2016

Ogni singolo comitato etico ha quella che chiamerò una sua cultura di riferimento, non sempre esplicitamente chiara neppure ai componenti, che però ne determina le caratteristiche di funzionamento. Queste culture possono anche essere abbastanza difformi, e probabilmente rappresentano la causa più profonda del fenomeno della diversità di pareri che i vari comitati emettono alle volte sulle medesime sperimentazioni. Ma sono anche alla base delle differenze di performance di ogni comitato, rilevabili dai dati di attività.
Ad esempio ci sono comitati etici che si distinguono per lasciar passare quasi senza alcun filtro gran parte delle ricerche, mentre altri comitati tendono a essere più critici, a emettere un maggior numero di pareri negativi o di pareri sospesi con richiesta di modifiche. Così alla fine i ricercatori non capiscono come mai il loro comitato etico non approvi una ricerca già approvata da un altro comitato magari della stessa Regione; gli sponsor e i promotori delle ricerche hanno l’impressione di trovarsi in una babele; gli stessi componenti dei comitati si interrogano sul senso complessivo del loro operare.

Per tentare a fare un po’ di luce su questa complessa situazione, proverei a ripartire dal mandato dei comitati etici sulla valutazione della ricerca. In generale potremmo dire che il loro compito dovrebbe consistere nel valutare i protocolli delle sperimentazioni, prendendone in esame la qualità scientifica e l’intrinseca eticità, oltre che la concreta fattibilità. Inoltre dovrebbe essere garantita una corretta informazione sulla sperimentazione ai pazienti e ai medici che li stanno curando. E poi i comitati dovrebbero verificare che la sperimentazione abbia una adeguata copertura economica e che alla fine i suoi risultati, a prescindere dal parere in tal senso da parte dello sponsor, siano messi a disposizione della comunità scientifica, perché magari a un certo punto la nuova conoscenza acquisita possa trasformarsi in nuove e più efficaci cure per tutti.

Ora, possono esistere differenze nella cultura di riferimento di ogni comitato etico in seguito alle quali ciascun comitato può interpretare differentemente questi compiti? Come ho anticipato, io credo di sì. E' possibile che per i motivi più disparati alcuni comitati abbiano poco interesse o perfino scarsa competenza per valutare se un certo quesito clinico necessiti veramente di una sperimentazione? O a prendere in esame i protocolli da un punto di vista metodologico? Oppure a entrare nello specifico della corrispondenza o meno tra il quesito di ricerca e il disegno di studio, a entrare nel merito della valutazione statistica, a snidare l’eventuale finalità puramente commerciale della sperimentazione? Forse ritengono che il loro compito consista principalmente nel valutare se la sperimentazione è corredata da una corretta documentazione formale, riconoscendo intrinsecamente al clinico che la propone ed eventualmente al promotore o sponsor, la titolarità o l’autorevolezza per giudicare tutti gli aspetti clinici ad etici. E’ possibile che ci siano comitati che approvano quasi tutte le sperimentazioni perché sono fin troppo coscienti di quanto gli sperimentatori hanno necessità di acquisire le risorse economiche generate dalla ricerca sponsorizzata? Introiti che spesso sono anche reinvestiti con ritorni positivi per le strutture sanitarie, andando a finanziare ad esempio la ricerca non- profit. E qual è il fine di comitati etici che prendono alla lettera il ruolo di verificare la correttezza metodologica delle sperimentazioni, quale indispensabile colonna portante di ogni possibile valutazione etica? Una sperimentazione, ma anche uno studio osservazionale, che siano mal costruiti, che rischiano di non poter giungere a conclusioni significative, sono considerati di per sé non etici, se non altro perché abusano della disponibilità offerta dai pazienti coinvolti. E probabilmente alcuni comitati si pongono anche il dilemma etico se sia giusto utilizzare la ricerca clinica, almeno in certe aree, quale l’oncologia, come strumento per l’accesso a trattamenti altrimenti non disponibili. Trattamenti ovviamente ancora di non provata efficacia, ma che possono rappresentare una speranza per persone in stadi avanzati di malattia non altrimenti curabile.

Rispetto a questi temi fondamentali bisognerebbe riflettere già nel momento stesso in cui i comitati etici vengono costituiti. Va fatto uno sforzo per esplicitare per quanto possibile un’idea guida su quale ruolo i comitati dovrebbero primariamente svolgere, su come dovrebbero essere improntate le loro relazioni con gli sperimentatori, i promotori e gli sponsor, su quale dovrebbe essere il loro atteggiamento nei confronti dei temi della correttezza metodologica e dell’indipendenza dai risvolti economici, su quale primaria finalità dovrebbe essere attribuita alla ricerca, e così via. Soprattutto perché differenti approcci culturali non credo che possano convivere all’interno di uno stesso comitato, ma neppure all’interno di un insieme di comitati che si vorrebbe veder lavorare secondo linee comuni. Per seguire tali linee comuni necessita una condivisione di culture di fondo che non possono essere troppo distanti.

La scelta stessa dei presidenti e dei componenti dei comitati dovrebbe quindi forse essere fatta tenendo a mente principi generali comuni e condivisi. Poi va al contempo garantita certamente anche la pluralità delle voci, che è una ricchezza e perfino una necessità. Secondo Elisabetta Poluzzi, (comunicazione personale), presidente del Comitato Etico di Bologna, i comitati dovrebbero essere composti da un ampio gruppo di valutatori, in grado di svolgere il loro compito con competenza, ma preferibilmente mantenendo il contatto con l’attività clinica, e anche riuscendo a dedicare tempo all’aggiornamento sul tema delle metodologie della ricerca, che oggi tendono a diventare sempre più complesse e specialistiche.

E se è vero, come sostiene Roberto Satolli (comunicazione personale), presidente del comitato etico di Reggio Emilia, che alla fin fine il ruolo precipuo di un comitato etico è diffondere i principi e le conoscenze per una ricerca di buona qualità, allora bisogna che ci sia una convergenza su cos’è, e come si fa, la ricerca di buona qualità. Anche perché credo che non si possa più eludere il problema, ampiamente documentato dalla letteratura internazionale, della troppa ricerca inutile e di scarsa qualità, oltre che dell’inquinamento della ricerca da parte di gravi conflitti di interesse economico. Un incisivo ruolo guida dei comitati etici, basato su saldi principi di una cultura condivisa, è quindi di fondamentale importanza.
 
di Danilo di Diodoro (pubblicato il 25/08/2016 alle 08:49:48, in Post)
Giovedì 25 agosto 2016

Titola il Times di Londra: “Scienziati creano il primo farmaco per fermare l’Alzheimer”, mentre il New York Times titola: “Il farmaco LMTX contro l’Alzheimer vacilla nella parte finale dei trial”. Ancora più esplicito il Wall Street Journal: “Farmaco sperimentale contro l’Alzheimer fallisce nei trial clinici”. Insomma, mentre i giornali inglesi, compresi il Telegraph e il Daily Mail, riportano notizie eclatanti sull’efficacia di questo nuovo farmaco, i giornali americani dichiarano apertamente che invece non funziona, che i trial clinici hanno dimostrato la sua inefficacia. Una situazione paradossale e imbarazzante che è stata riportata sul BMJ da Jacqui Wise, giornalista londinese che ha seguito la vicenda

Ecco i retroscena mediatici: tutto nasce dal congresso dell’Alzheimer Association che si è tenuto a Toronto il 27 luglio. Alle 16.30 è previsto un intervento del professor John Hardy che deve riportare i risultati dello studio clinico sponsorizzato dalla TauRx Pharmaceuticals, casa produttrice di un nuovo farmaco contro la malattia di Alzheimer, il leuco-methylthioninium o LMTX, che agisce, o meglio si dovrebbe dire, avrebbe dovuto agire, inibendo l’aggregazione della placche tau, che sono considerate un fattore patogenetico importante di questa malattia. Intanto, però, durante la mattina, la casa produttrice del farmaco rilascia un comunicato stampa nel quale afferma che, utilizzato in monoterapia, l’LMTX “ha un marcato effetto benefico su test chiave della malattia di Alzheimer in pazienti con forme leggere o moderate di malattia”. I giornali inglesi colgono al volo la notizia e partono in tromba. I giornali americani sono più cauti, e comunque aspettano la presentazione del pomeriggio, durante la quale gli specialisti presenti in sala contestano al professor Hardy la metodologia dello studio, screditando l’idea che il farmaco possa davvero funzionare.

Ecco quindi il pasticcio metodologico: il trial randomizzato e controllato realizzato con l’LMTX confrontato con placebo ha coinvolto 891 pazienti affetti da malattia di Alzheimer di entità lieve o moderata, molti dei quali stavano contemporaneamente assumendo anche altri farmaci per trattamenti preesistenti. Alla fine dello studio è però emerso che il farmaco non ha indotto nessun beneficio rispetto al placebo nei 15 mesi durante i quali è stato effettuato il confronto. A fronte di questo smaccato fallimento, gli autori dello studio hanno effettuato una seconda analisi in un sottogruppo costituito dal 15% di pazienti che non stavano assumendo nessun altro farmaco. Ebbene, su questo sottogruppo di pazienti è saltato fuori un miglioramento rispetto al placebo, sia per gli aspetti cognitivi che per le abilità funzionali e per dimensioni del cervello. Bene… si potrebbe dire, allora è vero che funziona…

Peccato che da un punto di vista metodologico questa sia una grossolana (e peraltro neppure nuova, perché ben conosciuta dagli esperti) forma di manipolazione dei dati. Analisi secondarie per sottogruppi, a meno che non siano previste nel protocollo iniziale dello studio e adeguatamente sorrette da una numerosità statisticamente significativa del campione, sono arbitrarie e ingiustificabili, e portano a conclusioni errate. Rappresentano uno strumento attraverso il quale si tenta di gettare fumo negli occhi, per non dover ammettere il fallimento. Ovviamente qualcuno ci può cascare, e così è successo ai giornalisti inglesi che hanno semplicemente rilanciato il comunicato stampa, senza analizzarlo criticamente. Sarebbe bastato aspettare le critiche che nel pomeriggio sono state fatte al professor Hardy, per evitare di cadere in un errore così grossolano.

Quindi, come ho detto già più volte, i giornalisti scientifici dovrebbero sempre essere molto critici, soprattutto (ma non solo) quando i risultati di uno studio sono apparentemente eclatanti, quando sono presentati a congressi, e quando non sono ancora stati pubblicati in riviste specializzate
. E dovrebbero cercare di farsi un po’ le ossa sulla metodologia degli studi clinici, che sono lo strumento attraverso il quale viene valutata l’efficacia dei trattamenti.

Una parola va spesa anche sull’industria farmaceutica. Sviluppare un farmaco e portarlo alla fase degli studi clinici di fase III, quella che ne valuta l’efficacia reale e apre la strada alla commercializzazione, richiede anni e anni e costa oggi cifre da capogiro. Una situazione difficile da sostenere, ma che non dovrebbe in nessun modo giustificare una manipolazione metodologica come quella sopra descritta. L’analisi per sottogruppi non può sostituire l’analisi complessiva dei dati, come si è tentato di fare nel comunicato stampa. Certamente anche gli esperti della casa farmaceutica in questione lo sanno bene. Sarebbe stato più onesto, sebbene doloroso da un punto di vista economico, ammettere l’inefficacia. Poi l’analisi per sottogruppi si può anche fare e può diventare uno spunto per un nuovo trial su pazienti in monoterapia, costruito anche da un punto di vista statistico in maniera specifica per rispondere al quesito se l’LMTX può funzionare in questo genere di pazienti.

Sarà interessante vedere come proseguirà questa vicenda metodologico-commerciale. Per ora vale a sintesi fatta dalla rivista americana Forbes, che ha affermato che la casa farmaceutica ha cercato di “costruire un successo da un trial fallito”.
 
di Danilo di Diodoro (pubblicato il 05/07/2016 alle 07:57:28, in Post)

Martedì 5 luglio 2016.

Che impatto hanno i media sui comportamenti delle persone nell’ambito della salute e delle scelte sanitarie? Quanti decidono di seguire o meno una terapia a seconda di quello che leggono sui giornali, vedono in televisione o incrociano sui social media? L’impatto sui comportamenti sembrerebbe esserci eccome, stando almeno a una ricerca appena pubblicata sul BMJ dalla quale emerge che molti inglesi avrebbero smesso di assumere statine per la prevenzione cardiovascolare primaria o secondaria, dopo che sui media è sbarcata una lunga polemica sul bilanciamento fra benefici e rischi di questi farmaci.

La storia è iniziata nel 2013, quando furono pubblicati sul BMJ due articoli fortemente critici nei confronti delle statine utilizzate in pazienti a rischio cardiovascolare medio o basso. Da quel momento la discussione si è spostata sui media, arrivando a toccare il picco a marzo 2014, proprio mentre si avvicinava l’uscita delle nuove linee guida del NICE (UK National Institute for Health and Care Excellence) destinate ad allargare l’uso delle statine verso persone con un livello di rischio cardiovascolare inferiore.

Adesso, un gruppo di ricercatori guidati da Anthony Matthews del Department of Non-Communicable Diseases Epidemiology della London School of Hygiene and Tropical Medicine è andato a rilevare come è cambiato il consumo di statine in relazione a questa controversia largamente rappresentata sui media inglesi. Lo ha fatto utilizzando dati provenienti da un database della medicina di base considerato rappresentativo della popolazione inglese. Si è così scoperto che in corrispondenza al dibattito sui media c’è stato un aumento delle interruzioni nell’assunzione di statine (che come si sa deve essere continuativa) da parte di persone che le prendevano sia per prevenzione primaria, sia per prevenzione secondaria. La riduzione ha interessato soprattutto persone più anziane e quelle che erano in trattamento da più tempo. Non si sono modificati invece gli inizi di nuovi trattamenti.

In realtà si sa bene, e lo sanno anche gli autori della ricerca, che questo genere di studi di tipo osservazionale non consente di rilevare una correlazione causa-effetto. Quindi da questa indagine non si può trarre la conclusione che il dibattito sui media abbia causato le interruzioni di terapia, ma solo che esiste una suggestiva corrispondenza temporale. Eppure è partita comunque una nuova discussione, questa volta sul ruolo che dovrebbero avere o non avere i media, e sul senso di responsabilità che dovrebbe gravare sui giornalisti per l’influenza che i loro servizi possono avere sulle scelte sanitarie delle persone. Ad esempio, i ricercatori inglesi hanno calcolato che se l’astensione dal trattamento con le statine dovesse continuare per i prossimi dieci anni, potrebbe tradursi in un aumento di oltre 2000 eventi cardiovascolari, come infarti e ictus.

Quindi, non sarebbe meglio se i media si astenessero dal mettere in piazza questo genere di discussioni, lasciandole all’ambito degli specialisti, per non influenzare scelte di grande rilievo sanitario sia per l’individuo sia per la società? O dovrebbero proprio, al contrario, dedicare a esse ancora più spazio, impegnarsi maggiormente nel rappresentare le aree grigie e le incertezze della Medicina, aiutando così i cittadini a capire e scegliere anche in base alle loro preferenze? Dovrebbero quindi i media svolgere anche un ruolo di ragionata educazione sanitaria, visto che influenzano comunque i comportamenti? Di incertezze peraltro la Medicina ne ha molte più di quanto generalmente si creda, e i media tradizionalmente non sono particolarmente interessati a metterle in mostra. Tendono piuttosto, per loro stessa natura, a lasciarsi attrarre dalla forza giornalistica dell’efficacia, vera o presunta che sia. E’ più facile far passare sui media i vantaggi di un nuovo trattamento piuttosto che le sue incertezze, i suoi effetti collaterali, i suoi rischi. E questo anche senza invocare manipolazioni e conflitti di interesse che comunque sono sempre in agguato in quest’ambito.

In un editoriale sul BMJ di commento all’articolo di Anthony Matthews, è intervenuto anche Gary Schwitzer, editor del sito Health News Review  dedicato al dialogo pubblico sulla sanità, ad aiutare le persone a interpretare adeguatamente notizie, messaggi pubblicitari e campagne di informazione di ambito sanitario. La sua posizione in merito, che condivido pienamente, è la seguente: “Se storie riportate dai media generano nuove domande da parte dei pazienti, o un dibattito più completo tra pazienti e medici, compresa una migliore discussione sul bilanciamento (tra efficacia ed effetti collaterali o rischi dei trattamenti ndr), le preferenze personali e i valori, questo è un risultato che io decisamente approvo. Alla fin fine, propongo che questo episodio sia considerato meno come riguardante il giornalismo e più invece come qualcosa che riguarda la modalità attraverso la quale la scienza e la Medicina affrontano il tema dell’incertezza.”

 
di Danilo di Diodoro (pubblicato il 07/06/2016 alle 09:13:34, in Post)

Martedì 7 giugno 2016

Può risultare difficile da credere per chi non è esperto del settore, ma i farmaci continuano a essere considerati soprattutto un prodotto che risponde a logiche di mercato piuttosto che a quelle della sanità, o per meglio dire, alle esigenze delle persone, dei pazienti. A puntare il dito ancora una volta su questo aspetto preoccupante della sanità contemporanea, in una comunicazione pubblicata sul BMJ è Silvio Garattini, direttore dell’Istituto di ricerche farmacologiche Mario Negri di Milano. Voce indipendente per antonomasia, Garattini fa un aperto confronto tra l’European Medicines Agency (EMA) di oggi e quella del 2000, rilevando come siano molti i problemi ancora aperti, soprattutto perché, come recita il titolo del suo intervento, l’EMA risulta essere ancora troppo vicina all’industria (e troppo lontana dai bisogni dei pazienti). L’EMA è l’agenzia pubblica responsabile della valutazione scientifica, della supervisione e del monitoraggio di sicurezza dei farmaci sviluppati dall’industria farmaceutica per essere utilizzati all’interno dell’Unione Europea.

Uno dei problemi tuttora irrisolti segnalati da Garattini consiste nel fatto che  i criteri per la valutazione dei nuovi farmaci da immettere sul mercato sono ancora quelli di qualità, efficacia e sicurezza (che sembrerebbe una buona cosa), ma è invece assente la valutazione di quel “valore terapeutico aggiunto” che un nuovo farmaco dovrebbe mostrare rispetto a quelli già disponibili. Per avere questo dato bisognerebbe che l’EMA richiedesse all’industria, quando essa vuole immettere un nuovo farmaco sul mercato, una comparazione diretta con gli altri farmaci già disponibili con la stessa indicazione. Sembrerebbe la cosa più logica al mondo, eppure così non è. Nuovi farmaci possono aggiungersi agli altri anche se non è stata verificata l’esistenza di un loro “valore terapeutico aggiunto”. Certo, chi svolge attività clinica sa bene che è importante avere più frecce al proprio arco terapeutico, anche per la stessa indicazione, però qui il rischio è di continuare a immettere sul mercato tanti farmaci che sono più o meno la fotocopia di quelli già esistenti, senza che ci sia, appunto, nessun “valore terapeutico aggiunto”, che è invece ciò che ragionevolmente i pazienti si aspetterebbero. Peraltro, spesso è anche ciò che viene comunque suggerito dall’ “informazione scientifica” promossa dalle aziende farmaceutiche.

Un altro aspetto denunciato da Garattini è che i foglietti informativi dei farmaci, i cosiddetti “bugiardini”, sono ancora oggi preparati dall’industria, e quindi spesso omettono informazioni che sarebbero importanti sia per i medici, sia per i pazienti stessi, ad esempio, di nuovo, i dati comparativi con altri farmaci della stessa classe terapeutica.

E se non ci sono stati miglioramenti tra il 2000 e oggi sui punti sopra riportati, in altre aree ci sono stati addirittura dei peggioramenti. Molto evidente è quello che riguarda l’entità del finanziamento all’EMA da parte dell’industria farmaceutica. “Il contributo dall’industria era di 39 milioni di euro, corrispondente al 71% del budget, mentre oggi è di circa 250 milioni di euro, l’83%” dice Garattini. “Questa dipendenza è incompatibile con la possibilità di considerare l’EMA come indipendente. Nessuno che riceva l’80% del salario dall’industria sarebbe ammesso a far parte di comitati che hanno a che fare con la valutazione dei farmaci.”

Le prospettive per il futuro sono preoccupanti, alla luce di processi innovativi che presto dovrebbero consentire l’accesso molto più rapido nel mercato di nuovi farmaci, di fatto spostando buona parte del processo di valutazione di efficacia e sicurezza dalla fase di pre-marketing a quella post-marketing. Un processo che inevitabilmente vorrà dire esporre i pazienti a più rischi. Anche se dal punto di vista dello sviluppo industriale renderà invece le cose molto più snelle. Come dicevo all’inizio, i farmaci continuano a essere considerati un prodotto che risponde a logiche di mercato.

L’innovazione farmacologica è stata e sarà sempre una parte importantissima dell’evoluzione della Medicina, ma, proprio a causa dei grandi interessi economici che muove, dovrebbe essere governata tenendo ben presente che l’innovazione che essa genera deve essere vera, significativa, e quindi, alla fine di tutto, deve dare un contributo sensibile e rilevabile alla vita delle persone che assumeranno i nuovi farmaci che entrano nel mercato. Se si perde di vista questo obiettivo, saranno stati inutili la ricerca, gli investimenti, e lo stesso lavoro dell’EMA.

 
di Danilo di Diodoro (pubblicato il 11/03/2016 alle 09:59:02, in Post)

Venerdì 11 marzo 2016

E’ molto probabile che l’infezione da virus Zika sia la causa di conseguenze neurologiche come la sindrome di Guillain-Barré e lo sviluppo di microcefalia in bambini nati da madri infettate. E’ la conclusione a cui giunge un editoriale del New England Journal of Medicine (NEJM), che spiega anche cosa c’è dietro quel “molto probabile”. In pratica ci troviamo in una di quelle situazioni della conoscenza medica in cui si accumulano segnalazioni provenienti da studi epidemiologici, ma nella quale mancano prove certe della relazione causale. E’ una situazione interessante, perché aiuta a capire quanto sia difficile l’accertamento della relazione causale, che troppo spesso viene assunta in presenza di semplici osservazioni sul campo.

L’infezione da virus Zika è trasmessa da zanzare del tipo Aedes Aegypti e in minor misura da altri tipi di zanzare. E’ conosciuta fin dagli anni Quaranta in Africa, ma ha avuto una fenomenale espansione a partire dal 2007 quando è stata registrata in altri 52 paesi, soprattutto in America, Africa e sud est asiatico. E’ fin dagli anni Cinquanta che si conosce il neurotropismo del virus, dimostrato in esperimenti su animali, ed esperimenti più recenti hanno dimostrato che lo Zika è in grado di causare la morte di cellule nervose. Ma le segnalazioni di aumento di incidenza della Guillain-Barré in relazione all’infezione sono molto recenti: la prima è del 2013 durante un’epidemia nella Polinesia francese. Per l’aumento di incidenza della microcefalia, la segnalazione è ancora più recente, essendo collegata a un’epidemia nel nord-est del Brasile del 2015. Sono state queste segnalazioni a spingere l’Organizzazione Mondiale della Sanità a dichiarare a febbraio 2016 l’infezione da Zika un’emergenza di salute pubblica di interesse internazionale.

Gli autori dell’editoriale sul NEJM hanno effettuato una revisione di letteratura degli studi osservazionali pubblicati in relazione a queste epidemie, e confermano l’esistenza di un forte sospetto di associazione causale tra l’infezione e le conseguenze neurologiche. Eppure, correttamente da un punto di vista metodologico, dichiarano che non è possibile trarre conclusioni definitive, proprio a causa della natura puramente osservazionale degli studi finora esistenti. “Molti dei dati riassunti derivano da studi i cui disegni vanno classificati come deboli e i cui dati non si possono considerare completamente coerenti” affermano nel loro editoriale. “I dati disponibili sono soprattutto osservazioni riguardanti l’associazione temporale tra infezione e malattia, provenienti da una sorveglianza routinaria della popolazione e da studi clinici e patologici di singoli casi o di gruppi di casi.” Correttamente, la loro conclusione è che questo tipo di dati è essenziale per la scoperta e l’individuazione di nuovi fenomeni che appaiono nella popolazione, e anche per l’avanzamento di ipotesi su cui lavorare. Tuttavia, non è da questo tipo di dati che si possono trarre affidabili conclusioni di un effettivo rapporto di causa-effetto. Per poter arrivare a queste conclusioni bisognerà effettuare studi più specifici, con adeguate caratteristiche metodologiche, che consentano di elevare la probabilità di un’associazione causale, fino a giungere a una quasi certezza, che è quanto di cui la Medicina ragionevolmente si accontenta.

Credo che si tratti di un’importante lezione di metodologia della ricerca, soprattutto per tanti ricercatori e clinici che credono di poter giungere a conclusioni definitive in maniera molto più spiccia, spesso sulla base di poche osservazioni provenienti dalla clinica o da qualche sporadica rilevazione epidemiologica. Poi, comunque, per il sano principio di precauzione che informa la Medicina pratica, è sensato che fin d’ora, anche in presenza di prove limitate e non definitive, si prendano le dovute precauzioni, soprattutto per la gravità delle potenziali conseguenze dell’infezione da Zika. Quindi, via libera al controllo delle zanzare, alla protezione personale dalle punture, all’attenzione alle donne gravide, alla rilevazione di possibili casi di sindrome di Guillain-Barré, alla prevenzione della trasmissione del virus attraverso i rapporti sessuali e le trasfusioni di sangue, ai viaggi nelle zone dove il virus è più attivo. In attesa che una ricerca realizzata con metodi affidabili possa fornire risposte che potranno essere considerate definitive dalla comunità scientifica internazionale.

 
di Danilo di Diodoro (pubblicato il 28/10/2015 alle 15:25:44, in Post)

Mercoledì 28 ottobre 2015.

Carne sì, carne no, carne bianca, rossa, trasformata. I media impazziscono sull’indicazione della Organizzazione Mondiale della Sanità riguardante i possibili rischi cancerogeni legati all’uso di carne rossa o trasformata. Cerchiamo di capire esattamente come stanno le cose. Riporto qui sotto alcune informazioni essenziali e la traduzione delle principali domande e risposte presenti nel sito dell’IARC, International Agency for Research on Cancer, agenzia dell’OMS specializzata sul cancro.

Vorrei dare un contributo affinché ognuno possa farsi un’idea attingendo informazioni il più vicino possibile alla fonte, senza dover per forza seguire le indicazioni che ora esperti di vario genere, rappresentanti di categorie, fino ai ministri, si affannano a dare. Mangiate carne, no non la mangiate, mangiatene poca, conditela con le verdure. E la confusione aumenta, anche perché sai che ognuno ha i suoi bei motivi, spesso molto evidenti, per dirti di fare questo o quello.

Credo invece che ognuno debba conoscere quanto più possibile che tipo di studi sono stati fatti, che dati e percentuali ne sono derivati, e qual è il livello di rischio, che come tutti i rischi è probabilistico. Questo vuol dire che nessuno può sapere cosa succederà al singolo, ma il singolo, una volta informato, può decidere di testa sua che livello di rischio correre in base alle proprie scelte personali. Sono scelte che, senza rendercene del tutto conto, facciamo ogni giorno. Anche quando saliamo in auto o in moto per andare al lavoro, stiamo aumentando la nostra esposizione al rischio di morire in un incidente, ma decidiamo che si tratta di un rischio che vogliamo accettare in vista del beneficio o del godimento che ne traiamo. Scelte personali.

Come è nata la notizia

A monte di tutto c’è uno studio dello IARC Working Group, 22 esperti provenienti da 10 diversi paesi, che ha preso in esame circa 800 diverse ricerche epidemiologiche sull’argomento che hanno fornito dati su entrambi i tipi di carne (rossa e trasformata).

Definizioni di carne

Per carne rossa si intende muscolo di manzo, vitello, maiale, agnello, montone, cavallo e capra. Per carne trasformata si intende carne trasformata attraverso salatura, essiccazione, fermentazione, affumicatura e altri processi finalizzati a migliorare il sapore o la conservabilità. Alcune carni trasformate contengono anche altri tipi di carne, frattaglie, sangue, etc. Esempi di carne trasformata sono salsicce, carne in scatola, salse contenenti carne.

Perché l’IARC ha scelto di valutare carne rossa e carne trasformata?

Un comitato internazionale riunitosi nel 2014 ha raccomandato questa valutazione, dal momento che studi epidemiologici indicavano che un piccolo aumento nel rischio di sviluppare diversi cancri poteva essere associato a un elevato consumo di carne rossa o di carne trasformata.

Quali tipi di cancro sono correlati con il mangiare carne rossa?

La prova più forte, sebbene limitata, di un’associazione con il mangiare carne rossa è per il cancro del colon retto. C’è anche un’evidenza di collegamenti con il cancro del pancreas e della prostata.

Quali tipi di cancro sono correlati con il mangiare carne trasformata?

Il gruppo di lavoro dello IARC ha concluso che mangiare carne trasformata causa il cancro del colon retto. Un’associazione con il cancro dello stomaco è stata osservata, me le prove non sono definitive.

Quanti casi di cancro ogni anno possono essere attribuiti al consumo di carne trasformata? E di carne rossa?

Rispetto alle stime più recenti del Global Burden Disease Project, un’organizzazione indipendente di ricerca accademica, circa 34.000 morti per cancro all’anno nel mondo sono attribuibili a diete con elevato contenuto di carne. Il mangiare carne rossa non è ancora stato stabilito come causa di cancro. Tuttavia, se fosse provato che le attribuzioni hanno un effetto causale, il Global Burden Disease Project ha stimato che diete a elevato contenuto di carne rossa potrebbero essere responsabili di 50.000 morti per cancro all’anno nel mondo. Questi numeri contrastano con circa un milione di morti per cancro all’anno dovute al fumo di tabacco , 600.000 all’anno dovute al consumo di alcol, e più di 200.000 all’anno dovute all’inquinamento dell’aria.

Si può quantificare il rischio di mangiare carne rossa e carne trasformata?

Il consumo di carne trasformata è risultato associato a un piccolo aumento nel rischio di cancro negli studi revisionati. In tali studi il rischio in genere aumenta all’aumentare della quantità di carne consumata. Un’analisi dei dati provenienti da 10 studi ha stimato che ogni porzione da 50 grammi di carne trasformata mangiata al giorno aumenta il rischio di cancro del colon retto di circa il 18%. Si tratta comunque di un dato che riguarda il rischio relativo. Per dirla in poche parole, se il rischio di base che hanno tutti di sviluppare il cancro del colon è del 4%, un aumento di circa il 18% di quel 4%, porta il rischio a circa un 5%. Quindi l'aumento di rischio c'è, ma è contenuto. E poi, comunque è un aumento di rischio, ma siccome i tumori sono malattie multifattoriali e complesse, in molti casi potrebbe restare un rischio solo potenziale. 

Il rischio di cancro collegato al consumo di carne rossa è più difficile da valutare perché la prova che la carne rossa provochi il cancro non è altrettanto forte. Comunque, se l’associazione fra la carne rossa e il cancro del colon retto fosse provata essere causale, i dati provenienti dagli stessi studi suggeriscono che il rischio di cancro del colon retto potrebbe aumentare del 17% ogni porzione da 100 grammi di carne rossa mangiata al giorno.

Esiste un limite sicuro di carne da poter mangiare?

Il rischio aumenta con la quantità di carne consumata, ma i dati disponibili non permettono una conclusione sul fatto se esista un livello sicuro di consumo.

C’è un tipo di carne rossa che può essere considerata più sicura?

Pochi studi hanno investigato i rischi di cancro associati a differenti tipi di carne rossa, come manzo o maiale, e a differenti tipi di carne trasformata, come prosciutto o hot dog. Comunque non ci sono sufficienti informazioni per dire se rischi maggiori o minori di cancro sono correlati al mangiare qualche particolare tipo di carne rossa o di carne trasformata.

Possono differenti metodi di conservazione influenzare il rischio (ad esempio salatura, congelamento o irradiazione)?

Differenti metodi di conservazione possono risultare nella formazione di carcinogeni [sostanze in grado di indurre il cancro] , (ad esempio composti nitrosati), ma se e quanto questo contribuisca al rischio di cancro, non è conosciuto.

Diverse modalità di cottura della carne, modificano il rischio?

I metodi di cottura ad alta temperatura generano composti che possono contribuire al rischio di carcinogenesi, ma il loro ruolo non è ancora del tutto compreso.

Qual è il metodo di cottura della carne più sicuro? (ad esempio, saltata, bollita, grigliata, al barbecue?)

Cuocere ad alta temperatura o con il cibo direttamente a contatto con la fiamma o con una superficie calda, come nel barbecue o nella cottura in padella, produce maggiormente certi tipi di prodotti chimici carcinogeni (come gli idrocarburi policiclici aromatici, e le amine aromatiche eterocicliche). Comunque non ci sono sufficienti dati perché il gruppo di lavoro dello IARC potesse giungere a conclusioni se il modo di cucinare la carne può influenzare il rischio di cancro.

Dovremmo mangiare solo pollame o pesce?

I rischi di cancro associati con il consumo di pollame o pesce non sono stati valutati.

La carne trasformata è stata classificata come “gruppo 1 – cancerogeno per gli esseri umani” Che cosa vuol dire?

Questa categoria è utilizzata quando c’è sufficiente evidenza della cancerogenicità per gli esseri umani. In altre parole, ci sono prove convincenti che quell’agente provoca il cancro. Questa valutazione è solitamente basata su studi epidemiologici che mostrano lo sviluppo di cancro negli esseri umani esposti. Nel caso della carne trasformata, questa classificazione è basata su sufficienti prove provenienti da studi epidemiologici che mangiare carne trasformata causa il cancro del colon retto.

La carne trasformata è stata classificata come “gruppo 1- cancerogeno per gli esseri umani”. Il fumo di tabacco e l’asbesto sono anche essi entrambi classificati come cancerogeni per gli esseri umani (gruppo 1). Questo vuol dire che il consumo di carne trasformata è altrettanto cancerogeno quanto il fumo di tabacco e l’asbesto?

No, la carne trasformata è stata classificata nella stessa categoria, come causa di cancro,del fumo di tabacco e dell’asbesto (gruppo 1 IARC cancerogeno per gli esseri umani) ma ciò NON significa che questi prodotti sono ugualmente pericolosi. La classificazione IARC descrive la forza delle prove scientifiche riguardo a un certo prodotto come causa di cancro, piuttosto che valutare il livello di rischio.

La carne rossa è stata classificata come “gruppo 2° - probabilmente cancerogena per gli esseri umani”. Che cosa vuol dire esattamente?

Nel caso della carne rossa, la classificazione è basata su prove limitate provenienti da studi epidemiologici che mostrano associazioni positive tra il mangiare carne rossa e lo sviluppo di cancro del colon retto. “Prove limitate” vuol dire che c’è un’associazione positiva che è stata osservata tra l’esposizione al prodotto e il cancro, ma che altre spiegazioni per quella osservazione (tecnicamente chiamate caso, bias o confondente) non possono essere escluse.

 
di Danilo di Diodoro (pubblicato il 15/10/2015 alle 10:20:23, in Post)

Giovedì 15 ottobre 2015.

C’è uno strano e misconosciuto fenomeno in Medicina, che ha grande impatto su qualità ed esiti delle cure. È un’irrealistica aspettativa dei possibili benefici derivanti da indagini diagnostiche e trattamenti. Al contrario, vige un atteggiamento pessimistico rispetto alle conseguenze dello scegliere di non effettuarli. È un atteggiamento cognitivo che riguarda i clinici e di conseguenza anche i pazienti, i cittadini. In altre parole, si temono molto più i possibili esiti sfavorevoli conseguenti al non aver fatto un certo test o un certo trattamento, piuttosto che le possibili conseguenze negative dell’aver fatto quel certo test o trattamento. Il fenomeno è emerso chiaramente da una recente revisione sistematica di tutti gli studi che hanno valutato quantitativamente le aspettative di beneficio o danno di test clinici e trattamenti. Agli esiti di questa revisione sistematica e di altri studi che affrontano questo fenomeno, la rivista JAMA Internal Medicine ha dedicato un editoriale .

A monte del fenomeno c’è un sentimento di fiducia non sempre giustificata sulle qualità protettive e riparatrici della Medicina e dei servizi sanitari. Fiducia sostenuta anche da un certo atteggiamento trionfalistico dei media, che descrivono la Medicina come una straordinaria impresa in costante miglioramento, che ha come esclusivo obiettivo la salute delle persone, che tende verso una mirabolante progressiva tecnologizzazione, con farmaci sempre nuovi e migliori a disposizione. A questa ottimistica visione mediatica fa da contrappunto il susseguirsi degli scandali, dei casi di malasanità, percepiti però più che altro come episodi singoli, incidenti, imprevedibili scivoloni lungo il cammino luminoso della Medicina.

A ben vedere, le cose stanno diversamente e l’editoriale di JAMA Internal Medicine lo mostra bene. La realtà è che per molti test clinici e trattamenti, farmacologici o interventistici, l’avanzamento è raramente per balzi, e piuttosto invece per piccoli passi, con possibili arretramenti dovuti a questioni di mercato, come accade per nuovi farmaci che talvolta sono un po’ meno efficaci e sicuri di quelli già disponibili. E soprattutto la realtà è che ogni test e ogni trattamento a cui ci si sottopone ha potenziali benefici e potenziali rischi, e la possibilità di trarne un beneficio o un danno è una questione di probabilità, per cui nessuno sa se quel singolo paziente trarrà da quello specifico intervento più beneficio o più danno.

L’editoriale cita alcuni esempi che evidenziano il bias cognitivo che spinge i clinici a fare piuttosto che a non fare. I clinici temono maggiormente gli eventuali danni per il paziente derivanti dal non aver fatto un test o un trattamento, rispetto agli eventuali danni derivanti al paziente proprio per aver fatto quel test o quel trattamento. E’ come se a fronte del danno derivante da una decisione di intervenire, con un esame diagnostico, con un farmaco, con un intervento invasivo, ci si sentisse comunque giustificati anche a fronte di esiti negativi, al contrario di quanto accade per il danno derivante dal non aver fatto. I pazienti sono completamente disarmati di fronte a tale fenomeno e spesso anche loro tendono ad accettare meglio eventuali esiti negativi derivanti da un intervento piuttosto che da un non intervento.

L’editoriale indica anche che in quei casi in cui il medico coinvolge il paziente nella decisione clinica e condivide con lui i possibili rischi e benefici del fare piuttosto che del non fare, allora si vede che spesso i pazienti optano per il non fare. Viene riportato il caso degli interventi percutanei su pazienti con malattia coronarica stabile. Gli autori dello studio hanno registrato le discussioni attraverso le quali i clinici sono giunti alle loro decisioni e le hanno analizzate. Nella stragrande maggioranza dei casi i clinici arrivavano molto rapidamente alla decisione di intervenire, senza fare un’accurata disamina del bilanciamento tra rischi e benefici, senza prendersi la briga di discutere con il paziente le possibili alternative, le sue preferenze. Quando questa discussione c’era, i pazienti, adeguatamente informati, potevano fare una loro valutazione, e in molti casi, quando c’era una situazione di sostanziale bilanciamento, dimostravano di preferire un atteggiamento attendista e non interventista.

Dunque sarebbe necessario che i clinici prendessero coscienza di questo bias cognitivo che li spinge a preferire il fare al non fare. Inoltre i clinici dovrebbero sempre avere a disposizione le informazioni corrette sul bilanciamento di rischi e benefici di ogni intervento diagnostico e terapeutico, così da poterle condividere con il paziente e giungere alla decisione insieme a lui. In tal modo, di sicuro si ridurrebbe il numero delle azioni mediche inutili e quindi potenzialmente dannose, oltre che costose. Dicono Grace Lin e Rita Redberg, autrici dell’editoriale: “Più di un terzo dell’assistenza medica è uno spreco e la maggior parte dell’assistenza non necessaria proviene dall’esagerato utilizzo di servizi che non migliorano gli esiti clinici.”

 
di Danilo di Diodoro (pubblicato il 22/09/2015 alle 07:47:46, in Post)

Martedì 22 settembre 2015

E adesso si va indietro a fare le pulci agli studi clinici la cui interpretazione dei dati da parte degli autori potrebbe essere stata non completa o non del tutto corretta, per errori o manipolazioni. C’è un’iniziativa in tal senso chiamata RIAT (Restoring Invisible and Abandoned Trials). Sotto la spietata lente del RIAT è finito lo studio 329 sponsorizzato da una multinazionale del farmaco, che aveva confrontato efficacia e sicurezza di paroxetina e imipramina contro placebo su 275 adolescenti affetti da disturbo depressivo unipolare. Lo studio era stato pubblicato nel 2001 sul Journal of the American Academy of Child and Adolescent Psychiatry con Martin Keller come primo autore (sebbene a scriverlo fossero stati autori fantasma, i cosiddetti ghostwriter), e le sue conclusioni erano state a favore di efficacia e sicurezza della paroxetina in questi pazienti, anche se c’erano alcune discrepanze nei dati. L’articolo ha rappresentato comunque in questi anni un importante punto di riferimento nella letteratura scientifica che supportava l’utilizzo degli antidepressivi negli adolescenti. Ma alla luce del riesame fatto dal RIAT, salta fuori una realtà molto, molto diversa.

“Il nostro riesame RIAT dello studio 329 ha mostrato che né la paroxetina né le alte dosi di imipramina erano efficaci nel trattamento della depressione maggiore negli adolescenti, e che c’era un aumento clinicamente significativo di danni con entrambi i farmaci” dicono Joanna Le Noury e i suoi collaboratori, autori del riesame, pubblicato sul BMJ . I risultati di questo riesame, che ha seguito una complessa metodologia, sono quindi esattamente l’opposto di quelli raggiunti dallo studio pubblicato nel 2001, quando non c’era stata una disamina indipendente dei dati grezzi della ricerca, ma solo quella “ufficiale”. Dati oggi diventati disponibili grazie alle pressioni sempre maggiori da parte della comunità scientifica nei confronti soprattutto dell’industria farmaceutica, e che permettono questo genere di revisioni.

Nello specifico, spiegano gli autori dell’articolo pubblicato sul BMJ, le differenze saltano fuori perché la revisione attuale è stata effettuata tenendo fede al protocollo originale dello studio, mentre l’articolo pubblicato nel 2001 aveva utilizzato variabili che non facevano parte del protocollo originale né dei successivi emendamenti, una soluzione sicuramente scorretta dal punto di vista metodologico. Anomalie sono saltate fuori anche per quanto riguarda gli effetti collaterali, ampiamente sottoriportati nel 2001 e riemersi ora con l’analisi indipendente. Dicono Joanna Le Noury e i suoi collaboratori: “La SKB [l’industria farmaceutica sponsor dello studio] ha riportato 338 eventi avversi con la paroxetina e Keller e i suoi colleghi ne hanno segnalati 265, mentre noi ne abbiamo identificati 481 dalla nostra analisi del documento di report dello studio clinico, e ne abbiamo trovati altri 23, che erano andati perduti, nei 93 moduli di report dei casi che abbiamo revisionato.”

Com’è facile capire, la vicenda è molto inquietante. Un articolo scientifico che ha influenzato le scelte cliniche per quasi 15 anni, riesaminato con una metodologia rigorosa da parte di un gruppo indipendente, porta a conclusioni completamente opposte a quelle tratte dagli autori originari. Sebbene Joanna Le Noury e i suoi collaboratori dicano che il riesame non vuole essere una critica all’articolo originale, lo è nei fatti e nello spirito. Anzi, al di fuori delle cautele verbali utilizzate di norma in questi casi, si tratta di una vera e propria preoccupata denuncia. Chissà quanti sono i trial diffusi per anni attraverso la letteratura scientifica internazionale, e che hanno influenzato la pratica clinica, che se fossero sottoposti a questo tipo di riesame cadrebbero come castelli di carte. Ancora una volta si dimostra che laddove si insinua l’interesse commerciale, la distorsione del dato scientifico è in agguato. E purtroppo non c’è difesa. Un riesame dei dati come quello effettuato da Joanna Le Noury e i suoi collaboratori è molto complesso, richiede tempo e competenze non comuni, e non può essere fatto attraverso i normali procedimenti della peer-review. La letteratura scientifica, fonte indispensabile sull’avanzamento delle conoscenze è inquinata da manipolazioni che rischiano di mettere a repentaglio anche la salute dei pazienti. Bisognerà trovare strategie sempre più stringenti per una vigilanza critica.

 
Pagine: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
 
 
 
 
Danilo di Diodoro
Chi è Danilo di Diodoro Chi è Danilo di Diodoro
Medicina delle Meraviglie Medicina delle Meraviglie
(lettura online su Blogspot)
Medicina delle Meraviglie Medicina delle Meraviglie
(scarica il formato epub)
Medicina delle Meraviglie Medicina delle Meraviglie
(scarica il formato mobi)
Segui su Twitter Danilo di Diodoro
 
Titolo
Inserisci una parola chiave
 

 
Titolo
Podcast (24)
Post (170)

Raccolti per mese:


Ultimi commenti:

Consiglio vivamente a tal prop...
21/07/2017 alle 17:38:47
di Rosario Carulli

La visita dal proprio medico è...
21/07/2017 alle 15:34:59
di Loredana Nazziconi. Mmg

Sono la componente laica (tuto...
08/05/2017 alle 10:48:52
di Marisa Clementoni Tretti - Mov. Diritti del Malato

Articolo interessante. La part...
05/05/2017 alle 18:59:59
di Enrico Delfini. Mmg

Caro Danilo concordo in tutto ...
05/05/2017 alle 10:30:05
di Piero de Carolis Neurologo AUS Bo

Ho trovato quanto scrivi estre...
05/05/2017 alle 10:10:07
di Leo Orselli cardiologo territoriale AUSL Bologna

Viene sottolineata ancora una ...
29/08/2016 alle 12:30:25
di Leo Orselli Cardiologo Territoriale Ausl Bologna


 
Titolo

È il sito di social bookmarking di Scire. Tienilo d'occhio, ci troverai link ad articoli importanti, man mano che sono pubblicati. Ultimo aggiornamento: 26 giugno 2015

   

Si legge: "doc to doc", da medico a medico. È un luogo di discussione e scambio di opinioni tra medici di tutto il mondo.


 
Titolo

È la raccolta dei principali collegamenti citati nei post. Compaiono qui sotto quelli più recenti; gli altri si visualizzano cliccando qui, o in fondo, su
Storico Storico

21/07/2017
Il Grand Round sugli Annals of Internal Medicine
Should Patients Have Periodic Health Examinations?

05/05/2017
L'editoriale del NEJM
Resisting the Suppression of Science

27/03/2017
L'articolo sui Proceedings of the National Academy of Sciences of the United States of America
Highly efficient Cas9-mediated gene drive for population modification of the malaria vector mosquito Anopheles stephensi

27/03/2017
L'editoriale su JAMA
Ethical and Societal Questions Loom Large as Gene Editing Moves Closer to the Clinic


 
 
 
 
 
Per visualizzare i feed in Internet Explorer è necessario disporre di MSXML3 SP5 o vers. successiva.
 
 
Ci sono 37 persone collegate

 
 
Web Site Store Bologna
Web Design & Development
ICT Business Solutions