Pros and cons of evidence based


scarica l'articolo

 Come è noto, negli ultimi anni si è affermato nella pratica medica il ricorso a metodi considerati evidence based, definiti dal medico canadese David Lawrence Sackett, in un celebre articolo sul British Medical Journal (Sackett, Rosenberg, Gray, Haynes, & Richardson, 1996), “the conscientious, explicit, and judicious use of current best evidence in making decisions about the care of individual patients” (p. 71). Il metodo si prefigge l’obiettivo di superare i limiti dell’esperienza professionale dei singoli medici indirizzando la scelta terapeutica verso interventi basati sui risultati delle ricerche pubblicate sulla letteratura scientifica, favorendo, nell’ordine, quelli emersi da revisioni sistematiche, metanalisi, studi randomizzati, studi correlazionali, fino ai meno attendibili casi descrittivi o le opinioni di esperti. Attualmente le principali società mediche ne riconoscono i presupposti e, quantomeno in linea di principio, l’accettazione della medicina evidence based può considerarsi universale. Sebbene negli anni non siano mancate anche reazioni negative che spaziano, come ci ricorda l’Enciclopedia Britannica (Fitzpatrick, 2013), dai timori riguardo l’erosione della libertà professionale, che si ridurrebbe al seguire un “cookbook”; ai rischi che il metodo sia guidato dall’interesse di gruppi di potere, piuttosto che dal benessere dei pazienti; ai dubbi sulla flessibilità del metodo e sulla diretta trasferibilità dei risultati di ricerche cliniche, basate sulla media di una popolazione, ad uno specifico paziente che non vi è necessariamente assimilabile.

Per non rischiare tuttavia di accogliere o rigettare acriticamente un metodo, che in tal caso resterebbe una mera etichetta, occorre analizzarlo in ogni sua fase, sia a livello teorico che pratico, coglierne i punti di forza (pros) e riconoscerne i limiti (cons), così che diventi uno strumento realmente utile al ricercatore e all’operatore sanitario per decidere con coscienziosità nel proprio lavoro. Ripercorriamo perciò rapidamente il procedimento, iniziando dalle basi, per soffermarsi poi con attenzione critica su alcuni aspetti solitamente poco osservati.

Principi base di metodologia della ricerca

Notoriamente, la ricerca scientifica in biologia e in medicina si scontra con la problematica della varietà della risposta individuale (che può essere scarsa in casi come l’assunzione di un potente veleno, ma diventa ampia nei casi di un intervento terapeutico) e con la difficoltà di isolamento di tutti i fattori potenzialmente intervenienti. Per questa ragione l’osservazione di un singolo caso clinico è scarsamente predittiva dell’estensibilità dei risultati ad altri individui. In altre parole “a tizio è accaduto” – sempre che si tratti di una testimonianza sincera e correttamente riportata – attesta che tale esito è possibile, ma non ci dice niente sulle reali cause che lo hanno permesso né pertanto su come e se altri che ne seguono la pratica otterranno risultati analoghi (poiché questi ultimi potrebbero dipendere da caratteristiche intrinseche al soggetto, o da fattori non identificati e diversi da quello che si tenta di riprodurre). Per questo motivo la ricerca ricorre alla statistica. La statistica si distingue essenzialmente in statistica descrittiva e statistica inferenziale. La prima si limita a descrivere la distribuzione di una specifica caratteristica in una specifica popolazione. La seconda applica la teoria della probabilità e determinate procedure ai dati raccolti per stimare quanto e se l’effetto osservato sia casuale, o ricorrente, tra individui che abbiano le stesse caratteristiche.

Nella pratica quindi si prende un numero sufficiente di soggetti, li si attribuisce in modo randomizzato a due gruppi sperimentali che si desidera confrontare (un farmaco e un placebo, oppure due diversi farmaci) e si sottopongono i risultati ottenuti a test statistici che offrano una probabilità che i risultati siano effettivamente dovuti all’intervento in questione e non al caso. In biologia, e quindi in medicina, è consuetudine accettare una probabilità inferiore allo 0,05, ovvero ad una probabilità su 20, che il risultato non sia casuale. Inoltre, poiché è assunta la tesi del filosofo della scienza Karl Popper che un’ipotesi non può mai essere verificata ma la si può solo provvisoriamente accettare se non è stata falsificata, si tenta di falsificare l’ipotesi nulla che i risultati siano dovuti al caso e, se ciò ha una probabilità inferiore al 5%, si accetta l’ipotesi alternativa che non siano dovuti al caso ma all’intervento in questione. Sussiste tuttavia una probabilità non trascurabile che i risultati siano invece casuali, quindi è essenziale che lo studio sia ripetuto più volte, nella fiducia che se si ottengano più volte risultati analoghi e si riduca sensibilmente la probabilità che siano casuali. Per questo motivo si ricorre a metanalisi, ovvero studi statistici che confrontino i risultati ottenuti da più ricerche sullo stesso ambito di studio, e a revisioni sistematiche, ovvero alla revisione esaustiva della letteratura scientifica su un dato argomento, una sorta di riassunto scientifico. La principale fonte di tali revisioni è la Cochrane Collaboration, associazione internazionale no-profit, nata nel 1993 con lo scopo di diffondere tali review attraverso la Cochrane Library (www.cochrane.it).

Il metodo succintamente riassunto supera nettamente i chiari limiti conoscitivi di “a tizio è accaduto”, costituisce il miglior metodo scientifico attualmente conosciuto ed è pertanto universalmente insegnato agli operatori del settore che ne conoscono dunque i punti di forza. Meno conosciuti ne sono purtroppo i limiti intrinseci, ed ancor più quelli dovuti all’effettiva applicazione del metodo, sui quali merita portare l’attenzione; sia chiaro, non per rigettare tout court il metodo, bensì per evitare che divenendo dogmatico perda di fatto la sua scientificità e con essa il suo valore.

Considerazioni sul metodo

La prima considerazione a mio avviso necessaria è lessicale e legata al termine “evidence”. Poiché si tratta di inferenze basate sulla statistica, i risultati ottenuti sono nel migliore dei casi i più probabili, non “prove”, né tanto meno “evidenti”. Tanto più che, come Popper ci insegna, l’ipotesi oggetto di studio non è verificabile ma unicamente accettata a meno di essere falsificata. Correttamente si dice infatti che una pratica è stata “validata”, non verificata, e tanto meno che “è evidente”. Il termine ha una sicura efficacia persuasiva ma è a rigore privo di valore scientifico e la precisazione non ha mero valore linguistico, giacché presentare come evidente un risultato, sia pure altamente probabile, non è conforme al diritto al consenso informato e condiziona la libera scelta terapeutica del paziente.

Da una prospettiva epistemologica, di grande interesse e pertinenza sarebbe il lavoro di filosofi della scienza come Willard Van Orman Quine e Thomas Kuhn, per quanto ai fini della presente esposizione, data la complessità delle argomentazioni, devo limitarmi a segnalarne le opere. Ben più comprensibile, e mi auguro adeguata ad intravedere la problematica, è semmai una mia riflessione sul sommarsi dei rischi intrinsechi ad ognuna delle fasi della ricerca scientifica. Schematizzando, in una ricerca si può cronologicamente distinguere tra le fasi di: definizione del costrutto oggetto di studio; individuazione dei metodi e degli strumenti per la sua misurazione; ideazione di ipotesi che mettano in relazione una o più variabili; impostazione della ricerca; rilevamento dei dati su un campione; la loro analisi statistica. Ognuna di queste fasi prevede attenzioni e limitazioni ampiamente discusse nei manuali di metodologia della ricerca e possiamo affermare che l’attendibilità dei risultati ottenuti dipende dal grado di correttezza rispettato in ogni fase. Alcuni passaggi risultano tuttavia particolarmente delicati: ad esempio il rispetto della validità esterna (la possibilità di estendere i risultati ottenuti su un campione all’intera popolazione) o quegli aspetti non statistici, dipendenti dal consenso degli esperti del settore, come la definizione del costrutto. Se volessimo stimare matematicamente la probabilità che l’intero percorso ci consenta effettivamente di conoscere la realtà (tralasciando le riflessioni filosofiche sulla sua fattibilità) dovremmo stimare le probabilità che ogni fase sia stata correttamente eseguita, assumendo per comodità che purché l’intero percorso sia effettuato in modo ineccepibile porti ad una probabilità certa (ovvero: 1), e successivamente sommarle tramite la formula per il calcolo della probabilità composta (). Nonostante il nome “somma”, la formula prevede la moltiplicazione di più frazioni (poiché ogni singola probabilità è esprimibile in un valore che va da 0 a 1), ed ecco il punto: il valore risultante diminuisce ad ogni moltiplicatore che non sia pari ad 1 (la certezza assoluta che non ci siano errori). Inoltre l’aritmetica elementare ci ricorda che, poiché qualsiasi numero moltiplicato 0 dà come risultato 0, basterebbe un passaggio effettuato in modo completamente errato affinché l’attendibilità dell’intero metodo risultasse nulla.

Per scongiurare tale eventualità, e quantomeno in teoria, numerosi accorgimenti vengono posti ad evitare tale rischio nelle fasi di impostazione della ricerca, raccolta e analisi dei dati; inoltre la ripetizione degli esperimenti annulla nel tempo gli effetti dovuti ad eventuali errori casuali. Nessuno di questi strumenti potrebbe tuttavia eliminare gli effetti di errori sistematici intrinsechi a quello che Kuhn ha chiamato “paradigma scientifico”, ovvero agli assunti di base di una disciplina. Il ripetersi degli esperimenti confermerebbe i risultati, ma nondimeno essi non sarebbero attendibili, poiché affetti da un errore sistematico, non visto, e pertanto non eliminabile. Eventuali credenze erronee di base si anniderebbero in luoghi non raggiungibili dalle più attente procedure metodologiche che non potrebbero pertanto scongiurarne i rischi. Nuovamente, niente sembra autorizzare il termine “evidence”, per quanto tale monito – è utile ripeterlo – non si propone chiaramente di rigettare l’intera pratica scientifica, ma unicamente di ricordarne i limiti, evitando così di sconfinare in una dimensione fideistica o, quel che è peggio, nel puro marketing. Poiché, checché ne sia stato recentemente detto in Italia da un noto personaggio televisivo, la scienza, quella vera, non solo si basa sui dubbi più che sulle certezze, ma è ampiamente democratica, avendo rigettato ai suoi esordi ogni ipse dixit, sostituiti con la possibilità per chiunque ne parli il linguaggio di verificare direttamente ogni asserzione.

Considerazioni sulla correttezza

Ad ogni modo, purché i risultati ottenuti vengano divulgati con l’onesto riconoscimento degli inevitabili limiti epistemici, i presupposti su cui si basa la pratica evidence based restano i migliori scientificamente disponibili. A condizione che siano correttamente applicati, e qui purtroppo i dati disponibili non sono incoraggianti. Il professore della Standord University, John Ioannidis, tra gli scienziati più citati al mondo, in una recente lettera a David Sackett, considerato tra i padri della Evidence based Medicine, intitolata “Evidence-based medicine has been hijacked” (Ioannidis, 2016) afferma: “As EBM became more influential, it was also hijacked to serve agendas different from what it originally aimed for. Influential randomized trials are largely done by and for the benefit of the industry. Meta-analyses and guidelines have become a factory, mostly also serving vested interests. National and federal research funds are funneled almost exclusively to research with little relevance to health outcomes” e “Under market pressure, clinical medicine has been transformed to finance-based medicine. In many places, medicine and health care are wasting societal resources and becoming a threat to human well-being.” (p. 82). Una descrizione tristemente simile a quella precedente il diffondersi della medicina evidence based, descritta nel 2005 da Richard Horton, allora direttore dalla prestigiosa rivista The Lancet, in una inchiesta promossa dal Parlamento Britannico (Great Britain Parliament House of Commons Health Committee, 2005): “at almost every level of NHS1 care provision the pharmaceutical industry shapes the agenda and the practice of medicine” (p. 243), affermando poi che la relazione esistente tra industria farmaceutica e sistema sanitario è troppo spesso di tipo parassitario. Horton rileva inoltre che “adverse drug reactions were found to be the fourth commonest cause of death in the United States” (p. 243).

Ma come è possibile che la migliore metodologia scientifica ad oggi disponibile abbia prodotto i risultati descritti? Ci sono molteplici motivazioni che spaziano dalla scarsa competenza statistica di alcuni ricercatori e gli errori derivanti; agli interessi di carriera dei ricercatori e alle cattive abitudini delle stesse riviste scientifiche che tendono a non pubblicare i tentativi di replicazione di precedenti studi; a vere e proprie frodi scientifiche e conflitti di interessi; approfondibili tutti leggendo il citatissimo articolo dello stesso Ioannidis (2005b) dal titolo quanto mai esplicativo, “Why Most Published Research Findings Are False o, con maggiore scorrevolezza ma altrettanta precisione, la traduzione italiana, aggiornata e ampliata, di un classico di Darrel Huff (2007), “Mentire con le statistiche”.

L’aspetto probabilmente più problematico è conosciuto con il nome di “crisi della riproducibilità”, dato che – per i motivi già esposti – la ricerca scientifica non può prescindere dalla ripetizione degli esperimenti ed in sua assenza viene a mancare molta, se non tutta la sua credibilità. Troppo spesso tuttavia interi campi di studio si basano su ricerche che non sono mai state replicate. A titolo di esempio, e nuovamente in un lavoro di Ioannidis (2005a), ricerche pionieristiche che dichiaravano l’efficacia di un intervento nei rispettivi campi di studio, pubblicate tra il 1990 e il 2003 su 3 delle principali riviste mediche e successivamente citate almeno 1000 volte, quindi di grande influenza nell’indirizzare la successiva ricerca, sono risultate confermate nei risultati solo nel 44% dei casi; contraddette nel 16%, ridimensionate nel 16% e non riprodotte da studi dotati di disegno sperimentale corretto in un preoccupante 24%. L’agenzia di stampa britannica Reuters ci informa invece in un articolo intitolato “In cancer science, many ‘discoveries’ don’t hold up” (Bagley, 2012) del presidente di un’azienda biomedica che tenta di ripetere 53 studi cardine e scopre di poterne replicare solo l’11%, commentando: “It was shocking, these are the studies the pharmaceutical industry relies on to identify new targets for drug development”; e di altri episodi analoghi.

In un recente sondaggio (Baker, 2016) pubblicato su Nature, tra 1500 scienziati in vari campi di ricerca il 70% (90% in chimica, 80% in biologia) riporta di avere fallito nel tentativo di replicare almeno un esperimento scientifico; mentre il 50% ammette di avere fallito nel tentativo di replicare un suo esperimento scientifico; il 90% ritiene pertanto che sia in corso una crisi di riproducibilità (per il 52% una grave crisi). La crisi di riproducibilità è pertanto un problema chiaramente sentito dalla comunità scientifica, consapevole della sua imprescindibile necessità, ma stranamente dimenticato, se non volutamente occultato, da chi preferisce presentare la scienza medica come foriera di granitiche certezze. Tra le motivazioni che producono questa triste crisi figura talvolta anche la frode, come evidenziato da una metanalisi (Fanelli, 2009) che si è occupata degli studi sul tema riportando di un 14% di ricercatori che dichiara di essere a conoscenza di una frode scientifica perpetuata da un collega e di ben un 2% che ammette di esserne stato autore. Percentuali che presumibilmente, in quanto libere dichiarazioni, sottostimano l’effettiva portata del problema.

Ma perché un ricercatore dovrebbe falsificare dei dati? Tralasciando il pur esistente problema di casi di corruzione una motivazione frequente è legata alla necessità di pubblicare per ottenere avanzamenti di carriera, riassunta nel noto detto “publish or perish”. Ciò contribuisce a spiegare sia il proliferare di studi di scarso rilievo scientifico sia il ricorso a dati alterati, poiché le pubblicazioni che offrono maggiore visibilità sono quelle che presentano risultati positivi e innovativi. Inoltre le riviste – e di conseguenza i ricercatori – hanno scarso interesse a pubblicare ripetizioni di precedenti studi o ricerche che non validano le ipotesi di studio. Aspetto che spiega in parte l’attuale crisi di riproducibilità, ma che genera anche una problematica finanche più insidiosa. Per esemplificarlo ricorro ad un esempio riportato dalla rivista Wired (Sandal, 2013). Supponiamo che un meticoloso ricercatore si prefigga di studiare l’effetto di 40 vari tipi di frutta sul raffreddore, effettuando quindi 40 studi che confrontano chi ha mangiato di volta in volta un tipo di frutta con chi non ne ha mangiata nessuna. Secondo la standard delle ricerche biomediche tale ricercatore asserirà che un frutto protegge del raffreddore solo se la significatività statistica dell’effetto riscontrato passa la soglia del 5%. Supponiamo che dei frutti studiati solo uno protegga realmente dal raffreddore e che lo studio dello scienziato effettivamente lo rilevi. Con la soglia di significatività del 5% dovremmo tuttavia aspettarci di trovare per puro accidente statistico dei risultati (falsi) positivi per un altro paio di frutti. Se fossero pubblicati i risultati di tutti i 40 studi avremmo quindi risultati positivi per 2/3 frutti e negativi per 38/37 (e successive ripetizioni, se effettuate, isolerebbero poi il caso realmente positivo dai falsi positivi), ma il dramma è che spesso i risultati negativi non vengono pubblicati, “non ho trovato niente” non suona interessante da raccontare. Le ipotetiche ricerche svolte in questo esempio avrebbero ognuna l’affidabilità del 95%, escludendo però dalla pubblicazione i dati negativi e pubblicando solo i 3 risultati positivi, di cui 2 lo sono per accidente statistico, si otterrebbe che il 66% dei risultati effettivamente disponibili al pubblico sono sbagliati.

Nel complesso si tratta di problematiche note a chi si occupa di Scienza, quella vera, “con la maiuscola” (sebbene ampiamente misconosciute, se non volutamente occultate, dallo scientismo dilagante), anche se per lo più ridimensionate dall’assunto che la scienza sia capace di autocorreggersi. La supposta autocorrezione della scienza si basa però sulla riproducibilità e se quest’ultima viene a mancare, come evidenziato sopra, ecco che manca anche la prima. Altri aspetti ci sono ricordati sempre da Ioannidis (2012) in “Why Science Is Not Necessarily Self-Correcting”, tra i promotori anche del recente “A manifesto for reproducible science” (Munafò et al., 2017), dove auspica che vengano attuate le pratiche necessarie affinché l’autocorrezione scientifica sia effettiva e non solo un mito. Allo stato attuale tuttavia, è bene ricordarlo traducendo il già citato passo di Ioannidis, “l’Evidence based medicine è stata dirottata a servire obiettivi diversi da quelli cui originariamente puntava”. Questo perché se la ricerca primaria è troppo spesso carente, incompleta o fraudolenta anche la migliore pratica statistica, come quella alla base della EBM, non può supplirvi ed in luogo dei condivisibilissimi intenti che si propone rischia di diventare piuttosto un’etichetta scientificamente limitante o, peggio ancora, manipolabile da interessi forti. Tra gli effetti meno auspicabili del rischio appena menzionato c’è quello che la pratica evidence based diventi una sorta di “cookbook medicine” non solo spersonalizzata (il che è già di per sé preoccupante) ma perfino basata su protocolli e linee guida etichettati come “evidence” ma di fatto asserviti a interessi finanziari (Ioannidis, 2005b, Great Britain Parliament House of Commons Health Committee, 2005). Tanto più che il ricorso ad etichette così poco scientifiche come “evidence” ricordano le pratiche di persuasione impiegate dal marketing e sottintendono che se la pratica proposta è evidentemente giusta, per la dicotomia cui il pensiero umano è naturalmente portato, le alternative sono evidentemente sbagliate.

Pratiche mediche non evidence based

Merita pertanto una riflessione su cosa accade in un panorama dominato dalla necessità di essere evidence based a pratiche che non lo sono, e sul perché non lo siano. Le pratiche mediche non pertinenti alla medicina ufficiale, un tempo denominate “alternative”, sono attualmente chiamate “complementari”, implicando nel termine che siano utilizzabili “in aggiunta” ma che la pratica ufficiale debba comunque essere mantenuta. Un’inferiorità gerarchica che per alcuni è semmai troppo generosa in quanto volentieri bandirebbero ogni pratica non ufficiale poiché la sua efficacia sulla specifica patologia in questione non è mai stata dimostrata. Ciò, nei termini scientifici sopra descritti, è in realtà spesso vero. Ma è a mio avviso indispensabile approfondire anche il perché pratiche che talvolta afferiscono a tradizioni millenarie non siano mai state scientificamente dimostrate.

In alcuni casi scopriamo che tali pratiche non possono essere dimostrate. Naturalmente una pratica medica, tradizionale o ufficiale che sia, può essere effettivamente inefficace, ma è necessario sottolineare che non averne provato l’efficacia è lungi dall’essere sinonimo di averne provato l’inefficacia. Per sostenere sia la seconda affermazione (in caso di risultati negativi) sia la prima (in caso di risultati positivi), sarebbe necessario un congruo numero (per ovviare al rischio di incappare in un accidente statistico o, peggio, in una frode) di ricerche in doppio cieco che randomizzi un numero sufficiente di pazienti tra la terapia sperimentale “non convenzionale” e un trattamento placebo, e analizzi statisticamente i dati raccolti. Queste condizioni tuttavia difficilmente ricorrono perfino nei rari casi in cui una terapia non convenzionale accede alla sperimentazione. Ciò per almeno tre motivi: economici, sperimentali e etici.

La prima motivazione è facilmente comprensibile: un siffatto studio, ed a maggior ragione la ripetizione di siffatti studi, che sarebbe metodologicamente necessaria, richiede ingenti somme di denaro, solitamente non disponibili per chi volesse intraprendere tali sperimentazioni. Esistono, sì, in letteratura studi che testano vari trattamenti non convenzionali, asserendone talvolta l’efficacia, talaltra l’inefficacia, ma il loro disegno di studio è perlopiù inadeguato a sostenere sia l’una che l’altra conclusione, ed è spesso facilmente comprensibile che i dipartimenti universitari, le piccole aziende del settore o i ricercatori indipendenti che si occupano di tali ricerche non abbiano accesso ai finanziamenti che sarebbero necessari per allestire una sperimentazione realmente discriminante.

La seconda motivazione è più tecnica e concerne l’effettiva possibilità di randomizzare una condizione sperimentale. Ad esempio, se volessimo testare l’ipotesi che la recitazione quotidiana di preghiere è, o meno, efficace nel miglioramento da una qualche condizione patologica, non potremmo suddividere casualmente un gruppo di soggetti affetti da tale patologia in chi recita la preghiera e chi no, poiché la recitazione è strettamente dipendente dalla presenza o meno di fede e chiaramente, a chi non ne ha non avrebbe senso richiedere di recitare una preghiera giacché la tesi oggetto di studio non ritiene che siano le parole pronunciate ma il loro valore religioso ad avere effetto, e a chi invece ne ha non sarebbe possibile togliere l’attitudine religiosa. In tali casi è pertanto unicamente possibile ricorrere a quelli che vengono chiamati studi correlazionali, o a degli studi epidemiologici; ed in effetti tali studi esistono, tuttavia per quanto utilissimi hanno un valore conoscitivo che non permette una forte attribuzione causale, difatti si trovano in letteratura, studi, metanalisi e revisioni a sostegno sia della tesi che la preghiera abbia effetti positivi, sia che non ne abbia alcuno (Seeman, Dubin, & Seeman, 2003; George, Ellison, & Larson, 2002; Masters & Spielmans, 2007; Powell, Shahabi, & Thoresen, 2003).

Ma il vero e più profondo ostacolo ad una reale sperimentazione di terapie non convenzionali è di natura etica. O meglio, concernente le commissioni etiche. Come presumibilmente tutti sapranno una qualsiasi ricerca deve essere autorizzata da una commissione etica, con l’intento di proteggere in prima istanza gli interessi dei soggetti partecipanti. Riferimento abituale di tali commissioni è la Dichiarazione di Helsinki, redatta dalla World Medical Association (2013), che prevede all’articolo 33 che “a new intervention must be tested against those of the best proven intervention” (p. 2193). Condizione ovviabile esclusivamente con estrema cautela e unicamente nei casi in cui non sia disponibile un trattamento efficace, il paziente non riceva alcun danno serio o irreversibile dal mancato trattamento, o sia ritenuto indispensabile il confronto col placebo per testare la sicurezza del trattamento stesso. Pertanto, fatti salvi piccoli malanni come il raffreddore, un qualsivoglia intervento può essere confrontato con un placebo unicamente se per la patologia in questione si ritenga non essere disponibile nessun intervento ufficiale; diversamente il confronto non solo dovrà essere effettuato con un intervento ufficiale disponibile ma non potrà prescinderne in nessuna delle condizioni sperimentali. Ovvero, mentre i nuovi farmaci vengono testati nei confronti di farmaci già esistenti (e non col placebo) ed in virtù della fiducia riposta nel nuovo farmaco si accettano i rischi per i pazienti che testandolo non ricevono un farmaco già considerato efficace per il trattamento, la sfiducia riposta verso metodi non convenzionali non consente di norma l’autorizzazione di un trattamento alternativo che venga testato né nei confronti del placebo, né nei confronti di un intervento convenzionale, ma permette unicamente la condizione sperimentale che affianca l’intervento in uno dei due gruppi, divenendo per l’appunto complementare a quello convenzionale. La motivazione etica alla base di tale limitazione è certamente comprensibile ma, da una prospettiva puramente epistemologica, tale limitazione non tiene conto dell’interazione tra gli interventi, ad esempio di quanto la somministrazione di una terapia fitoterapica sia condizionata da una concomitante chemioterapia. Si chiama interazione tra farmaci, è ampiamente riconosciuta quando si chiede al paziente di non assumere specifici alimenti o sostanze insieme alla terapia somministrata poiché né ridurrebbe o invaliderebbe l’efficacia e pertanto non si capisce come tale interazione possa essere dimenticata nella valutazione di interventi che necessariamente la presentano, sia pure per validissime motivazioni, ma non di meno con conseguenze alteranti la ricerca.

In effetti, a mio avviso, la vera problematica nel confronto tra medicina ufficiale e medicine tradizionali o di altra origine consiste nell’adozione di pesi e misure diversi. È noto che i farmaci convenzionali comportano numerosi e talvolta gravi effetti collaterali (come sopra riportato da Horton, la quarta causa di morte negli Stati Uniti è iatrogena), eppure è spesso sufficiente la testimonianza clinica (non sperimentale e pertanto incapace di accertarne l’effettiva causa) di decessi successivi all’assunzione di una sostanza naturale tradizionalmente impiegata a fini terapeutici affinché enti come la Food and Drug Administration americana (riferimento per gli analoghi enti europei o di altre regioni) ne metta al bando la commercializzazione. Pressoché misconosciuta è invece, perfino tra gli addetti ai lavori, l’effettiva mancanza di dimostrazione di efficacia (secondo i crismi sopra spiegati, e richiesti a pratiche non convenzionali quando si asserisce che “non è stata dimostrata l’efficacia”) di intere branche della medicina ufficiale come ad esempio la chirurgia. Molto raramente infatti una pratica chirurgica è stata confrontata col placebo per l’ovvia motivazione che una chirurgia placebo (sham surgery) comporta per il paziente l’inevitabile rischio legato all’anestesia, che può talora essere letale, e pertanto difficilmente un confronto viene autorizzato da una qualche commissione etica. Ciò è tuttavia accaduto in casi straordinari in cui i dubbi sul razionale soggiacente erano divenuti così forti da condurre all’accettazione del rischio. Il primo studio di cui ho notizia riguarda la pratica della legatura bilaterale dell’arteria in casi di angina pectoris (Cobb, Thomas, Dillard, Merendino, & Bruce, 1959) ed ha mostrato che la pratica fino ad allora consueta non era efficace. Ciò nonostante – e per quanto comprensibilmente – molto raramente la pratica chirurgica è stata sottoposta ad una sperimentazione metodologicamente efficace; nelle parole del membro del dipartimento di bioetica statunitense Franklin Miller (2004), “innovative surgical procedures typically are introduced into clinical practice without rigorous evaluation of their efficacy” (p. 157). Come si vede, la pressoché universale accettazione di tali pratiche non si basa su criteri di evidenza che esse, al pari di pratiche tradizionali cui viene rivolta tale accusa, non hanno né possono avere.

Conclusioni

Concludendo, ricapitolando e, spero, chiarendo una posizione che non vorrei venisse fraintesa, non intendo affermare che la medicina ufficiale sia da rigettare, né tanto meno che le medicine tradizionali siano efficaci. Spero semmai di avere dimostrato che, scientificamente parlando, la medicina ufficiale non è necessariamente valida e che le medicine non convenzionali non sono necessariamente inefficaci poiché non è finora stato sperimentalmente dimostrato che funzionino, quantomeno perché tale dimostrazione manca anche ad un intero settore della medicina ufficiale e sarebbe necessario usare lo stesso metro di valutazione. Altrimenti la scienza non sarebbe più tale, diventerebbe scientismo e si arroccherebbe dietro ad un principio di autorità e a degli ipse dixit, di certa efficacia persuasiva, ma nient’affatto dissimili da quelli religiosi che ha fortunatamente contribuito a demolire.

Una qualsivoglia affermazione non è vera perché una qualche autorità, scientifica o politica che sia, lo afferma, lo è bensì solo ed unicamente se così suggerisce la ripetizione di esperimenti che chiunque sia in grado di comprenderne il linguaggio può personalmente verificare. Di monito dovrebbe essere proprio l’avere visto quanto spesso, e per voce di alcuni tra i massimi rappresentanti della comunità scientifica, la ricerca non è svolta correttamente. Tra la più ingenua credulità e la più cieca diffidenza si colloca lo sviluppo di un autonomo spirito critico, quantomai auspicabile nella professione sanitaria.

Riferimenti bibliografici

Bagley, S. (2012). In cancer science, many “discoveries” don’t hold up. In Reuters. Retrieved from: https://www.reuters.com/article/us-science-cancer-idUSBRE82R12P20120328

Baker, M. (2016). 1,500 scientists lift the lid on reproducibility. Nature, 533(7604), 452-454.

Cobb, L. A., Thomas, G. I., Dillard, D. H., Merendino, K. A., & Bruce, R. A. (1959). An Evaluation of Internal-Mammary-Artery Ligation by a Double-Blind Technic. New England Journal of Medicine, 260(22), 1115–1118.

Fanelli, D. (2009). How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data. Plos One, 4(5): e5738, 1-11.

Fitzpatrick, R. (2013). evidence-based medicine. In Encyclopedia Britannica. Retrieved from http://www.britannica.com/EBchecked/topic/1558518/evidence-based-medicine

George, L. K., Ellison, C. G., & Larson, D. B. (2002). Explaining the Relationships Between Religious Involvement and Health. Psychological Inquiry, 13(3), 190–200.

Great Britain Parliament House of Commons Health Committee. (2005). The influence of the pharmaceutical industry: Formal minutes, oral and written evidence. London: The Stationery Office Limited.

http://www.cochrane.it/it/la-cochrane-library

Huff, D. (2007). Mentire con le statistiche. Tr. it. Pescara: M&A editori.

Ioannidis, J. P. A (2005a). Contradicted and Initially Stronger Effects in Highly Cited Clinical Research. JAMA, 294(2), 218-28.

Ioannidis, J. P. A. (2005b). Why Most Published Research Findings Are False. Plos Medicine, 2(8):e124, 696-701

Ioannidis, J. P. A (2012). Why Science Is Not Necessarily Self-Correcting. Perspectives on Psychological Science, 7(6), 645-654.

Ioannidis, J. P. A. (2016). Evidence-based medicine has been hijacked: a report to David Sackett. Journal of Clinical Epidemiology , Volume 73 , 82 – 86.

Masters, K. S., & Spielmans, G. I. (2007). Prayer and Health: Review, Meta-Analysis, and Research Agenda. Journal of Behavioral Medicine, 30(4), 329–338.

Miller, F. G. (2004). Sham surgery: An ethical analysis. Science and Engineering Ethics, 10(1), 157–166.

Munafò, M. R., Nosek, B. A., Bishop, D. V. M., Button, K. S., Chambers, C. D., Percie du Sert, N., Simonsohn, U., Wagenmakers, E-J., Ware, J. J., Ioannidis, J. P. A. (2017). A manifesto for reproducible science. Nature Human Behaviour, 1(1), 0021.

Powell, L. H., Shahabi, L., & Thoresen, C. E. (2003). Religion and spirituality: Linkages to physical health. American Psychologist, 58(1), 36–52.

Sackett, D. L., Rosenberg, W. M., Gray, J. A., Haynes, R. B., & Richardson, W. S. (1996). Evidence based medicine: what it is and what it isn’t. BMJ : British Medical Journal, 312(7023), 71–72.

Sandal, M. (2013). Perché è difficile ripetere gli studi scientifici. In Wired. Retrieved from: https://www.wired.it/scienza/lab/2013/12/13/problema-ripetitibilita-studi-scientifici/

Seeman, T. E., Dubin, L. F., & Seeman, M. (2003). Religiosity/spirituality and health: A critical review of the evidence for biological pathways. American Psychologist, 58(1), 53–63.

World Medical Association. (2013). World medical association declaration of Helsinki: Ethical principles for medical research involving human subjects. JAMA, 310(20), 2191–2194.

1National Health Service – il sistema sanitario britannico


Per scaricare l’intero articolo clicca qui