venerdì 20 luglio 2007

ESPERIMENTI SUGLI ANIMALI: UNA TECNOLOGIA FALLITA

Riportiamo la traduzione dell'articolo di Robert Sharpe intitolato "Animal Experiments - A Failed Technology" estratto dal libro "Animal Experimentation: the consensus changes" Traduzione: Dott.ssa Manuela Giasi. Questo saggio venne scritto mentre l'autore era consigliere scientifico per la British Union for The Abolition of Vivisection (Unione Britannica Per L'abolizione della Vivisezione). "L'idea per come io l'ho intesa, è che le verità fondamentali vengano rivelate negli esperimenti di laboratorio sugli animali inferiori e, in seguito, applicate ai problemi del malato. Avendo io stesso lavorato come fisiologo, mi sento piuttosto competente per giudicare tale affermazione. E' una pura assurdità." Sir George Pickering, Professor of Medicine, Università di Oxford. In: Pickering, G. (1964). Phisician and scientist, Br. Med. J., 2, 1615-19.
Le origini della ricerca sugli animali Nel 1882, durante un discorso alla Birmingham Philosophical Society, il grande chirurgo del XIX secolo, Lawson Tait, sostenne che gli esperimenti sugli animali avrebbero dovuto essere sospesi, "così da indirizzare le energie e la perizia dei ricercatori scientifici verso canali migliori e più sicuri". Senza dubbio Tait portò un'enorme contributo al progresso della chirurgia addominale, ma affermò senza esitazione di essere stato condotto più volte fuori strada dai risultati pubblicati di esperimenti effettuati sugli animali, tanto che alla fine dovette scartarli del tutto (Tait 1882 a). Tait riteneva che la vivisezione fosse un errore non solo perché produceva risultati fuorvianti, ma anche perché esiste il costante pericolo che l'attenzione venga deviata da fonti di informazione più attendibili, quali gli studi clinici. Non a caso, in Science, History and Medicine , Cawadias (1953) sostiene che ogni qualvolta la medicina si è allontanata dall'osservazione clinica, il risultato è stato il caos, la paralisi, poiché la pretesa che il corpo degli uomini e degli animali lavori in modo simile ha sottratto attenzione allo studio degli umani, cosa che in ultima analisi ha ostacolato per centinaia di anni il progresso della medicina. Il medico greco destinato a dominare la medicina per secoli, Galeno, nacque nel 131 dopo Cristo. E' stato definito il fondatore della fisiologia sperimentale e basò la sua anatomia quasi interamente sullo studio dei primati e dei maiali. Senza alcuna esitazione Galeno trasferì le proprie scoperte sugli esseri umani, perpetuando in questo modo molti errori (Guthrie 1945). Sfortunatamente, lo stile dogmatico di Galeno, insieme con la riluttanza della Chiesa a permettere la dissezione dei cadaveri umani, significarono una non-correzione di tali errori, letteralmente, per centinaia d'anni (Fraser Harris 1936). Gli errori di Galeno entrarono nell'insegnamento corrente e divennero autorevoli informazioni accademiche almeno fino al XVI secolo! Solo con la pubblicazione de la Struttura del Corpo Umano di Vesalio, nel 1543, basata sulla reale dissezione umana, il lungo periodo dell'oscurità galenica cominciò a schiarirsi. Galeno venne biasimato non solo per i suoi errati risultati ma per aver usato il metodo sbagliato (Tomkin 1973). Tuttavia, durante il XIX secolo, grazie soprattutto ad un ristretto gruppo d'uomini, la vivisezione venne trasformata da metodo occasionale e spesso criticato in quella moda scientifica che oggi conosciamo. Nel 1865 il famoso fisiologo francese Claude Bernard pubblicò l'introduzione allo Studio del!a Medicina Sperimentale, un'opera intesa primariamente a dare ai medici regole e principi che guidassero i loro studi di medicina sperimentale. Bernard considerava il laboratorio come "il vero santuario della scienza medica", e lo riteneva molto più importante dell'indagine clinica sui pazienti. Bernard rese popolare la produzione artificiale di malattie con mezzi chimici e fisici, aprendo in tal modo la strada alla fiducia odierna nei "modelli animali" nel campo della ricerca medica. Inoltre, questa influente figura creò l'impressione che gli esperimenti sugli animali fossero direttamente applicabili agli uomini (Bernard 1865): Gli esperimenti sugli animali con sostanze velenose o in circostanze dannose sono molto utili ed interamente esaurienti per la tossicità e l'igiene dell'uomo. Le ricerche svolte su medicinali o sostanze tossiche sono anch'esse pienamente applicabili all'uomo dal punto di vista terapeutico... L'introduzione di Bernard doveva favorire lo statuto alla medicina del XX secolo. Ma egli non fu il solo a stabilire il metodo della vivisezione. Un'altra figura chiave fu quella di Louis Pasteur, i cui tentativi apparentemente riusciti di sviluppare un vaccino contro la rabbia avevano reso ancor più affascinante il ruolo della ricerca di laboratorio e gli esperimenti sugli animali. Il vaccino di Pasteur venne ottenuto dal tessuto appositamente infettato di animali viventi, ma ora noi sappiamo che tale vaccino semplicemente non funziona se iniettato dopo il morso di un animale rabbioso (Hattwick e Gregg 1985). L'esperienza clinica ha dimostrato che pochi fra coloro che sono stati morsi da un animale rabbioso sviluppano davvero la malattia (DHSS 1977), e quindi coloro che miracolosamente "guarirono" dopo una serie di inoculazioni avrebbero potuto non essere infettati. Ciònonostante, l'apparente successo di Pasteur significò che i suoi metodi dovevano dimostrarsi estremamente influenti, con animali vivi e i loro tessuti successivamente usati per produrre vaccini e sieri contro un'ampia varietà di condizioni. Ciò si è dimostrato un approccio pericoloso poiché i contaminanti provenienti da tessuti animali spesso hanno prodotto esiti fatali negli umani (Hayflick 1970). Inoltre vi sono i virus oncogenici come il SV40, che contamina i tessuti dei primati, e diventa carcinogenico solo quando oltrepassa la barriera specifica (Hayflick 1970), e perciò l'uso di cellule umane per la preparazione di vaccini virali umani è potenzialmente l'approccio più sicuro. L'attuale fiducia riposta nel modello animale della malattia umana fu resa ancor più popolare dal medico tedesco Robert Koch, il rivale di Pasteur nella strutturazione della teoria dei germi. Koch aveva stabilito una serie di regole per identificare le prove che un germe particolare causasse la malattia investigata, ed uno di questi "postulati" sosteneva che, se inoculato in animali di laboratorio, il microbo dovesse riprodurre la medesima condizione (Walker 1954, Lancet 1909). L'idea fu subito screditata da Koch stesso durante uno studio sul colera, quando si rivelò impossibile riprodurre la malattia negli animali. Alla fine Koch fu obbligato a basarsi sulle osservazioni cliniche dei pazienti e sull'analisi microscopica di campioni provenienti da casi reali di colera umano. Come risultato, Koch riuscì ad isolare il microbo ed a scoprirne il modo di trasmissione, in modo da poter effettuare un'azione preventiva (Koch 1884). Le malattie umane possono prendere una forma del tutto diversa negli animali e quindi, come concluse il Lancet, "Non possiamo basarci sui postulati di Koch come test decisivi di organismi causali" (Lancet 1909). Occasionalmente, però, i test animali di Koch sembravano funzionare. Inoculati con il bacillo della tubercolosi (TB) isolato da pazienti moribondi, anche molte specie - topi, cavie, scimmie ma non rane o tartarughe - morirono (Riedman 1974). Sfortunatamente la TB prende una forma diversa negli animali (Lancet 1946) ed i tentativi sull'uomo con la cura tanto applaudita di Koch la tubercolina - si conclusero con un disastro (Dowling 1977, Lehrer 1979, Westacott 1949). Ciònondimeno, il dado era tratto e nel XX secolo gli animali sarebbero stati ampiamente usati come tubi da esperimento viventi per vagliare nuovi farmaci antibatterici. Modelli animali di malattie Nonostante tutti gli errori di Galeno, e la comprensione del fatto che i topi non sono "uomini in miniatura", la crescente influenza di scienziati da laboratorio come Bernard, Koch, Pasteur trasformò gli esperimenti sugli animali in pratica quotidiana: la ricerca medica venne a basarsi su modelli animali di malattie umane artificialmente indotte. E poiché lo studio diretto dei pazienti umani richiede molta più perizia e pazienza, al fine di evitare rischi ai volontari, forse non è sorprendente che i ricercatori abbiano preferito la maggior convenienza offerta da una "specie disponibile". Ma con gli animali ora usati, non solo per verificare il valore e la sicurezza dei farmaci, bensì anche per comprendere le malattie dell'uomo, per sviluppare tecniche chirurgiche e per acquisire competenze fisiologiche, quali sono le implicazioni per i pazienti? Vista la complessa e spesso sottile natura delle malattie umane, non sorprenderà che, per la grande maggioranza delle malattie, i modelli animali vengono considerati molto poveri o inesistenti (Dollery 1981). Prendiamo come esempio l'aterosclerosi. Questa è una condizione che costituisce uno dei maggiori fattori di morte nel mondo occidentale, insieme con i colpi apoplettici e gli infarti; perciò è necessario svolgere accurate ricerche se si vuole conoscere l'eziologia. I modelli animali dell'aterosclerosi includono gli uccelli, i cani, i ratti, i maiali, i conigli e le scimmie, ma in ciascun caso sono state evidenziate differenze specifiche. La specie più largamente usata è il coniglio, e se ad esso viene somministrata una dieta innaturale, ad alti livelli di colesterolo, le sue arterie si bloccano rapidamente. Le lesioni che si riscontrano sono assai diverse da quelle trovate negli umani, sia per contenuto sia per distribuzione (Gross 1985). Mentre è raro, per quanto riguarda le lesioni nei conigli, che esse sviluppino fibrosi, emorragie, ulcerazioni e/o trombosi, tutte queste sono invece caratteristiche delle lesioni nei pazienti umani (Gross 1985). Nei modelli animali per il colpo apoplettico, si è arrivati a stabilire che nessun animale da laboratorio possiede una dotazione cerebrovascolare interamente paragonabile a quella umana e, soprattutto, che la maggioranza, se non la totalità, possiede una riserva circolatoria cerebrale considerevolmente maggiore, tutti fattori che rendono gli animali molto meno soggetti a colpi apoplettici (Whisnant 1958). Gli animali sono stati usati nella ricerca dentaria, per investigare l'eziologia delle malattie periodontali, ma le differenze tra roditori e umani potrebbero confondere le conclusioni cliniche ed epidemiologiche. Tanto per cominciare, esiste una notevole variazione nelle malattie periodontali in diverse razze di topi, ottenuti per accoppiamento fra consanguinei (Baer e Lieberman 1959); inoltre, l'estrapolazione dal periodontum dei roditori a quello degli umani potrebbe non avere alcun valore, poiché sia lo sviluppo, sia il potenziale per la differenziazione cementoblastica nei roditori sono diversi da quelli riscontrati negli umani. ono state spese enormi risorse nella ricerca sul cancro basata sugli animali. e tuttavia le forme di cancro artificialmente indotte negli animali spesso si sono dimostrate molto differenti dai tumori spontanei che insorgono nei pazienti. Infatti il Lancet (1972) asserì che, dal momento che nessun tumore animale è strettamente legato al cancro negli esseri umani, un agente attivo in laboratorio può ben rivelarsi inutile clinicamente. Questo fu senz'altro il caso del programma di screening venticinquennale del National Cancer Institute statunitense, nel corso del quale 40.000 specie di piante vennero sperimentate per la loro attività antitumorale. Come risultato dal programma, parecchie sostanze si rivelarono sufficientemente sicure ed efficaci, sulla base di test su animali, per essere prese in considerazione al fine di esperimenti clinici. Sfortunatamente tutte queste sostanze furono sia inefficaci nel trattamento del cancro umano, sia troppo tossiche per un uso generale (Farnsworth e Pezzuto 1984). Così, in 25 anni di programma estensivo, non si è ancora ottenuto un solo agente antitumorale abbastanza sicuro per i pazienti, nonostante i risultati promettenti negli esperimenti sugli animali. In realtà un ex ricercatore sul cancro ha sostenuto che le indicazioni per praticamente tutti gli agenti chemioterapeutici validi nel trattamento del cancro umano, sono state ottenute in un contesto clinico piuttosto che grazie agli studi sugli animali (Bross 1987). Come molti altri centri, il National Cancer Institute ora utilizza una batteria di cellule cancerose umane come mezzo molto più pertinente per esaminare nuovi farmaci (Scrip 1987). I test sul cancro animale si sono anche dimostrati un fattore di confusione nello sviluppo dell'immunoterapia (Williams 1982). Sebbene le tecniche funzionassero per i tumori sperimentali negli animali da laboratorio, e perciò fossero fonti di grandi speranze, la loro applicazione clinica si è dimostrata deludente. Ancora una volta questo è stato attribuito alla differenza tra le specie: i tumori sperimentali, a differenza della maggioranza dei cancri umani, crescono rapidamente e sono biologicamente differenti dai tumori spontanei. Inoltre, i cancri spontanei sono meno suscettibili all'attacco delle difese del corpo di quanto non lo siano i cancri indotti artificialmente (Williams 1982).
Perfino nei primati, gli animali presumibilmente più vicini a noi in termini di evoluzione, una malattia può prendere forme radicalmente diverse. L'uso delle scimmie, per le indagini sulla malaria cerebrale, portò all'ipotesi che il coma nei pazienti umani fosse dovuto ad un'aumentata concentrazione di proteine nel fluido cerebrospinale, e che tale dispersione dal siero potesse essere correlata con gli steroidi (Lancet 1987). Tuttavia, le scimmie non cadono in coma, né isolano globuli rossi infettati da parassiti, cosa tipicamente osservata nella malattia umana. Infatti gli steroidi non aiutano i pazienti e le successive indagini cliniche della condizioneumana hanno provato che il modello scimmia può semplicemente essere non pertinente (Lancet 1987).I tentativi di sviluppare nei primati un adeguato modello della sindrome da immunodeficienza acquisita (AIDS) umana si sono dimostrati ugualmente fallimentari. Gli scimpanzé sono gli animali preferiti per la ricerca sull'AlDS in quanto sono l'unica specie che mantiene il virus nel proprio corpo, una volta che sostanze provenienti dai pazienti sono state iniettate, anche se gli scimpanzé non continuano a sviluppare la malattia. Nel 1986 il Centro Primati Regionale del New England di Harvard riportò che nessuno scimpanzé appositamente infettato era morto di AIDS, dopo più di due anni di osservazione (King 1986): A causa di questi limiti e del fatto che lo scimpanzé è una specie in pericolo, con possibilità di forniture estremamente ridotte, questa specie sarà probabilmente di utilità limitata per la ricerca sull'AIDS. I tentativi di infettare altre specie di primati non-umani.... con HTLV-III/LAV sono stati un fallimento analogo. La qualità generalmente molto scarsa dei modelli animali è stata portata come un forte argomento per testare nuovi farmaci su volontari e pazienti al più presto possibile, onde ridurre la possibilità di previsioni scorrette (Dollery 1981). In realtà, si è stabilito che la maggior parte dei farmacologi sono già soddisfatti se, fra le capacità utili dei farmaci, determinate negli esperimenti sugli animali, se ne riproduce negli umani il 30% (Saunders 1981). Perciò non sorprende che molte azioni terapeutiche dei farmaci vengano scoperte attraverso la loro valutazione clinica nei pazienti (Breckenridge 1981) o attraverso una avveduta analisi di un avvelenamento accidentale o deliberatamente indotto (Dayan 1981), piuttosto che tramite una quantità di esperimenti sugli animali. Questo è, in particolare, il caso di molti farmaci psicotropici, dato che non esistono adeguati modelli animali di alcune gravi malattie mentali quali la schizofrenia, la mania, la demenza e le turbe della personalità e del comportamento. I test di screening per i farmaci, generalmente usati per trattare queste malattie - i più noti tranquillanti - si basano su modelli animali di effetti collaterali specifici di farmaci già esistenti, sull'ipotesi che molte delle azioni benefiche e degli effetti indesiderabili di tali prodotti possano essere collegate a simili aspetti della chimica del cervello, ad esempio il loro effetto sui neuroni dopaminergici (Worms e Lloyd 1979). La maggior parte dei più rapidi test di screening per i più comuni farmaci tranquillanti perciò dipendono dagli effetti collaterali di questi farmaci relativi al blocco del dopaminarecettore centrale, per esempio alla catalessi, ad effetti antiapomorfina ed effetti antiemetici (Worms e Lloyd 1979). Ad esempio, si motorizzano dei ratti per l'insorgere della catalessi, dopo la somministrazione del farmaco in questione, mentre si osservano i cani per l'inibizione dell'emesi indotta chimicamente. Sfortunatamente, la natura degli esperimenti comporta quasi inevitabilmente che, in caso di successo, i farmaci incorporino gravi effetti collaterali come la catalessi, il parkinsonismo e la discinesia tardiva, anch'essi collegati al blocco del dopaminarecettore (Worms e Lloyd 1979). Il parkinsonismo e la discinesia tardiva da farmaci sono ora diventati i problemi più gravi fra quelli che accompagnano il trattamento di gravi malattie mentali (Melville e Johnson 1982, Stephen e Williamson 1984). Anche molti antidepressivi vennero identificati per la prima volta grazie ai loro effetti nei pazienti. Dopo la scoperta clinica delle proprietà antidepressive della imipramina (Stiaram e Gershon 1983), gli scienziati trovarono casualmente che il farmaco annullava l'ipotermia chimicamente indotta nei topi (Leonard 1984). Successivamente l'ipotermia indotta da reserpina venne usata come modello animale della depressione, e tuttavia numerosi antidepressivi scoperti dall'indagine clinica non "passarono" il test dell'ipotermia (Leonard 1984). La Chirurgia Il lavoro clinico si è rivelato essere la pietra angolare del progresso anche in chirurgia. Dopo i rapidi sviluppi delle tecniche chirurgiche seguiti alla scoperta degli anestetici nel XIX secolo, un gran numero di chirurghi sostenne con forza che i progressi dovevano venire dalla pratica clinica piuttosto che dalla vivisezione (Beddow Bayly 1962). Tait (1882b) riteneva che in chirurgia la vivisezione avesse fatto più male che bene, mentre il Royal Surgeon (Chirurgo Reale), Sir Frederick Treves (1898), inviò un salutare avviso riguardo agli esperimenti che aveva condotto sui cani: . . . tali sono le differenze fra l'intestino umano e canino, che quando giunsi a operare sull'uomo trovai che ero molto impacciato in questa nuova esperienza, che dovevo dimenticare tutto quello che avevo imparato, e che i miei esperimenti non avevano ottenuto nulla se non di rendermi inadatto a trattare l'intestino umano. I medesimi principi si applicano oggi nei tentativi di trapianto e di altre imprese chirurgiche. Il punto cruciale è l'implicita differenza biologica, che rende rischiosi gli esperimenti sugli animali. Pertanto non è casuale che, nonostante le migliaia di esperimenti sugli animali, i primi trapianti umani siano quasi sempre stati un disastro. Solo dopo una considerevole esperienza clinica le tecniche migliorano. Alla Stanford University della California, si effettuarono 400 trapianti di cuore sui cani, e tuttavia i primi due pazienti umani morirono a causa di complicazioni che non erano insorte negli esperimenti preliminari (Iben 1960). Entro il 1980, il 65% dei trapiantati di cuore alla Stanford erano ancora vivi dopo un anno, e tale miglioramento viene attribuito quasi del tutto alla maggiore perizia con i farmaci antirigetto esistenti, ed alla più attenta scelta dei pazienti per tale operazione (Lancet 1980). Nel caso dei trapianti combinati di cuore e polmoni, ancora una volta le esperienze iniziali furono disastrose: nessuno dei primi tre pazienti sopravvisse per più di 23 giorni (Jamieson et al. 1983). Nel 1986 la Stanford University riportò l'esecuzione di 28 trapianti cuore-polmoni fra il marzo '81 e l'agosto '85. Otto pazienti morirono durante o subito dopo l'operazione. In altri 10 un problema respiratorio chiamato bronchiolite obliterativa (OB) insorse dopo l'operazione: fra questi, quattro pazienti morirono e tre rimasero con una funzionalità limitata dalla dispnea. I chirurghi notarono che (Burne et al. 1986): l'esperienza estensiva con i modelli animali in questa ed altre istituzioni non aveva indicato un serio rischio di malattie delle vie respiratorie, perciò l'emergenza della OB postoperatoria come massima complicazione fu del tutto inaspettata. La valutazione di sicurezza Il pericolo di affidarsi agli esperimenti sugli animali, comunque, è illustrato in modo estremamente efficace dalla crescente lista di farmaci testati sugli animali che vengono ritirati o ridotti a causa di effetti collaterali inattesi, spesso fatali, sugli esseri umani. Gli esempi comprendono Eraldin, Opren, il cloramfenicolo, il clioquinolo, Flosint, Ibufenac e Zelmid (Sharpe 1988). Mettendo da parte ora il ritiro o la restrizione dei farmaci, le reazioni inattese possono indurre ad avvisi e consigli da parte del Commitee on Safety of Medicines (comitato per la sicurezza dei medicinali) o sulla stampa medica. Nel caso dell'Eraldin, il farmaco per il cuore della ICI, si verificarono seri problemi agli occhi, compresa la cecità, e vi furono 23 morti. Alla fine, la ICI compensò più di 1.000 vittime (Office of Health Economics 1980). Tuttavia gli esperimenti sugli animali non avevano dato alcun segno di pericolosità (Inman 1977), ed anche dopo il ritiro del farmaco nel 1976 non fu possibile riprodurre gli effetti negativi negli animali da laboratorio (Weathrall 1982). L'antibiotico cloramfenicolo, risultato sicuro dopo gli esperimenti sugli animali, fu poi scoperto essere la causa dell'anemia aplastica, che spesso si è rivelata fatale (Venning 1983). Il British Medical Journal (1952) riferisce come il farmaco venisse interamente testato sugli animali, causando solo anemia transitoria nei cani cui era stato somministrato per iniezione e per un lungo periodo, e non causando assolutamente nulla con una somministrazione orale. Gli scienziati hanno recentemente suggerito l'uso di cellule di midollo osseo come mezzo più affidabile per rintracciare simili effetti tossici prima di passare all'osservazione clinica (Gyte e Williams 1985). Nel 1982 il farmaco non steroidale antinfiammatorio non steroideo Opren venne ritirato in Gran Bretagna dopo 3.500 casi di effetti collaterali che comprendevano 61 decessi, principalmente a causa dei danni epatici (British Medical Journal 1982). Test prolungati sulle scimmie rhesus, in cui gli animali ricevevano fino a sette volte la dose umana massima tollerata in un anno, non rilevò alcuna prova di tossicità (Dista Products Ltd 1980). Inoltre, i test sugli animali citati nella letteratura dell'azienda non facevano alcuna menzione delle reazioni di fotosensibilità della pelle che si rivelarono invece un così grosso problema per i pazienti (Dista Products Ltd 1980). Durante gli anni 60 almeno 3.500 giovani asmatici morirono in Gran Bretagna in seguito all'uso di inalatori aerosol con isoprenalina (Inman 1980). L'isoprenalina è un potente farmaco per l'asma, e vennero riportati decessi in nazioni che usavano una forma particolarmente concentrata di aerosol, che rilasciava 0,4 mg di farmaco per spruzzo (Stolley 1972). I test sugli animali avevano dimostrato che alti dosaggi aumentavano la frequenza cardiaca ma non in modo sufficiente da causare la morte degli animali. Infatti, i gatti potevano tollerare una dose 175 volte più alta di quella che poi si rivelò essere la dose pericolosa per gli asmatici (Collins et al. 1969). Persino dopo questi avvenimenti si rivelò difficile riprodurre gli effetti dannosi del farmaco sugli animali (Carson et al. 1971). Il Giappone fu vittima di una gravissima epidemia di malattie indotte da farmaci nel caso del clioquinolo, il principale ingrediente dei farmaci antidiarroici della Ciba Geigy, Enterovioform e Mexaform (Lancet 1977a). Almeno 10.000 persone furono vittima di una nuova malattia chiamata SMON (dalle iniziali dell'inglese subacute myelo-optic neuropathy, neuropatia mielo-ottica subacuta), e tuttavia gli esperimenti sugli animali effettuati dall'azienda non rivelarono alcuna prova "che il clioquinolo fosse neurotossico" (Hess et al. 1972). Affidarsi ai test sugli animali può essere perciò pericolosamente ingannevole. Infatti, qualsiasi protezione vi sia, deriva principalmente da prove cliniche in cui il 95% dei farmaci, che si sono rivelati sicuri ed efficaci sulla base dei test sugli animali, viene rifiutato (Medical World News 1965). Ciò nondimeno, il problema sembra meno grave di quanto non sia, perché gli effetti collaterali sono grossolanamente riportati al di sotto dei dati reali (Lesser 1980): solo circa una dozzina dei 3.500 decessi legati all'aerosol con isoprenalina furono riferiti a quel tempo dai medici, mentre solo l'11 % delle reazioni fatali associate ai farmaci antinfiammatori, il fenilbutazone e l'oxifenbutazione, vennero riportate come tali (Inman 1980). La maggior parte delle reazioni negative che hanno luogo nei pazienti non possono essere dimostrate, anticipate o evitate grazie agli esperimenti di routine di tossicità subacuta e cronica (Zbinden 1966). Questo avviene in parte semplicemente perché gli animali non hanno il potenziale per predire alcuni fra i più comuni o fra i più pericolosi effetti collaterali (Welch 1967). Ad esempio, gli animali non ci possono dire se soffrono di nausea, capogiri, amnesia, mal di testa, depressione e altri disturbi psicologici. Reazioni allergiche, lesioni cutanee, alcuni disordini ematici e molti effetti sul sistema nervoso centrale sono alcuni fra i più gravi problemi che, ancora una volta, non possono essere generalmente dimostrati negli animali. Ma, anche escludendo tali effetti, i test di tossicità possono ancora rivelarsi ingannevoli. Nel 1962, gli effetti collaterali di sei diversi farmaci, riportati nella pratica clinica, furono messi a confronto con quelli originariamente osservati nel test di tossicità sui ratti e sui cani (Litchfield 1962). I confronti furono ristretti a quegli effetti che i test sugli animali avevano il potenziale di individuare. Anche in questo modo, su 78 reazioni negative viste nei pazienti, la maggior parte (42), non vennero evidenziate nei test sugli animali. Nella maggioranza dei casi, quindi, le previsioni basate sui test sugli animali si dimostrano scorrette. Un altro confronto, questa volta basato su 45 farmaci, rivelò che al massimo solo uno su quattro effetti collaterali previsti con gli esperimenti sugli animali si verificava davvero nei pazienti (Fletcher 1978). Perfino allora, non è possibile dire quali previsioni siano accurate, sino a quando non hanno inizio prove cliniche sugli umani. Inoltre il rapporto confermò che molti effetti collaterali comuni non possono essere mai previsti con i test sugli animali: la nausea, il mal di testa, la sudorazione, i crampi, la secchezza della bocca, i capogiri, ed in alcuni casi le lesioni della pelle e la ridotta pressione sanguigna. Ma questo studio presenta un'ulteriore implicazione. Dato che la maggioranza delle reazioni negative previste nei test sugli animali non si verifica nei pazienti umani, esiste anche il pericolo di rifiutare inutilmente medicine potenzialmente valide. Un esempio classico è quello della penicillina che, come Florey (1953) ammise, avrebbe avuto ogni probabilità di essere rifiutata se fosse stata testata sulle cavie, per le quali è altamente tossica (Koppanyi e Avery 1966). Ma la fortuna non si limitò a questo. Per salvare un paziente gravemente ammalato, Fleming volle iniettare penicillina nella spina dorsale, anche se non si conoscevano i possibili risultati. Florey tentò l'esperimento su di un gatto, ma non c'era il tempo di aspettare i risultati, se si voleva salvare il paziente di Fleming. Questi ebbe la sua iniezione, e migliorò, ma il gatto di Florey morì (BBC 1981)! Un altro caso è quella della digitale. Sebbene scoperta senza sperimentazioni sugli animali, il suo uso più esteso venne ritardato poiché i test sugli animali prevedevano scorrettamente un pericoloso aumento nella pressione sanguigna (Beddow Bayly 1962). Uno degli animali più comunemente usati nei test di tossicità è il ratto, e tuttavia i confronti con gli umani rivelano enormi differenze nelle caratteristiche della pelle, nei parametri respiratori, nella disposizione della flora intestinale, nell'attività della beta-glucuronidasi, nei legami delle proteine del plasma, nell'escrezione biliare, nel metabolismo, nell'ipersensibilità allergica e nella teratogenicità (Calebrese 1984). Le differenze nei parametri respiratori sono particolarmente importanti (Tab. 5.1) negli studi sull'inalazione, in cui i ratti vengono usati estensivamente. In quanto modelli animali "ad alto rischio" per i problemi respiratori e cardiovascolari, i ratti vengono considerati non appropriati per l'asma, la bronchite e l'aterosclerosi, bensì la specie d'elezione per l'ipertensione (Calebrese 1984). Infatti, le specie usate più frequentemente per gli studi tossicologici vengono scelte non sulla base della relazione filogenetica con gli umani, ma su un terreno pratico di costi, tasso di nascite, dimensioni delle lettiere (?), facilità di manipolazione, resistenza ad infezioni e tradizione di laboratorio (Davies 1977). Uno dei fattori più importanti nella determinazione delle differenze tra le specie è la velocità e il tipo di metabolismo. In realtà i rapporti mostrano che le variazioni nella biotrasformazione dei farmaci sono più la regola che l'eccezione (Levine 1978, Smith e Caldwell 1977, Zbinden 1963). La tabella 5.2 mostra esattamente quanto grandi possano essere tali differenze, mentre la tabella 5.3 indica che siffatti problemi non si risolvono neppure con le scimmie rhesus. Gli effetti tossici di un farmaco non previsti dai test sugli animali possono essere esaminati negli umani quando il loro metabolismo è più lento, e tali effetti risultano poi in un'esposizione più prolungata. Ma le differenze nel ritmo della biotrasformazione sono solo un aspetto delle comparazioni metaboliche. Il percorso del metabolismo è di gran lunga più importante. La variabilità delle specie può dar luogo a effetti velenosi che sarebbero impossibili da prevedere con test sugli animali. Uno studio comparativo di 23 sostanze chimiche ha dimostrato che solo in quattro casi i ratti e gli umani metabolizzano le sostanze nello stesso modo (Smith e Caldwell 1977). Un esempio è l'anfetamina, che viene metabolizzata lungo un medesimo percorso da umani, cani e topi (in questi ultimi con maggior velocità), ma con un percorso diverso nel ratto e ancora diversamente nella cavia (Lavine 1978). Tali difficoltà sottolineano ancora una volta la necessità di provare al più presto possibile i nuovi farmaci sui volontari. Bernard Brodie del National Heart Institute del Bethesda ha affermato (Brodie 1962): Questi problemi, per quanto riguarda lo sviluppo dei farmaci, gettano luce sull'importanza di testare un farmaco sull'uomo non appena sia possibile, per vedere se il tasso di metabolismo lo renda, o meno, pratico dal punto di vista clinico. La pratica di studiare la disposizione fisiologica di un farmaco sull'uomo solo dopo le prove sugli animali non solo può risultare una scelta miope e uno spreco di tempo, ma può anche causare un errato e perenne rifiuto di un farmaco che potrebbe invece essere, per l'uomo, il migliore. Test specifici E' soprattutto nei test di tossicità subacuta e cronica, nei quali agli animali vengono somministrate le sostanze da testare, ogni giorno per settimane, mesi, e talvolta perfino anni, che le differenze riguardanti il metabolismo delle varie specie animali rappresentano il maggiore ostacolo interpretativo. Tuttavia, le aree di ricerca più specializzate, quali l'irritabilità degli occhi e della pelle, la cancerogenicità e la teratogenicità, per non citare il noto test LD50 per la tossicità sistemica, hanno presentato problemi laddove ci si è affidati alle prove sugli animali. Nel caso del test di Draize per l'irritabilità degli occhi, l'animale più comunemente usato è il coniglio perché è economico, facile da maneggiare ed ha un occhio piuttosto grande, che permette di esaminare bene i risultati (Ballantyne e Swanston, 1977). Ma esistono grandi differenze, che rendono il coniglio un pessimo modello per l'occhio umano (Ballantyne e Swanston, 1977; Buehler e Newman, 1964; Coulston e Serrone, 1969): a differenza dell'uomo, il coniglio possiede una membrana nittitante e produce lacrime in minore quantità. L'acidità e la capacità tampone dell'umore acqueo nell'occhio del coniglio e dell'uomo sono diverse, e diversi sono pure lo spessore, la struttura tissutale e la biochimica della cornea. Nell'uomo lo spessore della cornea è di 0,51 mm, mentre nei conigli è di soli 0,37 mm. Inevitabilmente vi sono stati risultati contraddittori, e gli scienziati generalmente consigliano di porre estrema cautela nell'estrapolare i risultati provenienti dagli animali all'uomo (Ballantyne e Swanston, 1977). Quando vennero testati sugli occhi dei conigli e dell'uomo gli irritanti o-clorobenzilidene malononitrile (CS) e dibenzoxazepina (CR), si riscontrarono grandi differenze: l'uomo era 90 volte più sensibile alla CR e 18 volte più sensibile al CS rispetto ai conigli (Swanston, 1983). D'altro canto, una formula tensioattiva liquida anionica, da lungo tempo usata come ingrediente base per prodotti per la pulizia delle stoviglie, causò gravi irritazioni nei conigli, mentre una lunga esperienza umana di esposizione accidentale ha dimostrato che la sostanza è del tutto innocua (Buehler e Newman,1964). Il test di Draize si è rivelato ingannevole anche nell'ideazione di terapie: l'esperienza clinica nel trattamento delle bruciature dell'occhio umano causate dagli alcali ha portato a preferire un trattamento di completo risciacquo, seguito da un totale denudamento della cornea. Nei conigli la medesima tecnica fu inconcludente, e il denudamento, in realtà, allungava di tre volte il tempo della guarigione (Buehler e Newman, 1964). Il coniglio è anche l'animale più frequentemente usato nei test per l'irritabilità della pelle. Le critiche alla sua affidabilità previsionale indussero il Huntingdon Research Centre britannico ad eseguire prove comparative su sei specie: topi, porcellini d'India, minipig, porcellini, cani e babbuini (Davies et al., 1972). I ricercatori trovarono "una notevole variabilità di risposta fra le differenti specie". La variabilità più accentuata si verificò con le sostanze più irritanti quali una crema shampoo antiforfora, in cui l'irritabilità variava da "grave" nei conigli a "quasi inesistente" nei babbuini. I volontari umani riportarono una lieve irritazione. Inoltre, lo studio dell'Huntingdon rivelò notevoli differenze fra i minimaiali ed i porcellini, nonché tra questi e l'uomo. Ciò va sottolineato, in quanto si ritiene comunemente che tali specie costituiscano un buon modello per i problemi della pelle nell'uomo. Alcuni irritanti chimici producono dolore senza causare danni strutturali e possono essere individuati con una grande quantità di metodi, inclusa la tecnica base della vescica umana. E' stato riportato che tale procedura causa poco dolore e dà risultati riproducibili, con volontari che sono in grado di distinguere tra diverse intensità di disagio (Foster e Weston, 1986). Usando questa tecnica, una comparazione fra le potenzialità relative di tre irritanti chimici: CS, n-nonanoilvanillilamina (VAN) e CR, ha fornito risultati in contraddizione con quelli rilevati nei test sugli animali (Foster e Weston, 1986). Secondo la Human Blister Base Technique, la CR è più potente del CS, ciò che è confermato da altri sistemi di test sull'uomo. e tuttavia è l'opposto di quanto è stato riscontrato negli esperimenti sui roditori. Inoltre, lo studio trovò che la VAN è meno potente della CR, il che ancora una volta - è l'opposto di quanto riscontrato nei test sugli animali. Gli autori conclusero che "i dati derivanti dall'uomo appaiono quindi importanti nel caso in cui si debba valutare il potere irritante". Esperienze con il test di Draize per l'irritazione degli occhi e della pelle hanno dimostrato che i risultati ottenuti per la stessa sostanza chimica possono variare ampiamente da laboratorio a laboratorio ed addirittura in uno stesso laboratorio, a causa della natura soggettiva della valutazione dei risultati. Ciò che viene classificato da un osservatore come un forte irritante per gli occhi può venire accantonato come un lieve irritante da un altro. Tale fu il risultato di uno studio in cui 25 laboratori testarono 12 sostanze chimiche dalla nota proprietà irritante. Gli autori (Weil e Scala, 1971) trovarono "estreme variazioni" tra i laboratori e così conclusero: In questo modo, i test usati da 20 anni per decidere il grado di irritazione per gli occhi e la pelle producono risultati assai variabili tra i differenti laboratori. Usare tali test, o loro variazioni, al fine di classificare coerentemente una sostanza come irritante o non-irritante per gli occhi e la pelle, non è quindi considerata cosa pratica....si suggerisce che le procedure generalmente raccomandate dalle Agenzie Federali, che prevedono l'uso degli occhi e della pelle dei conigli, non vengano raccomandate come procedure standard in nessuna delle nuove regolamentazioni. Senza un'attenta riconsiderazione, questi test producono risultati non attendibili. Nel caso del test di avvelenamento LD50 (LD sta per dose letale: LD50 indica la singola dose necessaria per uccidere il 50% degli animali impiegati), i risultati possono ampiamente variare a seconda della specie, rendendo quindi impossibile un'affidabile previsione della dose letale umana. Un confronto delle dosi letali di varie sostanze chimiche negli animali con quelle riscontrate per fatti accidentali o deliberati nell'uomo, ha spesso rivelato ampie variazioni. (Zbinden e Fleury-Roversi, 1981). Quando venne introdotto, nel 1927, il test LD50 fu designato per misurare la forza di sostanze quali la digitale, uno scopo per il quale, già allora, il test venne considerato obsoleto: ma poiché è facile da eseguire, gli scienziati cominciarono ad usarlo come indice di tossicità per un'ampia gamma di sostanze, inclusi i pesticidi, i cosmetici, i farmaci, i prodotti per la casa e sostanze chimiche industriali. E naturalmente l'idea di un singolo indice numerico di tossicità attirò la burocrazia governativa, così che il test LD50 venne incorporato tra i requisiti ufficiali governativi per un gran numero di sostanze chimiche. Secondo una delle maggiori agenzie britanniche, l'"Huntingdon Research Centre", circa il 90% dei test LD50 effettuati presso il centro stesso viene svolto puramente per ottenere un valore rispondente a diverse necessità legislative (Heywood, 1977). Fu anche subito chiaro che i test LD50 non possono venire usati per prevedere gli effetti di un sovradosaggio; solo un'attenta analisi dei pazienti vittime di avvelenamento accidentale o deliberato può farlo. In un rendiconto su come il National Poisons Centre (Centro Nazionale Veleni) all'ospedale New Cross di Londra raccoglie informazioni e redige testi per la prevenzione e la gestione di sovradosaggi di farmaci, il direttore, Dr. G. N. Volans (1986), dimostra che "i dati sulla tossicità acuta provenienti da test sugli animali offrono solo un contributo minimo al valore di questo lavoro". Per illustrare i difetti del LD50, Volans usa come esempio due classi di farmaci: i farmaci antinfiammatori non steroidei (FANS) e gli antidepressivi. Ad esempio, il FANS più sicuro sembra essere l'aspirina, seguita dall'ibuprofen. Tuttavia l'esperienza clinica, nota Volans, non concorda con tutto ciò, dal momento che l'aspirina può causare la morte nell'uomo in dosi non difficili da raggiungere. D'altro canto, nonostante la supposta maggiore tossicità dell'ibuprofen rispetto all'aspirina, le dosi più elevate di ibuprofen registrate in oltre 14 anni di uso clinico non hanno mai prodotto una grave tossicità, anche con concentrazioni di plasma 20 volte superiori al massimo livello terapeutico. Parecchi tra i FANS elencati possiedono un livello di tossicità abbastanza simile, e tuttavia ancora una volta - questo non è il caso dell'uomo poiché, nonostante la maggioranza di essi risulti sicura al sovradosaggio, è ben noto che il fenilbutazone può produrre una grave tossicità ed anche la morte. La scelta di un farmaco sulla base LD50 negli animali, perciò, può essere pericolosamente ingannevole. In definitiva, i test preliminari di qualunque natura, non possono impedire l'avvelenamento accidentale. D'altra parte, l'introduzione nel 1976, di contenitori a prova di bambino causò un enorme calo nei ricoveri per avvelenamento accidentale da analgesici (Jackson et al., 1983). Ugualmente, i test LD50 non possono essere usati per selezionare i livelli di dosaggio ammissibile di sostanze sia con ripetute somministrazioni a volontari, sia con test animali più prolungati. Ciò poiché gli effetti tossici di un dosaggio ripetuto non possono di solito essere previsti con un test come l' LD50, che utilizza una dose singola. L'LD50 del desametazone nei ratti è di 120 mg per kg -1, ma con somministrazioni ripetute i ratti e i cani non possono tollerare dosi giornaliere superiori agli 0,07 mg per kg -1 (Zbinden e Fleury-Roversi, 1981). I risultati dei test LD50 sono, inoltre, influenzati dal ceppo genetico, dal sesso, dall'età, dal peso corporeo, dalle malattie, dalla parassitizzazione, dalla qualità del cibo, dal grado di inedia, dal numero di animali per gabbia, dalle dimensioni della gabbia, da condizioni stagionali e climatiche quali la temperatura, l'umidità e la pressione dell'aria (Schulz, 1986). Inoltre, i risultati possono essere influenzati dalla formulazione e dalla biodisponibilità delle sostanze del test, dalla qualità del veicolo usato, dal volume somministrato, dal ritmo di applicazione e dal trattamento durante l'applicazione. Solo in minima parte l'LD50 può essere considerato una costante biologica e i risultati per la medesima sostanza possono variare da un laboratorio e all'altro da 8 a 14 volte, utilizzando la stessa specie e lo stesso metodo di dosaggio (Bass et al., 1982). Recentemente il test LD50 è stato messo sotto crescente accusa e un gran numero di eminenti tossicologi lo ha condannato. Zbinden e Fleury-Roversi (1981) pubblicarono un'amplissimo ventaglio di LD50 e conclusero che: Per il riconoscimento della sintomatologia dell'avvelenamento acuto nell'uomo e per la determinazione della dose letale umana, l'LD50 è di scarsissimo valore. Nel caso dei test di cancerogenicità, i soliti problemi di variazioni nelle specie vengono aggravati dagli alti costi e dalla lunga durata (oltre i tre anni) delle procedure. Come risultato, essi sono inadatti per la valutazione della sicurezza di più di 40.000 sostanze chimiche perlopiù non testate e correntemente in uso nel nostro ambiente (Davis e Magee, 1979). Questo deve essere uno tra gli argomenti più forti a favore dei sistemi in vitro , più rapidi, più economici e più facilmente riproducibili, emersi negli ultimi anni. Ad una conferenza del Public Health Control of Environmental Health Hazards (controllo salute pubblica dei rischi ambientali) tenutasi alla Academy of Science di New York nel 1978, Peter Hutt sostenne che proprio per queste ragioni la fiducia nei test animali per future decisioni regolative è mal riposta. Hutt (1978) si riferiva specificamente agli additivi alimentari ed alla sicurezza dei cibi, ed osservò che "anche se tutte le facilitazioni per i test animali disponibili nel paese fossero indirizzate esclusivamente a testare la potenziale cancerogenicità in tutte le sostanze alimentari, sarebbe improbabile che tale progetto fosse completato nel nostro arco di vita." Hutt affermò che "la sola priorità più importante per una politica di sicurezza alimentare in futuro consiste nello sviluppo, nell'affinamento, nella convalidazione e nell'accettazione di una batteria di nuovi test predittivi di cancerogenicità a breve termine in vitro, sulla cui base dovrebbero essere prese decisioni regolative." Un recente rapporto ha paragonato i risultati dei test di cancerogenicità nelle specie più comunemente usate (topi e ratti), e ha trovato che il 46% delle sostanze cancerogene per una specie erano del tutto sicure per l'altra (Di Carlo, 1984). Sono emerse anche differenze nelle risposte ai test tra maschi e femmine della stessa specie. Su 33 sostanze chimiche risultate carcinogene sia per i ratti che per i topi, solo 13 causarono il cancro sia nei maschi che nelle femmine di ogni specie. L'autore così concluse (Di Carlo,1986): E' dolorosamente chiaro che la cancerogenesi nel topo non può essere prevista sulla base dei dati ottenuti nel ratto e viceversa. Un altro studio ha cercato di scoprire se i test di cancerogenicità sui roditori individuassero correttamente le 26 sostanze che attualmente si ritiene causino il cancro nell'uomo. Un'analisi della letteratura scientifica ha rivelato che solo 12 di esse (46%) si sono dimostrate causa di cancro nei ratti o nei topi (Salsburg, 1983). E si concluse che: ...uno studio sulla nutrizione, della durata dell'intera vita, sui ratti e sui topi, sembra avere meno del 50% di probabilità di rintracciare cancerogeni umani noti. Sulla base della teoria della probabilità, sarebbe stato meglio lanciare in aria una moneta. Le implicazioni per l'uomo sono evidenti. In seguito alla tragedia del talidomide, che lasciò 10.000 bambini storpi e deformi, i test di teratogenicità sono divenuti un requisito legale per i nuovi farmaci. Mentre è vero che il talidomide non era stato testato specificatamente per i difetti alla nascita prima del lancio sul mercato, un'analisi ravvicinata del disastro suggerisce che la sperimentazione sugli animali avrebbe in realtà ritardato un possibile allarme riguardo agli effetti del talidomide sul feto. Sino al giugno del 1961, il Dottor W. G. Mc Bride, un ostetrico che lavorava a Sydney, aveva visto tre bambini con malformazioni insolite ed aveva avuto forti sospetti sul talidomide. Per vagliare i propri sospetti, Mc Bride avviò degli esperimenti su cavie e topi, ma quando non riscontrò alcuna deformità cominciò ad essere tormentato da dubbi che continuarono per parecchi mesi (Sunday Times Insight Team, 1979). Poi, alla fine di settembre, apparvero altri bambini deformi e Mc Bride ebbe la certezza che il talidomide fosse responsabile di tutto ciò. Scrisse al Lancet e al Medical Journal of Australia e pubblicò i propri risultati (Mc Bride,1961). Ulteriori esperimenti rivelarono che se anche il talidomide fosse stato testato sulle ratte gravide, così spesso usate per indagare sui danni fetali, non si sarebbe riscontrata alcuna malformazione. Il farmaco non causa difetti alla nascita nei ratti (Koppanyi e Avery,1966), e neanche in molte altre specie; quindi la tragedia umana si sarebbe verificata ugualmente. Secondo il Catalogo degli Agenti Teratogeni (Shepard,1976): ...molti principi sono stati affermati con vigore nei commenti fatti al momento dello scandalo. Il primo punto fu l'esistenza di una estrema variabilità nella suscettibilità delle specie al talidomide. Il catalogo riferisce che fino al 1966 erano state date alle stampe 14 distinte pubblicazioni che descrivevano gli effetti del talidomide su femmine di topo gravide, e che quasi tutte riportavano risultati negativi o altrimenti solo pochi difetti, che non assomigliavano in alcun modo agli effetti caratteristici del farmaco. Solo in alcuni ceppi di conigli e primati si era riusciti a riprodurre l'effetto del talidomide sul feto umano. I test di teratogenicità presentano alcuni particolari problemi che rendono l'estrapolazione dei risultati all'uomo ancora più difficile che per altri test animali. In aggiunta alle solite variazioni nel metabolismo, nell'escrezione, nella distribuzione e nell'assorbimento, che possono esistere tra le specie, vi sono anche differenze nella struttura, nel funzionamento e nella biochimica placentare (Panigel, 1983). Il metabolismo del feto e della placenta e la trasformazione di composti estranei sono differenti nelle diverse specie, ed usare un maggior numero di specie non significa necessariamente risolvere il problema. Tali difficoltà sono illustrate dall'aspirina, dimostratasi teratogena nei ratti, nei topi, nelle cavie, nei gatti, nei cani, nelle scimmie, e tuttavia, nonostante molti anni di uso estensivo da parte di donne gravide, essa non è mai stata collegata a nessun tipo di malformazione (Mann, 1984). E poi, se farmaci importanti quali la penicillina e la streptomicina venissero scoperti oggi, dovremmo forse metterli da parte a causa della loro nota capacità di causare difetti alla nascita negli animali da laboratorio (Smithells, 1980). In realtà, molti farmaci vengono immessi sul mercato anche se causano malformazioni negli animali da laboratorio. Il biochimico britannico Dennis Parke (1983) ne fornisce un esempio: ... è noto che i corticosteroidi sono teratogeni nei roditori, fatto il cui significato per l'uomo non è mai stato del tutto compreso, ma ciònondimeno si ritiene sia trascurabile. Comunque la pratica di testare corticosteroidi nei roditori continua, ed i farmaci che mostrano un alto livello di teratogenicità nei roditori a dosi simili a quelle terapeutiche per l'uomo vengono immessi sul mercato, a quanto pare in quanto sicuri: il fabbricante deve solo precisare che il farmaco produce malformazioni alla nascita negli animali da esperimento, il significato della quale cosa ci è ignoto. Sono esempi come questo a far pensare che molti esperimenti sugli animali rientrino più nel campo di un esercizio delle pubbliche relazioni che di un serio contributo alla sicurezza dei farmaci (Smithsells, 1980). Peter Lewis (1983), Consultant Physician (medico consulente) dell'ospedale Hammersmith di Londra, concorda sul fatto che i test di teratogenicità sono "virtualmente inutili dal punto di vista scientifico", ma che forniscono "una qualche difesa contro accuse di omissione di una adeguata sperimentazione del farmaco". In altre parole, "qualcosa" viene fatto, anche se non è la cosa giusta. Questo "qualcosa" viene identificato da D. F. Hawkins (1983), professore di ostetricia terapeutica all'istituto di Ostetricia e Ginecologia, e ostetrico consulente all'ospedale Hammersmith in questo modo: La grande maggioranza degli studi tossicologici perinatali sembra mirare a fornire una protezione medico-legale alle case farmaceutiche ed una protezione politica al corpo legislativo ufficiale, piuttosto che a produrre informazioni che davvero possano presentare qualche valore per le terapie umane. I test animali possono anche, erroneamente, indicare qualche vantaggio di un nuovo prodotto rispetto ai concorrenti già esistenti. Il farmaco antiartrite Opren venne reclamizzato come contenente il potenziale per modificare il processo della malattia (BBC, 1983), un enorme vantaggio commerciale rispetto ai farmaci per l'artrite esistenti, che al massimo potevano alleviarne i sintomi. Ma l'apparente vantaggio dell'Opren era basato su studi che avevano indagato sull'artrite artificialmente indotta nei ratti (BBC, 1983), che non rappresenta un buon modello per la malattia umana (Rheumatology in Practice, 1986). Alla fine, quest'effetto non poté essere riprodotto nell'uomo. Sulla base di test animali un altro FANS, il Surgam, venne propagandato come "gastroprotettore", con notevole superiorità rispetto a farmaci similari, per i quali gli effetti collaterali gastrointestinali sono di solito fra i problemi più gravi. Sfortunatamente per i fabbricanti, le prove cliniche dimostrarono che il Surgam in realtà danneggiava lo stomaco ed i laboratori furono riconosciuti colpevoli di pubblicità scorretta e ingannevole e multati per 20.000 sterline. Un rapporto sul caso del Lancet affermò che i periti di entrambe le parti avevano "concordato sul fatto che i dati animali non potevano venire estrapolati con sicurezza all'uomo" (Collier e Herxheimer, 1987). Effetti dei test animali Nonostante le motivazioni per tanta sperimentazione siano discutibili sul piano scientifico, questa ossessione per gli esperimenti animali ha avuto anche l'effetto di ritardare lo sviluppo e l'introduzione di test e di sistemi di monitoraggio più sicuri. Tuttavia la tragedia del Talidomide avrebbe dovuto far capire ai governi la necessità di metodi più idonei per la valutazione di sicurezza. Ad esempio, conoscendo le estreme differenze nella sensibilità delle specie verso i farmaci, il governo britannico avrebbe potuto muovere dei passi per prevenire ulteriori tragedie; avrebbe potuto creare una legislazione, come in Norvegia, che limitasse i nuovi farmaci solo a quelli che soddisfano un bisogno medico reale, minimizzando così i rischi potenziali; avrebbe potuto introdurre dei sistemi di sorveglianza post-marketing (PMS) realmente efficaci, per la precoce individuazione di effetti collaterali, e avrebbe potuto promuovere urgentemente la ricerca di procedure di test più affidabili, basati per esempio su cellule e tessuti umani. Ma queste opportunità furono ampiamente trascurate. Al contrario, nacque il Medicines Act, nel 1968, che significò semplicemente più test sugli animali. Alle compagnie fu permesso di inondare il mercato con farmaci uguali a quelli già esistenti, così che nel 1981 il Dipartimento della Sanità e Sicurezza Sociale (DHSS) dovette concludere che le nuove sostanze chimiche introdotte nel mercato inglese durante i precedenti 10 anni "erano state introdotte abbondantemente nelle aree terapeutiche in cui già esisteva un eccesso di prescrizioni" (Griffin e Diggle, 1981). Altre inchieste stimarono che circa il 70% delle nuove sostanze chimiche aggiungevano poco o nulla a quelle già esistenti (Scrip , 1985; Steward, 1978). Ben poca attenzione venne data agli schemi del PMS, e l'attuale sistema della tessera gialla riesce ad individuare solo dall'1 al 10% delle reazioni collaterali (Lesser, 1980). Il pediatra Robert Brent (1972) sostenne che uno schema efficiente di sorveglianza clinica avrebbe scoperto il legame fra il Talidomide e le malformazioni degli arti già dopo pochi casi, prevenendo in tal modo una catastrofe ben peggiore. Un'altro caso in cui il PMS avrebbe potuto prevenire un grave disastro da farmaci è quello dell'Eraldin. Ci vollero più di 4 anni per individuare la capacità del farmaco di danneggiare gli occhi (Inman, 1980). La sorveglianza post-marketing ha recentemente ottenuto una maggiore attenzione con lo schema di monitoraggio delle ricette di Inman, anche se si basa ancora su un sistema di relazione volontaria. Fino a poco tempo fa, ben pochi tentativi erano stati fatti per convalidare i test sulle cellule umane, e tuttavia i ricercatori hanno sostenuto che, nonostante le limitazioni, essi possono fornire un grado di sicurezza che non viene dato dall'esperimento sull'animale in vivo o dai procedimenti basati sui tessuti animali (Gyte e Williams, 1985). Già nel 1971 gli scienziati hanno reso noto che il potenziale del Talidomide di danneggiare il feto poteva essere individuato con test sui tessuti umani (Lash e Saxen,1971). Investire così poco in un efficace PMS e in sistemi di test più affidabili basati sui tessuti umani ha significato concedere una fiducia quasi esclusiva agli esperimenti animali ed alle prove cliniche. Ma le prove cliniche coinvolgono solo un numero relativamente piccolo di persone e quindi, in assenza di un PMS efficace, i medici, in effetti, si basano in larga parte sui test animali preliminari per mettere in guardia sugli effetti collaterali. In realtà, le valutazioni attuali sostengono che la malattia iatrogena sta raggiungendo quelle che l'ufficiale medico principale del DHSS, Ronald Mann (1984) ha descritto come "proporzioni epidemiche". Le cifre governative rivelano che nel 1977 più di 120.000 persone furono dimesse, o morirono, negli ospedali del Regno Unito dopo aver sofferto di effetti collaterali causati da medicinali (Mann, 1984). Le reazioni negative vengono considerate come un problema di importanza sempre maggiore: in termini di letti ospedalieri, uno su venti (uno su sette negli USA) è occupato da un paziente vittima del trattamento (D'Arcy e Griffin, 1979). Nella pratica generale almeno il 40% dei pazienti può sperimentare effetti collaterali (Mann, 1984). Una stima effettuata pone il numero annuale di decessi indotti da farmaci in Gran Bretagna, attorno ai 10.000 -15.000 (Melville e Johnson,1982): 4 o 5 volte la stima ufficiale. Ugualmente, una recente indagine su una sola categoria di farmaci suggerisce che il valore più alto potrebbe essere quello più vicino alla realtà. Questo studio ha focalizzato i NSAID ed ha valutato che questi farmaci potrebbero essere associati ogni anno, nel Regno Unito, a più di 4.000 decessi per complicazioni gastrointestinali (Cockel,1987). I potenti farmaci chimici implicano sempre un rischio di effetti tossici, e un aumento nel numero delle malattie iatrogene è parzialmente dovuto all'aumento del numero di prescrizioni effettuate. Tuttavia, la fiducia nei test che danno un numero così scarso di informazioni rilevanti sugli effetti nell'uomo, e che così spesso si dimostrano ingannevoli, è anch'essa responsabile dell'incidenza delle malattie iatrogene. Di certo, non sono i test animali a porre un freno all'epidemia attuale di malattie indotte dai farmaci. Effetti sulla ricerca medica La crescente fiducia nei modelli animali ha avuto un effetto fondamentale anche nella ricerca medica, poiché ha spesso deviato l'attenzione da metodi che si applicano direttamente all'uomo , quali gli studi clinici e l'epidemiologia. Un esempio è lo studio del diabete. Nel 1788 Thomas Cawley scoprì il legame fra diabete e danno pancreatico esaminando un paziente che era morto in seguito a questa malattia (Jackson e Vinik, 1977). Ciò venne successivamente confermato da ulteriori autopsie, ma quest'idea per lungo tempo non venne accettata, in parte perché i fisiologi non riuscirono ad indurre uno stato diabetico negli animali tramite un danno artificiale del pancreas (Levine, 1977). Alla fine, nel 1898, Mering e Minkowski "confermarono" i risultati clinici producendo il diabete in un cane cui era stato chirurgicamente rimosso l'intero pancreas (Volk e Wellman, 1977). Il legame tra fumo e cancro polmonare venne scoperto per la prima volta attraverso l'epidemiologia, e rappresentava potenzialmente uno fra i contributi più importanti alla politica della sanità degli ultimi anni. Tuttavia i tentativi di duplicare l'effetto forzando gli animali da laboratorio ad inalare fumo hanno avuto poco successo (Lancet , 1977). Ma per coloro che volevano negare una tale concatenazione, i risultati negativi ottenuti con gli animali devono essere stati un'ottima notizia. In realtà, l'enfasi tradizionale posta sulla ricerca sul cancro basata sugli animali sembra aver spostato l'attenzione da una reale comprensione delle cause fondamentali, così che si è rivolta ben poca attenzione alle misure di prevenzione. Prima della I Guerra Mondiale, l'epidemiologia e l'osservazione clinica avevano identificato parecchi fattori causa di cancro. Si riscontrò, ad esempio, che i fumatori di pipa presentavano un maggior rischio di cancro alle labbra, mentre i radiologi spesso contraevano il cancro alla pelle. Poi, nel 1918, Yamagiva e Ischikawa provocarono il cancro su un orecchio di coniglio dopo averlo dipinto di catrame, e tale apparente prospettiva per gli esperimenti da laboratorio catturò l'immaginazione del mondo scientifico (Doll, 1980). Come spiega Sir Richard Doll (1980), i dati ricavati dall'osservazione clinica vennero generalmente rimossi e acquistarono un peso insignificante rispetto a quelli ottenuti tramite la sperimentazione, poiché si riteneva che i meccanismi che causavano tutti i tipi di cancro sarebbero stati scoperti nel giro di pochi anni. La conseguente maggiore enfasi che fu data al tentativo di curare la malattia una volta che si è manifestata si rivelò un grave errore. Una recente analisi delle tendenze del cancro negli USA indica un sostanziale aumento nel tasso di mortalità generale a partire dal 1950, nonostante i progressi fatti contro alcune rare forme della malattia, che ammontano ad un 1 - 2% del totale delle morti per cancro. "La conclusione fondamentale che ne traiamo", dice il rapporto", è che circa 35 anni di sforzi intensi ampiamente focalizzati sui miglioramenti nel trattamento vanno considerati come un effettivo fallimento". Il rapporto conclude che "stiamo perdendo la guerra contro il cancro" e sostiene la necessità di un cambiamento: l'enfasi deve essere posta sulla prevenzione, se vogliamo che vi siano progressi sostanziali (Bailar e Smith, 1986). Con il recente revival dell'epidemiologia, sappiamo ora molto di più sui maggiori fattori di rischio principali, così che 1'80 - 90% dei cancri sono considerati potenzialmente evitabili (Doll, 1977; Muir e Parkin, 1985). Ed è interessante notare che il rapporto dell'Ufficio Valutazione Tecnologie (Office of Technology Assessment) degli USA sulle cause del cancro si è basato molto più sull'epidemiologia che sugli esperimenti sugli animali o altri studi di laboratorio, dal momento che, come sostengono gli autori, questi "non possono fornire un'affidabile valutazione dei rischi (Roe, 1981). La valutazione finale degli esperimenti sugli animali nella ricerca medica si può fare vedendo se portano a reali miglioramenti nella salute, non raggiungibili diversamente. Non può esserci alcun dubbio sul fatto che l'aspettativa di vita è grandemente aumentata a partire dalla metà del XIX secolo, ma questo è stato attribuito soprattutto ai miglioramenti nella sanità, e le misure mediche hanno giocato soltanto un ruolo relativamente piccolo (McKeown, 1979; McKinlay and McKinlay, 1977). Verso il 1950 il calo del tasso di mortalità aveva iniziato a stabilizzarsi (OPCS, 1979), ma fu attorno a quella data che gli esperimenti sugli animali cominciarono ad aumentare drammaticamente, e allora ci si chiede: a tutto questo ha poi corrisposto qualche miglioramento nella salute? In realtà, i ricoveri ospedalieri stanno aumentando (DHSS, 1976; Melville e Johnson, 1982; Annual Abstract of Statistics , 1987), così come il livello delle malattie croniche in tutte le fasce d'età (Social Trends, 1975, 1985); viene perso un numero sempre maggiore di giorni lavorativi (Wells, 1987) e il numero di prescrizioni mediche per persona è salito da una media di 4,7 nel 1961 a 7,0 nel 1985 (Social Trends, 1987). Il quadro generale per le malattie più gravi non è meno inquietante: la mortalità complessiva per cancro non mostra alcun cedimento (Smith, 1982), mentre il tasso di mortalità britannico per malattie cardiache è uno fra i più alti nel mondo (Ball, 1983). Quale che sia il risultato degli esperimenti sugli animali, essi sembrano avere pochi effetti sul nostro stato di salute generale. Coloro che difendono gli esperimenti sugli animali spesso ci propongono una semplice scelta: quale vita è più importante - chiedono costoro - quella di un bambino o quella di un cane? (Noble, 1985) In effetti, il concetto basilare dietro alla sperimentazione animale, come enunciato da Claude Bernard (1865) è che una vita può essere salvata solo sacrificandone un'altra. Ma, poiché la ricerca basata sugli animali è incapace di combattere i nostri più gravi problemi di salute e, cosa ancora più pericolosa, distoglie spesso l'attenzione dallo studio sugli esseri umani, la scelta vera non è fra animali e persone; piuttosto è fra una scienza buona ed una scienza cattiva. Nella ricerca medica, gli esperimenti sugli animali sono, in linea di massima, cattiva scienza, poiché danno delle indicazioni sugli animali, che vivono generalmente in condizioni artificiali, mentre quello che realmente avremmo bisogno di sapere riguarda gli esseri umani. Solo un approccio basato sull'uomo può identificare accuratamente le cause principali delle malattie umane, così che si renda disponibile una base certa per un trattamento, e si possa intraprendere un'azione di prevenzione.

Nessun commento: