UDIENZA DEL 14 OTTOBRE 1998

 

Collegio:

Dr. Salvarani Presidente

Dr. Manduzio Giudice a latere

Dr. Liguori Giudice a latere

 

PROC. A CARICO DI - CEFIS EUGENIO + ALTRI

 

Presidente: riprendiamo l'udienza, oggi era in programma l'audizione dei consulenti medico-legali della difesa Enichem.

 

Avvocato Stella: comincerà il Professor Zocchetti con la epidemiologia, proseguirà il Professor Prosmi con la statistica relativamente all'epidemiologia e alla spiegazione della statistica e questa sarà la parte un po' più lunga. Poi oggi pomeriggio alle 15.00 conterei di far sentire il Professor Federspil e Agazzi che saranno molto più brevi e poi a seguire il Professor Foa' se c'è ancora tempo, ma penso di sì. Questo è il programma della giornata. Non penso che faremo tempo ad analizzare i singoli casi e quindi lo faremo alla prossima udienza.

 

Pubblico Ministero: Chiedo scusa Presidente, prima di iniziare le audizioni dei consulenti volevo formalizzare la opposizione di ieri quale eccezione ai sensi dell'Articolo 468 e 520 del Codice di Procedura Penale, i quali sostanzialmente in sintesi dicono che a pena di inammissibilità non possono essere sentiti testimoni o consulenti o periti che non sono inseriti nelle liste, sia ai sensi del 468, sia quello in relazione alla contestazione suppletiva. Io la dico all'inizio, potrei ripeterla per ogni caso, comunque per tutti i consulenti non inseriti nelle liste o di inizio o suppletive, e quindi mi pare in particolare anche per il Professor Zocchetti.

 

Avvocato Scatturin: Noi ci associamo a questa opposizione, che poi abbiamo anche presentato in alcune udienze precedenti che non sono inclusi né nelle liste dibattimentali né in quelle suppletive.

 

Avvocato D'Angelo: La difesa dell'Inail, pur tenendo conto delle precisazioni fornite ieri da lei, si associa alla eccezione riformulata e ripetuta stamattina dal Pubblico Ministero perché conforme al dettato normativo. Pertanto anche la Difesa dell'Istituto si associa a questa eccezione.

 

Avvocato Boscolo Rizzo: Un modestissimo rilievo sotto il profilo del 468, che obbliga all'indicazione del nome del perito, quindi delle generalità del consulente e delle circostanze. Quando il quarto comma del 468 consente la prova contraria non soltanto sulle circostanze, ma anche sulle generalità, nel senso che io ho diritto a poter indicare un consulente, che presenti le stesse caratteristiche, le stesse specializzazioni, non è indifferente che si tratti di un epidemiologo o di un esperto in statistica. Le generalità del consulente consente anche di individuare qual è la sua specializzazione professionale e di consentire l'indicazione a prova contraria di un consulente che abbia le stesse caratteristiche. Il problema si porrà probabilmente anche dopo per i cosiddetti filosofi della scienza, in questo caso è un consulente che ha una Cattedra di filosofia della tecnica, ed è stato introdotto soltanto in questo momento. Io credo che anche noi avremmo diritto a poter replicare con gli stessi argomenti e con lo stesso spessore. Quindi non è una formalità, non è opposizione soltanto formale perché non sono stati indicati tempestivamente, ma perché confisca il diritto alla prova contraria.

 

Avvocato Partesotti: Per Green Peace mi associo a quanto appena rivolto dalla collega Boscolo Rizzo.

 

Avvocato Pozzan: Anche le altre parti civili, mi pare tutte, si associano all'eccezione.

 

Presidente: Allora sentiamo le difese.

 

Avvocato Stella: Il Professor Frosini che è l'ordinario di statistica era stato nominato fin dall'inizio, e su quello non ci sono problemi. Per quanto riguarda il Professor Agazzi e il Professor Federspil l'Avvocato Cesari...

 

Avvocato Cesari: Volevo spiegare signor Presidente.

 

Presidente: Io però non ho ancora le liste complete, quelle di Enichem non le ho. Le ha dettate a verbale.

 

Avvocato Stella: Questa mattina completiamo con la parte impiantistica, Presidente, ma le abbiamo depositate ieri comunque. Avvocato Cesari: Volevo chiedere al Tribunale di non tener conto dell'opposizione e di respingerla quindi. E volevo specificare anche come siamo arrivati alle nomine e alle sostituzioni. Subito immediatamente dopo la contestazione suppletiva del dottor Casson, ad una delle ultime udienze di settembre, avevamo l'urgenza di nominare i consulenti tecnici all'udienza successiva per rispettare i termini. Io ho nominato, d'intesa con il Collegio ovviamente, il Professor Pasquinelli dell'Università di Bologna ed anche Mandel, entrambi per chiara fama perché si erano occupati dell'argomento, successivamente alla nomina che ho dovuto fare il 5 ottobre, mi pare, adesso non ricordo esattamente le date, ma risultano dal timbro di opposizione della cancelleria. Subito dopo ho appreso che il Professor Pasquinelli purtroppo è stato colpito da una grave malattia ed è impossibilitato ad occuparsi della vicenda. Di talché l'abbiamo dovuto sostituire con altro consulente. Altrettanto si può dire del Professor Mandel, che è un cattedratico degli Stati Uniti del Minnesota, non siamo riusciti a metterci in contatto con il Professor Mandel, e di qui la necessità di sostituirlo con altro consulente specialista nell'identica materia; questa è la ragione della sostituzione. Quindi non mi sembra che sotto questo punto di vista ci sia nessuna tardività e neppure ci sia quella imprecisione riguardo alle materie sulle quali i consulenti dovrebbero riferire perché si tratta effettivamente di una sostituzione nelle materie, Mandel epidemiologo, Pasquinelli epistemologo; tutto qui Signor Presidente.

 

Presidente: Per quanto riguarda il Professor Zocchetti invece era stato già indicato ab origine. Noi non possiamo che ribadire quanto abbiamo già detto ieri. Alcune sostituzioni si sono rese per l'appunto indispensabili, o comunque necessitate a seguito di impedimenti di precedenti consulenti, o per indisponibilità o per impedimenti fisici. Per altro verso, noi non vogliamo assolutamente comprimere il contraddittorio, e se vi sono dei consulenti indicati ex novo dalle difese che ci verranno indicati su materie completamente nuove rispetto a quelle già indicate, siamo disponibili eventualmente a dare termine alle parti civili perché a loro volta possano indicare un consulente su tale materia, su questo non ci sono dubbi.

 

Avvocato Boscolo Rizzo: Presidente, allora c'è un altro problema che riguarda...

 

Presidente: Gli diamo termine fino al 23, la prossima udienza, per indicare su materie nuove, non so, lei adesso mi ha indicato questa materia: la filosofia della scienza, etc. su cui non sareste stati in grado di indicare alcun consulente, anche perché nessun consulente era stato indicato su questo oggetto dalla difesa degli imputati. Se è vera la premessa il termine è concesso fino al 23.

 

Avvocato Boscolo Rizzo: Presidente, c'è un altro aspetto. Io certamente non ho gli strumenti che ha il Professor Stella per contestare la pertinenza o meno di una consulenza, però credo che il Tribunale farà lo sforzo per capirmi ed anche tutti i colleghi che sono presenti. Il problema dell'ammissibilità di merito della pertinenza, quindi di una consulenza resa da un esperto in filosofia della tecnica.

 

Presidente: Della scienza.

 

Avvocato Boscolo Rizzo: No, filosofia della tecnica, così viene indicato il Professor Agazzi "Evandro"... filosofia della scienza, benissimo, ancora meglio. Voglio dire, se la consulenza è ammessa negli stessi termini in cui è ammessa la perizia, vale a dire quando servono valutazioni o specifiche competenze tecniche, scientifiche o artistiche, sicuramente la filosofia della scienza non è una scienza perché non ha leggi scientifiche. Allora qui la sensazione che ho è che si vogliano introdurre filosofi della scienza per contestare il metodo degli epidemiologi con la pretesa di dare agli epidemiologi gli strumenti che invece gli stessi epidemiologi hanno in base ai propri criteri di autocorrezione. Questo è caos,introdurre un filosofo della scienza perché venga a spiegarci non tanto se l'indagine epidemiologica di cui stiamo parlando in questo processo è stata condotta con criteri corretti. Ieri si era posto il problema delle leggi di copertura. Sappiamo tutti che le leggi di copertura che sono state utilizzate è una legge di copertura, sulla base della valutazione I.A.R.C., cioè il cloruro di vinile è un cancerogeno gruppo 1. Benissimo. Adesso cosa potrebbe venirci a dire il filosofo della scienza che abbia un'attinenza con questioni tecniche o scientifiche? Per carità, possiamo fare un corso parallelo serale, andiamo tutti a scuola di filosofia della scienza, sicuramente servirà alla nostra maturazione ma non credo che serva a questo processo. Non so se mi sono spiegata. Sto parlando con grossa difficoltà di materia in cui mi muovo come camminassi sulle uova fresche, però credo che il Tribunale possa capire quello che sto dicendo. Cioè, introdurre un filosofo della scienza in questo processo vuol dire non introdurre elementi di comprensione ma elementi di caos. Io non so, l'opposizione è di merito, non vedo quale possa essere la pertinenza di questo contributo, posto che non viene da uno scienziato.

 

Avvocato Stella: L'oggetto su cui riferirà il Professor Federspil e il Professor Agazzi è la spiegazione di accadimenti singoli. Il Professor Federspil ne parlerà per la medicina con tutti i problemi della diagnosi e della spiegazione causale in medicina, e quindi è direttamente collegato al tema di ieri, la pertinenza è chiarissima. Il Professor Agazzi unificherà la riflessione sotto il profilo sempre nella spiegazione di accadimenti singoli, accadimenti storici singoli; questo è il problema. Siccome il cuore del processo, secondo la Difesa, sbaglierà, ma è rappresentato dal problema della spiegazione dei singoli tumori e delle singole malattie, la pertinenza mi sembra assolutamente evidente. Non si tratta certo di dire che il Professor Federspil e il Professor Agazzi non sono degli scienziati mi sembra assolutamente eccessivo. Non so, io posso leggere il curriculum. Pubblico Ministero: Presidente, c'era un'osservazione sul Professor Zocchetti di questo tipo. Come accennavo prima, non mi pare che fosse nelle liste, né quelle iniziali né quelle depositate dalla difesa di Enichem il 15 settembre, e quindi sette giorni prima... Io faccio un discorso che vale per tutti quanti oggi, per non ripeterlo ogni volta. Presidente, è un problema di inammissibilità, io lo pongo formalmente con tutte le conseguenze processuali che ovviamente ci sono. Per quanto riguarda il discorso di quelli che non sono nelle liste, faccio presente che la prima udienza era il 23 settembre, la seconda il 25 settembre e il Pubblico Ministero non aveva chiesto consulenti tecnici ma solo testimoni nella lista integrativa, quindi non c'era motivo di inserirle nelle altre parti.

 

Presidente: Questo non è vero.

 

Pubblico Ministero: Presidente è vero perché non ci sono consulenti tecnici nelle liste suppletive del Pubblico Ministero, ci sono dei testi non consulenti.

 

Presidente: Pubblico Ministero, questa è una pretesa anche un po' assurda se me lo consente. Perché non è che le altre parti debbano fare le loro scelte defensionali sulla base di quelle che sono le scelte accusatorie. Se il Pubblico Ministero ritiene di fare delle contestazioni suppletive, e indica solamente dei testi, le altri parti non è che siano vincolate anche loro ad indicare solo dei testi, su quelle stesse circostanze che sono state contestate possono indicare anche dei consulenti. Io credo che davvero non ci sia nessun vincolo in questo senso.

 

Pubblico Ministero: Il problema è solo quello dei termini.

 

Presidente: Per quanto riguarda i termini il discorso è diverso, e l'abbiamo posto su un altro piano. L'abbiamo posto su un piano di una riapertura di questi termini, visto che si riaprivano i termini a seguito della contestazione suppletiva. Ribadisco, ci sembrava ipocrita l'indicazione, talune indicazioni di consulenti o di testi su alcune o sole delle circostanze a seguito della contestazione suppletiva. Ci era sembrato invece che la contestazione suppletiva era stata l'occasione anche per indicare testimoni e consulenti su tutto l'oggetto del primo capo di imputazione; questo ci era sembrato. Per cui abbiamo detto: "bene, i termini sono riaperti, sono riaperti su tutto e ne prendiamo atto perché entrambe le parti avevano indicato nuovi consulenti e nuovi testi"; primo. Secondo: vi sono stati e ci sono stati segnalati alcuni impedimenti, alcune impossibilità abbiamo detto: "benissimo, senza ampliare le liste sostituiamo quelli che sono impediti con altri". Ci era sembrato davvero irrilevante che ci fosse un consulente piuttosto che un altro designato dalla difesa. Terzo: - e adesso il problema che ci viene posto dalla Parte Civile, l'Avvocato Boscolo - che ci dice: "ma perché introdurre in questo processo dei filosofi della scienza"? Ma, devo dire sinceramente porterebbero confusione anziché comprensione. Ma questo è un giudizio di merito che sinceramente non ci compete così a priori. Io credo che noi siamo qui aperti a sentire ogni contributo che ci viene dato; mi pare che oltre a tutto l'oggetto su cui dovranno intervenire è stato abbastanza più delimitato dall'intervento del Professor Stella. Non avrei questo, come dire, smarrimento o paura di fronte ad interventi che appaiono o possono apparire, diciamo così estranei o comunque come inserimenti volti o finalizzati alla confusione. Ciascuno di noi avrà poi una capacità critica e di giudizio che ci consente di capire quale può essere l'utilità dell'apporto scientifico. D'altra parte io non mi sentirei neppure di escludere che la filosofia della scienza non sia un apporto scientifico anch'esso. Cioè, mi pare che davvero anche questa sia una chiusura che manca di quella laicità che forse dovremmo avere un po' tutti di fronte anche a queste nuove "scienze" che, forse, non vorrei che facessimo degli errori che sono stati fatti nel passato, e cioè chiusure rispetto ad apporti scientifici che ci potevano sembrare completamente non tali ed invece poi si sono rivelati tali, ma è nel pensiero umano, perché mai chiudere delle porte o delle finestre? Sono abbastanza curioso, il Collegio è abbastanza curioso di sentire anche questi apporti, sentiamo poi quali potranno essere i contributi. Peraltro, se, ripeto, vi sentite scoperti rispetto a questo contributo in particolare il Tribunale vi assegna un termine fino al 23 ottobre per l'indicazione di un vostro consulente su questa materia. Ciò detto sentiamo il consulente. Il Tribunale pero' ha già preso le sue decisioni su questo punto e non torna indietro.

 

Avvocato Stella: Se ha preso le sue decisioni, Presidente... Presidente: Ma scusi, di cosa abbiamo parlato, fino adesso per che cosa?

 

Avvocato Stella: Allora, io non posso parlare se ha preso le sue decisioni.

 

Presidente: Benissimo, d'altra parte avete già parlato mi pare, su queste questioni avete già parlato.

 

Avvocato Stella: Qualcosa avrei da dire anch'io, Presidente

 

Presidente: No, ma se è su questo punto abbiamo già parlato.

 

Avvocato Stella: E' proprio su questo punto Presidente.

 

Presidente: Allora c'è una preclusione, mi dispiace, semmai poteva prendere la parola prima, quando era aperta per la discussione. Il Tribunale ha già deciso.

 

DEPOSIZIONE CONSULENTE 

DR. ZOCCHETTI CARLO -

 

AVVOCATO STELLA

 

DOMANDA - Professor Zocchetti, illustri il suo curriculum e poi illustri anche lo schema delle sue riflessioni e poi proceda direttamente alle sue riflessioni sulle indagini epidemiologiche.

RISPOSTA - Grazie signor Presidente. Sono Carlo Zocchetti, nato l'11 maggio del 1952 a Gallarate. Nel 1978, già prima di laurearmi, mi sono laureato nel 1979, ho iniziato a lavorare come epidemiologo presso la Sezione di Epidemiologia Occupazionale dell'Istituto di Medicina del Lavoro di Milano. Mi sono sempre occupato di studi, di coorti di lavoratori esposti a sostanze chimiche, e la mia competenza si è sempre rivolta particolarmente agli aspetti metodologici relativi alla progettazione, alla conduzione, all'analisi e all'interpretazione di questi studi. Su tali argomenti io ho svolto anche molta attività didattica e pubblicistica. Dallo scorso anno dirigo l'Osservatorio Epidemiologico della Regione Lombardia. Per quanto riguarda le attività più collegate al presente procedimento, sono titolare del corso di Epidemiologia 2 che è proprio dedicato allo studio di coorte presso la Scuola di Specialità in Statistica Medica dell'Università degli Studi di Milano, e sono stato perito tecnico d'ufficio in un procedimento relativo agli infortuni sul lavoro in una fabbrica di automobili del circondario di Milano dove mi era stata chiesta proprio una perizia di tipo epidemiologico-statistico. Questo per quanto riguarda il mio curriculum. Il mio intervento riguarda 6 punti sostanzialmente. Il primo punto: cosa è l'epidemiologia oggi. L'epidemiologia come scienza, disciplina di sanità pubblica. Il secondo punto - poi argomenterò evidentemente - volevo solo fare il riassunto così faccio capire al Tribunale quali sono gli argomenti che voglio affrontare. Il secondo punto: parlerò dell'inferenza causale in epidemiologia, termini e contesti, riferimenti epistemologici, etc. Il terzo punto - ed è il punto più lungo - farò un esame dettagliato di tutta la letteratura epidemiologica sui supposti effetti cancerogeni nell'uomo del cloruro di vinile, polivinile e della polvere di PVC, prendendo in considerazione ogni singolo studio epidemiologico che è stato proposto in letteratura. Quarto punto: cercherò di applicare i riferimenti epistemologici, indicati al punto 2, a questa letteratura in modo da dare delle indicazioni di giudizio per quanto riguarda CVM, etc.. Quinto punto: tratterò il concetto di latenza per i tumori; in particolare le analisi adeguate per evidenziare tale concetto, e soprattutto quello che noi epidemiologi chiamiamo il concetto di Lag, di ritardo. E il sesto punto: farò delle osservazioni sull'indagine epidemiologica, sugli insaccatori, in particolare per quanto riguarda l'analisi del disegno epidemiologico e la valutazione di quella che viene chiamata l'analisi Puld. Questi sono i sei punti che intendo trattare. Primo punto sull'epidemiologia. Nel 1995 il giornalista Gary Taubes ha pubblicato sulla prestigiosa rivista scientifica Science un articolo dal titolo "L'epidemiologia di fronte ai suoi limiti". Nell'articolo ha riportato frasi e sviluppato concetti come quelli che seguono, ne ho estratti alcuni a mo' di esempio. Gli americani, preoccupati per la salute, sempre più si ritrovano assaliti da notizie contraddittorie non appena imparano i risultati di uno studio di ricerca ne sentono uno di senso contrario. Diversi epidemiologi sostengono che il problema risiede anche nella natura degli studi epidemiologici, in particolare, gli studi cosiddetti osservazionali che riguardano le malattie non infettive. Diversi epidemiologi ammettono che i loro studi sono affetti da distorsioni, incertezze e debolezze metodologiche e che possono essere intrinsecamente incapaci di riconoscere delle associazioni deboli - sono sempre pezzetti di frasi -. Ci stiamo spingendo oltre il limite di ciò che si può fare con l'epidemiologia. Gli studi produrranno inevitabilmente risultati falsi positivi e falsi negativi, con fastidiosa frequenza. La maggioranza degli epidemiologi è consapevole di questo problema e tende ad evitare conclusioni causali sulla base di studi isolati o anche di gruppi di studi in assenza di inattaccabili dati biomedici. Come soluzione gli epidemiologi intervistati da Science suggeriscono che la stampa diventi più scettica verso le scoperte della epidemiologia in modo che gli epidemiologi diventino più scettici verso le loro stesse scoperte o entrambe le cose, etc.. ce ne sono molte altre evidentemente. L'articolo, come si può facilmente immaginare, ha suscitato grande interesse ed attenzione nonchè molte critiche, ma ha anche aperto un grosso dibattito su cosa sia l'epidemiologia e quale possa essere il suo futuro. Io ho iniziato da queste citazioni perché mi sembra che permettano di andare direttamente al cuore della questione che io vedo in questo modo. L'epidemiologia non è un monolita inattaccabile, perfetto, privo di discussioni ed errori, caratterizzato da verità certe ma è una disciplina in evoluzione con tutte le incertezze tipiche e i punti di vista differenti presenti anche in altre discipline. Evidenziare queste differenze può solo giovare all'epidemiologia, anche se apparentemente sembra togliere solidità e terreno alle proprie certezze. Del resto anche il muro di Berlino solo pochi anni fa sembrava incrollabile. Per inciso le frasi dell'articolo di Science che ho citato toccano anche alcuni punti di specifici di particolare interesse in questo procedimento, come la validità degli studi, la dimensione del rischio, la concordanza tra risultati, l'interpretazione causale, il valore di un singolo studio e così via. Ma volevo solo porre il problema e non entrare nei dettagli. Conseguenze diciamo. Cosa è l'epidemiologia. Rothman, autore che è già entrato in questo dibattimento, nel suo recentissimo libro Modern Epidemiology avverte che definire cos'è l'epidemiologia è un ottimo punto per partire, ma sfortunatamente ci sono più definizioni di epidemiologia che epidemiologi, che è un modo un po' da epidemiologo per riaffermare il vecchio adagio che "Il mondo è bello perché è vario". Tra le tante definizioni disponibili, che poi secondo me non sono proprio così diverse come Rothman sembra far intendere, ne ho scelte due che permettono subito di affondare il dito in un problema cruciale, che tra poco indicherò. Allora, Jhon Last nel suo Dizionario di Epidemiologia curato per conto dell'Associazione Internazionale di Epidemiologia, perché gli epidemiologi hanno anche bisogno di un dizionario a cui fare riferimento, almeno per le definizioni più importanti, definisce così la disciplina: lo studio della distribuzione e dei determinanti degli stati o degli eventi correlati alla salute in specifiche popolazioni e l'applicazione di questo studio al controllo dei problemi di salute. Rothman usa una definizione apparentemente simile, è la seguente: lo studio dei determinanti della frequenza delle malattie nell'uomo. Rispetto alla precedente è scomparso il riferimento alla popolazione, e vedremo tra poco che questa mancanza è rilevante. Rothman poi esplicita meglio la definizione in termini operativi e dice: è ragionevole inferire che lo scopo finale dalla gran parte della ricerca epidemiologica è l'elaborazione delle cause che possono spiegare gli andamenti della occorrenza di malattia. La maggior parte della ricerca epidemiologica è progettata per valutare ipotesi scientifiche, ipotesi che sono tutte valutate attraverso la misura di fenomeni che sono correlati alla ipotesi. Allora, obiettivo centrale nella ricerca epidemiologica è quella di quantificare l'occorrenza della malattia. Se da questa definizione generale scendiamo al particolare, prendiamo come riferimento Checkoway, che è quello che ha scritto il libro di maggior riferimento in epidemiologia occupazionale, e quindi il tema che ci riguarda. Il libro si intitola "Metodi di ricerca in epidemiologia occupazionale" è del 1989. E dice: "l'epidemiologia occupazionale è lo studio degli effetti delle esposizioni lavorative sulla frequenza e sulla distribuzione delle malattie e degli infortuni nella popolazione". Faccio un piccolo inciso a questo punto utilizzando un articolo di Susser, anche questo è un autore che è già entrato in questo dibattimento, pubblicato nel 1997 sulla rivista Epidemiologia e Prevenzione dal titolo "Verso la scoperta delle cause, divergenze e convergenze tra l'epidemiologia e la medicina clinica" dove l'autore fa questa osservazione: l'epidemiologia ha a che fare con gli effetti contestuali di gruppi sulla iniziazione, distribuzione e diffusione delle malattie, ed attraverso questi mezzi ci insegnano quante malattie esistono nelle popolazioni, quante potrebbero essere attribuite a particolari fattori di rischio, e in ultima analisi, come potrebbero essere prevenute. Questi contributi non possono essere catturati utilizzando solo una prospettiva clinica. Il punto cruciale che distingue le due definizioni che ho presentato è proprio il riferimento alla popolazione. Ma la mancanza o la presenza di questo riferimento corrisponde proprio all'evoluzione storica della disciplina e al suo punto di crisi attuale. Si è passati da una epidemiologia fortemente centrata sulla popolazione, e quindi con un forte accento in termini di sanità pubblica, di prevenzione ad un'epidemiologia più orientata ai singoli componenti della popolazione e alle loro caratteristiche. Questo passaggio è arrivato ad un punto di crisi e si ha bisogno di un nuovo paradigma. Questo è il contenuto di un editoriale dal titolo "Ere, paradigmi e il futuro della epidemiologia" apparso nel 1996 su "American journal of public Health" a presentazione di due articoli sull'argomento che ora discuterò brevemente. Il primo lavoro è di Neil Pearce, un autore neozelandese molto noto anche da noi in Italia perché ha parecchi amici, dal titolo "Epidemiologia moderna e salute pubblica", e Pearce documenta come la epidemiologia moderna con la sua grande enfasi sulla metodologia e sulla identificazione dei fattori di rischio ha distolto gli epidemiologi da una preoccupazione primaria nei confronti della comprensione della dinamica di occorrenza delle malattie nelle popolazioni. E una delle conseguenze importanti di questo fenomeno è l'alienazione della epidemiologia dalla pratica della sanità pubblica. Egli quindi fortemente invoca la reintegrazione di una epidemiologia orientata alla popolazione nell'alveo della sanità pubblica. I suoi argomenti sono questi: ad esempio l'epidemiologia tradizionale era una branca della sanità pubblica, focalizzata sullo studio delle cause e sulla prevenzione delle malattie nella popolazione, a differenza delle scienze cliniche che erano branche della medicina e si focalizzavano sulla patologia delle malattie e sul trattamento dei singoli individui malati. L'epidemiologia moderna ha spostato l'interesse dalla popolazione ai suoi componenti, la maggioranza degli epidemiologi moderni conduce ancora studi su popolazioni, ma lo fa in modo da studiare fattori di rischio individuali, decontestualizzati piuttosto che studiare fattori di popolazione nel loro contesto storico e sociale. Quella che è guardata come epidemiologia acquisita è caratterizzata da riduzionismo biofisiologico, assorbimento nella biomedicina, mancanza di una reale teoria sulla causa delle malattie, divisione netta nel pensare alle malattie, ogni soggetto o è sano o è malato, senza tenere conto che vi è un continuo tra queste due condizioni. Una enormità di presenza di fattori di rischio, confusione tra associazioni osservate e causalità, dogmatismo su quali metodi di studio siano da considerare accettabili ed eccessiva ripetizione di studi. Questo trend è particolarmente notevole nella recente crescita del campo della epidemiologia molecolare, e soprattutto nella rinnovata enfasi sugli argomenti della suscettibilità individuale. Quando un problema di salute pubblica è studiato in termini di individui anziché in termini di popolazione è molto probabile che anche la soluzione sarà definita in termini individuali e i risultati dell'azione pubblica semplicemente muoveranno il problema anzichè risolverlo. Dopodiché - sto sempre riportando osservazioni di Pearce - affronta più in dettaglio i metodi con cui si possono comprendere questi fenomeni e mette a confronto due approcci: un approccio che lui definisce, chiama dall'alto verso il basso, cioè dalla conoscenza delle componenti individuali a livello più basso possibile come strumento di base per guadagnare conoscenza dei fenomeni a livelli più alti, è il caso dell'epidemiologia molecolare, un approccio che definisce riduzionista, un approccio che lui sostiene impossibile da praticare, sia a causa dell'enorme quantità di informazioni richieste, sia anche sulla scorta di vere e proprie considerazione teoriche a partire dai recenti risultati derivati dalla teoria del caos, che ha dimostrato come piccole inaccuratezze possono produrre enormi effetti in sistemi non lineari, e qui ricorderete senz'altro la bellissima immagine di Lorenz in proposito, che dice come può il battito l'ali di una farfalla a Pechino produrre un tifone a New York. Il secondo approccio citato da Pearce è dall'alto verso il basso, che parte dal livello di popolazione per accertare i fattori principali che influenzano lo stato di salute all'interno delle popolazioni, in un approccio che Pearce definisce "realista". Conclude con queste due considerazioni: l'epidemiologia è diventata un'insieme di metodi generici per misurare associazioni tra esposizioni e malattie piuttosto che funzionare come parte di un approccio multidisciplinare alla comprensione delle cause delle malattie nelle popolazioni. Questi cambiamenti metodologici non sono stati neutrali ma, in combinazione con altre influenze, hanno cambiato il modo con cui gli epidemiologi pensano alla salute e alla malattia. Pertanto noi dobbiamo - e questa è un'immagine molto bella - andare indietro verso il futuro e sviluppare nuove forme di epidemiologia che ripristinino la prospettiva di popolazione ma utilizzando in modo appropriato gli avanzamenti metodologici recenti dei metodi di indagine. L'editoriale che presentava questo contributo concludeva: vi è grande evidenza per supportare la tesi di Pearce, che quella che viene chiamata epidemiologia moderna sia stata troppo concentrata su problemi metodologici abbia enfatizzato un approccio riduzionista e ha sottovalutato un orientamento verso la popolazione. Il secondo lavoro a cui facevo riferimento è ancora di Susser, cercando di portare avanti i ragionamenti introdotti da Pearce, ha scritto sempre nel 1996 sullo stesso giornale "American Journal of pubblic Health", un lavoro dal titolo "Scegliere un futuro per l'epidemiologia". Molti dei concetti sono simili, e quindi non li ripeto, ma ho ripreso due affermazioni che mi sembrano di interesse. L'attuale era epidemiologica sta andando a conclusione, la focalizzazione sui fattori di rischio, che è il contrassegno di questo periodo, non serve più. Abbiamo bisogno di interessarci allo stesso modo sia di percorsi causali a livello di società che di patogenesi e causalità a livello molecolare. La strada è ora aperta per gli epidemiologici, per lavorare allo stesso tempo a livello molecolare e a livello di società. Per fare questo abbiamo bisogno di essere guidati da concetti causali appropriati, un argomento che in epidemiologia sta subendo una notevole discussione, e sarà l'oggetto del mio secondo punto di discussione. Mi limito a questo punto ad indicare che lavorare epidemiologicamente a livello molecolare è molto complicato, come ben sanno e documentano i colleghi che più di me hanno frequentato o frequentano questo ambito specifico. Le ipotesi nascono e muoiono con la velocità del fulmine, gli articoli prodotti sono numerosissimi e la difficoltà principale, diceva Paolo Vineis, anche questo è un nome che circola parecchio in questo dibattimento, come nel nostro ambiente, un epidemiologo italiano che più di altri si è occupato e si occupa di questa materia, è distinguere quali sono le ipotesi che avranno probabilità di successo, nel senso di durare nel tempo e meritare giusta considerazione d'esame se non addirittura di studio, da quelle che devono essere abbandonate il giorno seguente. Chi si mette su questo terreno sa con quanta cautela e prudenza bisogna agire se non si vuole correre dietro ad ipotesi che sopravvivono giusto per il tempo di pubblicazione di un lavoro scientifico. Chiusa questa parentesi torniamo al cuore principale dei miei argomenti. Le considerazioni di Pearce e Susser per il ritorno ad un'epidemiologia saldamente ancorata alla sanità pubblica e con una ottica di popolazione, non sono nuove e sono molto condivise. In un articolo del 1985 di Geoffrey Rose, dal titolo "Individui malati e popolazioni malate", anche questo fa già parte della bibliografia del dibattimento, vengono fatte delle considerazioni interessanti. Dice Rose: trovo molto utile distinguere due tipi di questioni eziologiche; la prima cerca le cause dei casi; la seconda cerca le cause dell'incidenza. Perché alcuni individui hanno l'ipertensione? E` una domanda completamente differente da quella di chiedersi: perché alcune popolazioni hanno più ipertensione mentre in altre è rara. Le domande richiedono differenti tipi di studio e hanno risposte differenti. Per ricercare i determinanti della prevalenza e della incidenza dei tassi abbiamo bisogno di studiare le caratteristiche delle popolazioni e non le caratteristiche degli individui. All'interno di popolazioni è risultato praticamente impossibile dimostrare qualunque relazione tra la dieta di un individuo e il suo livello di colesterolo, e lo stesso si applica alla relazione tra dieta e pressione arteriosa e sovrappeso. Ma a livello della popolazione la storia è differente. E` risultato facile mostrare forti associazioni tra valori medi di popolazione di grassi saturi e livelli di colesterolo ed incidenza di malattia coronarica. Tra assunzione di sodio e pressione arteriosa, tra assunzione calorica e sovrappeso. I determinanti dell'incidenza non sono necessariamente gli stessi delle cause dei casi, è sempre Geoffrey Rose che fa queste osservazioni. Su questi argomenti Rose ha lavorato molto, ha pubblicato nel '82 un intero libro, tradotto in italiano nel '96 con il titolo "Le strategie della medicina preventiva", libro che è stato pubblicato in Italia dal Pensiero Scientifico Editore. Ovviamente invito a leggerlo, magari nelle cause di questo dibattimento, ma ne approfitto per prendere alcuni passi come i seguenti: "la salute è una caratteristica della popolazione come insieme e non semplicemente dei suoi singoli membri. La strategia di prevenzione per la popolazione cerca di spostare la distribuzione del fattore di rischio globale in una direzione favorevole, essa affronta l'enorme difficoltà di dover cambiare la maggioranza e ciò significa ridefinire quello che deve considerarsi normale. L'ignoranza di una causa specifica di per se stessa non esclude la possibilità di un'azione preventiva, si ricordano ancora gli enormi benefici per la salute pubblica ottenuti dai riformatori del secolo scorso le cui misure prese per migliorare gli alloggi, le condizioni di lavoro e le misure igieniche avevano anticipato la conoscenza dei batteri della tossicologia. L'epidemiologia è soltanto uno strumento poco penetrante per indagare le cause deboli, ed è molto limitata nello studio delle malattie rare, quindi necessariamente i suoi principali successi sono legati alle cause importanti di malattie comuni ed è in questo campo che essa trova le applicazioni principali di prevenzione". Su questa ultima considerazione aggiungo anche qualche frase di Paolo Vineis prese dal suo intervento dal titolo "L'interpretazione causale degli studi epidemiologici" svolto al Convegno Nazionale di Medicina Legale nel settembre del '91 sul tema della causalità tra diritto e medicina. Dice Vineis: "Si noti che ci sono considerazioni extrascientifiche che portano a pesare diversamente l'evidenza scientifica quando si tratta di mettere in atto un programma preventivo, per esempio le esposizioni professionali sono spesso più facilmente aggredibili di quelle voluttuarie. In genere, infatti, agire a livello dei comportamenti del singolo individuo è più difficile e meno efficace che affrontare i rischi alla fonte". In una linea di pensiero molto simile mi sembra anche si collochi l'articolo di Caterina Botti Pietro Comba e altri, Forastier e Laura Settimi del '96 sulla rivista "The science of the total enviroment" dal titolo "L'inferenza causale in epidemiologia ambientale, il ruolo dei valori empliciti, dei valori morali" e dice: "il dibattito epistemologico corrente in epidemiologia ha sottolineato la rilevanza del giudizio soggettivo nella produzione e nella valutazione dell'evidenza scientifica. Scopo del presente lavoro è quello di esaminare l'influenza dei principi morali nel processo di valutazione dei dati scientifici che hanno rilievo per la salute umana. L'argomento dell'azione preventiva non è solo a posteriori rispetto al processo scientifico di valutazione del rischio, ma è anche una intenzione a priori. Si propone che la definizione di evidenza scientifica sufficiente sia un influenzata, tra altre cose da come è percepita l'azione preventiva, tipicamente se una considerazione più o meno cautelativa dell'azione debba essere intesa". Studia due casi paradigmatici per ragionare attorno a questi quesiti, il primo caso è il rischio associato con l'esposizione allo spruzzamento e all'applicazione di insetticidi non arsenicali, dove la I.A.R.C. è arrivata ad una conclusione di evidenza di cancerogenicità per questo gruppo di sostanze indicando cancerogeni probabili per gli uomini, conclusioni che sono state discusse da autori sostanzialmente perché, a parte la discussione dell'evidenza scientifica che questi autori mettevano in evidenza, diceva in particolare che le designazioni della I.A.R.C. non posso legittimare l'adozione di regolazioni più stringenti. Oppure, riguardo all'uso specifico, non si può inferire che tutti gli insetticidi causino il cancro, ma piuttosto che alcune esposizioni ed alcune circostanze, etc., pertanto è giustificabile prendere tutte le possibili precauzioni da prevenire l'esposizione e l'argomento principale che viene sollevato dai critici è che la designazione di esposizioni, la classificazione di cancerogeni di esposizioni umane in cancerogeni o meno va oltre i dati dell'evidenza, e sembra orientata a soluzioni regolatorie piuttosto che al giudizio scientifico. Non sto sposando tesi, sto solo riportando il dibattito che era in corso. Aggiungono in fondo ancora che si può vedere che esistono visioni conflittuali sulla possibilità di sacrificare un approccio scientifico rispetto ad un'azione precautelativa e così via. Ho indicato quindi l'epidemiologia come scienza di popolazione. Per completare il ragionamento volevo aggiungere un punto, un anello fondamentale che esprimerei in questo modo: cosa ci può dire l'epidemiologia specificamente a livello del singolo soggetto, cioè delle caratteristiche osservate nel signor Carlo Zocchetti per esempio? Mi faccio aiutare ancora una volta da Paolo Vineis, in quell'intervento al convegno di medicina legale, dice: "una delle implicazioni più ovvie della natura probabilistica dell'inferenza causale in epidemiologia è il conflitto tra il livello individuale e quello di popolazione. A rigore, tutte le inferenze epidemiologiche sono derivate da studi di popolazione e sono applicabili esclusivamente a popolazioni. Si può affermare cioè che in un gruppo di esposti ad amianto il rischio di contrarre cancro nel polmone è superiore rispetto ad un gruppo di non esposti, senza che questa affermazione abbia necessariamente valore per i singoli individui. L'utilità di tali inferenze che si applicano all'individuo medio di una popolazione definita sulla base di un'esposizione media è ovvia in termini di prevenzione e di sanità pubblica, cioè di interventi di natura collettiva. Vi sono tuttavia situazioni tipicamente nel contesto assicurativo e medico legale in cui la valutazione del rischio ha interesse a livello strettamente individuale", è sempre Vineis. Mi sembra di aver sentito dalla citazione che è stata fatta ieri che anche il dottor Berrino viaggi nella stessa onda rispetto a questo specifico argomento sulla capacità o possibilità dell'epidemiologia di intervenire sul caso singolo. Mi sembra che anche le considerazioni di Vineis e Berrino dal punto di vista epidemiologico siano non solo largamente condivisibili, ma anche di fatto largamente condivise. Gli strumenti epidemiologici si fermano allo studio dei gruppi delle popolazioni di astratti individui medi ma non sono in grado di fare alcuna affermazione riferibile a specifici individui, può non piacere, ma questo è il campo proprio dell'epidemiologia, e lo spazio di lavoro dell'epidemiologo. Riconoscere i propri confini pone la disciplina in un giusto contesto permettendole di affrontare con strumenti adeguati i quesiti che stanno dentro a tale contesto. Bisogna avere anche l'umiltà di riconoscere che esistono altri contesti, nei confronti dei quali le proprie armi possono risultare del tutto o almeno in gran parte inadeguate. Questi mi sembravano gli argomenti sostanziali relativi al primo punto, l'epidemiologia come scienza di sanità pubblica e l'incapacità dell'epidemiologia di esprimere una valutazione a proposito di quello che succede nel singolo individuo, il signor Carlo Zocchetti. Il secondo argomento riguarda il contesto epistemologico dell'epidemiologia. Anche qua dovrò riprendere alcuni concetti e alcuni autori che sono gia' stati introdotti da altri consulenti, allora per non annoiare e per arricchire soprattutto il quadro proposto, aggiungerò degli altri riferimenti di altri autori oppure degli autori già citati produrrò magari degli altri lavori. Comincio ancora dal libro fondamentale di Checkoway "Metodi di ricerca in epidemiologia". Checkoway e i suoi collaboratori si esprimono in questo modo: alla fin fine i dati che derivano dalla ricerca epidemiologica sono utilizzati per prendere delle decisioni. Queste decisioni richiedono una composita valutazione delle evidenze che emergono dalla ricerca epidemiologica e da altri tipi di ricerche. Una valutazione dell'evidenza scientifica può essere ridotta nella sua sostanza alla semplice domanda: l'esposizione, o le esposizioni, può causare la malattia o le malattie? Sebbene a questa domanda raramente si possa dare una risposta conclusiva, agli scopi di prendere una decisione è richiesta almeno una risposta tentativa. E' per questo motivo che l'argomento dell'inferenza causale è un argomento che ha ricevuto considerevole attenzione da parte degli epidemiologi. Se questo è il punto di partenza, semplice solo in apparenza in realtà, io cercherò di documentare la varietà degli approcci che caratterizzano l'attuale contesto epidemiologico, evidenziando soprattutto i problemi che sono sul tavolo e le soluzioni problematiche che sono state proposte. Premetto subito che per gli argomenti che sto proponendo c'è un fondamentale problema di linguaggio, oltre che di concetti. Il linguaggio causale dell'epidemiologo, proprio perché ho indicato in precedenza che l'epidemiologia non è in grado di parlare al singolo soggetto, puo' essere, a questo punto devo dire che è completamente diverso, e lo dico avendo ascoltato colleghi di altre discipline, è completamente diverso dal linguaggio causale che è proprio di questo dibattimento. E` inevitabile, nell'incontro tra discipline, che riconoscono ambiti di pertinenza così differenti, io cercherò per quanto possibile di usare un linguaggio che riduca al minimo gli eventuali fraintendimenti, mantenendo il rigore interno della mia disciplina. E` riconoscendo queste difficoltà ad esempio che Susser, in un articolo del '97, sempre quello "Verso la scoperta delle cause divergenze e convergenze" dice: come possiamo caratterizzare una causa? In primo luogo è forse più sicuro parlare di determinanti, e per determinante io intendo qualunque cosa che fa una differenza su un effetto. Ciò premesso, su un punto iniziale mi sembra essere accordo tra gli epidemiologi, Susser lo riformula così: se consideriamo la relazione tra una variabile indipendente X, detta anche determinante, ed una variabile dipendente Y detta anche effetto, il determinante X può avere una di queste quattro caratteristiche: è sia necessario che sufficiente, è necessario ma non sufficiente, è non necessario ma sufficiente, non è né necessario né sufficiente ma contribuisce. In epidemiologia uno può scarsamente dubitare che il tipo più frequente di relazione causale osservata è il modello della causa contribuente. Ma come conosciamo una causa quando ne vediamo una, quali sono le caratteristiche o le proprietà di una causa, di un determinante? La via seguita principalmente dagli epidemiologi è stata quella di utilizzare criteri pragmatici per l'uso delle conoscenze a fini decisionali, in sanità pubblica o in contesti medico legali. La più nota formulazione di questi criteri di causalità è quella dovuta allo statistico Bradford-Hill, i suoi nove criteri sono un'evidente estensione del metodo di Stuart Mill e li elenco ma non li discuto, perché sono già emersi altre volte: forza dell'associazione, coerenza, specificità dell'associazione, sequenza temporale, gradiente, etc.. Nessuno di questi criteri è mai stato riconosciuto come essenziale o capace di sostenere da solo l'argomentazione causale. Quando si parla di questi criteri di tende ad accentuare l'impostazione pratica, più che teorica del problema del riconoscimento di un'associazione. Il passo successivo è stato quello della discussione di questi criteri all'interno di un contesto epistemologico, in particolare il contesto della logica induttiva e deduttiva. Devo dire però che c'è anche chi si ferma prima, Vineis ad esempio indica che uno dei principali punti di discussione è se l'epidemiologia usa o dovrebbe utilizzare gli stessi criteri epistemologici usati da altre discipline e riporta come esempio uno dei più importanti testi di epidemiologia, quello di Olli Miettinen, intitolato "Epidemiologia teorica" dove l'autore tratta la causalità distinguendo tra problemi descrittivi, cioè quelli in cui un parametro di occorrenza è correlato ad un determinante, senza alcuna visione verso un'interpretazione causale dell'associazione e problemi causali, rilevanti per un intervento razionale, cioè una modifica dell'occorrenza dell'effetto. Veniamo alle teorie dominanti, e qui mi scuserà il Professor Agazzi in particolare se mi azzardo a frequentare un terreno nel quale la sua maestria è nota e la mia schematizzazione gli apparirà troppo riduttiva. Rothman nell'introduzione al libro "Inferenza causale" pubblicato nell'88, in questo libro ha raccolto - questo libro è frutto di un convegno svolto in quegli anni - ha raccolto un po' tutti i pensieri, quello che l'epidemiologia stava producendo in quel periodo sul tema della causalità. Induzione è il metodo per cui osservazioni ripetute possono indurre la formulazione di leggi di natura. Seppure con molte varianti e modificazioni, questo metodo ha portato alla formulazione di criteri da utilizzare tipo quelli di Bradford-Hill o una loro versione aggiornata. Sappiamo che il metodo dell'induzione è stato fortemente criticato dal filosofo scozzese David Hume, che ha evidenziato che gli osservatori non possono percepire connessioni causali ma solo serie di eventi, e che una legge di natura non può essere costruita come logica estensione delle osservazioni. Ne è conseguito che buona parte della filosofia della scienza dopo Hume si è dedicata a giustificare l'uso dell'induzione, alla luce delle critiche riportate da Hume, o a tentare di comprendere l'epistemologia della scienza senza induzione. Concorrente più diretto dell'approccio induttivo è rappresentato, uno per lo meno, dalle idee sintetizzate da Popper, secondo il quale l'inferenza induttiva è impossibile e la scienza deve procedere per esperimenti ed errori, o meglio per congetture e reclutazioni. Secondo Popper la scienza può procedere scartando teorie e sostituendole con altre più adeguate piuttosto che accumulando osservazioni supportive. Vi è almeno un terzo elemento in questo dibattito, suggerito da Kuhn, il quale mette l'accento su un ruolo della comunità scientifica nel determinare la validità delle teorie scientifiche stesse. In particolare, secondo Kuhn, è il consenso della comunità scientifica che determina cosa è da considerare accettato da cosa è da considerare rifiutato. Ho riportato questi elementi schematici perché gli epidemiologi si sono buttati a capofitto in questo dibattito, scegliendo l'una o l'altra delle posizioni in gioco, o tentando tante mediazioni, come vedremo. Faccio qualche esempio per far capire dal punto di vista epidemiologico cosa vuol dire. Sul versante Popper ci sono posizioni come quella di Douglas Weed, che critica radicalmente i criteri di Hill e propone due criteri differenti, derivati secondo lui dall'applicazione della filosofia di Popper. Inoltre propone, in generale, il criticismo come guida filosofica ragionevole all'inferenza epidemiologica è all'azione di salute pubblica. Stephan Lanes sostiene che per imparare qualcosa sulle cause delle malattie dobbiamo sviluppare teorie alternative per spiegare associazioni che abbiamo osservato e poi raccogliere dati ed osservazioni nel tentativo di rifiutare una o più delle teorie in competizione, arrivando anche all'estremo di sostenere che lo scopo della scienza medica non è quello di stabilire la causalità. Sono tutti autori che hanno prodotto contributi in questo libro ma anche molti contributi successivi che evidentemente non cito direttamente perché sarebbero lunghi ma verranno tutti allegati agli atti. Malcom Maclure, uno dei più interessanti sostenitori dell'impostazione di Popper, spinge il ragionamento fino a porsi domande come queste: è possibile la certezza in epidemiologia? La ricerca epidemiologica si basa su prove o su confutazioni? Le osservazioni epidemiologiche comportano un'interpretazione o si tratta di fatti semplici ed obiettivi? In epidemiologia sono i fatti che precedono le ipotesi o sono queste che vengono prima? Come mai la prova epidemiologica offre un sostegno solo relativo o condizionato ad una teoria? L'interpretazione dei risultati si deve basare sulla critica e non sulla giustificazione? E così via. Le domande hanno una chiara impostazione popperiana, anche le risposte che ha fornito, ma non voglio entrare più di tanto in questo dibattito perché ci porterebbero fuori strada. Addirittura Maclure fa una lettura dei criteri di Bradford-Hill in un'ottica refutazionista. Charlie Poole osserva che qualunque caratteristica di un'associazione esposizione malattia la può rendere in modo oggettivo più o meno probabile che sia causale ed aggiunge che il modo migliore di interpretare la ricerca epidemiologica per scopi scientifici e di politica e di impegnarsi in una discussione critica e razionale di teorie causali, questo sul versante popperiano. Sul versante dell'induzione, anche qui la variabilità è notevole. Vi è chi come Susser invoca un approccio pragmatico alla causalità, e rilegge i criteri di Bradford-Hill, semplificandoli o raggruppandoli diversamente, mostrando come alcuni aspetti, per esempio del disegno di uno studio epidemiologico, possano influenzare il giudizio di causalità. Su questo già altri consulenti hanno portato delle considerazioni, quindi non le ripeto. Vi è chi come Sander Greenland invita i popperiani a sviluppare criteri generali appropriati, cioè criteri intrinsecamente popperiani, per determinare se una particolare osservazione contraddice e corrobora una determinata teoria epidemiologica. C'è chi come Jacobsen suggerisce che la validità di un'inferenza epidemiologica dipende dal tipo di osservazioni che sono condotte, da come sono condotte, da come i dati sono raccolti ed analizzati, anche se alcuni non condividono che nei criteri di inferenza si debbano includere i metodi di ricerca. Alcuni epidemiologi poi hanno tentato degli approcci che io considero riconcilianti, facendo una lettura dell'inferenza causale utilizzando sia criteri induttivi che argomenti deduttivi, come Vineis per esempio, anche se la sua conclusione è prevalentemente induttiva. Interessante, ancora da sottolineare, mi sembra la posizione di Pearce, il quale mostra come il modello popperiano del "cigno bianco" possa risultare non applicabile all'epidemiologia, in quanto la gran parte dei fattori di interesse la salute pubblica, si configura né come causa necessaria né come causa sufficiente. La sua proposta è quella di un approccio pluralistico caratterizzato da una serie di argomenti, etc.. Non ho invece trovato, all'interno della letteratura epidemiologica, pubblicazioni che ponessero l'accento direttamente sull'approccio di Kuhn, cioè sulla teoria del consenso. Solo Rothman considera il problema descrivendolo, attribuendo l'applicazione di tale teoria in particolare, probabilmente per ragioni politiche, ma sono sue considerazioni al National Institutes of Health americano, il metodo del consenso sembrerebbe regolarmente praticato attraverso le cosiddette conferenze di consenso, organizzate per affrontare specifici problemi e per fare inferenze. Quindi strumenti in cui esperti della comunità scientifica si mettono d'accordo su quella che può essere considerata evidentemente la verità di un'osservazione o l'associazione. Rothman indica che il metodo del consenso non è garanzia di correttezza, come molti esempi hanno dimostrato. Cosa si può concludere da questo rapido excursus nell'ambito epistemologico? Innanzitutto che c'è una pluralità evidente di approcci, pluralità che implica anche diversità sostanziali ed approcci molto distanti tra di loro; in secondo luogo, che il livello di affronto di questi argomenti e' ancora molto iniziale, poco maturo, fermo ancora ad aspetti di definizione e sistematizzazione formale; in terzo luogo, il dibattito verte ancora su temi generali e non è stato in grado, per il momento, di affrontare con strumenti adeguati l'ambito proprio della ricerca epidemiologica, cioè il suo contenuto specifico, a parte il contributo di qualche autore che ho citato. Conseguenza inevitabile di questo stato di cose, e cito ancora l'articolo di Caterina Bruno, Comba e colleghi in questo lavoro sull'inferenza causale in epidemiologia ambientale, dicono questi autori: conseguenza inevitabile di questo stato di cose è che la valutazione del significato causale di un'associazione porta ad opinioni conflittuali espresse da autori che adottano criteri differenti per tale valutazione. Aggiunge Checkoway, ed è l'ultima mia citazione su questo punto, "il giudizio sul valore di uno studio epidemiologico è influenzato da argomenti come inadeguatezza del progetto di studio, la dimensione dello studio, la quantità e la precisione dei dati sull'esposizione e sulla malattia, l'appropriatezza dell'analisi dei dati e così via". Questi giudizi sono necessariamente soggettivi sebbene esistano principi di ricerca che possono servire come guide. Questo è il secondo argomento che ho affrontato, il contesto epistemologico per quanto riguarda l'epidemiologia. Il terzo argomento, invece, vorrei fare una revisione estesa della letteratura epidemiologica che riguarda il cloruro di vinile in genere. E, nel fare questa revisione della letteratura così in pubblico, vi è un problema di sostanza che a me deriva dalla mia formazione culturale; si finisce per parlare necessariamente del lavoro di colleghi e nel fare questo si può rischiare di fare commenti ed osservazioni che possono travalicare, configurandosi addirittura come giudizi personali su persone fisiche, sul tale autore piuttosto che sul tal altro. Si possono attribuire a questi autori errori o mancanze, e mi fermo qui, ma può capitare di andare anche oltre, come mi sembra è stato il caso dei commenti emersi sul lavoro di Wu in una delle scorse udienze. Personalmente questo mi mette a disagio, perché gli autori richiamati, per la gran parte per lo meno, sono assenti e quindi non possono interloquire. Soprattutto, visto che le pubblicazioni scientifiche devono essere sintetiche, non possono integrare, correggere, interpretare, suggerire, cosa che avviene invece per tutti gli altri aspetti del dibattimento. Faccio un esempio: lavoro di Wu; è emerso un problema di numeri, giudicati non congruenti, ed è troppo facile dire in sua assenza che lo studio sia da buttare. Noi abbiamo preso un'altra posizione, abbiamo contattato il N.I.O.S.H., anche perché Wu non è il singolo autore, e chi frequenta l'ambiente epidemiologico conosce il valore dei colleghi, cito solamente "Bill Alperin", cito solamente "Paul Shult", ma non voglio classificare nessuno tra di loro, è solo per richiamare dei nomi. Abbiamo cercato di contattare i coautori del lavoro per farci spiegare queste supposte incongruenze. Come potete immaginare questo contatto è stato problematico, sia perché lo studio è dell'88, il lavoro quindi ancora precedente, Wu non è più al N.I.O.S.H., il quesito posto poi è molto specifico, non c'è stato il tempo, morale, al momento non abbiamo ancora una risposta che spieghi eventualmente, o perlomeno non abbiamo informazioni dal N.I.O.S.H. a supporto delle informazioni che sono state riportate. Trarre da questo, allora, che il lavoro sia da buttare, non ci sembra adeguato; secondo noi il giudizio non è chiuso, quindi rimane un quesito aperto. Secondo esempio, che chiarisce ancora meglio il problema: quante volte sono stati chiesti chiarimenti ai consulenti che hanno presentato i loro argomenti? Facciamo accenno a Comba e Pirastu, per esempio, su numeri e tabelle, o poco comprensibili, o giudicate errate etc., la loro presenza di volta in volta ha integrato, corretto, sostituito informazione per venire incontro alle osservazioni sollevate. Mi sembra un processo naturale, del resto, nella grande quantità di informazione che è stata prodotta e proposta. Se fossero stati presenti Comba e Pirastu avremmo dovuto concludere che il loro lavoro era da buttare? Sinceramente non mi sembra accettabile. Molti hanno fatto riferimento a lavori pubblicati, noi però abbiamo la sensazione che non sia emersa l'immagine completa di quello che dice la letteratura; ecco perché vorremmo fare, offrire una letteratura dettagliata dei lavori epidemiologici, di volta in volta integrando, in relazione agli effetti neoplastici, integrando di volta in volta, integrando, correggendo, offrendo interpretazioni che possono essere in linea o dissonanti con la letteratura fatta da altri colleghi. Si usa partire dal lavoro dello I.A.R.C. del 1979. Allora io volevo affrontare leggermente i lavori che hanno preceduto lo studio dello I.A.R.C. per fare capire, quando lo I.A.R.C. ha fatto la sua valutazione, che tipo di materiale aveva per mano. Il primo lavoro è di Monson 1974, studio di mortalità proporzionale tra tutti i deceduti di una fabbrica di polimerizzazione del PVC e di una fabbrica di produzione del CVM; ha considerato il periodo '47 - '73, solo i soggetti morti in fabbrica, 161 soggetti deceduti. Ha trovato 8 tumori del fegato, di cui 5 angiosarcomi, dico questi numeri anche per farvi vedere quanti sono i casi osservati all'interno delle popolazioni studiate, 5 casi, 160 soggetti deceduti. Ha trovato 13 casi di tumore polmonare e 5 di tumore del cervello e 5 di tumori del linfoemopoietico, ha suggerito la presenza di un eccesso per tumori del fegato, statisticamente significativo, per tumori del polmone, tumori del cervello, tumori del linfoemopoietico, non sempre questi eccessi sono significativi, come quelli per il polmone piuttosto che per il linfoemopoietico, però su questo abbiamo già sentito molti argomenti. Quindi, il suo commento è: vi è suggerimento che almeno due altri tipi di tumori, oltre al fegato - e cita polmone e cervello - appaiano con frequenza in eccesso nei lavoratori del CVM. Lo studio è uno studio di mortalità proporzionale. I difetti metodologici di questo tipo di studio sono noti agli autori che frequentano l'epidemiologia, lo studio è di numerosità limitata, non considera i casi di morte che sono avvenuti nelle persone che sono state dimesse dalle fabbriche. Il secondo studio è di Tabershaw 1974, studio di coorte di mortalità di individui di 33 fabbriche che avevano lavorato per almeno un anno in una mansione che implicava l'esposizione a cloruro di vinile prima del 31 dicembre '72. Faccio notare che questa indagine viene poi, le stesse fabbriche, sono poi state seguite da altri autori, una fabbrica è stata studiata da Ott, le stesse fabbriche sono state studiate prima da Cooper nell'81, poi da un gruppo coordinato da Wong nell'86 e così via. Faccio questa osservazione perché questo è un quesito che si propone continuamente. Noi citiamo tanti studi, ma non sono tutti studi indipendenti, molti di questi studi si ripetono e io volevo proprio fare vedere anche come questi studi sono collegati tra di loro, anche perché un conto è dire: ho osservato tre studi che dicono, ma i tre studi potrebbero essere solamente lo stesso studio scritto tre volte, come farò vedere per quanto riguarda per esempio lo studio degli autori russi, che viene a volte citato. Bene, Tabershaw non trovi eccessi statisticamente significativi, ha osservato, non ha indicato tumori del fegato, ha osservato 25 tumori respiratori con un SMR di 112 non significativo, linfomi 6 con un SMR di 106, leucemie tre, non vengono indicati casi di tumore del cervello e questo pone un problema che riprenderò dopo, cosa vuol dire quando uno studio non indica determinati casi, non indica,per esempio in questo caso, i tumori del cervello. Lo studio seguente è uno studio di Duck, studio di coorte di mortalità dei lavori esposti a cloruro di vinile in una fabbrica inglese, la fabbrica di "Pen Hart", follow up dal '48 al '73, sono studiati 2120 lavoratori e sono 16 i tumori del polmone che vengono indicati, non vengono indicate altre cause, trova un SMR di 103. Questo lavoro è stato criticato da alcuni autori perché il lavoro indicava un trend negativo degli SMR con l'aumentare della durata della esposizione. Quindi, secondo questi commentatori, i conti fatti da Duck probabilmente non erano del tutto adeguati. Siamo nel '75, quindi ci potrebbero essere ancora alcuni problemi metodologici nell'affronto, in particolare, del problema della durata e della latenza con opportuni programmi di calcolo. In risposta a questa critica, Duck ha presentato una analisi, non era quella che gli veniva richiesta, ma ha presentato una analisi per i soli soggetti che avevano più di 15 anni di esposizione e ha indicato, per esempio, per il tumore digerente, non è sceso a un livello più di dettaglio, 4 casi contro 2 attesi, un SMR di 200, e per il tumore del polmone 3 osservati contro 3 attesi, 2,96 attesi, un SMR di 101. Nicholson, studio di coorte di mortalità dei lavoratori di una fabbrica di polimerizzazione del PVC esposti a cloruro di vinile per almeno 5 anni, sono 257 soggetti, una coorte molto piccola, però caratterizzati da questa particolarità: esposti per almeno 5 anni. Presenta i dati solamente per i tumori totali, non va nel dettaglio, presenta i dati per latenza. Nessun tumore del polmone è stato osservato. Sono stati osservati invece tre angiosarcomi, due tumori linfoemopoietici, che lui segnala ma sui quali, dati i piccoli numeri, non fa alcun tipo di ragionamento o osservazione di tipo epidemiologica. Segue il lavoro di Ott, '75, studio di mortalità sui lavoratori della produzione che hanno lavorato tra il '42 e il '70 in aree con potenziale esposizione a cloruro di vinile, ed aggiunge: "sono stati identificati, praticamente, tutti i lavoratori che hanno lavorato per almeno 1 anno e circa la metà di quelli che hanno lavorato meno di un anno, sono 600 lavoratori". Aggiunge anche: "studi precedenti in questo impianto hanno indicato che individui che avevano lavorato nell'area di produzione dell'arsenico, prima del '56, avevano un eccesso di rischio per tumore". Molti dei soggetti considerati in questo studio erano già stati considerati in precedenza dallo studio di Tabershaw. Non trova tumori del fegato, 0 tumori del fegato, trova 7 tumori dell'apparato respiratorio con un SMR di 120 e fa una analisi, proprio perché nella coorte ci sono anche gli esposti ad arsenico, fa una analisi per i soli soggetti non esposti ad arsenico, quindi, esclude gli esposti ad arsenico. In questo caso i tumori dell'apparato respiratorio sono 4, gli attesi 5,2, un SMR di 77, il che vuol dire che a partecipare a formare l'SMR di 121, che aveva indicato evidentemente, aveva partecipato il gruppo dei lavoratori esposti ad arsenico. Byren, '76, ancora una coorte di lavoratori addetti alla produzione di CVM e PVC in Svezia, 770 soggetti, studia sia la mortalità che l'incidenza e trova 4 tumori del fegato e pancreas, questa è la dizione, contro 0,97 attesi, 400 di SMR, statisticamente significativo, trova 3 tumori del polmone, SMR 168, non significativo, trova due tumori del cervello, SMR di 600, significativo, trova incidenza di tumori del pancreas, non mortalità, incidenza, fegato e pancreas, scusate, 2, SMR 416, incidenza di tumori del polmone 3, SMR 231. Gli autori dicono: "vi è un eccesso di tumori del fegato pancreas che aumenta con la latenza. I casi di tumore del cervello - secondo loro - rappresentano un eccesso ma non deviano in maniera significativa dall'attesa, l'eccesso di tumori polmonari non era statisticamente significativo". Sono le frasi degli autori, che gli autori hanno riportato nei lavori. Fox e Collier, '76, qui hanno scritto due lavori, io commenterò il lavoro del '77 perché è quello che parla di più degli effetti specifici del cloruro di vinile, quindi ne parlerò fra un attimo. Waxweiler, '76, lavoratori di quattro impianti in cui si polimerizzava il cloruro di vinile da più di 15 anni, che avevano un impiego superiore a 5 anni e una latenza superiore a 10 anni, in reparti e mansioni direttamente collegati al cloruro di vinile. Siamo negli Stati Uniti, 1294 persone, e Waxweiler segnala 7 tumori di fegato e bile contro 0,6 attesi, SMR significativo, 1155, 12 tumori del sistema respiratorio contro 7,7 attesi, 156, non significativo, 3 tumori del cervello, 329 SMR, 4 tumori linfoemopoietici, 159. Fa un'analisi per sottogruppi, per quelli che hanno una latenza con più di 15 anni, e segnala un SMR molto elevato, significativo, per i tumori del fegato e un SMR di 194 per i tumori del polmone, 498 per i tumori del cervello. C'è un impianto, in particolare, tra quelli studiati, che quello ha contribuito di più ai problemi, e questo impianto poi viene studiato da altri autori successivamente. Abbiamo poi Chiazze, '77, Chiazze invece, studio di mortalità proporzionale, quindi come quello precedente di Monson, solo i deceduti vengono considerati nel periodo '64-'73, di 17 compagnie attive nella trasformazione del PVC in questo caso, non nella produzione. Studia solo i soggetti morti in fabbrica o di quelli che godevano un beneficio pensionistico o assicurativo, studia 4341 deceduti, osserva 6 tumori del fegato contro 4 attesi, 143 di SMR, nessun angiosarcoma, 190 tumori del polmone, SMR 117, 16 tumori del cervello, SMR 115, 60 tumori linfoemopoietico, SMR 109 e trova poi anche tumori delle ossa connettivo pelle e mammella e degli organi urinari nelle donne, ed aggiunge: "gli eccessi nella mortalità per tumori sembrano concentrati nei tumori del tratto digerente e in particolare nei tumori dell'intestino, sia per i maschi che per le femmine. Inoltre, vi è il suggerimento che la mortalità per tumore della mammella e degli organi urinari tra le donne bianche sia più elevata di quella delle donne degli Stati Uniti". Dicevo del lavoro di Fox del '77, Fox fa anche un'analisi, si tratta di uno studio di mortalità dei lavoratori di quattro fabbriche che avevano lavorato tra il '40 e in '74 in Inghilterra in processi che davano luogo a possibile esposizione a CVM, più di 7 mila persone, e vedremo che poi questo studio è seguito più avanti dallo studio di Jones. Fa un'analisi anche del tumore del polmone per durata, da cui si vede per esempio che i soggetti che hanno lavorato da 0 a 4 anni hanno un SMR per tumore dei polmoni di 175, da 5 a 9 anni di 114 e da 10 a 14 anni di 128. Posso riportarvi anche i dati per gli altri tumori: trova 1 tumore del fegato contro 0,7 attesi, 140 di SMR, 1 tumore primario e 3 altri tumori del fegato, i 3 altri del fegato 322 di SMR, 46 tumori del polmone contro 51 attesi, 89 di SMR, 2 del cervello contro 3,6 attesi, 9 linfoemopoietici contro 9 attesi e così via. La sua conclusione, fa una analisi molto interessante anche per esposizione, la sua conclusione nel primo lavoro era: "poca evidenza è stata riscontrata per supportare il suggerimento che altri tumori, in particolare il cervello e i polmoni, siano associati con l'esposizione a CVM". Aggiunge: "l'SMR per tumori del fegato è più alto nel gruppo con esposizione maggiore", l'unico SMR alto, per quanto riguarda i tumori del cervello, è nel gruppo a più alta esposizione, ma si tratta di un solo caso, non vi è indicazione di una relazione dose-risposta per i tumori o per il tumore del polmone e così via. Conclude: "Noi concludiamo che il CVM è probabilmente un cancerogeno in quanto causa tumori del fegato negli esposti, adesso. Sebbene in questo studio vi sia poca relazione con la durata della esposizione, gli angiosarcomi erano associati con esposizioni a concentrazioni molto elevate di CVM". La seconda conclusione si riferisce al fatto, se il CVM causa tumori diversi dal tumore del fegato e dice: "noi non abbiamo trovato evidenza per supportare questo suggerimento, solo due tumori del cervello sono stati osservati e vi è poca indicazione di un eccesso di tumori del polmone". Questo è lo stato dell'arte, riportato soprattutto attraverso i dati e le frasi degli autori, al momento in cui la I.A.R.C. nel '79 fa la sua valutazione di cancerogenesi. La sua valutazione è piuttosto nota. La I.A.R.C. in questa valutazione considera in dettaglio questi studi e, in generale, esprime per questi studi qualche osservazione, qualche descrizione, qualche commento a supporto delle proprie tesi. Ricordo che per quanto riguarda il CVM la I.A.R.C. dice: "il cloruro di vinile è cancerogeno per l'uomo e i suoi organi bersaglio sono il fegato, il cervello, il polmone e il sistema linfoemopoietico", quindi nella conclusione è molto forte, mentre per il PVC dice: "gli studi disponibili che indicano una aumentata proporzione di tumori digerenti nei lavoratori di entrambi i sessi e possibilmente del sistema urinario e della mammella nelle lavoratrici implicate nella lavorazione della plastica, compreso il cloruro di polivinile, sono insufficienti per valutare la cancerogenicità di questo composto". Per inciso, faccio presente che non è stata più condotta da parte dello I.A.R.C. nessuna valutazione o rivalutazione per quanto riguarda il PVC. Faccio anche presente che, in generale, non vi è alcun giudizio di qualità sui singoli studi considerati e vengono messi sullo stesso piano studi che hanno chiaramente una validità differente in termini metodologici. Faccio anche presente che la qualità epidemiologica di questo primo gruppo di lavori, perlomeno se la leggiamo rispetto ad oggi, non è decisamente molto buona, fatti salvi alcuni lavori come quello di Fox e Collier e di Waxweiler e di Nicholson. Qualcheduno però, per esempio quello di Nicholson, che è uno studio metodologicamente molto buono, però è uno studio molto piccolo e che quindi non può andare nel dettaglio dei tumori che a noi sono di particolare interesse, per cui si ferma a parlare solamente dei tumori generali. In particolare, la problematicità di questi studi è, per quanto riguarda la definizione delle coorti e la valutazione della esposizione, ma su questo tema tornerò anche più avanti. Dopo il '79 cosa succede? Studio Buffler, studio di coorte di mortalità, un impianto di produzione del cloruro di vinile monomero della Dow Chemical, lavoratori che hanno lavorato almeno due mesi consecutivi nel reparto cloruro di vinile tra il '48 e il '75. Devo dire che questo è l'unico studio americano che forse non è più stato seguito da nessun altro aggiornamento, non sono riuscito a capire dalla letteratura se questo studio è entrato poi in valutazioni successive, perché non sempre vengono indicati con dettaglio i nomi dei partecipanti. Bene, la Dottoressa Buffler ha studiato 480 soggetti, quindi anche questo è uno studio piuttosto piccolino, osserva nessun tumore del fegato, nessun angiosarcoma, 5 tumori respiratori, un SMR di 290. Quando fa un'analisi per latenza, con una latenza di cinque anni, questo SMR, che è sempre significativo, da 290 scende a 270, però rimane elevato, e dice, fa questi commenti: "l'esposizione iniziale al cloruro di vinile per tutti e 4 - sono 4 i lavoratori con più di 5 anni di latenza - i lavoratori che sono deceduti per tumore polmonare è avvenuta a metà carriera lavorativa. La mancanza di informazioni sui lavori svolti in precedenza e sulle relative esposizioni rende difficile l'interpretazione dei risultati statistici emersi. Inoltre, a causa della incapacità di evidenziare una relazione dose-risposta significativa, non si può affermare che l'eccesso di tumori respiratori osservati sia dovuto al cloruro di vinile, però i dati suggeriscono che tale relazione possa esistere. A causa dei risultati inconsistenti fino ad oggi, ulteriori studi sulla relazione dose-risposta e sui confondenti sono necessari. L'evidenza che associa l'esposizione a cloruro di vinile con il rischio di tumori di varie sedi, incluso il tumore del polmone, è inconsistente". Questo studio è uscito a cavallo della valutazione I.A.R.C., per cui può darsi che nel momento in cui è stato scritto dall'autrice lo I.A.R.C. non avesse ancora esposto le proprie considerazioni, quindi non lo considererei come uno studio post-valutazione I.A.R.C., anche se magari come data può essere uscito successivamente. Mentre invece successivamente allo studio I.A.R.C. è uscito questo lavoro importante di Norman Breslow, uno statistico al quale tutti facciamo riferimento, e J.J. Beaumont, anche lui a quel tempo al N.I.O.S.H., lo studio è firmato dal N.I.O.S.H., dal titolo "Considerazioni di potenza negli studi epidemiologici sul cloruro di vinile", '81. In pratica gli autori considerano le tre sedi principali di tumore e vanno a vedere qual è la consistenza in termini di potenza dello studio delle ipotesi che sono state affrontate, e dicono: "i dati che riguardano il tumore del fegato suggeriscono fortemente che la sostanza chimica è cancerogenica; gli studi invece che riportano il tumore del cervello hanno una potenza molto variabile; in generale, gli studi che hanno una potenza superiore indicano una significatività statistica, mentre invece sono non significativi gli studi che hanno una potenza inferiore". Per quanto riguarda invece il tumore del polmone, dicono: "due studi che erano negativi avevano una potenza veramente molto alta. La mancanza di trend e' evidenza che il cloruro di vinile può non essere un cancerogeno per il polmone oppure che i rischi che sono stati studiati sono molto inferiori da quelli che sono stati assunti", 1,5 erano i rischi che sono stati assunti. La conclusione è: "mentre i risultati per il tumore del fegato e del cervello sono risultati - secondo loro - consistenti, con un ruolo eziologico del cloruro di vinile, per il tumore del polmone i dati non sono consistenti con un ruolo eziologico", e l'argomento fondamentale è che i due studi più grandi e più potenti non erano in accordo con l'ipotesi di un eccesso. E` uno studio dell'81, è uno studio che ha già conosciuto la valutazione dello I.A.R.C., ed è il primo che si dissocia in maniera evidente e con argomenti da questa valutazione. E` il primo di tanti, perché questa frase problematica sul fatto che ci sia o meno evidenza di effetti per quanto riguarda siti diversi dall'angiosarcoma, dal tumore del fegato, ritroviamo in moltissimi altri studi. Salto qualche studio che può non servire perché è ripetizione esatta di studi precedenti, come quello di Chiazze, considero invece lo studio di Cooper. Cooper riprende lo studio di Tabershaw, erano 33 le fabbriche studiate di Tabershaw, lui allarga lo studio e spiega come mai si è arrivati alle 33 e dice: "abbiamo considerato 43 impianti di 19 società americane, 4 erano stati esclusi perché in funzione per meno di cinque anni, uno perché aveva interrotto la produzione prima del '66, 4 perché mancava la descrizione delle storie lavorative dei soggetti. Oltre a questi iniziali ne sono stati aggiunti altri 3, portando il totale dello studio a 37 impianti". Sono circa 10173 soggetti studiati. Allarga lo studio di Tabershaw, che aveva, e lo sottolineo perché mi è sembrato un argomento che è stato suscitato anche in questo procedimento, lo studio di Tabershaw aveva una completezza dell'85 per cento, cioè non era riuscito a trovare lo stato in vita per una quota rilevante della coorte. Cooper porta leggermente avanti questa quota, arriva circa al 95 per cento di completezza della coorte. Trova 8 angiosarcomi, niente altro per i tumori del fegato, trova 25 tumori dell'apparato respiratorio - siamo a 10 mila soggetti, trova 25 tumori dell'apparato respiratorio contro 24 attesi, SMR 107, 12 tumori del cervello contro 6, SMR 200, 9 leucemie contro 6,6, 143 di SMR, e 11 linfomi contro quasi 11, SMR 110. Fa un'analisi per classe di esposizione, fa un'analisi per latenza, riporto l'analisi per latenza per i tumori dell'apparato respiratorio, trova 80 come SMR per i soggetti con meno di 20 anni di latenza, non significativo, trova 116 per i soggetti con 20 anni di latenza, non significativo, trova 100 per i soggetti con più di 25 anni di latenza, non significativo anche questo. Fa questa considerazione: "l'unico eccesso significativo è stato riscontrato per neoplasie maligne del cervello e del sistema nervoso, oltre agli 8 angiosarcomi segnalati, l'ingrandimento dello studio e il miglioramento del follow up non sono serviti a rafforzare le associazioni proposte tra esposizioni a CVM e tumori maligni, neppure l'associazione con tumori del cervello e sistema nervoso centrale, le notizie a disposizione sui tumori del cervello non sono sufficienti per provare o escludere un rapporto di causa-effetto tra esposizione professionale e tumori, i risultati suggeriscono che, tranne per una provata associazione con l'angiosarcoma epatico e una forte indicazione per i tumori del sistema nervoso centrale, il vinil cloruro probabilmente non è collegato con un eccesso significativo di tumore in altre sedi". 1981, quest'anno è particolarmente produttivo, Molina, studio di coorte di mortalità e di incidenza tumori nei lavoratori di 4 fabbriche di trasformazione anche qua del PVC in Svezia. Molina non trova assolutamente niente, sono 2000 persone. Anche il lavoro di Molina poi verrà seguito da altri lavori svedesi, è il primo dei lavori svedesi. Non trova niente per quanto riguarda i tumori polmonari, i tumori in genere. Trova, invece, degli eccessi per quanto riguarda le malattie cardiovascolari e sui tumori la sua conclusione è di questo genere: "la coorte nel complesso non rivela alcun aumento nel rischio complessivo rispetto alla media nazionale e non vi è alcuna indicazione di aumenti nei sottogruppi che contribuiscono alla coorte". Indica anche, fa un'analisi dei tumori del digerente e indica che dei tumori del digerente, 11 tumori del digerente, uno era un tumore del fegato. Per quanto riguarda, ha fatto un'analisi per la mortalità, ha fatto anche un'analisi per la morbosità. Per quanto riguarda la morbosità, per i tumori i risultati sono incerti, vi sono indicazioni di un eccesso ma le differenze non sono statisticamente significative, i risultati né confermano né rifiutano l'esistenza di un eccesso o la sua inesistenza, prevalentemente per problemi di corta latenza. Theriault, è un canadese, '81, studio di coorte di mortalità di lavoratori esposti a CVM per più di 5 anni, 450 esposti. L'aspetto interessante del lavoro di Theriault è che il primo che anzichè confrontare i risultati con la popolazione generale, confronto che sappiamo essere effetto influenzato dall'effetto lavoratore sano, oltre a confrontarsi con la popolazione generale crea anche un gruppo di cosiddetti non esposti, costituito da 870 soggetti di un'altra fabbrica, di un complesso industriale vicino. E` il primo studio in cui vengono messe a confronto due coorti lavorative anzichè solamente una coorte lavorativa con la mortalità occupazionale. Lo studio non è grande, sono 450 i soggetti esposti, trova due tumori dell'apparato respiratorio con un SMR di 36, trova 8 tumori del fegato SMR molto elevato, statisticamente significativo, sono tutti angiosarcomi, e trova questo eccesso sia con il riferimento interno che con il riferimento esterno, i due risultati sono piuttosto simili, trova un solo tumore linfoemopoietico contro 1,7 attesi. Fa anche un'analisi per i soggetti con più di 15 anni di latenza e dice "ha dato gli stessi risultati della mortalità complessiva". Nell'introduzione ripete "vi è molta controversia sulla capacità del CVM di generare nell'uomo tumori diversi dall'angiosarcoma, i risultati sono simili nei due confronti, nessun tumore diverso dal digerente era in eccesso e vi sembrava essere un deficit per il tumore respiratorio". Veniamo a Waxweiler, che è un lavoro che dobbiamo considerare bene, è già stato considerato piuttosto bene perché è la base di molti dei ragionamenti che sono stati fatti. Studio di coorte di mortalità dei lavoratori di un impianto di polimerizzazione, è lo stesso studio del '76 che lui ha pubblicato. Qui siamo nell'81, rispetto allo studio del '76 viene allargata la coorte a considerare tutti i soggetti impiegati nell'impianto, mentre prima aveva ristretto per durata, inoltre utilizza anche uno studio caso-controllo innestato all'interno dello studio. Ed applica un particolare modello di valutazione dell'esposizione per vedere se l'eccesso che ha riscontrato è associato a qualche particolare esposizione. Lo stesso impianto sarà studiato da Wong ma soprattutto sarà studiato con la stessa metodologia e a partire dalle stesse informazioni sull'esposizione da Wu, naturalmente Wu estenderà il periodo perché lo studio è dieci anni dopo. Sono 4806 persone, segnala 42 tumori del sistema respiratorio, con un SMR di 149 significativo, 9 tumori del cervello con un SMR di 200 significativo, 9 linfoemopoietico contro 11 attesi SMR di 80. Quando fa la latenza superiore a 10 anni per i tumori del sistema respiratoria SMR sale leggermente, da 149 sale a 156, e fa questa considerazione - stiamo studiando tutta la coorte - e dice: "l'analisi precedente, cioè quella dei soli esposti a CVM aveva trovato un SMR di 156 dopo dieci anni di latenza, anche questo studio ha trovato un SMR di 156 dopo dieci anni di latenza, questo sta ad indicare che l'eccesso di tumori polmonari non è dovuto solo a CVM". Aggiunge ancora: "l'eccesso di tumori polmonari nell'impianto sembra essere indipendente dall'esposizione a CVM". Poi infine fa una proposta che credo val la pena di considerare con attenzione e dice: "le particelle di polvere di PVC nel polmone" - si chiede cosa può spiegare verso SMR elevato per tumore del polmone, e sposta l'accento dal CVM alla polvere di PVC e dice - "le particelle di polvere di PVC possono rilasciare nel polmone lentamente il CVM nelle piccole aree adiacenti prolungando quindi il contatto della sostanza chimica, etc.. In altre parole attribuisce al CVM questo effetto, però aggiunge "se ciò è vero.." - e quindi propone in modo di ipotesi la sua conclusione - "ci si chiede come mai quasi tutti i casi di angiosarcoma siano avvenuti tra i pulitori dei reattori di polimerizzazione che avevano ricevuto dosi estremamente alte di CVM, mentre i tumori del polmone sono avvenuti frequentemente tra i meno fortemente esposti, infatti non è stata osservata alcuna relazione tra CVM e tumore del polmone in questo studio mentre ci si sarebbe attesi che il polmone fosse la principale via di entrata del CVM a prescindere dalla sede del tumore". E` molto interessante questa considerazione di Waxweiler. Lo studio di Waxweiler è sempre stato considerato come uno studio che dimostra la presenza di un effetto, ma lui stesso nelle sue conclusioni propone questo risultato e questa osservazione come ipotesi, come ipotesi esplicativa e con la problematicità che ho indicato. A seguire Weber.

 

Presidente: l'eccesso per quanto riguarda il tumore al fegato, qual è stato quello rilevato nell'81?

 

RISPOSTA - Sono 12 osservati, SMR di 1500, parliamo di fegato. No scusi ho preso l'articolo di Weber, le ho dato un'informazione errata. Parla di 24 tumori dell'apparato digerente, Waxweiler, non parla di tumori al fegato.

 

Presidente: ricomprende..?

 

RISPOSTA - I tumori del fegato stanno all'interno dei tumori all'apparato digerente.

 

Presidente: ma non distingue?

RISPOSTA - No.

 

Presidente: l'SMR di quant'è?

RISPOSTA - 94. Lo studio successivo è di Weber, 1981, studio tedesco, lavoratori tedeschi ed austriaci che hanno lavorato negli impianti della Germania che producono CVM e PVC, vengono studiati tre tipi di coorti, produttori di CVM e PVC, processatori di PVC ed una coorte di riferimento, lavoratori dell'industria chimica non esposti a PVC. Sono 7 mila soggetti produttori di CVM e PVC, 4 mila processatori e circa 5 mila i non esposti a CVM e PVC. Trova 12 casi di tumori del fegato nel CVM, SMR 1500 significativo, e trova 3 tumori al fegato SMR 434 nei processatori del PVC e trova 4 tumori del fegato nell'altra coorte, SMR 400 significativo. Trova 2 tumori del cervello, SMR di 160 nel CVM, 5 tumori del cervello SMR 500 tra i processatori di PVC, trova 15 tumori del linfoemopoietico SMR 200 tra i produttori, 2 tra i processatori SMR 34, etc.. Fa un'analisi per durata dell'esposizione e trova un andamento crescente degli SMR per tumore del fegato all'aumentare della durata di esposizione, e lui conclude appunto che c'è con chiaro aumento dell'SMR con l'aumentare della durata dell'esposizione per il tumore del fegato, mentre non parla nello studio di tumore del polmone, non si parla di tumore del polmone. Nell'82 esce anche una nuova monografia dello I.A.R.C., supplemento quattro, già citata, in cui si parla dell'evidenza di cancerogenicità umana per il cloruro di vinile, giudicandola sufficiente, e si dice: "il cloruro di vinile è stato categorizzato nel gruppo uno dal precedente gruppo di lavoro, dati sugli uomini", si ripete lo stesso giudizio del '79, si dice però in una nota che: "i dati sull'uomo e sugli animali non sono stati rivalutati dal presente gruppo", quindi è semplicemente un riporto di una definizione precedente senza aggiungere informazione. Qui viene lo studio dei russi. I russi sono citati diverse volte, però io temo che sono stati citati senza avere letto i lavori, posso capirlo, sono scritti in russo e di conseguenza non sono facili alla comunità scientifica che purtroppo parla solamente o prevalentemente l'inglese, però ci siamo dati la briga di tradurli e di conseguenza abbiamo potuto leggerli nel loro complesso. L'aspetto interessante che emerge da questi studi è il seguente: sembrano tre studi differenti, faccio i nomi, Filatova, Fedotova e poi Smulevich successivamente, La Smulevich scrive in inglese invece, quindi è quella a cui si può fare riferimento, quando arrivo alla sua data ne parlerò più direttamente, volevo intanto anticipare questo: Filatova e Fedotova hanno scritto solamente in russo. In effetti non si tratta di tre sudi di russi ma si tratta di uno studio solo, studiano 3.232 persone ed usano come popolazione di riferimento la popolazione della città, sono sette fabbriche dell'Unione Sovietica e studiano come riferimento la popolazione della città, grossomodo, non so se corrisponde esattamente alle nostre idee di città, ma la popolazione delle città in cui queste industrie ci sono e la popolazione urbana dell'URSS, anche qua ammetto di far fatica a capire che cosa possa contenere il concetto, però queste sonole indicazioni che loro danno. Le cose che mi hanno colpito di più di questi studi sono due, la prima è che non c'è segnalazione di quanti sono i casi, per nessuna patologia loro dicono quanti sono i casi, segnalano solamente gli SMR, per cui segnalano per esempio, la Filatova: un SMR di 140 per il polmone, un SMR di 90 per il cervello, un SMR di 240 per il linfoemopoietico per i maschi, addirittura un SMR di 1200 per le donne, per il linfoemopoietico e dicono: per quel che riguarda l'angiosarcoma del fegato bisogna dire che esso non è stato riscontrato nelle nostre ricerche, lo stesso vale anche per gli altri tumori del fegato. Questo per quanto riguarda la Filatova. Per quanto riguarda la Fedotova, ed è il secondo aspetto problematico dello studio, uno studio che è basato sugli stessi tipi di soggetti, sullo stesso tipo di confronto, io perlomeno dall'analisi delle caratteristiche che sono indicate non sono stato in grado di capire le eventuali differenze, ma qui mi appello all'osservazione che ho fatto all'inizio, ci fossero le due dottoresse probabilmente indicherebbero perché questi risultati sono differenti, hanno trovato dei risultati completamente differenti che riporto: tumore del polmone è diventato 90, linfoemopoietico nei maschi è diventato 140, nelle femmine è diventato 450. Questo per quanto riguarda questi autori. Ho già detto Greiser che pubblica poi nell'82 uno studio in tedesco completo, fa l'analisi completa dei dati che non aveva riportato in precedenza, e da lì ho ricavato allora il dato sul tumore del polmone che era quello che mancava, il tumore del polmone è molto semplice perché gli esposti a CVM hanno 22 casi osservati, un SMR di 95, quelli al processo, alla trasformazione, 116 di SMR, 24 osservati, e la popolazione, la terza coorte lavorativa 108 con 30 osservati.

 

Presidente: gli studi della Filatova e Fedotova erano su esposti a CVM o a PVC?

 

RISPOSTA - Con la genericità della descrizione che viene data dagli articoli loro indicano 7 fabbriche, 3.232 persone che avevano lavorato a contatto con il cloruro di vinile, che dettagliano in questo modo: 7 fabbriche che producevano cloruro di vinile e PVC. Commento di Greiser, fa riferimento a Fox e Collier e dice: "mentre Fox e Collier includono nel loro studio tutti i soggetti che potevano essere esposti al cloruro di vinile monomero, lo studio tedesco è limitato ai lavoratori che erano esposti in modo certo e continuo, ne risulta uno studio tedesco con un'esposizione paragonabilmente più elevata". 1984, uno studio che viene dalla Norvegia, Storetvedt Heldaas è l'autore, mortalità ed incidenza tumori dei lavoratori produttori di cloruro di vinile e polivinile che avevano lavorato per più di un anno, una fabbrica di 1233 soggetti, di questi solo 454 sono entrati nello studio perché hanno lavorato per più di un anno: 5 casi di tumore su 454, 5 casi di tumore del polmone SMR 180 non significativo, interessante questi autori trovano 4 casi di melanoma contro 0,79 attesi, 510 di SMR. Anche loro introducendo il lavoro dicono: "se il CVM ha potenza di indurre nell'uomo tumori in organi diversi dal fegato non è ancora stato confermato.." e l'aspetto interessante di questo studio è che mette in evidenza un eccesso che nessun altro studio ha messo in evidenza, che è quello appunto sul melanoma. 1986 lo studio di Wong. A volte si fa riferimento a Wong come lo studio del '91, è semplicemente perché lo studio del '91 è la pubblicazione su rivista scientifica dello studio dell'86, siccome la relazione è a disposizione si può commentare in questo periodo anzichè poi successivamente nel '91. Studio di coorte di mortalità di 10 mila soggetti maschi, vengono considerati 37 impianti, nello studio ne vengono poi effettivamente compresi 32. Lo studio segnala 37 tumori di fegato e bile, SMR di 640 significativo, 15 di questi sono angiosarcomi, lo studio segnala 111 tumori del polmone SMR 96, 23 tumori del cervello SMR 180, 37 linfoemopoietico SMR 100-102. Fa un'analisi per durata dell'esposizione, riporto per esempio i dati per il tumore del polmone, minore di dieci anni di durata SMR 93, tra 10 e 20 SMR 114, oltre 20 SMR 75. Fa un'analisi per latenza - riporto ancora il polmone - minore di 20 SMR 103, tra 20 e 30 SMR 105, maggiore di 30 SMR 72. Fa una distinzione poi per tipo di impianto, esposizione a CVM piuttosto che PVC, sempre tumore polmone, CVM SMR 150, PVC SMR 90-93. Conclusione: i lavoratori del cloruro di vinile sperimentano significativi eccessi di mortalità per angiosarcoma, tumori del fegato e vescichetta biliare e tumori del cervello e sistema nervoso. Lo studio non ha trovato alcun eccesso sia per i tumori respiratori che per i tumori linfoemopoietici. L'unico trend osservato per latenza è quello per il tumore del fegato, per il tumore del cervello e sistema nervoso il trend, sia per l'età all'assunzione che per periodo di assunzione, appare opposto a quello per il tumore del fegato. Vale a dire che loro hanno trovato che l'andamento degli SMR per età all'assunzione cresce al crescere dell'età all'assunzione, più uno è assunto vecchio e più è alto SMR, e per periodo di assunzione, più uno è assunto in periodi più recenti e più è alto l'SMR, mentre per il fegato hanno trovato l'andamento opposto, più uno è stato assunto giovane e più era alto l'SMR, più era stato assunto in anni vecchi e più era alto l'SMR. Anche loro commentano: "mentre vi sono pochi dubbi sulla relazione tra esposizione a cloruro di vinile ed angiosarcoma del fegato vi è ancora controversia sull'associazione tra cloruro di vinile ed altre sedi tumorali, tumori del sistema digerente, del sistema respiratorio, nervoso centrale e linfomi". "I due rapporti precedenti sullo stesso studio, Tabershaw e Cooper sono giunti a conclusioni leggermente differenti: concordanza su angiosarcomi e tumori del cervello, questione non risolta su tumori differenti diversi da angiosarcoma, tumori del polmone e linfomi", sono sempre commenti degli autori.

 

Presidente: Ritiene di fare una piccola sospensione, se non disturba la sua relazione, facciamo un'interruzione di un quarto d'ora e poi riprendiamo.

 

Breve sospensione dell'udienza.

 

Presidente: può riprendere.

 

RISPOSTA - Mi rendo conto che ho preso un po' di tempo e quindi cercherò, non di velocizzare nella parola altrimenti poi non si capisce, ma di lasciare indietro qualche informazione che è meno importante. Per esempio c'è un secondo studio di Heldaas che trova dei risultati sostanzialmente uguali al primo, e quindi non lo riprendo, lo studio ancora sul melanoma. A questo punto siamo al 1987, ci sarebbe anche lo studio di Belli, Bertazzi, Comba, etc., però è la prima parte di uno studio più grande, e lo discuto magari più avanti, quando discuto lo studio completo. A questo punto con l'evidenza che ho presentato, con gli studi che ho presentato la I.A.R.C. fa una seconda valutazione di cancerogenicità e la fa sul cloruro di vinile, riconclude ancora "c'è evidenza di cancerogenicità per l'uomo sufficiente" mentre per il PVC non fa nessuna valutazione. La differenza tra questa seconda valutazione e le precedenti però, anche dal punto di vista della forma, della modalità e della valutazione è differente. La I.A.R.C. valuta innanzitutto un enorme numero di sostanze in questo supplemento, ed anche nell'esposizione degli studi, mentre nella prima valutazione aveva descritto con dettaglio le caratteristiche di ogni singolo studio, da cui si evinceva come mai era stato scelto o selezionato, come indicatore di un'ipotesi piuttosto che di un'altra, in questa valutazione la I.A.R.C. si limita ad enunciare "alcuni studi confermano anche che l'esposizione a cloruro di vinile causa altre forme di tumore" e fa per ogni tumore l'elenco degli studi che hanno portato, diciamo, secondo la I.A.R.C. questa evidenza. Quindi si capisce che è una bilancia che ha dei piatti un po' diversi in questa seconda valutazione. Per quanto riguarda l'esposizione a polveri di PVC dice "è stata associata con un'aumentata incidenza di tumori del polmone in uno studio, gli autori suggeriscono che il responsabile fosse il monomero intrappolato nel PVC" e su questo ho già dato le indicazioni di maggior dettaglio di Waxweiler per quanto riguarda il risultato. Poi aggiungono che il melanoma è risultato in eccesso in uno studio norvegese ma un è menzionato in altri, rischi leggermente elevati per il tumore gastrico e grastroinstetinale diverso dal fegato sono stati indicati in alcuni studi ma non confermati in altri. Questa è la sintesi dello I.A.R.C., di quello che è emerso fino al '79 e dopo, fino all'87. A questo punto escono uno studio, siamo nell'87, esce uno studio francesce, Laplanche, esce due volte questo studio, prima con un follow-up più breve e poi con un follow-up più lungo, lo prendo quindi quando è più lungo in modo tale che do un'unica visione, esce un altro studio di Heldaas, aveva trovato ancora il melanoma, esce uno studio di Dahar che riprende un altro degli studi americani, una delle fabbriche degli studi di Tabershaw, la fabbrica che era già stata studiata prima da Ott, c'è questo continuo purtroppo collegamento che ci mette qualche difficoltà nel distinguere quali sono gli studi. 593 soggetti, un tumore del fegato, 0,6 attesi, 10 tumori dell'apparato respiratorio contro 11,3 attesi SMR 89. Esce poi ancora - così mi soffermo su quelli che sono più rilevanti - esce a questo punto nell'89 lo studio di Jones. Lo studio di Jones è uno studio che riprende tutte le coorti inglesi studiate da Fox e Collier nel '76 e '77, 9 impianti chimici inglesi nella manifattura o polimerizzazione del cloruro di vinile, impiegati per almeno un anno, in una mansione con potenziale esposizione a CVM, per almeno il 25 per cento del proprio tempo lavorativo, quindi introduce delle varianti, aggiorna lo studio di Fox e Collier, soprattutto usa criteri più restrittivi per l'entrata nella coorte, 25 per cento del proprio tempo lavorativo di esposizione, categorizza l'esposizione sulla base di informazioni più dettagliate sulle esposizioni che sono diventate disponibili nel frattempo ed aggiunge dieci anni di follow-up, trova 11 casi di tumore del fegato contro 1,9 atteso SMR 567 significativo, di cui 7 angiosarcomi, 4 tumori del fegato non angiosarcomi SMR 250, 81 casi del polmone SMR 88, 4 tumori del cervello SMR 65, 9 linfoemopoietico SMR 151, nessuno di questi significativo. Dopodiché fa un'interessante analisi che riguarda le mansioni, e fa un'analisi per alcune cause, il tumore del polmone, il tumore del cervello e linfoemopoietico per mansione, ed usa come mansioni autoclavisti, insaccatori, "..." non so se la traduzione è esatta, io presumo che questi siano un po' l'equivalente degli insaccatori che poi troviamo all'interno del nostro studio. E cosa dice: per quanto riguarda gli autoclavisti tumore al polmone 16 contro 17 SMR 94, per quanto riguarda insaccatori 5 contro 8,7 SMR 57 e così via. Analogamente tumore del cervello autoclavisti SMR 70, insaccatori SMR 135; linfoemopoietico autoclavisti SMR 160, insaccatori 164 con 2 ed 1 caso, anche il cervello era un caso per ogni mansione. Nella precedente udienza a questo studio è stata fatta l'osservazione che c'erano dei numeri che non quadravano, in particolare perché in una tabella, che è quella che ho citato, si parla di 5 insaccatori contro 8,75 per il tumore del polmone, è la tabella 3, nella tabella 5 invece, sempre il tumore del polmone e per gli insaccatori, si parla di 9 casi osservati e 15,4 attesi. La differenza è semplice ed è contenuta nel testo dell'articolo ed è la seguente: nella prima tabella loro hanno fatto un'analisi che è concepita in questo modo, se uno è autoclavista lo classifico autoclavista, a prescindere da quello che ha fatto dopo, se uno è insaccatore e prima era autoclavista è già autoclavista, quindi classifico negli insaccatori quelli che non sono stati autoclavisti ma solo insaccatori o altre cose dopo. In questo modo ci sono 5 tumori del polmone tra gli insaccatori contro 8,7 attesi. Nell'altra analisi invece loro fanno un bilanciamento e dicono: "chi ha fatto l'insaccatore può avere fatto l'autoclavista prima, come mettiamo in evidenza questo effetto?", allora fanno questa nuova categoria che è insaccatori ma intesa nel senso di "qualunque altra mansione hai fatto, se hai fatto l'insaccatore ti classifico tra gli insaccatori", in questo modo in questa seconda tabella ci sono dei lavoratori che hanno fatto anche altri lavori, in particolare che hanno fatto autoclavisti, che prima erano classificati come tali e che qui vengono classificati adesso come autoclavisti. Lui ha fatto una doppia analisi, dapprima un'analisi ristretta facendo come una gerarchia dell'esposizione, "è più importante questa, segue quest'altra, segue la terza", nella seconda tabella hanno fatto un'analisi dicendo: "hai fatto l'insaccatore, ti classifico come insaccatore". Questo è il materiale contenuto nell'articolo di Jones e che giustifica quindi come mai hanno trovato valori differenti per quanto riguarda queste due tabelle. Non c'è nessun tipo di errore, è una differente classificazione dell'esposizione, una più ristretta ed una più ampia. Se si nota non sono solo i casi che sono diversamente classificati, sono anche i valori attesi che sono diversamente classificati, perché è ovvio che se cambio la definizione o il concetto di esposizione, cambia per i casi, ma cambia anche per gli attesi, cioè per la rimanente parte della popolazione. Questa è la conclusione, la spiegazione dei differenti valori riportati da Jones. A mio modo di vedere non c'è nessun tipo di errore ma sono due differenti analisi a cui possiamo dare il peso che vogliamo, però con possiamo attribuirle ad errore. Loro ancora dicono: "nonostante il volume di letteratura oggi disponibile nell'esposizione a cloruro di vinile deve essere ancora stabilito se questa sostanza causi un aumento di tumori maligni in sedi diverse dal fegato" e poi dicono: "si è osservato un eccesso di mortalità per tumore del fegato statisticamente significativo, largamente dovuto a 7 casi di angiosarcoma, 6 dei quali avvenuti in una sola fabbrica, tutti in autoclavisti. Se il CVM gioca un ruolo nella genesi di altri tumori primari del fegato, il suo suo effetto è di gran lunga più debole che per l'angiosarcoma, nessuna chiara evidenzia di un aumento di rischio per tumore polmonare emerge per latenze piu' lunghe, gli autoclavisti con più di 20 anni di latenza mostrano un eccesso non significativo, 10 osservati, 154 di SMR, ma un eccesso non significativo con questi piccoli numeri deve essere guardato con cautela, pertanto i risultati dello studio non dimostrano alcuna associazione tra esposizione a CVM e mortalità per tumore polmonare. Nel complesso la popolazione non ha mostrato alcun eccesso per tumore del cervello, lo studio non offre nessuna evidenza statistica o aneddotica, per un'associazione tra tumore del cervello ed esposizione a CVM". E questo è Jones. C'è il lavoro di Smulevich a cui ho già accennato, in pratica replica, riporta con qualche leggera modifica i risultati che ho già indicato in precedenza, e quindi lo salto, veniamo invece al lavoro di Wu: "studio di coorte di mortalità dei lavoratori che hanno lavorato in un impianto per la polimerizzazione", prima parte dello studio, seconda parte: "studio caso-controllo innestato nella coorte". I casi sono i morti per la causa di interesse e lui ne studia tre: tumori del fegato, del cervello e del polmone, i controlli sono cinque soggetti, estratti dalla stessa coorte, cinque soggetti per ogni caso, appaiati per età e scelti in modo opportuno all'interno della coorte. Lo studio aggiorna lo studio di Waxweiler del '76 e di Waxweiler dell'81, allargandone il periodo di follow-up fino all'86, inoltre questo studio era già all'interno dello studio di Wong. La valutazione dell'esposizione fatta da Wu è la stessa utilizzata e fatta da Waxweiler, non ci ha messo nient'altro di nuovo, e fa due analisi in buona sostanza. La prima riguarda la coorte totale e quello che lui chiama il sottogruppo degli esposti a CVM, fa questa analisi per il fatto che ha allungato il follow-up e di conseguenza ha molti più casi, 115 casi di tumore polmonare rispetto ai 42 che aveva esaminato Waxweiler, quindi è in dovere di dare dei risultati complessivi ancora per lo studio, ed i risultati sono questi: la coorte totale: 18 tumori del fegato SMR 300 significativo, il sottogruppo che lui chiama esposti a CVM, 14 tumori del fegato 333 SMR significativo. Dei 18 tumori 12 sono angiosarcomi. Tumore del polmone: 115 casi nella coorte totale SMR 123 significativo, la coorte totale comprende anche non esposti a CVM, se guardiamo gli esposti a CVM gli osservati sono 80 SMR 115 non significativo. Cervello: 15 casi, 162 di SMR nella coorte totale, 10 casi 145 di SMR negli esposti. Linfoemopoietico: 23 casi, 87 di SMR nella coorte totale, 15 casi 78 di SMR nella sottocoorte degli esposti. Aggiungono: "nella coorte complessiva vi è un aumento di tumori del fegato, del polmone e del cervello, nella sottocoorte di CVM persiste questo aumento di rischio che però non è significativo per il tumore del polmone e del cervello. A questo punto inseriscono questo studio caso-controllo e lo fanno in modo da sottoporre a valutazione un'ipotesi specifica. Waxweiler aveva già indicato che c'era un eccesso.

DOMANDA - Può spiegare cos'è il caso-controllo?

RISPOSTA - E` un tipo di studio in cui vengono esaminati un gruppo di soggetti considerati casi, perché hanno la malattia, ed un gruppo di soggetti considerati controllo perché non hanno la malattia, dopodichè a ritroso si va a cercare, nella loro storia se è presente, e come, e quali sono le caratteristiche dell'esposizione e quindi tumore polmonare vado a vedere se e come sono esposti, non tumore polmonare vado a vedere se e a come sono esposti, il confronto avviene poi sulle esposizioni, perché è chiaro che se la distribuzione delle esposizioni è uguale nel tumore polmonare e non nel tumore polmonare vuol dire che non è l'esposizione che ha dato origine al tumore polmonare. Questa è la filosofia di ragionamento. Anzichè partire dalle esposizioni ed andare a cercare cosa succede, si parte dai casi e si a cercare se erano esposti. In questo studio particolare, lo studio viene innestato, in pratica loro hanno lì la coorte e questo ragionamento lo fanno entro la coorte, perché? Perché vanno a cercare delle ipotesi specifiche, vanno ad approfondire il discorso sull'esposizione. Waxweiler aveva posto un punto di domanda sulla relazione, aveva posto un'ipotesi. Lo studio, la posizione che Wu assume innanzitutto, è quella di dire: "so già che questa fabbrica che è stata studiata da Waxweiler che ha prodotto quei risultati, vado alla verifica in maniera più dettagliata" e infatti l'analisi del caso-controllo riguarda l'esposizione cumulativa dei soggetti a CVM, polvere di PVC e butadiene. Viene costruito quindi un indicatore di esposizione cumulativa, viene fatta l'analisi adeguata per questa esposizione cumulativa e gli autori concludono in questo modo: "la sola associazione statisticamente significativa è stata tra dose cumulativa a CVM e tumore del fegato, in pratica facendo questa analisi trovano che tra esposizione a CVM e tumore del fegato c'è un'associazione e la quantificano in questo modo: "il rischio relativo tra i livelli più alti di esposizione e i non esposti è circa 8-7,96. Se suddividiamo gli angiosarcomi dagli altri tumori del fegato l'effetto dose-risposta positivo è risultato solo per l'angiosarcoma". Allora, anche qui i loro commenti finali: "l'associazione tra esposizione a CVM in sviluppo di angiosarcoma è stata ben documentata mentre resta non chiarita la relazione tra CVM ed altre neoplasie. E` stata trovata una stretta relazione dose-risposta tra esposizione a CVM e cancro del fegato mentre i dati non sostengono l'ipotesi che l'aumentato rischio di cancro al polmone e al cervello, che è stato osservato in questo impianto di produzione, sia associato all'esposizione sia di CVM che di polvere di PVC". Sebbene Waxweiler abbia riportato che la polvere di PVC sembri essere associata ad aumento di rischio di cancro al polmone in questo impianto, noi non abbiamo riscontrato una simile associazione, la differenza tra i due studi può essere dovuta ai 13 anni in più di follow-up del nostro studio che portano ad avere più decessi per cancro al polmone, 115 contro 42 per l'analisi. Questo è lo studio di Wu. 1990, ancora in Svezia, studio di Hagmar, mortalità ed incidenza di tumori. La faccio un po' breve. In questa fabbrica si usava anche asbesto, principalmente crisotilo, loro trovano un eccesso di tumori dell'apparato respiratorio, 10 tumori SMR 153, quando fanno una latenza di dieci anni trovano 6 tumori SMR 130, nello studio di morbosità, non solo mortalità, polmone, trovano 13 tumori SMR 186 che diventa 140 quando ho più di dieci anni di latenza e poi, siccome avevano l'esposizione all'asbesto, fanno un'analisi separata tra gli esposti a cloruro di vinile e gli esposti ad asbesto, fanno un'analisi che tenga conto di questa differenza di esposizione e trovano un eccesso significativo di tumori polmonari solo negli esposti ad asbesto, ma non negli esposti a CVM, questa è la sintesi dello studio di Hagmar. Veniamo al '91, Pirastu, Belli e colleghi, è il prodromo dello studio che è stato presentato più volte qua dentro, e quindi sicuramente lo conoscete bene, io chiedo se è necessario che ripeto risultati che già conoscete..

DOMANDA - No, richiami i risultati soltanto.

RISPOSTA - Tumori del fegato, coorte Poold, 8 casi, 4 attesi 200 di SMR statisticamente significativo; tumori del polmone 32 casi, 34 attesi, SMR 93; cervello 2 casi 3,7 attesi SMR 54; leucemie 8 casi 10 attesi SMR 80. Arriverei a Simonato, 1991, come sapete ha fatto un grande studio mettendo insieme praticamente tutti gli studi europei che riguardavano coorti che erano già state attivate da altri, e quindi Italia, Norveglia, Svezia ed Inghilterra, fa un totale di 19 fabbriche, 14 mila soggetti nella coorte. L'aspetto interessante di Simonato è che è l'unico studio, tra tutti quelli pubblicati, che analizza con dettaglio le variabili che descrivono l'esposizione, e quindi analizza variabile che un epidemiologo occupazionale tipicamente dovrebbe considerare, età di inizio ed età di fine esposizione, periodo di inizio e periodo di fine esposizione, latenza, durata dell'esposizione, tipo di produzione, PVC piuttosto che CVM, etc., fa un'analisi molto dettagliata e che è un po' difficile sintetizzare, ma credo che ne abbiate già sentito parlare molte volte, quindi mi limito a qualche risultato fondamentale. Tumori del fegato: 24 osservati, 8 attesi, 286 di SMR statisticamente significativo, 22 del 24 tumori al fegato sono angiosarcomi; tumori del polmone: 144, SMR 97; tumori del cervello: 14, SMR 106; tumori linfoemopoietico: 29, SMR 89. Riporto anche i dati di incidenza: tumori del fegato: 7 SMR 303 significativo; polmone: 22 contro 14, SMR 152 - ricordo che qua dentro c'è lo studio di Hagmar, quello che aveva evidenziato l'associazione precedente con l'asbesto -; tumori del cervello: 8 osservati SMR 159; linfosarcoma: 1 osservato SMR 28. Le analisi sono tantissime, io mi limito a riportare le conclusioni degli autori, perché evidentemente le analisi fatte sono un'enormità, per di più per questo studio esiste anche un rapporto completo, molto più grande di quello pubblicato, è a disposizione, è alla I.A.R.C. che contiene veramente un'enorme quantità di analisi che sintetizzare e riportare, anche visto il tempo, non mi sembrerebbe necessario. Le sue conclusioni sono: tumori del fegato, eccessi molto elevati negli autoclavisti, la durata del lavoro era associata con un'aumentata mortalità, con un trand significativo, meno evidente ma ugualmente significativo con 15 anni di latenza, una relazione esposizione-risposta molto chiara con l'esposizione classificata a ranghi, anche con latenze di 15 anni, il rischio aumenta all'aumentare dell'esposizione cumulativa, questo per il fegato. Polmone: nessun aumento è risultato evidente per il tumore del polmone e neppure si è riscontrata alcuna associazione con le variabili di esposizione, compresa l'esposizione a ranghi e quella cumulativa. Un leggero aumento del tumore del polmone è stato suggerito dai dati di incidenza, non è risultata alcuna apparente relazione con l'esposizione a cloruro di vinile. Cervello: i risultati dello studio non suggeriscono un effetto del cloruro di vinile sulla mortalità per tumore del cervello, l'eccesso nella classe con più di 30 anni di latenza è comunque un'indicazione che un effetto dell'esposizione non può essere completamente negato. Per il linfosarcoma, sebbene un eccesso sia stato suggerito, i piccoli numeri e la mancanza di informazioni sulle variabili di esposizione per alcuni soggetti proibisce un'interpretazione in relazione al cloruro di vinile. Questo è Simonato. Nell'81 esce lo studio di Wong, che ho già considerato prima, e quindi non lo ripeto, e' semplicemente la pubblicazione su una rivista scientifica di un articolo del lavoro che avevano già consegnato, esce anche il secondo lavoro di Laplanche, francese. Questo lavoro è particolarmente interessante come disegno dello studio perché è uno studio di coorte prospettico, vale a dire: parto da oggi e vado avanti a vedere quello che succede, è uno studio di 1100 circa lavoratori esposti e 1100 lavoratori non esposti, anzi mai esposti dice l'autrice, appaiati agli esposti per età, fabbrica e medico, di età 40-55 anni, seguiti per il periodo '80-'88 anche quando si sono dimessi dalla fabbrica, li hanno seguiti attraverso i medici curanti. Hanno fatto confronti per valutare se c'erano differenze su come hanno seguito i soggetti, dicono che secondo loro sono stai seguiti in modo simile, la perdita al follow-up è trascurabile, 2 per cento negli esposti, 1 per cento nei non esposti. Trovano 3 angiosarcomi negli esposti, nessuno nei non esposti; 8 tumori del polmone negli esposti contro 6 nei non esposti, ricordo che le due coorti sono esattamente uguali 1100 soggetti della stessa età. Non trovano tumori del cervello, trovano 1 tumore linfoemopoietico negli esposti e 2 nei non esposti. Concludono dicendo: "nessuno dei rischi per differenti livelli di esposizione differisce da 1" e poi aggiungono "i nostri risultati che mostrano la mancanza di una relazione tra esposizione a CVM ed altri tumori diversi dall'angiosarcoma si accordano con quelli di altri autori", e questa è Laplanche. Poi c'è Lundberg, che è uno studio svedese, è uno studio piccolino, non trova nessun eccesso di nessun tipo, salvo ancora il melanoma, non entro nel dettaglio. L'ultimo studio che segnalo perché è recentissimo, è stato portato alla nostra attenzione opportunamente dal dottor Comba e lo studio di Chung Lee Du e di Jung Der Wang, questi due cinesi di Taiwan, i quali però hanno fatto uno studio oggettivamente difficile perché hanno considerato i ricoveri per patologia e, per fare questo, hanno considerato sostanzialmente cinque fabbriche di PVC ed in queste fabbriche hanno preso i soggetti presenti al lavoro ed esposti, dopodichè hanno raccolto dati su soggetti che erano stati dimessi da quelle fabbriche e per fare questo sono passati attraverso l'ufficio assicurativo del lavoro, io non so se questo potrebbe corrispondere al nostro INPS o qualcosa del genere, un ufficio che registra le storie lavorative, lo stato assicurativo della persona, etc.. Hanno individuato 1500 lavoratori di tutte le altre fabbriche di PVC di Taiwan, hanno preso questi soggetti ed attraverso un'operazione che si chiama di linkage, appaiamento tra dati, sono andati a cercare nei dati dei ricoveri ospedalieri di tutti gli ospedali dell'isola se questi soggetti si erano in qualche modo fatti ricoverare. E quindi si sono messi, come noi diciamo, su una strada molto difficile, lo studio è veramente difficile, è il primo studio che vedo fare in questo modo, che riguarda esattamente i ricoveri ed il fatto che sia difficile è indicato dal fatto che il 90 per cento della loro discussione non è sui risultati, ma è sui potenziali problemi in cui lo studio può essere o può non essere incorso. Io non predo cappello adesso se lo studio è fatto bene o male, ripeto: sono assenti, potrei pigliare una strada sbagliata, metto solo in evidenza la difficoltà della conduzione di questo tipo di lavoro. Cosa hanno trovato? Riporto i loro risultati che sono.. hanno fatto un'analisi particolare, si chiama MOR questa analisi, è il confronto tra i soggetti che hanno una patologia contro i soggetti che ne hanno un'altra, tipo il caso-controllo, simile al caso-controllo, i dettagli tecnici delle differenze li lasciamo stare, li lasciamo agli epidemiologi, facciamo finta che sia come un caso-controllo. Hanno confrontato gli esposti a cloruro di vinile contro due gruppi di altri lavoratori, un gruppo di lavoratori addetti alla produzione di motocicli ed un gruppo di lavoratori addetti alla produzione di strumenti ottici e dicono giustamente, come stato indicato anche in precedenza, che hanno fatto questo proprio per confrontare bene le due popolazioni, per evitare effetti di confronto con le popolazioni generali. Hanno trovato 8 tumori del fegato, nel confronto con i lavoratori della produzione di motocicli hanno trovato un MOR di 6,5 significativo, nel confronto contro quelli dell'ottica un 4,5 significativo, poi hanno trovato 3 tumori respiratori MOR di 1,4 o 1,6 a seconda del confronto e poi quattro tumori del linfoemopoietico MOR 3,4 o 3,1, il primo statisticamente significativo a seconda del confronto. Perché hanno fatto questo studio? Questo studio dovrebbe essere il primo passo di uno studio più ampio che hanno intenzione di fare, ma che, loro dicono, siccome era troppo difficile ricostruire la storia lavorativa passata di ciascun membro della coorte, a causa della povertà dei dettagli delle storie lavorative, per il momento non siamo capaci di impostare un vero studio come tutti gli studi di mortalità finora indicati. Allora hanno iniziato a fare questo tipo di analisi. Bene, io con questo direi che ho concluso l'esame di ogni singolo studio, vorrei trarre la conclusione di questo, mi scuso, lungo ragionamento, ma temo necessario perché non credo che sia stato portato all'attenzione del Tribunale in precedenza, perlomeno con questo tipo di dettaglio. Innanzitutto abbiamo visto che ci sono studi che hanno fatto confronti con la popolazione generale, abbiamo già sentito molto a lungo parlare di HW, healthy worker effect, effetto lavoratore sano, io non intervengo ulteriormente. Abbiamo visto però che ci sono anche quattro studi che hanno fatto dei confronti che nel linguaggio dell'Avvocato Stella chiama dei confronti propri, vale a dire lavoratori contro lavoratori. Theriault, Laplanche, Wu e Chung, e c'è una certa differenza di risultati. Faccio solo notare che nei quattro studi in cui è stato fatto un confronto "proprio" in cui non c'era l'effetto lavoratore sano non sono emersi per esempio eccessi per quanto riguarda il tumore del polmone, sono emersi invece per esempio eccessi ancora per quanto riguarda il tumore del fegato, angiosarcoma, non sono emersi effetti per quanto per riguarda il tumore del cervello, e così via. Non solo, sempre sempre in termini metodologici prima di arrivare al dunque, pochi, pochissimi sono gli studi che hanno analizzato in modo adeguato le variabili fondamentali per l'epidemiologo occupazionale, vale a dire latenza, durata dell'esposizione, esposizione cumulativa o intensità dell'esposizione, altre caratteristiche dell'esposizione come il tipo di produzione piuttosto che la mansione, altre variabili rilevanti come età all'inizio dell'esposizione, periodo di inizio dell'esposizione e così via. Di conseguenza ci troviamo di fronte ad una situazione in cui, nonostante gli studi siano elevati, gli elementi che abbiamo in mano per distinguere l'associazione con l'esposizione sono pochi. Io mi avvio velocemente alla conclusione con queste piccole premesse: "è importante realizzare che le ipotesi possono raramente essere sottoposte in modo definitivo a test in uno studio epidemiologico, anche perché le condizioni e gli ambienti di ricerca non possono essere sempre replicate in modo stretto" Checkoway, non è un mio pensiero, ribadisce la difficoltà di fare questi ragionamenti. Pearce: "le teorie scientifiche non sono generalizzazioni di fatti, piuttosto esse implicano una comprensione dei processi, che fanno in modo che questi fatti accadano. Questo implica che non basta osservare per esempio degli eccessi o dei difetti per trovare delle conclusioni che li spiegano", e qui Pearce fa l'esempio interessante per spiegare il caso dei corvi neri, il suo articolo si intitola "Cigni bianchi, corvi neri e papere zoppe, cause sufficienti e necessarie in epidemiologia", non c'è tempo per fare il riferimento, però.. Aggiunge ancora Checkoway, perche' può essere interessante nel caso del cloruro di vinile: "anche quando una specifica ipotesi è presa in considerazione.." Waxweiler, tanto per intenderci, "una decisione sul tema della causalità non può essere raggiunta sulla base di un singolo studio, al contrario un'ipotesi può essere solo sottoposta a giudizio, etc..". Greenland è Molto più colorito su questo concetto, però per abbreviare ve l'ho risparmiato. Da ultimo, baias da pubblicazione, distorsione da pubblicazione, il concetto è questo, la mia domanda è: "nonostante questi studi sono sicuro di avere esaminato tutta l'informazioni disponibile?" Potrei rispondere dicendo sì se ho raccolto tutta la bibliografia esistente. Ma la bibliografia esistente è tutta l'informazione disponibile? Sì, se tutti i lavori produttori di informazione venissero pubblicati, ma qui sta il punto. Allora riporto ancora, sono costretto a ritornare a quell'articolo iniziale di Science riportando un pensiero: "autori e ricercatori sono preoccupati perché c'è un pregiudizio contro gli studi negativi e perché non sono in grado di farli pubblicare sulle riviste migliori, se non di farli pubblicare del tutto" questo è Angell del New England Journal Editor, del New England Journal of Medicine, che fa questa osservazione, ma è un'osservazione molto condivisa. I grossi studi certamente arrivano a pubblicazione, a prescindere dal tipo di risultato e di commento che propongono, questa è la sensazione, per gli altri invece siamo, io credo tutti, però mai dire mai, convinti dell'esistenza di una grossa distorsione. Vengono pubblicati prevalentemente studi che in qualche maniera riportano un risultato positivo, ciò significa che, a parte appunto i grandi studi, gli eventuali risultati negativi che abbiamo a disposizione non sono il frutto della pubblicazione di veri e propri studi negativi, ma sono risultati negativi che emergono da studi che hanno comunque qualcosa di positivo, per esempio segnalo un eccesso di tumori del fegato però, siccome ho anche i dati per il tumore del polmone che è in difetto, lo metto nella tabella. La domanda è: se non ci fosse stato quell'eccesso di tumore del fegato come sarei venuto a conoscenza del difetto di tumori polmonari? Pesare qual è l'effetto di questa distorsione, nel senso di quanto è sbilanciata la rappresentazione della realtà attraverso le pubblicazioni epidemiologiche non è facile, se non addirittura impossibile, io credo però che moltissimi siamo convinti che questo sbilanciamento ci sia e sia più nella direzione della pubblicazione di risultati positivi e meno in quella di risultati negativi. Considerando anche le difficoltà di fare una sintesi di questi studi, bisognerebbe discutere di quali studi si deve fare la sintesi, ma prendendoli un pochino all'ingresso la mia sintesi è la seguente: angiosarcoma secondo l'approccio kuhniano accordo unanime degli studiosi, anche nel modo come scrivono, nelle affermazioni che fanno, nel tono, quindi non solamente nei risultati, accordo unanime degli studiosi a dire che c'è associazione tra angiosarcoma e CVM. Approccio induttivista, in tutte le varianti si trovano gran parte dei criteri di supporto che sono indicati anche se ho fatto vedere prima che gli elenchi di questi criteri possono essere diversi da studioso sa studioso, però forza dell'associazione elevata, coerenza, gradiente biologico, significatività statistica, etc., cioè troviamo diversi criteri a supporto. Approccio refutazionista, non si sono evidenze, nel senso di qualche studio, uno studio solo, ho già detto che uno studio solo di per sé non dice niente, perché non siamo nella situazione del cigno nero, e quindi non ci sono evidenze contro l'ipotesi formulata e pertanto l'ipotesi non è falsificata, angiosarcoma. Capitolo 2, altri tumori del fegato non angiosarcomi. Qui abbiamo qualche difficoltà perché gli studi che ne parlano, avete visto dalla mia disamina, sono pochi e con risultati piuttosto contrastanti. Gli studi che ne parlano sono per esempio il tanto vituperato studio di Wong e lo studio di Comba e Pirastu sono per la presenza di un'associazione, lo studio di Simonato nega invece in modo categorico l'esistenza di un'associazione. Molti altri studi non hanno neanche affrontato l'argomento. Mi sembrerebbe che la situazione è la situazione in cui si deve dire "suggeriamo un supplemento di indagine", non abbiamo elementi sufficienti per dare delle indicazioni esplicite e precise. Terzo: tumore del polmone, approccio kuhniano. Credo che sia apparso evidente a tutti che non c'è nessun accordo tra gli autori e vengono ancora riproposti studi per sottoporre a verifica l'ipotesi di associazione. Mi risulta che è in corso l'aggiornamento ad esempio dello I.A.R.C. di Simonato, come è in aggiornamento lo studio che hanno presentato Comba e Pirastu, come dire che non c'è accordo e addirittura c'è bisogno ancora di andare avanti a studiare. Approccio induttivista: la forza dell'associazione quando c'è, è molto debole. Molti risultati non sono statisticamente significativi, molti risultati sono inferiori a 100, anche se non necessariamente statisticamente significativi inferiori a 100, manca una coerenza, manca un gradiente biologico, etc.. Approccio refutazionista: ci sono molti studi, non uno, che non evidenziano un eccesso ed altri che evidenziano un chiaro effetto. La mia conclusione allora è che l'ipotesi di associazione tra CVM e tumore del polmone è non confermata. In questa direzione quindi io leggo anche la necessità e l'esigenza che la I.A.R.C. stessa, nonostante i due perentori pronunciamenti prosegua nella conduzione di uno studio che mette insieme studi che stanno venendo fuori e che continuano ad essere condotti. Quarto: quanto detto per il polmone si può estendere anche per ai tumori del cervello e dell'apparato linfoemopoietico con le due seguenti specificazioni, cervello: i piccoli numeri fanno spesso comparire sia eccessi di una stessa rilevanza che difetti sostanziali, per cui molti studi finiscono per essere poco informativi, rendendo incompleta la valutazione. Linfoemopoietico: è una categoria un po' ampia di tumori e studi diversi hanno riportato o evidenziato sottogruppi di cause diverse, linfomi, leucemie, linfosarcomi o tutto il gruppo. Quindi, anche per questi concluderei che l'associazione non è confermata. Polvere di PVC e tumore polmonare: qui manca addirittura anche il supporto dello I.A.R.C. però per come ho argomentato devo dire che questo supporto di per sé non è indispensabile. Le informazioni che abbiamo sono poche, abbiamo tre studi, più quello di Comba e Pirastu. Waxweiler presenta un risultato sottoforma di ipotesi problematica, Jones dimostra chiaramente un difetto, un momento, non dimostra assolutamente niente, perlomeno nella logica delle teorie scientifiche che stiamo discutendo, non conferma un eccesso, Wu "sconfessa" Waxweiler, cioè trova un risultato differente, dice che il suo studio non va nella stessa direzione di Waxweiler, e di Comba e Pirastu se permettete parliamo tra un attimo perché è l'ultimo gruppo di osservazioni che vorrei fare. Anche in questo caso non mi resta che concludere che l'ipotesi non è confermata.

DOMANDA - Può parlare della latenza?

RISPOSTA - Volevo proporre questo altro argomento: si è parlato molto in questo dibattimento del concetto di latenza. Se ne è parlato perché stiamo parlando di patologie che emergono a distanza dall'esposizione, e questo concetto per l'epidemiologo è un concetto fondamentale. Io mi permetto di riprendere brevemente quali sono gli elementi di questo concetto e soprattutto quali sono le conseguenze per gli studi e per le analisi che possono o devono essere condotte. E` un po' Rothman che introduce le idee principali nell'81, introduce queste definizioni: periodo di induzione, è il periodo di tempo che intercorre tra il momento di azione di una specifica causa ed il momento di inizio della malattia. Periodo latente: è il periodo che intercorre tra il momento di inizio della malattia ed il momento in cui, la prima volta, si è manifestata. Poiché per moltissime malattie il punto preciso in cui la malattia stessa inizia non può essere praticamente determinato, ogni tentativo di misurare il periodo di induzione finirà necessariamente per comprendere anche il periodo latente. Per ragioni pratiche è spesso impossibile distinguere questi due periodi e lui propone di considerare un periodo di induzione empirico, che va dall'azione della componente eziologica alla prima manifestazione clinica della malattia, cioè tutto questo periodo lui propone di chiamarlo periodo di induzione. Quando parliamo di una esposizione cronica la questione è quella di qual è il momento esatto, il momento vero di inizio del periodo di induzione. Applichiamo queste idee al contesto occupazionale. E' Checkoway che presenta il problema, lo traduce nel campo occupazionale e lo presenta in questo modo: supponiamo che il punto A è il punto in cui inizia l'esposizione, il punto B è il punto in cui inizia l'eziologia, l'esposizione che succede tra A e B lui la chiama esposizione rilevante, perché è quella rilevante ai fini dell'eziologia. Segue un periodo di induzione, fino al punto in cui inizia la malattia, a questo punto le esposizioni successive al momento di inizio della malattia sono esposizioni eziologicamente non rilevanti. Allora, qui la questione diventa importante, diventa fondamentale anche perché siamo di fronte ad una situazione, parlo di Enichem, in cui la responsabilità inizia dopo il 1987 e capire pertanto qual è il periodo di esposizione non rilevante è sostanziale. Ecco perché è importante il concetto di latenza, perché ha associato questo concetto di esposizione eziologicamente non rilevante. In un'analisi epidemiologica il fuoco deve essere sulla stima di relazioni dose-risposta. In questo, è importante distinguere induzioni e latenza perché in questo modo si distinguono tra esposizioni eziologicamente rilevanti ed esposizioni non eziologicamente rilevanti. E' un articolo di Checkoway che fa il punto sulla latenza per quanto gli studi occupazionali e dice: "il modo generale con cui si affronta questo argomento si chiama analisi della latenza. Idealmente uno vorrebbe separare le esposizioni che avvengono prima, quindi sono la causa, da quelle che avvengono dopo, cioè eziologicamente irrilevanti rispetto al momento di occorrenza della malattia, anche se questo punto raramente è noto, ma è propria questa la motivazione dell'analisi per latenza". E` possibile fare delle analisi che mettono in evidenza se questo punto c'è e dove è? Questa è la questione. A questo punto possiamo passare in rassegna metodi vari per fare un'analisi della latenza, Checkoway ne elenca quattro di questi metodi, io mi permetto di non entrare, a meno che poi sono richiesto di farlo, in questi tecnicismi, il più importante considerato dagli epidemiologi è quello che si chiama il metodo del Lag o metodo del ritardo. Il metodo del Lag consiste in questa idea: l'effetto che si è manifestato oggi, supponiamo 1990, è associato a qualcosa che è successo tot anni prima, cinque, dieci, venti anni prima. Allora in questa associazione, supponiamo dieci anni di Lag, io associo il tumore polmonare nel 1990, lo associo all'esposizione che è avvenuta nel 1980. Ciò che è successo dopo come esposizione, secondo questa idea, è irrilevante per la comparsa del tumore nel 1990. Proseguo nella letteratura per farvi capire come questo concetto è utilizzato dagli epidemiologi occupazionali: un'analisi dell'esposizione cumulativa di per se potrebbe essere sufficiente per determinare se c'è un'associazione, però non è l'approccio ottimo perché può includere informazioni su esposizione irrilevante. Per esempio, c'è un periodo di latenza tipico di tre o cinque anni tra l'occorrenza del tumore e la sua manifestazione clinica, per un tumore solido. Le esposizioni durante questo periodo sono irrilevanti per l'occorrenza del tumore. Addirittura potrebbero essere irrilevanti esposizioni molto più distanti, cinque, dieci, quindici anni, in particolare se l'esposizione allo studio agisce ad uno stadio basso del processo di induzione, per esempio se agisce ai propri stadi di un processo di cancerogenesi a stadi. In questa situazione ci si aspetta che l'associazione tra esposizione e malattia sarebbe più grande se noi ignoriamo le esposizioni irrilevanti durante gli anni più frequenti, applicando questa idea di Lag in modo appropriato, questo Neil Pearce, sempre la letteratura di riferimento per quanto riguarda l'epidemiologia occupazionale. Non è un concetto che ho inventato io, non so se l'avete ascoltato in precedenza, ma è un concetto piuttosto comune tra gli epidemiologi occupazionali, io mi sono permesso solo di raccogliere un po' di bibliografia su questo. Rothman ne parla, l'enciclopedia di statistica curata da Peter Armitage e da Colton ha un capitolo sull'epidemiologia occupazionale e dice "molte malattie non avvengono fino a che non è trascorso un certo periodo dall'esposizione che ha causato la malattia" e dice "si potrebbe fare analizzare il problema introducendo un Lag nell'analisi dell'esposizione, per esempio esposizione cumulativa considerata rilevante fino ad una certa data, un certo periodo, etc.". Il soggetto di 45 anni potrebbe essere associato ad un'esposizione cumulativa che ha avuto 10 anni prima, a 35 anni. Poi ci sono molti esempi di applicazione di questa analisi, io ne ricordo qualcuno, fibre di asbesto, Stati Uniti. Qui l'analisi è stata addirittura ancora resa più fine ipotizzando che non solo ci sono delle esposizioni irrilevanti dopo una certa data, ma anche esposizioni irrilevanti prima di una certa data, individuando in questo modo un'esatta finestra temporale che dovrebbe essere la finestra responsabile dell'evento, si chiama analisi per finestre questo schema, è un'elaborazione ulteriore del concetto di Lag. Breslow nel suo libro su come si analizzano gli studi di coorte dedica una paginetta. Poi ci sono molti studi: Enterline, fibre minerali, un'analisi con cinque anni di Lag. Marsh, cinque anni di Lag. Plato fibre minerali in Svezia, abbiamo analizzato tempi di Lag differenti da 5 a 20 anni. Lo I.A.R.C. stesso nell'aggiornamento sulle fibre minerali da 5 a 20 anni con vari intervalli di tempo. Kogevinas, sarcomi e fenossi erbicidi, abbiamo analizzato con cinque anni di Lag, e via articoli metodologici su come si seleziona un periodo di Lag. Ma le due cose più interessanti è che questo concetto è stato applicato sia da Wu, nel suo studio, sia e soprattutto da Simonato nello studio sullo I.A.R.C. e dice: "abbiamo applicato cinque anni di Lag e abbiamo ottenuto gli stessi risultati che se non avessimo applicato i cinque anni di Lag". Il che equivale a dire che l'esposizione degli ultimi cinque anni in questo contesto è stata irrilevante per quanto riguarda la definizione del rischio.

DOMANDA - Può precisare questo punto, cioè Simonato ha fatto un'analisi prendendo in considerazione cinque anni e non prendendo in considerazione altri anni e guardando quei cinque anni è giunto a quei risultati?

RISPOSTA - Diciamo che l'analisi per Lag, siccome è in discussione su quale sia il punto esatto in cui bisogna tagliare o catturare l'esposizione rilevante, solitamente viene fatta in questo modo: si esaminano diversi periodi differenti di Lag dopodichè sono stati proposti dei criteri, degli strumenti per vedere come si selezionano i risultati che possono essere più interessanti. Nell'articolo Simonato fa cenno ad aver fatto un'analisi per cinque anni di Lag e dice che ha trovato appunto gli stessi risultati che quando non ha applicato il Lag all'esposizione cumulativa. Bene, mi rimane una piccola coda, se posso. In questa piccola coda volevo fare sostanzialmente due osservazioni allo studio sugli insaccatori condotto per questo procedimento dalla Dottoressa Chellini. Le due osservazioni sono: la prima, fanno riferimento alla definizione della coorte, alle difficoltà insite nella definizione della coorte, ed il secondo gruppo di argomenti fanno riferimento all'opportunità di combinare insieme gli insaccatori delle cooperative con gli insaccatori della coorte Enichem. Per quanto riguarda la definizione della coorte delle cooperative, dei dipendenti in appalto. Io devo, da un certo punto di vista, fare un complimento, non per piaggeria, a chi si è imbarcato in questo tipo di studio perché si è imbarcato in un'impresa veramente difficile. Se me l'avessero chiesto non l'avrei fatto, e non l'avrei fatto non tanto perché potevo aspettarmi dei risultati in una direzione piuttosto che un'altra, perché a priori non potevo aspettarmi niente, ma per le difficoltà metodologiche, io sono un metodologo dal punto di vista dell'epidemiologia, per difficoltà metodologiche intrinseche al lavoro. La difficoltà di individuare un elenco completo di soggetti, la difficoltà di individuare le lavorazioni di questi soggetti, la difficoltà di individuare se sono stati esposti, la difficoltà di individuare i lavori precedenti, eventualmente da correlare o da associare all'esposizione. Sappiamo tutti che chi cerca di fare degli studi su questi tipi di coorti rischia di fare un bagno, mettiamola in questo modo abbastanza semplice. Bene, questa è l'attesa a priori. L'osservazione a posteriori mette esattamente in evidenza questi punti. Per esempio, mette in evidenza la durata, sono lavoratori che hanno lavorato da un minimo di 2 giorni ad un massimo di 21 anni, i periodi di lavoro considerati sono quelli dichiarati dall'INPS. Dall'esame di alcune storie lavorative - sto citando la perizia della Dottoressa Chellini - si capisce che la maggior parte dei lavoratori ha prestato servizio in altre aziende, per lo più locali, sia prima dell'assunzione presso le cooperative che successivamente, e per una quota direi abbastanza importante. Si evidenzia la non giovane età all'assunzione presso le cooperative. Tale fenomeno potrebbe dipendere dal fatto che la maggior parte dei lavoratori ha svolto, e ciò risulta segnalato in alcuni casi dall'INPS ma non sempre, altre attività che in questa sede non sono state considerate o perché di difficile valutazione o perché ignorate. In sostanza, manca la storia lavorativa precedentemente al '94 e per alcuni lavoratori delle cooperative è possibile che essa sia stata svolta anche presso quelle stesse cooperative. La maggior parte di essi ha svolto inoltre attività lavorativa in altre aziende e l'aver lavoravo in aziende diverse può aver corrisposto a rischi lavorativi diversi, non valutati né facilmente valutabili. Questo è semplicemente un insieme sempre dalla perizia "i lavoratori delle cooperative in generale, e quindi anche questi in esame, rappresentano una popolazione non facilmente sovrapponibile ad altre popolazioni di lavoratori dipendenti, sia per motivi di tipo socio-economico sia per quanto riguarda i rischi lavorativi, in generale di tratta di lavoratori dai quali si ottiene una maggiore produttività, oppure si tratta di lavoratori che svolgono lavori più pericolosi con costi inferiori, etc. I lavoratori esaminati mostrano un'età media di ingresso al lavoro piuttosto alta, la maggior parte dei lavoratori esaminati mostra di aver svolto attività lavorative anche in altre aziende", mi limito qui perché capisco che sto prendendo molto tempo, ma gli argomenti mi sembrano veramente molto, molto, molto convincenti. Si tratta di uno studio oggettivamente, dal punto di vista metodologico, che pone dei problemi. Aggiungo anche che lo studio è di piccolissima dimensione. A questo punto mi chiedo, lo chiedo agli statistici che sanno fare questi conti, se lo studio è di per sé almeno informativo, se avrebbe potuto produrre informazioni a prescindere dalle distorsioni o dalle difficoltà di conduzione che ho segnalato o se non valeva la pena di rinunciare piuttosto che no. La seconda considerazione invece riguarda il fatto di appaiare, di mettere insieme le due coorti, la coorte degli insaccatori Enichem e la coorte degli insaccatori delle cooperative. Io ho provato a fare una tabella, ho già evidenziato delle difficoltà, messe in evidenza dalla Dottoressa Chellini che dice: "è la natura della coorte stessa che rende difficile la sua confrontabilità con altri, non è facilmente sovrapponibile per tutta una serie di caratteristiche" a queste aggiungo un'analisi dei dati di mortalità. Se noi mettiamo sulla colonna di sinistra i dati relativi agli insaccatori Enichem, e su quella di destra quelli degli insaccatori delle cooperative, vediamo che la quantità di cause di morte in cui gli effetti sono opposti nelle due coorti è rilevante. Malattie ischemiche: insaccatori 66 cooperative 96. Bocca e faringe: 77 e 159. Stomaco: 77 e 132. Fegato - il contrario qui-: 200 e 87. Polmone: 139 e 160. Sistema nervoso: 0 e 460. Linfoemopoietico: 360 e 90. Cirrosi: 90 e 50. Cause violente: 70 e 170. Mi chiedo se con le premesse, che dicono già che le popolazioni sono differenti prima, e con le conseguenze che fanno vedere una mortalità estremamente eterogenea, io ho messo in evidenza le bilance opposte, posso aggiungere che tutte le cause sono 80 e 89 e tutti i tumori sono 103 e 116, giusto a completamento dell'informazione, però è abbastanza irrilevante in questo contesto, mi chiedo l'opportunità di unire i due studi in uno studio solo. Lo scopo dell'unione dei due studi è quello di rafforzare l'associazione, perché evidentemente lo studio degli insaccatori Enichem da solo non era sufficiente. Aggiungo ancora, a completamento, e poi termino veramente, anche se ci sarebbero molte altre cose da dire, l'analisi per latenza degli addetti all'insacco Enichem mostrano un andamento retroverso, vale a dire i soggetti con meno di 20 anni di latenza hanno un SMR di 165 - faccio riferimento alla tabella 2 a pagina 21 della relazione di Comba e Pirastu - quindi, dicevo latenza minore di 20 anni 175, latenza maggiore di 20 anni 125. La chiosa veramente finale è che questa è l'unica analisi per latenza che io ho visto all'interno di questo studio, riguardavano i dati per il tumore del polmone, sarebbe interessante, se si tratta di valutare delle ipotesi che sono legate all'esposizione, avere dei dati anche per altri tipi di analisi, durata dell'esposizione, esposizione cumulativa, età di inizio dell'esposizione, periodo di inizio dell'esposizione di modo che il quadro possa essere completo se vogliamo associare la patologia all'esposizione, così come Simonato ha fatto in modo molto completo e molto dettagliato per quanto riguarda l'indagine dello I.A.R.C.. Io avrei completato, mi scuso se sono stato un po' lungo.

 

Presidente: La ringraziamo molto Professor Zocchetti per l'amplissima relazione ed anche la disponibilità che ha avuto di metterci a conoscenza di tutta la letteratura sull'argomento.

 

Avvocato Stella: Poi, con calma, depositerà le schede che ha elaborato in modo che siano a disposizione di tutti.

 

Presidente: Abbiamo ancora una ventina di minuti prima delle 14.00, se vogliamo utilizzarli, vuole fare delle domande lei?

 

Avvocato Stella: Non ho domande.

 

Presidente: Le difese hanno domande, ulteriori precisazioni? Il Pubblico Ministero ritiene di fare delle domande?

 

Pubblico Ministero: Fatto salvo il discorso iniziale, mi pareva che visto che l'Avvocato dello Stato aveva problemi medici aveva chiesto di poter fare il controesame alla prossima udienza per tutti i consulenti di oggi, mi sembrava che questo fosse l'intendimento. Tra l'altro in questa maniera mi pare che potrebbe anche essere sanato il problema dei termini perché è possibile e probabile che questi consulenti fuori termine vengano nominati...

 

Presidente: Zocchetti non era fuori termine, era stato indicato originariamente. Comunque sul fatto del controesame se ritenete di voler meglio valutare quelle che sono state... quella che è stata l'illustrazione del Professor Zocchetti va bene, possiamo benissimo rimandarla al 23 ottobre. Oggi potremmo sentire di seguito l'uno all'altro gli altri consulenti della Difesa.

 

Avvocato Stella: Noi depositiamo l'elenco.

 

Presidente: Sospendiamo adesso, riprendiamo alle 14.45 puntuali e proseguiamo con l'audizione dei consulenti nella successione che lei aveva indicato Professor Stella.

 

L'udienza viene sospesa alle ore 13.40.

 

Presidente: Riprendiamo con chi?

 

Avvocato Stella: Con il Professor Federspil e il Professor Agazzi, saranno interventi, io penso, brevi e poi proseguiremo con il Professor Frosini.

 

 

DEPOSIZIONE CONZULENTI 

DR. FEDERSPIL GIOVANNI - DR. AGAZZI EVANDRO -

 

AVVOCATO STELLA

 

DOMANDA - Il Professor Federspil è Ordinario di Medicina Interna Clinica III dell'Università di Padova e Direttore dell'Istituto di Semeiotica Medica della Facoltà di Medicina dell'Università di Padova e illustrerà il problema della spiegazione causale in medicina. Nel giudizio diagnostico medico la pertinenza di questo intervento è dimostrato dal collegamento diretto con l'udienza di ieri, dove si è parlato, Professor Federspil lei non c'era, si è parlato del giudizio causale medico-legale. Professore, lei illustri il problema della spiegazione causale in medicina. Dica qualcosa prima di tutto sul suo istituto perché è importante.

FEDERSPIL - Io sono un internista che da moltissimi anni si occupa oltre che di medicina interna in senso stretto di metodologia della scienza, in modo particolare di metodologia clinica. La metodologia clinica oggi è una materia ufficiale dei corsi della Facoltà di Medicina e Chirurgia ed è quella materia che intende illustrare agli studenti, e poi anche agli specialisti o agli specializzandi, le regole che il medico deve seguire nel pronunciare i suoi giudizi. Di questo argomento, ripeto, mi occupo da moltissimo tempo. Il problema della diagnosi clinica è evidentemente un problema fondamentale che non può essere affrontato se non in connessione in qualche modo con il problema della scienza in generale e dei giudizi scientifici.

DOMANDA - Può dire brevemente le sue pubblicazioni su questo tema? Quelle che ricorda.

FEDERSPIL - Nel 1975 insieme con il mio maestro ho pubblicato un libro che si intitolava "Principi di metodologia clinica"; nel 1980 ho pubblicato un libro intitolato "I fondamenti del metodo in medicina clinica e sperimentale"; nell'82 e nell'83 ho pubblicato come editor "Scoperta e diagnosi in medicina e discussioni sul metodo nell'indagine biomedica", ho pubblicato un altro libro intitolato "Cultura scientifica" insieme con altri colleghi. Ho recentemente ripubblicato, presentato, o meglio il "Demotu Cordis" di Harvey, ho scritto "L'Enciclopedia medica italiana" - le voci in metodologia clinica - ed altri lavori particolari settoriali, un lavoro sulla spiegazione in medicina in modo particolare, prendendo in esame i vari tipi di spiegazione che i medici impiegano nel loro lavoro. Il problema della diagnosi clinica, come stavo dicendo, non può essere affrontato se non in connessione con problemi generali della medicina e della scienza. E quindi io vorrei dire alcune cose su ciò che è e su come un medico arriva a formulare una diagnosi. Quindi, la diagnosi è un giudizio nel quale si assegna ad un malato una malattia, cioè una etichetta oppure si spiega la condizione nella quale quel malato viene a trovarsi. Questi due tipi di diagnosi vanno sotto il nome rispettivamente di diagnosi nosografica e di diagnosi fisiopatologica o causale. Si tratta di due giudizi tra loro radicalmente diversi, di moltissime malattie noi non conosciamo la causa o le cause, anzi credo che si possa ire legittimamente che forse della maggior parte delle malattie noi non conosciamo le cause, le cause prime, le cause che originano la malattia, se si comincia a intravvedere questo. Naturalmente questo non vuol dire che non siamo in grado di diagnosticarle, le diagnostichiamo attraverso dei segni. In altre parole, rileviamo nel malato dei segni, sappiamo che quei segni sono presenti in una certa malattia con una certa frequenza, sappiamo che quelle malattie sono presenti nella popolazione con una certa frequenza, e in base ad un noto teorema che va sotto il nome di "teorema di Bayes" si enuncia un giudizio che è un giudizio probabilistico. In parole semplici, poiché questo segno è presente in questa malattia con questa frequenza, con questa percentuale, e poiché questa malattia è presente in questa popolazione con questa frequenza, questa incidenza, con questa prevalenza allora io giudico con una certa probabilità che questo malato abbia questa malattia. Questa è la probabilità che prende il nome di probabilità dei clinici, quella che si calcola attraverso il teorema Bayes. Per fare questo non è necessario conoscere la causa della malattia, è sufficiente conoscere l'epidemiologia della malattia e i segni presentati dalla malattia. C'è poi un'altra diagnosi, quella che prima ho chiamato fisiopatologica o causale, nella quale il medico vuole arrivare ad un giudizio, appunto ad individuare i rapporti causali reali, per cui quel malato si trova in quella certa condizione. Per poter arrivare ad una diagnosi fisiopatologica o causale è necessario conoscere bene la fisiologia e ovviamente la fisiopatologia, cioè l'insieme delle tappe che portano dalla causa prima ai sintomi. Faccio un esempio: un paziente ammala di tubercolosi, la causa necessaria è il germe della tubercolosi che penetra nell'organismo, ad un certo punto quel paziente ha una emottisi. Allora, io devo sapere quali sono i meccanismi attraverso i quali il microbatterio della tubercolosi altera il polmone, altera i vasi del polmone, provoca l'erosione di un vaso del polmone, quel vaso si rompe e il paziente ha una emottisi. Allora, io posso, teoricamente, se io conoscessi bene tutte queste tappe, stabilire perché questo malato ha l'emottisi, indipendentemente dalla diagnosi di tubercolosi, sono due cose distinte: diagnosi nosografica e diagnosi fisiopatologica. Per avere, per poter fare una completa diagnosi causale io devo conoscere esattamente quali sono le ragioni, la causa necessaria, nella fattispecie il germe della tubercolosi, che ha innescato tutto il processo morboso. E` chiaro che nella, gran parte dei casi, i medici compiono diagnosi nosografiche, in una piccola parte dei casi compiono, riescono ad effettuare diagnosi fisiopatologiche o causali, naturalmente tanto più approfondita è la conoscenza dei meccanismi morbosi, tanto più facile sarà raggiungere una diagnosi causale. Detto questo, io vorrei dire alcune cose sulla clinica. Quello che io ho detto riguarda la medicina nel suo complesso, ma la medicina è fatta di scienze di diverso tipo di generalizzazione. Per essere chiaro, ci sono scienze di carattere molto generale, come per esempio la patologia generale la quale stabilisce cosa è la febbre, studia cos'è la febbre, studia cos'è l'infiammazione, studia cos'è una neoplasia; e poi ci sono scienze di carattere meno generale, per esempio la patologia speciale medica, che studia che cos'è il diabete, che cos'è la tubercolosi, che cos'è la broncopolmonite, poi ci sono scienze come la semeiotica che studiano i segni e infine c'è la clinica medica, quella che oggi ha cambiato nome, si chiama medicina interna, ma è puramente una questione nominale, la quale non si occupa di proposizioni generali, non si occupa di asserti generali, si occupa di casi individuali, si occupa del perché Pietro o Paolo si è ammalato oggi a Mestre in questa giornata. Si possono quindi distinguere le scienze in scienze nomotetiche, cioè scienze che cercano leggi generali, esempio tipico: la patologia generale, cos'è l'infiammazione, e scienze ideografiche che quindi ricercano l'individuale, il singolare, cercano di capire perché Pietro o Paolo si è ammalato in questa stagione di questa malattia, insisto in questa stagione perché evidentemente il giudizio è diverso a seconda che Pietro abbia la febbre per esempio d'estate o d'inverno, d'inverno penserò a un'influenza, d'estate penserò ad una malattia di tipo infettivo diverso. E quindi il difficile della clinica medica è l'individualizzazione, vale a dire il capire perché in questo malato si sono verificate queste circostanze che lo hanno portato ad ammalarsi di questa malattia, è questo il fuoco, la difficoltà maggiore che incontra lo studente di medicina quando deve passare dalle leggi generali che ha studiato a capire come si fa a fare diagnosi in questo paziente. Questa è la cosa più difficile. Diceva un celebre clinico e metodologo Augusto Murri, che tutti dicono che bisogna individualizzare ma le regole per individualizzare nessuno sa veramente quali siano. Molto vicino a questo problema c'è il problema della variabilità dei viventi: la medicina e la biologia si staccano nettissimamente dalle scienze del mondo inorganico perché una delle caratteristiche dei viventi è di presentare una grande variabilità dall'uno all'altro, non tutti i leoni sono uguali, non tutti i lupi sono uguali, non tutti gli uomini sono uguali. Anzi, massimamente nell'uomo, esistono differenze perché tutti sappiamo che, al di là del nostro patrimonio genetico con il quale nasciamo, abbiamo differenze storiche; uno ha fatto l'Avvocato, uno ha fatto il medico, uno ha fumato, uno non ha fumato, uno ha litigato molto, uno ha litigato poco. La prima cosa che si insegna agli studenti di biologia e di medicina è la legge di Gauss, vale a dire, i fenomeni dei soggetti viventi si distribuiscono secondo una curva che prende il nome di curva di Gauss o di curva a campana nella quale c'è una media e poi ci sono variabili fenomeni che si allontanano di più o di meno dalla media, naturalmente questo può avere una estensione, questa curva più o meno grande. Che cosa facciamo noi medici quando vogliamo dare una spiegazione causale di un certo fenomeno? Quando vogliamo dare una spiegazione non nosografica, come ho detto all'inizio, causale di un certo fenomeno cerchiamo di individuare quelle che sono le leggi scientifiche che mi permettono di spiegare, cioè di rendere più chiaro, esplica, per rendere più chiaro il fenomeno. Ma per renderlo più chiaro il mezzo è quello di fare riferimento ad una legge di carattere generale. Faccio un esempio molto semplice: io ho un paziente che si ammala di tubercolosi, assumo la tubercolosi come caso classico di una malattia di cui noi conosciamo bene la causa. Io posso dire di avere la diagnosi di tubercolosi la posso fare in vario modo, attraverso una radiografia o attraverso l'esame dell'escreato del paziente o attraverso la reazione alla tubercolina. Ma se voglio capire perché questo paziente si è ammalato di tubercolosi io devo fare riferimento ad alcune leggi. Per esempio, primo: che esistono delle cose che sono i microorganismi, che i microorganismi si muovono nell'ambiente, per esempio che i microorganismi non muoiano nell'ambiente, ma sopravvivano nell'ambiente, che una volta penetrati nell'organismo possano riattivarsi, che una volta riattivati possano dar luogo alla malattia, e così via. Tutta una serie di generalizzazioni di leggi alle quali il medico non può non fare riferimento per spiegare perché il suo malato si è ammalato di tubercolosi. Il medico quindi, per spiegare in modo causale un fenomeno, ha bisogno di leggi, ma le leggi da sole non gli direbbero nulla, ha bisogno anche di fatti, quelle che gli epistemologi chiamano condizioni iniziali di eventi concreti storici che spieghino perché in base a quella legge è avvenuto un certo fatto. Continuando nell'esempio che io ho detto della tubercolosi non mi basta sapere le leggi della sopravvivenza del bacillo di Koch nell'ambiente e così via, io devo anche avere una conoscenza concreta di un fatto, di un evento che connesso con quelle leggi spieghi la tubercolosi, per esempio, che la moglie di questo paziente è a sua volta malata di tubercolosi in una forma aperta. Se io riesco a sapere che la moglie del paziente B è affetta da tubercolosi, sulla base delle leggi che io conosco già della microbiologia, scienza nomotetica, scienza generale, e sulla base del fatto che la moglie di Tizio essendo malata di tubercolosi sparge nell'ambiente bacilli della tubercolosi, posso concludere che Tizio si è ammalato di tubercolosi. Questa è quella che noi chiamiamo una legge di copertura. Una legge sulla base della quale, in connessione con alcune condizioni iniziali storiche e specifiche, io posso spiegare il mio explanandum, vale a dire, il fatto che io voglio spiegare che quest'uomo si sia ammalato di tubercolosi. Ebbene, questo tipo di spiegazioni, queste spiegazioni sono di due tipi: quelle nelle quali la legge è una legge, sempre come dicono i metodologi della scienza, una legge nomologica o deterministica, che vale per tutti, assolutamente per tutti senza eccezione oppure quella che è una legge probabilistica, la maggior parte, il 95%, il 90%, il 51% dei soggetti esposti a queste condizioni ammalano di questa malattia. Allora, qui arriviamo al punto importante perché io avevo detto prima che tutti i fenomeni biologici vanno incontro ad una certa variabilità. Ora io credo di poter dire che, al di là di alcune condizioni limite particolari, in biologia e in medicina, leggi di tipo rigidamente deterministico non ce ne sono. Non tutti coloro che fumano ammalano di cancro del polmone, non tutti coloro che hanno il colesterolo elevato vanno incontro ad un infarto del miocardio, non tutti coloro che sono ipertesi vanno incontro ad un accidente cerebrovascolare, non tutti coloro che sono obesi vanno incontro ad un diabete mellito, non tutti coloro che vengono esposti ad uno strapazzo fisico ammalano di tubercolosi; in pratica non avviene pressoché mai che tutti coloro che vengono esposti a certe condizioni vadano incontro ad una malattia. Questo perché gli organismi viventi reagiscono in modo radicalmente diverso. Abbiamo quindi una conclusione: la stragrande maggioranza delle leggi di copertura che vengono adoperate in biologia e in medicina sono leggi di carattere probabilistico. Quindi, ciò che io volevo dire era questo: la medicina essenzialmente, la clinica medica essenzialmente è una disciplina ideografica. Per arrivare a giudizi causali individuali non può non fare ricorso a leggi di copertura. Ma la biologia e la medicina sono caratterizzate, intrinsecamente caratterizzate da un'enorme variabilità dei viventi, quindi la stragrande maggioranza delle leggi di copertura sono di tipo probabilistico. La medicina, questa è una cosa che io ho anche scritto più volte, è percorsa dall'inizio alla fine dalla probabilità. All'interno della medicina il medico ha sempre a che fare con la probabilità. Ogni volta che io somministro un farmaco a una persona so che posso andare incontro ad accidenti molto gravi. E` evidente che nel momento in cui io, personalmente io ho visto sicuramente una, forse due persone morire per avere assunto dell'aspirina, quindi io sono perfettamente consapevole che somministrando aspirina ad un paziente posso provocarne la morte. Tutti sappiamo che in Italia c'è un certo numero da morti ogni anno iniezioni di penicillina e per shock anafilattico. Ciò nonostante tutti i medici continuano a prescrivere aspirina e penicillina. Il che vuole dire che si espongono a questo rischio e lo ritengono del tutto trascurabile, ma il rischio c'è, la probabilità c'è. La medicina proprio perché ha a che fare con un oggetto complesso e così variabile com'è l'organismo vivente, e in modo particolare l'organismo vivente umano, che per quello che ne sappiamo è il più complesso fra quelli sulla faccia della terra, non può non avere a che fare con la probabilità. Ogni giudizio clinico, ripeto, al di fuori di condizioni particolarissime, per esempio come dicevo, se si taglia la testa ad uno siamo sicuri che muoia, ma al di fuori di questo, nella stragrande maggioranza delle condizioni, ha a che fare con la probabilità. Questo potrebbe forse chiudere ciò che io volevo dire, e sul quale eventualmente poi, su questo punto, si potrà tornare, ma c'è un'altra cosa che mi sembra molto rilevante. La clinica medica è una disciplina eminentemente operativa, non è assolutamente uguale alla patologia generale, alla patologia speciale, alla farmacologia, non si limita ad enunciare leggi e a trovare spiegazioni causali, è una scienza in cui alla fine bisogna intervenire, intervenire curando o anche non curando, ma bisogna prendere delle decisioni; operativa nel senso che è assolutamente inerente alla professione medica il prendere delle decisioni, non fosse altro che prendere la decisione di non prendere alcuna decisione, per esempio di fronte ad un paziente che ha un dolore addominale e che potrebbe essere affetto da un'appendicite io posso prendere la decisione né di mandarlo a casa né di operarlo subito, ma prendo la decisione di non decidere, di restare ad aspettare e di tenere il paziente in osservazione, questa è una cosa che si fa abitualmente in clinica. Ebbene, la decisione è fondamentale, ma poiché la decisione è fondamentale, il mio giudizio diagnostico causale non può non essere connesso con le conseguenze. Nella mente del medico c'è sempre l'idea che quando formula un giudizio diagnostico quel giudizio diagnostico non cade nel vuoto, in un vuoto di decisioni, quel giudizio diagnostico comporterà sicuramente delle conseguenze. Ed allora, il grado di probabilità, o se volete di certezza, dando per scontato che in medicina la certezza non c'è praticamente mai, ho citato il caso dell'aspirina per dire neppure quando somministro una compressa di aspirina posso essere sicuro di non provocare dei danni. Posto questo, che ripeto, la certezza non c'è praticamente mai, nell'ambito delle decisioni probabilistiche io posso accontentarmi di probabilità diverse in relazione alle conseguenze che la mia decisione comporterà. Cerco di spiegarmi un po' meglio. Se io somministro un farmaco, che può, nel caso della malattia A, provocare dei vantaggi a questo malato e non ha nessuna conseguenza negativa. Supponiamo: io ho questo paziente che ha la probabilità dell'80% di avere la malattia M1, io so che questo farmaco ha la probabilità del 90% di guarire la malattia M1, io so che questo farmaco ha la probabilità dello 0,001% di provocare dei danni, quindi una probabilità molto bassa, trascurabile di provocare dei danni, non ho la certezza che gli faccia bene, però so che non farò molto male. La malattia è una malattia, per esempio, che può provocare dei danni molto elevati al paziente, in quel caso il medico somministra il farmaco, ed è legittimato a somministrarlo, anche se la sua certezza diagnostica è abbastanza bassa, perché fa un rapido calcolo, e questo si può anche formalizzare, ormai l'analisi delle decisioni, che è quella parte della metodologia clinica che riguarda tutto questo è una disciplina sviluppata anche sul piano formale, ma a me interessa enunciarne i principi fondamentali. Sostanzialmente il medico che cosa fa? Se somministro questo farmaco non ho danni, ho una discreta probabilità di avere dei benefici, se non lo somministro la malattia ha una probabilità più alta di evolvere male, quindi somministro il farmaco perché il gioco delle probabilità influenza le mie decisioni. Supponiamo ora, e quindi posso accontentarmi di una probabilità diagnostica bassa. Immaginiamo adesso invece di avere una condizione, per esempio una neoplasia, il cui esito è quasi costantemente infausto, e supponiamo che io abbia dei farmaci molto pericolosi, come quasi sempre avviene, i chemioterapici possono provocare dei danni notevoli. E' chiaro che in questo caso la certezza, meglio la probabilità, adesso parlo impropriamente di certezza, la probabilità diagnostica che io voglio avere è di gran lunga maggiore. In altre parole, quindi, il giudizio diagnostico non è del tutto indipendente dalle conseguenze che quel giudizio diagnostico comporterà nella mia condotta di medico. Il medico quindi si può accontentare di diagnosi non particolarmente approfondite se pensa che il gioco decisionale sia molto spostato a favore del paziente, cioè che il paziente ne avrà con molta probabilità dei benefici, e con altissima probabilità nessun danno. Quando invece il paziente potrebbe avere, immaginiamo che io somministri un farmaco molto pericoloso ad un paziente il quale non ha la neoplasia, in questo caso provocherei dei danni molto alti, molto elevati, molto gravi al mio paziente e il paziente non ne avrebbe praticamente nessun vantaggio perché non ha la neoplasia. Questo spiega perché i medici, molto spesso, ripetano e ripetano più volte certe indagini diagnostiche. E` raro che un paziente che viene da un ospedale e poi si trasferisce nel mio reparto con una diagnosi di neoplasia di un certo tipo, supponiamo della mammella, io possa iniziare una chemioterapia senza ripetere in qualche misura qualcuna di quelle indagini. L'errore diagnostico avrebbe conseguenze così gravi che io non posso permettermi di commetterlo, e quindi rifaccio alcune indagini; questo spiega alcuni comportamenti dei medici che spesso le persone non capiscono: "ma perché dottore, lei rifà questi esami, li ho appena fatti da un'altra parte". In altre parole, e per concludere, la medicina è tutta percorsa dalla probabilità, non è praticamente possibile avere giudizi medici che non siano probabilistici. Ma i giudizi medici possono accontentarsi o hanno probabilità diverse in funzione delle decisioni che il clinico presume di dover prendere sulla base di quel giudizio. E quindi, la probabilità è fondamentale nei giudizi clinici ma è strettamente connessa anche alle decisioni successive che il medico dovrà prendere.

DOMANDA - Se potesse precisare il concetto di probabilità e anche il grado di probabilità in relazione alle diverse conseguenze.

FEDERSPIL - Evidentemente la probabilità in ultima analisi è un numero che sta tra 0 e 1, dove 0 è l'assoluta impossibilità di un evento ed uno è l'assoluta certezza di un evento. Gli studiosi di probabilità ne enunciano diverse: c'è la probabilità logica, la probabilità soggettiva, la probabilità frequentista. La probabilità frequentista è di solito quella a cui fanno più facilmente riferimento i medici. Le probabilità a cui i medici fanno riferimento sono le probabilità a cui accennavo prima. La probabilità cosiddetta degli igienisti, e cioè la probabilità che il singolo medico veda una certa malattia. La probabilità che ho io di vedere domani mattina entrando in corsia un malato di diabete. Questo tipo di probabilità prende il nome di probabilità degli igienisti perché dipende evidentemente dalla numerosità, dalla prevalenza dei diabetici in questa popolazione, a Mestre, o nel Veneto o in Italia, ed è evidentemente molto diversa da un caso all'altro. Perché è evidente che la prevalenza delle malattie è radicalmente diversa in un luogo rispetto ad un altro; questo dipende da caratteristiche genetiche e da caratteristiche ambientali. Se mi è permesso fare un esempio, perché mi pare un punto fondamentale la probabilità degli igienisti, e le relazioni che ci sono tra l'ambiente ed il patrimonio genetico. Evidentemente, è difficile trovare situazioni sperimentali ad hoc. C'è una tribù indiana che è famosissima tra i medici, quella degli indiani Pima. Gli indiani Pima hanno una caratteristica: quella di non soffrire particolarmente di equilibrio, e quindi sono stati assunti dalle grandi compagnie americane per pulire i vetri dei grattacieli. Gli indiani Pima sono stati trasferiti in massa dal luogo dove loro si trovavano nelle grandi metropoli e sono stati pagati molto e sono diventati ricchi. Gli indiani Pima stavano bene, evidentemente si erano incrociati per secoli tra loro, ed avevano una gran quantità di geni per il diabete, sono diventati nel giro di pochissimi anni quasi tutti diabetici e quasi tutti obesi, sono un modello classico per i medici perché ci sono persone che vanno apposta a studiare le tribù dei Pima perché è una tribù particolare. Allora, qui è evidente in modo particolare che è venuta a crearsi una combinazione di fattori genetici, il fatto che fosse una tribù ristretta e che si accoppiassero tra loro per secoli e secoli, però finché vivevano una vita selvaggia e molto attiva quando cacciavano il bisonte non ammalavano; nel momento in cui sono entrati immediatamente nella società occidentale, e hanno cominciato a nutrirsi come si nutrono tutti gli altri americani, sono diventati praticamente tutti, molto di più che non gli americani bianchi, obesi e diabetici. Questo avviene per gli indiani Pima ma avviene anche nelle nostre città, tutti sappiamo che per esempio il diabete mellito a Chioggia è molto più frequente che in altri luoghi, però io non vi so dare le ragioni, non c'è una ragione nota come per gli indiani Pima, ci sarà ma io non la conosco. Ma evidentemente la popolazione di Chioggia si è nutrita in un certo modo, era relativamente sequestrata rispetto all'ambiente circostante. Allora, la probabilità degli igienisti alla quale io facevo riferimento prima, varia nel tempo e nello spazio, ma varia grandemente nel tempo e nello spazio, noi non possiamo non tenerne conto, e varia evidentemente perché varia il patrimonio genetico delle popolazioni, e varia l'ambiente delle popolazioni. Certamente il confrontare Padova con Reggio Calabria evidentemente comporta degli errori, probabilmente comporta una certa quantità di errore anche confrontare Padova con Chioggia, se io lavoro sul diabete, probabilmente se io lavoro su un'altra malattia questo non è così importante, ci sono malattie genetiche che rimangono chiuse in piccole enclave. Allora questa è la prima probabilità. L'altra probabilità è quella che c'è sui nostri manuali. La probabilità che un segno sia presente in una certa malattia. Questa probabilità è abbastanza stabile, certamente meno variabile della probabilità degli igienisti, però anche questa va incontro ad una certa variabilità, vale a dire ci sono popolazioni in cui un certo segno può essere presente con una certa frequenza e può essere presente in altre popolazioni con una frequenza minore; evidentemente qui bisognerebbe andare a vedere caso per caso. Queste sono le probabilità con le quali hanno soprattutto a che fare i medici. Da queste probabilità poi si ricava l'altra probabilità, quella dei clinici, che è il giudizio diagnostico sulla base del teorema Bayes. Ma comunque, qualunque tipo di giudizio noi adoperiamo, noi abbiamo sempre a che fare con probabilità, ripeto, a meno che uno non metta una bomba sotto una persona e salta per aria allora tutti muoiono, quelli che si trovano la bomba sotto, ma quelli sono casi limite ai quali io non penso in questo momento.

DOMANDA - Lei come medico conoscerà, e' sicuramente a conoscenza, delle procedure protocollari che sono ben stabilite per confermare un ipotesi nell'ambito della medicina. Per esempio, per confermare o confutare la bontà di un farmaco. Se la sente di illustrare la differenza tra queste procedure, che sono procedure di randomizzazione, e le indagini epidemiologiche. Lei di indagini epidemiologiche di questo processo ha letto quelle dei Dottori Comba e Pirastu, e quindi un'idea sicuramente ce l'ha.

FEDERSPIL - Quando si inizia una ricerca scientifica, di qualunque genere, solitamente, e si vuole vedere l'effetto di un certo fenomeno, è indispensabile confrontare due gruppi di persone o di animali - se faccio l'esperimento sui ratti, evidentemente - i quali siano assolutamente omogenei tra loro, e differiscano soltanto per il fattore che io voglio analizzare. Supponiamo che io voglia osservare l'effetto di un farmaco in un certo animale; prendo l'animale perché il discorso è più semplice. Ho un gruppo di ratti, lo divido in due gruppi ed inietto in un gruppo il farmaco e misuro un certo parametro, la pressione arteriosa, la concentrazione di glucosio nel sangue o qualunque altra cosa io voglia analizzare. E` evidente che perché questo esperimento abbia valore, i due gruppi devono essere assolutamente omogenei per tutti gli altri casi e differire soltanto per il farmaco che io inietto. Naturalmente gli errori possibili sono infiniti; la sola manipolazione dell'animale può provocare l'alterazione di qualche parametro. Di qui, quindi, tutta una serie di cautele sperimentali, io devo prendere due lotti uguali di ratti, quindi di ratti dello stesso sesso, della stessa età, della stessa razza, tenuti alla stessa identica alimentazione, tenuti esattamente nelle stesse condizioni di stabulazione e quindi di umidità, di temperatura ed ambiente, manipolati esattamente alla stessa maniera. Io per esempio inietto la mia sostanza nel gruppo A e nel gruppo B devo iniettare una sostanza molto simile, ma molto simile anche per quanto riguarda la sofferenza dell'animale, io non posso iniettare una sostanza che brucia un po' nel gruppo A ed iniettare dell'acqua distillata nel gruppo B, devo iniettare nel gruppo B una sostanza che dia lo stesso tipo di bruciore perché, altrimenti, non studio l'effetto della sostanza ma studio dell'effetto della sostanza e la sensazione di bruciore che può alterare, per esempio, la pressione arteriosa o la frequenza cardiaca, io non so mai che cosa sarà. Quindi lo sforzo del ricercatore deve essere teso allo spasimo nel creare gruppi quanto più possibile omogenei e di controllo. Ma questa è una cosa difficilissima. Faccio un esempio, ma questo è un esempio che troviamo nei manuali di sperimentazione biologica, io non posso neppure prendere, anche se apparentemente sembra la stessa cosa. Se io ho una gabbia con 40 ratti e decido di prenderne 20 e 20, e di dividerli in due gruppi, allora mi prendo 20 ratti e gli inietto quella sostanza, e mi prendo altri 20 ratti e gli inietto la sostanza di controllo. Questo apparentemente sembrerebbe un bell'esperimento, lo stesso peso dei ratti, stesso sesso, stessa alimentazione, etc., questo è un esperimento profondamente sbagliato. Perché se io prendo i ratti, metto una mano nella gabbia, io o chi mi aiuta, e prende i ratti, solitamente si prende i ratti meno agili, meno furbi, i ratti che stanno più fermi rispetto alla mano dello sperimentatore o alla pinza che li prende. Non è corretto eseguire un esperimento in questo modo, io devo prima assegnare ai ratti dei numeri, questo è il processo della randomizzazione in ultima analisi, chiamo un ratto numero 3, chiamo un ratto 25, chiamo un ratto numero 91 e così via, assegno dei numeri a caso, estraggo a caso questi numeri e poi prendo i ratti, non prima prendo i ratti e li inietto, ma prima li randomizzo e poi li inietto. Questo per dire il caso dei ratti che è un caso evidentemente ideale, voi vi potete rendere conto qual è la differenza e la difficoltà nel caso degli uomini. Nel caso degli uomini le possibilità di errore, le possibilità in cui i due gruppi non sono confrontabili fra loro, sono assolutamente enormi, perché siamo tutti diversi per attività, non solo per genetica, ma siamo tutti diversi per attività fisica, per quello che abbiamo fatto il giorno precedente, per quello che è stato il nostro vissuto, la nostra storia e così via. Io non posso per esempio neppure dire: io faccio un lavoro in clinica, supponiamo un lavoro anche banalissimo, misuro la pressione arteriosa all'ingresso di tutti quelli che vengono ricoverati nel mio reparto, neppure questo è un esperimento corretto, perché se li prendo in sequenza e l'esperimento dura sufficientemente a lungo, finisce che misuro la pressione arteriosa del primo gruppo in primavera e del secondo gruppo in estate, ma nessuno mi garantisce che quel parametro non cambi tra la primavera e l'estate. Siccome non so mai quale sarà il risultato del mio esperimento devo mettermi a priori nelle condizioni in cui i due gruppi siano il più omogenei possibili; questo è uno dei fondamenti di ogni sperimentazione biologica e medica. Evidentemente e' diverso quando si tratta di chimici che hanno a che fare con soluzioni, che presumibilmente sono le stesse, ma certamente in biologia e in medicina, dove le variabili sono sostanzialmente infinite, dove le possibilità di errore sono enormi, e nonostante tutte queste cautele si continua a sbagliare, perché continuano ad uscire lavori i quali correggono lavori precedenti. Tenete presente che io ho citato gli indiani Pima per il diabete mellito ma c'è un'altra forma di diabete mellito che colpisce la tribù vicina, gli indiani Navaho che è un diabete diverso da quello del diabete degli indiani Pima, evidentemente in questo caso per una diversità del patrimonio genetico. Dico questo per dire, che anche nel caso dei ratti, caso ideale, possiamo sbagliare mille volte se non randomizziamo; nel caso della medicina umana, della medicina clinica, gli errori sono moltiplicati all'infinito, non proprio all'infinito ma enormemente moltiplicati.

DOMANDA - Avrei due domandine ancora e poi passerei al Professor Agazzi se non c'è il controesame. Professore, riprendiamo l'esempio della chemioterapia, che è sempre un esempio che fa drizzare i capelli. Lei ha detto che non è possibile un giudizio causale di certezza. In questi casi, in cui appunto si deve decidere in ordine a conseguenze gravi come la chemioterapia, la terapia non è uno scherzo, se non c'è la certezza a che punto deve arrivare la probabilità di non sbagliare?

FEDERSPIL - Evidentemente una risposta precisa, con un numero, nessuno può darla perché varia, ma certamente quanto più è umanamente possibile vicino a 1. Io devo stare attento a non fare dei danni, perché quando io spingo troppo in là l'indagine diagnostica, c'è da tenere presente anche questo, posso provocare dei danni, in medicina tutto è probabilità, ma c'è quindi anche la probabilità di procurare dei danni, se io faccio un'arteriografia ad un malato posso provocargli anche un danno. Allora, devo valutare la probabilità di procurargli il danno con un'indagine invasiva, e la probabilità di errore che io ho non facendo quell'indagine e somministrando il farmaco pericoloso. Quindi, la mia risposta è: quanto più è umanamente possibile vicino a 1, tenendo presenti però anche i danni possibili, devo spingermi al massimo limite.

DOMANDA - L'altra domanda era questa: supponiamo che io abbia un figlio che fuma 40 sigarette al giorno da dieci anni e che fa il minatore, respira polvere in miniera, etc.. Lei in quale modo potrebbe dire che il tumore al polmone che gli è venuto è l'effetto sia del fumo che del lavoro in miniera?

FEDERSPIL - Nel caso singolo - ad essere rigorosi - assolutamente mai. Nel senso che io posso solo enunciare un giudizio di probabilità, ma in clinica io non posso mai essere assolutamente certo che l'evento A ha provocato l'evento B. Faccio l'esempio della tubercolosi che avevo fatto prima perché può essere più chiaro. E` evidente che ho tutta una serie di leggi microbiologiche che mi dicono che se una persona vive accanto a una persona con tubercolosi aperta quella persona ammalerà di tubercolosi. Ma, proprio per la variabilità biologica, non tutti ammaleranno da tubercolosi, ammaleranno il 60 per cento, il 70 per cento, l'80 per cento. Se io trovo il paziente malato di tubercolosi posso dire, con alta probabilità o con altissima probabilità, è ammalato di tubercolosi perché l'ha contratta dalla moglie, però quella persona potrebbe avere contratto la tubercolosi da un suo collega d'ufficio, potrebbe, per esempio, voi sapete una delle cause della tubercolosi è endogena. Endogena che cosa vuole dire? Tutti noi ammaliamo di tubercolosi ad un certo punto della nostra vista, e quasi tutti noi abbiamo un po' di bacilli di Koch nei nostri linfonodi, nelle nostre linfoghiandole, per cui i bacilli di koch rimangono sequestrati lì di solito fino alla fine della vita e non si riattivano mai, però in qualcuno si possono riattivare. Io non possiedo argomenti decisivi per dire che Tizio si è ammalato di tubercolosi perché l'ha contratta dalla moglie, piuttosto che perché si è attivato un qualche bacillo di Koch. Posso dire, con altissima probabilità, che è ammalato di tubercolosi, ma ci sono dei casi classici, e mi pare in Germania, anche in Italia, insegnanti che avevano una tubercolosi aperta, di fronte a una scolaresca, quindi una trentina di ragazzi, se ne sono ammalati una quindicina ma non tutti si sono ammalati di tubercolosi, quindi quella era una persona che stava con persone diciamo immunologicamente fragili, in una classe chiusa, ma non tutti, il tutti in biologia non c'è praticamente mai.

 

Presidente: Scusi Professore, ma nell'esempio fatto dal Professor Stella, cioè il minatore fuma e lavora in miniera, gli viene riscontrata, prima del tumore ai polmoni, una pneumoconiosi. In questo caso lei a che cosa assocerebbe più probabilmente l'effetto finale? La tubercolosi polmonare, nel caso che gli venga trovata in uno stato intermedio una pneumoconiosi, lei l'assocerebbe più facilmente all'esposizione alle polveri o all'esposizione al fumo? Il tumore polmonare, nel caso in cui venga riscontrata in una fase intermedia una pneumoconiosi, l'assocerebbe più facilmente al fumo o alle polveri?

 

FEDERSPIL - Sinceramente nel caso singolo non sarei in grado di...

Presidente: Da un punto di vista probabilistico.

 

FEDERSPIL - Da un punto di vista probabilistico evidentemente così, di primo acchito, potrei dire fumo, ma se poi lei mi chiedesse degli argomenti decisivi per andare in un senso o nell'altro, non avrei una risposta definitiva da dare. Io credo che sia indispensabile in medicina sapersi fermare e saper dire ad un certo punto: non ho argomenti decisivi. E' evidente che potrebbe essere stata l'una cosa e l'altra a creare uno stato di irritazione nei bronchi tale per cui alla fine si è creata una neoplasia. Se mi è concesso soffermarmi, il processo neoplastico non è un processo che nasce d'emblée, è un processo che si svolge a tappe, questo è il punto. E evidentemente i vari agenti causali possono agire nell'una e nell'altra tappa, e le varie persone sono in grado di riparare le rotture del DNA fino ad un certo punto, in modo variabile dall'uno all'altro, è difficilissimo poter dire in questo caso se ha agito di più la polvere o ha agito di più il fumo, nel singolo caso è veramente... io ho iniziato questo dicendo che la cosa più difficile in medicina è individualizzare. Perché se lei mi dice qual è la sua opinione così io posso dirle l'uno o l'altro dei due fattori, oppure posso andare a fare una ricerca accurata nella letteratura medica che mi dica in quella popolazione qual è la prevalenza o l'incidenza dell'una o dell'altra causa nell'insorgenza delle neoplasie. Ma se lei mi dicesse: qual è la tua opinione, e collegassi la mia opinione diagnostica ad una decisione operativa, se tu pensi che sia più il fumo allora devi prendere questa decisione, se tu pensi che sia la pneumoconiosi prendi un'altra decisione terapeutica. Questa è una situazione del tutto ideale. In questo caso io veramente arresterei il mio giudizio, perché al momento attuale non sono in grado di poter dire con certezza, di argomentare con certezza, se l'una o l'altra è stata la causa, non conosciamo abbastanza questi processi.

 

Presidente: Lei che cosa suggerirebbe ad uno che fuma e lavora in miniera e ha una pneumoconiosi?

 

FEDERSPIL - Ovviamente di smettere di fumare e di trovarsi un'altra attività, questo è ovvio come medico. Poi mi rendo conto che sono due cose difficilissime tutte e due. Io non riesco mai a far smettere di fumare quasi nessuno e non riesco neanche a far cambiare attività lavorativa alle persone, fallisco in ambedue i campi.

DOMANDA - Grazie professore. Il Professor Agazzi è Ordinario di Filosofia Teoretica oggi ma è stato Ordinario di Filosofia della Scienza per molti anni, ha insegnato in diverse università europee, ed anche americane. E' Presidente dell'Associazione Internazionale di Filosofia della Scienza di Bruxelles, di cui hanno fatto parte nomi a partire da Cannapa a "Hekenbaker", da quindici anni. Pregherei il Professor Agazzi di dire brevemente le sue competenze per le quali è stato chiamato a parlare per non più di 40 minuti, mi auguro. Le sue competenze e di spiegarci più in generale, allargando le riflessioni del Professor Federspil, alla spiegazione causale degli accadimenti singoli, anche al di là di quelli strettamente medici.

AGAZZI - Io credo abbastanza doveroso, dato che questa mattina proprio è stata sollevata la domanda circa la sensatezza di avere un filosofo della scienza che dice qualcosa qui, di chiarire che è chiaro che la filosofia può confondere le idee come chiarirle. Soprattutto, le chiarisce se si tratta di far filosofia di ciò che si sa, ma se si fa filosofia di ciò che non si sa si confondono le idee così come si confondono se si fa qualunque altra cosa a proposito di ciò che non si sa. Questa è la ragione per la quale io stesso ho fatto la filosofia della scienza facendo un percorso universitario regolare di filosofia, di fisica, ho due libere docenze: una di filosofia della scienza, una di logica matematica, ho insegnato 20 anni in facoltà di matematica, ho ricoperto cattedre di geometria superiore, sono stato il primo in Italia che per anni a insegnato la teoria sommaria degli insiemi. Sono stato professore invitato in dipartimento di fisica teorica a Berna, ho insegnato a Standford, in tutti i possibili contesti, quindi ritengo da questo punto di vista di essermi fatto, con i limiti che la preparazione personale a ciascuno impone, una competenza a proposito dei temi dei quali mi sento di parlare, di altri temi di cui non mi sentissi di parlare ovviamente non parlerei. In particolare ci sono due aspetti che hanno attratto da molto tempo il mio interesse: il primo riguarda tutte le questioni legate alla probabilità. Io ho fatto la mia tesi di laurea sulla probabilità, e ho poi continuato ad occuparmene, ho pubblicato volumi in collaborazione, ci sono miei articoli che ancora oggi sono citati in letteratura. Mi sono occupato ovviamente anche di aspetti applicati, c'è un mio volume che porta un titolo un po' sonante per ragioni editoriali, si intitola "Il bene, il male e la scienza", è uscito nel '92 da Rusconi, quello oggi è tradotto in francese, inglese, spagnolo, tedesco, russo, ungherese e polacco, ed è stato tradotto dalle case editrici delle Accademie delle Scienze, quindi si vede che un certo rilievo lo può avere, in particolare lì dentro c'è un capitolo sul rischio e sulla teoria della decisione, sulla teoria dei giochi e via discorrendo. Allora questo è un po' il motivo per cui quando il Professor Stella mi ha detto: "vorresti dirci qualcosa su questo problema che è particolarmente rognoso? In generale quello di stabilire, cercare di stabilire la causa. Ma la causa dell'evento singolo, che cosa si può andare a precisare?". Va bene, dico: vediamo che cosa si può ricostruire su questo tema proprio da un punto di vista, lasciamo perdere di filosofia, di analisi concettuale. Che cosa si intende per prima cosa? Secondo: come è possibile. Direi che se si avesse non proprio una risposta ma un chiarimento a proposito di questi due argomenti avrebbe fatto una certa strada, anche perché, si è detto per inciso, in quello che ho ascoltato qua dentro, in quello che ho letto le questioni epistemologiche sono ultrasovrabbondanti, ed anche numerosi equivoci che, secondo me sono insiti in certe cose che sono state scritte e dette, derivano dal fatto che non ci sono i chiarimenti epistemologici retrostanti. In particolare, io voglio cercare di portare un po' di luce su un fatto che qui è stato più volte affermato, che condivido ma che potrebbe non essere del tutto chiaro. Cioè il fatto che quando ci si imbarca in una ricerca causale bisogna in qualche modo affidarsi ad una spiegazione attraverso leggi di copertura. Allora questo è un punto di vista saldissimo da un punto di vista culturale. Cioè, chi non sa queste cose va bene, è fermo o ad un livello intuitivo o ingenuo, diremmo, o addirittura ad una forma mentis tardo-ottocentesca. Quindi, queste cose si devono sapere, ma il perché è un po' più sottile. Allora, io cerco di chiarirlo partendo da alcune considerazioni che hanno certamente a che fare con la storia del pensiero, perché la ricognizione storica aiuta spesse volte a cogliere dei nodi fondamentali, ma poi arriveremo direttamente sull'attualità. La cosa con cui si può partire è estremamente elementare. Cioè dall'inizio della civiltà occidentale, il pensiero riflesso, chiamiamoli filosofi se vogliamo, si è posta la domanda: che cosa vuol dire sapere? Cosa vuol dire autenticamente conoscere? E in particolare vengo a conoscere l'evento singolo. Ed allora qui le risposte che sono state date hanno individuato tre tappe essenziali. Primo: stabilire il che del fatto, ovvio, ovvio ma fino ad un certo punto, ma non è sempre così elementare. Secondo: comprendere il come, e finalmente dare la ragione per cui. Questo, in vecchia terminologia, si diceva il problema del "quia", del "quodo" e del "propter quid". Ho usato apposta terminologie latine perché questo si dice che non solo ci sono le etimologie greche, etc. ma questo ha rappresentato il modello dell'ideale del sapere fino al Rinascimento. E non è che gli antichi fossero - li chiamo antichi per modo di dire - inconsapevoli delle difficoltà. Chi non ha letto al liceo la frase di Dante: "state contente umane genti al quia", cioè nei casi più difficili accontentatevi di stabilire che le cose stanno in un certo certo, senza la pretesa di capire, anche perché stanno in un ruolo diverso, mi sembrava di sentire Federspil un momento fa. In molti casi facciamo un discorso nosografico che siamo nati a comodo, e ne abbiamo guadagnato molto, e poi se ci capita una certa fortunata circostanza, foriamo anche verso il propter quid ovvero la ricerca della causa. Ho pronunciato causa. E' un caso? In un certo senso sì, in un certo senso no. Perché, e qui è interessante una brevissima ricostruzione etimologica. La ragion per cui un evento c'è veniva chiamata in greco "aitia" o "aion" e noi lo abbiamo trovato in latino tradotto con causa e lo continuiamo così, di qui la famosissima definizione "scientia est per causas sciire", se non si conosce arrivando anche alle cause non si conosce, come non si conosce? Perché erano molto esigenti gli antichi. Le scienze di osservazione non le chiamavano scienze, Aristotele chiama "historia animalium", le sue descrizioni zoologiche che stupiscono per la loro accuratezza, va bene, noi abbiamo allargato un po' le maglie, siamo consapevoli che non è sempre possibile e diciamo che ci sono scienze di osservazione. Però è importante perché l'idea che il dar ragione implichi il dar la causa nasce all'interno dell'idea stessa del sapere, non si sa veramente fino in fondo se non si assegna la causa, solo che qui subentra un fatto. La causa, in quella vecchia accezione, ve l'ho detto e lo ripeto, era la ragion per cui. E la ragion per cui che era intesa, ecco il punto, secondo il modello della deduzione logica. Cioè dare una causa vuol dire enunciare una proposizione, che la si chiami principio, come la chiamavano gli antichi o altro, a partire dalla quale, con deduzione logica rigorosa, si raggiunge la proposizione che descrive l'evento. Allora c'è già l'idea della struttura deduttiva, ma non una qualunque struttura, una struttura deduttiva, logico-formale corretta. Ovviamente in questa maniera di parlare noi troviamo degli aspetti che per noi sono ridondanti. Chi di noi direbbe, per esempio, che le ipotesi di un teorema sono la causa della tesi. Noi diremmo solo il fondamento della tesi, perché è questo. Aristotele lo dice. Perché noi dalle fatidiche quattro cause aristoteliche abbiamo tenuto in piedi solo la causa più efficiente. Per noi causa è ciò che produce l'effetto, mentre nel pensiero classico la causa era più ampia, era ciò che dà la ragione dell'esistere di un determinato evento, non è che andavano a trovare le altre ragioni; ecco punto che accenno e poi lascio. Ritenevano che le altre ragioni più profonde fossero insite nella natura degli enti che entrano in gioco, la causa formale e la causa finale. Allora, perché si ha un certo effetto? Perché nella natura delle sostanze che entrano in gioco, non dico sostanze chimiche, degli enti che entrano in gioco è iscritto che il loro naturale comportarsi ed evolversi presenti queste caratteristiche. Per cui, ecco il grande punto, è necessario che, un ente che abbia quella determinata natura, dia luogo a questo e questo comportamento in questa e questa circostanza; la deduzione era perfetta. La deduzione logica: il principio di partenza che era consegnato alla conoscenza dell'essenza, il nesso di necessità, e spiego il fenomeno. Troppo ambizioso il programma. Dove funziona questo programma? Nella matematica. E questa non è l'ultima ragione per cui i greci hanno dato una matematica che ha atteso 2000 anni per essere superata, però ecco il punto: una scienza naturale modesta, forse uno confronta questi effetti con la modestia della scienza naturale, come mai? La risposta ce la dà Galileo. Nel caso degli esseri di natura, scrive nella Terza Lettera a "Marcus Welser" sulle macchie solari, noi non possiamo pensare di arrivare ad una conoscenza se ci affidiamo all'impresa disperata di tentare l'essenza, non faccio la citazione letterale a memoria perché non voglio darmi delle arie. Dice: il tentare l'essenza, l'impresa disperata per fatica vana. E allora che cosa fai? Mi accontento di descrivere alcune affezioni, nel linguaggio del tempo sarebbe oggi l'equivalente dire alcune caratteristiche, alcuni fenomeni e di registrare matematicamente le regolarità che sussistono fra queste. Ecco il grande punto. Si abbandona l'idea del riferimento all'essenza, alla causa formale, quindi alla causa finale e resta in piedi semplicemente questa presentazione che sembrerebbe una presentazione eminentemente descrittiva. Il prezzo era abbastanza alto, tanto è vero che la stessa filosofia e scienza moderna non hanno voluto rinunciare di colpo all'idea della causa, e il tentativo di riformularla, di ricatturarla il più interessante è quello di Leibniz che sostituisce la teoria di ragion sufficiente. Allora, vale come principio metodologico, nulla accade senza una ragione sufficiente, è quasi un programma di ricerca, in qualunque campo vedete la vecchia idea, in qualunque campo tu ti sia cimentato niente accade senza una ragione sufficiente, e quindi datti da fare con le metodologie tipiche di quel settore, adottando i punti di vista per trovare perché c'è, ecco il punto, perché c'è. Quale sia, ecco il punto, dovrà essere determinato a seconda dei singoli campi. Però qui ci sono alcune precisazioni. La ragione sufficiente è intesa come la risposta alla domanda: perché. Vecchia idea, è ancora la vecchia idea classica, idea aristotelica che è rimasta in piedi, rispondere al perché, come? Attraverso argomentazioni logiche che Leibniz già a suo tempo arma del simbolismo logico, non per niente, ma Leibniz è tra i padri della logica matematica moderna, e deve esserci dentro la necessità, questo è il vero punto. Cioè, la ragione sufficiente è presentata come la conditio sine qua non, parola tale che quando viene usata necessariamente segue... Ovviamente non entro in altri dettagli, perché non sto facendo un discorso di storia del pensiero, però appare conservato l'aspetto della necessità accanto all'aspetto della deduzione logica ed il problema di dare una risposta al perché. Che cosa mancava in questo discorso leibniziano, che pure è pieno di elementi preziosi? Beh, l'indicazione di dirmi quando si trova la causa, come la si trova; discorso di metodologia delle singole scienze. Leibniz dice che bisogna poi caso per caso andare, apro un programma di ricerca, e noi epistemologi oggi stiamo cercando di fare quello che aveva detto che bisognava fare, ma non aveva fatto lui stesso. E poi c'era una cosa più sottile, e questo è il punto che ci avvia verso il nostro discorso. Dentro l'impostazione leibniziana non si distingueva, se vogliamo, la ragione epistemica e la ragione reale. Cosa vuole dire epistemica, epistemica conoscitiva? Cioè l'aspetto, quando io dico che un certo evento ha una causa, il mio modo di pensare è che nel mondo c'è un altro evento che è la causa di questo, da cui questo segue necessariamente. Però c'è anche un altro aspetto, quello per cui se io conoscessi una certa condizione necessaria potrei, deducendo, arrivare alla descrizione dell'effetto; sono due piani diversi, che ci si augura possano essere portati a coincidenza. Ora di questa differenza è scarsamente consapevole Leibniz che pure è uno tra i pensatori più acuti, non c'è come leggerlo per meravigliarsi tutte le volte. Ma invece Kant che se ne rende conto, e senza mezzi termini taglia. Noi questo lo sappiamo dal liceo, secondo Kant, non possiamo conoscere la realtà in se stessa, sembra di sentire Galileo amplificato. Tentare l'essenza, l'opera e impresa è impossibile per fatica disperata così nelle sostanze prossime tra noi che nelle lontane e celesti. Quindi, lasciamo perdere il discorso ontologico come dicono i filosofi, loro vogliono riempirsi la bocca, che riguarda la realtà così com'è, riduciamoci al contesto epistemico, cioè quello che noi possiamo conoscere. Scusate, come potremo anche pensare di travalicarlo, come potremo noi immaginare di parlare al di là di quello che possiamo conoscere, e quindi è una restrizione, ma non è poi una restrizione banale. Ed allora, lì identifica due aspetti, che sono interessanti perché rimettono in gioco le due dinamiche. Primo: c'è un aspetto strettamente logico-formale della deduzione e della necessità logica. Il nesso di ragione sufficiente o di causa non si riduce a questo, perché? Perché c'è un aspetto contenutistico che risulta soltanto se noi - per parlare alla Kant - applichiamo ai contenuti di esperienza lo nostre strutture mentali. Ora, secondo Kant, l'applicazione di queste strutture mentali comporta che noi parliamo di causa, che noi intendiamo esprimere la causa solo in presenza di un nesso necessario. Questo è il vero punto. Cioè, esempio: vedo davanti a me una torre, le mie rappresentazioni possono indifferenti passare dalla sommità alla base e viceversa, non c'è un ordine di successione che mi è imposto dalle rappresentazioni. Se invece guardo l'esempio di Kant: una barca che scende lungo la corrente non posso rappresentarla prima a valle e poi a monte. Allora, nel primo caso non c'è un ordine necessario nella rappresentazione; nel secondo sì; quello è lo schema rappresentativo della causalità. Allora la causalità rappresenta una successione in cui è contenuta la necessità del nesso. Con questo kant accetta Young, quello che aveva detto: "io non vedo che la causa produca l'effetto", persino quando io vedo che una palla da biliardo colpisce l'altra e quella si muove, io vedo il primo evento come antecedente del secondo ma non vedo la produzione, non si vede quella. E, d'altra parte non è neanche una pura verità logica, cosa vuol dire verità logica? Che io non potrei neppur pensare che non si mettesse in modo la seconda dopo essere fatta, posso pensarlo benissimo. Mi posso mentalmente raffigurare una situazione in cui arriva addosso alla prima e l'altra non si muove. Quindi, non c'è una necessità logica, non risulta, è semplicemente abitudine l'associazione regolare, etc., manca la necessità e Kant la introduce alla sua maniera. Ma quello che è interessante è questo: viene recuperata nella presentazione kantiana l'idea della necessità, cioè della vecchia causa l'aspetto necessario viene mantenuto, e viene spostato su un piano puramente epistemico, questo è importante. Il che significa: tutte le volte che tu enunci un'affermazione come affermazione causale, sottintendi che questa sia una relazione necessaria. E' chiaro che questo poi lascia aperto il problema che ogni imputazione di causalità anche per Kant è solo ipotetico, cioè una legge di natura è la tipica espressione kantiana di una relazione causale, perché enunciata come necessaria, che però quella legge sia veramente valida o meno, questo deve risultare da un'indagine empirica. Perché ho fatto queste premesse? Non sono assolutamente inutili proprio perché noi abbiamo attraversato nell'800 un momento in cui questi aspetti di necessità sono stati lasciati cadere. C'è una specie di diffidenza verso quella che si chiamava metafisica, un nome molto vago, per cui si diceva: parlare di necessità è un discorso metafisico, comporterebbe o la capacità di leggere l'essenza intima del reale o la capacità di leggere le leggi profonde del pensiero. Che cosa deve fare lo scienziato? Questa è la dottrina del positivismo, non aggiungo logico, del positivismo ottocentesco che si inaugura con il famoso "..de philosophie positive" di "Comte" e che continua fino alla fine del secolo scorso ed è questa. Compito della scienza. La scienza, eh sì, ma guardate l'eredità dei termini, scienza continua ad essere pensata come il sapere massimamente raggiungibile, così significava in Platone, in Aristotele e così significa ancora in Kant, così significa nel positivismo, però sono cambiate quasi tutte le cose. Allora, il discorso scientifico è quello in cui si descrivono fatti e al massimo regolarità empiricamente constatate tra fatti, non vengono sempre chiamati fatti ma vengono chiamati fenomeni, ma è la stessa cosa. Tanto è vero che lo scienziato positivista, non solo lo scienziato di scienze naturali, ma quello di scienze umane, lo storico, il sociologo si vantava di dire: "io non interpreto, non pretendo di spiegare, do solo una fedele descrizione", questo faceva sparire la nozione di causalità, e guardate nella letteratura epistemologica, ma non mi rivolgo a quei poveri filosofi delle scienze, anche agli scienziati, scompare la nozione di causa, viene dissolta dapprima dalla nozione di legge, e poi addirittura si ritiene che la nozione di legge sia superflua in quanto si traduce in un rapporto funzionale il quale si può esprimere di solito anche matematicamente attraverso equazioni o disequazioni. Ora questa posizione, larghissima diffusa entra in crisi, perché si trovava in una stranissima posizione di conflitto culturale con la scienza ottocentesca che è una scienza che è stata grandissima perché ha costruito grandissime ciclopiche teorie in fisica, in biologia, in matematica, basta prendere qualunque storia della scienza, tutte le scienze nell'800 sono state caratterizzate dalla acquisizione di teorie, quindi non registrazioni di fatti senza interpretazione e senza spiegazione. Allora è chiaro che non si poteva tenere questa immagine della scienza, immagine che è stata poi ripresa, difesa verso la fine dell'800 da.. ma non voglio entrare in questi discorsi. Chi ha in un certo senso riscattato la scienza dal punto di vista delle sue pretese più alte è stato l'erede culturale del positivismo ottocentesco del nostro secolo, e cioè il cosiddetto neopositivismo, il quale condivide con il positivismo la consacrazione della scienza come, se non proprio, unica forma di sapere, ma in realtà dicono questo, come la più alta forma di sapere. E se alla più alta forma di sapere, santo cielo, che cosa dobbiamo riconoscere? Certo, non solo di darci dei crudi fatti, ma anche - ecco il punto - di spiegarli, riemerge l'idea di spiegazione scientifica, e non solo, ma di farne anche la base per il nostro comportamento, dove si vede che anche senza volerlo, si ripesca la causalità, ma proprio nel senso duro. La tecnologia è tutta una conferma del valore causale delle ere scientifiche; perché, cosa vuole dire un prodotto tecnologico, un'apparecchiatura, una macchina? E` un insieme di condizioni materializzate che in base a tutta una serie di leggi fisiche, della meccanica, della elettrostatica, della elettrodinamica, di quello che volete, entreranno fra loro in azione in modo da produrre come effetto, questo è il punto, il tastato del mondo, proprio il tastato del mondo, è un effetto visibile constatare il materiale. Senza questa retrostante visione causale della legge fisica tutta la tecnologia è un mistero. Cioè, perché la tecnologia piuttosto che la stregoneria? Ecco, diciamo una cosa di questo genere, se non perché si ritiene che dietro le leggi fisiche ci sia la forza causale. Sennonché, appunto, i neopositivisti andavano avanti per questa strada, ma ci sono arrivati gradatamente. In un primo momento si sono accontentati di riprendere le vie della spiegazione scientifica, e la spiegazione è il modello nomologico deduttivo che ci siamo sentiti presentare ormai tante volte, che quindi riassumo in due battute. Se vogliamo spiegare un evento è necessario che ci sia una legge universale, delle condizioni iniziali al contorno a cui si applichi quella determinata legge. Siccome la legge o le leggi prevedono un certo rapporto fra eventi di un tipo A ed eventi di tipo B, nel caso specifico si verificherà proprio come evento quello di tipo E che noi stiamo cercando. Questo è lo schema della spiegazione scientifica. Si sono subito resi conto di quello che ci ha appena raccontato Federspil. Ma le leggi di cui disponiamo sono soltanto probabilistiche nella maggior parte dei casi non universali, e la risposta è stata questa: noi conserviamo la stessa struttura, diciamo che la legge non è universale ma è semplicemente probabilistica, la deduzione logica non ci piove, deve essere corretta. E alla fine però noi non possiamo dire che necessariamente seguirà effetto ma che l'effetto segue soltanto con una certa probabilità. Dopodiché resta il problema di come questa spiegazione possa applicarsi alla causa, proprio perché fino a questo momento anche i neopositivisti non avevano tirato fuori il concetto di causalità proprio perché sapeva troppo di metafisica, e invece a questo punto c'è la trovata, la spiegazione che abbiamo appena descritto vale anche come spiegazione causale, e questa è la ragione nella quale voglio entrare per un momento. Stavo dicendo: perché è una spiegazione causale? Voi vedete che la causalità era stata svuotata di tutti i suoi sottintesi ontologici: questa povera causalità a cosa si era ridotta? A una necessità. E quale tipo di necessità però? A una necessità puramente logica. Se le premesse sono universali - ecco il punto - noi possiamo pensare che siano necessari, allora c'è un decalage in più. Dire che sono causali, dico che sono necessarie, come fai a sapere che sono necessarie? Dico che sono necessarie se sono universali, che si tratti di un decalage ve lo faccio vedere subito, soprattutto poi se lo vogliamo applicare alla causa. Supponiamo che nel mio portamonete ci siano soltanto monete da 100, allora io posso dire che tutte le monete che sono presenti nel mio borsellino sono monete da 100, deduco la conseguenza se estraggo una moneta dal mio borsellino è una moneta 100. Chi mi direbbe che questa è una spiegazione del fatto, e meno che mai la causa? Chi mi direbbe: "ma perché queste monete da 100 e non da 500?". Ma è chiaro, perché era nel tuo borsellino, mi ride in faccia chiunque, e ha ragione di ridere in faccia. Ed allora ci si è cimentati su questo fatto, come possiamo noi distinguere una semplice universalità statistica come questa: "guardate che sono tutte le monete", come dire che tutte le persone presenti in quest'aula sono cittadini italiani, supponiamo, è una universalità accidentale, è una universalità statistica, non c'è dietro nessuna necessità, se le sono inventate? Io adesso mi risparmio perché sono ricerche anche tecnicamente difficili, i filosofi della scienza sono scienziati anche perché lavorano su questioni molto rognose e con strumenti molto raffinati, c'è tutta una serie di pubblicazioni che cercano di stringere, ma non se ne viene mai fuori fino in fondo. Ergo, noi adesso ci rendiamo conto di un fatto: che se vogliamo attribuire alla spiegazione nomologica il valore di spiegazione causale lo facciamo essendo consapevoli che in questo modo facciamo già delle concessioni, ma d'altra parte che non possiamo fare di più. Quale sarebbe l'unica differenza? Sarebbe quella di poter cacciare l'occhio nelle essenze, guardate che c'è gente che ci ritorna oggi, se abbiamo un momento di tempo lo dirò, altrimenti restiamo con questo. Adesso qui si capiscono due cose: perché quando noi passiamo alle spiegazioni statistiche sentiamo questi, "Carla Febbre" e tanti altri autori dire: ma in fondo non si tratta proprio della stessa cosa, perché, dicono? Perché io non posso affermare l'evento come conseguenza dell'ipotesi della legge di copertura se non con una certa probabilità. C'è un equivoco da dissipare, l'espressione probabilità è usata in due sensi diversi. Quando dico che l'ipotesi è soltanto probabile io la intendo in modo sostanzialmente frequentista. Non voglio entrare nel discorso baiesiano lo potrei fare facilmente ma aggiungerei utile carne al fuoco. Federspil è come hai detto tu, l'ipotesi è molto probabile nel senso che in una percentuale X di casi se si verifica questo si verifica anche quest'altro. Gli eventi sono constatati, si fa la deduzione, ecco il punto: io dico che l'evento che voglio spiegare segue solo con una certa probabilità. Qui c'è secondo me un certo equivoco, perché la seconda probabilità di cui si sta parlando non ha un senso frequentista, ma un senso di grado di fiducia, grado di credenza, grado di accettazione, grado di conferma, ci sono tante discussioni in proposito, sono due cose diverse. Voglio dare subito la sensazione di perché sono diverse. Da un'ipotesi di tipo statistico io posso avere una legge formale strettamente deterministica, per esempio l'equazione di Schrödinger la quale partendo da una premessa di tipo probabilistico, intesa come una frequenza relativa, una distribuzione, mi dice qual è la frequenza relativa con cui dovrei constatare tale evento. Questa frequenza relativa deve verificarsi esattamente, al di fuori del margine di errore che la statistica prevede. Se io ho previsto per esempio che di fronte ad un campione di 500 atomi il 50 per cento sarà decaduto entro 10 minuti, se invece del 50 me ne e' decaduto il 70 per cento io ho sbagliato la previsione, ed è una previsione statistica, bisogna che sia il 50 per cento più o meno.. E quindi la mia è tutt'altro, deduco che con una certa probabilità sarà così, no, deduco con assoluta certezza che la frequenza dovrà essere quella. Noi cosa facciamo nella vita ordinaria? Travestiamo il discorso sui collettivi ed il discorso sugli individui e diciamo che un fumatore ha la probabilità del tanto per cento di prendere il cancro al polmone o una persona in buona salute ha la probabilità in Italia di arrivare a 70 anni, e via discorrendo. In realtà questo non è il senso preciso, l'individuo preso così come è non può essere caricato di queste probabilità in senso frequentista, se non dentro una popolazione, ed ed è questa la ragione per cui le compagnie di assicurazione possono fare questo discorso, perché la compagnia di assicurazione non assicura un individuo solo, assicura una vasta popolazione e quindi può fare questo tipo di discorso: sui miei assicurati c'è un 20 per cento che essendo fumatore ha una probabilità di morire prima, altri meno e così i conti tornano. Ma l'assicurazione del singolo rischio è quasi impensabile. E questi sono discorsi che oggi si fanno sulle assicurazioni per i grandi rischi, i Lloyd di Londra si dice che assicurano tutto, però oggi si vede che non è che siano proprio disposti ad assicurare tutto e tutto, perché se non ci sono frequenze sulle quali stimare diventa molto difficile. Ma non voglio adesso entrare in altri problemi. Voglio invece venire a capire come mai si esige che per le imputazioni causali, questo è il grande punto, perché per le imputazioni causali, mentre per la spiegazione va bene il discorso si fa, è un po' confuso però lo si può chiarire, hai un'ipotesi di partenza che è solo statistica, deduci correttamente ed arrivi ad un'affermazione che ti dà con una certa probabilità, l'occorrenza dell'evento.. Ma se si tratta di imputazione causale c'è di mezzo la necessità. Questo è il punto. Abbiamo già visto che la necessità è malamente simulata dall'universalità, meglio di così non si può fare, siamo uomini e non siamo il Pradreterno, meglio di così non possiamo fare. Però se noi rinunciamo anche a questa, allora cosa ci resta in mano. Ecco perché nelle imputazioni causali se usiamo leggi statistiche a rigore non possiamo mai parlare di causalità dell'evento singolo, sottolineo due volte a rigore, come è stato detto prima, anche se io un fumatore accanito che mi muore di cancro al polmone non ho assoluta certezza di dire che è il fumo che l'ha ucciso, potrebbe essere qualcos'altro, però è chiaro che quanto più questa probabilità si avvicina ad uno tanto più aumenta il grado di fiducia. Quindi allora certamente, siccome abbiamo esseri umani e non siamo il Padreterno dobbiamo utilizzare leggi di copertura di tipo statistico, le possiamo anche utilizzare nelle imputazioni di causalità dell'evento singolo purchè la legge di copertura abbia una percentuale probabilistica molto vicina ad uno, e quando si avvicina, come sottolineava Federspil un momento fa, dipende molto dal contesto, cioè a cosa ci serve questa imputazione causale, se l'imputazione causale è tale che per esempio noi dobbiamo dedurre una terapia drastica, potenzialmente pericolosa, ebbene vorremo che siamo vicini al 99,9 per cento, se viceversa si tratta di curare il mal di testa ci accontenteremo di molto meno. Ma credo che anche nella pratica giudiziaria ci siano casi, riconoscimenti di paternità, DNA, in cui si esigono delle paternità molto alte, perché dire ad uno "tu sei padre naturale di questo" può significare moltissime cose. Allora è chiaro che lì giustamente si esige che l'imputazione causale sia garantita da una legge di copertura, che certamente è solo probabilistica ma che è molto vicina ad uno. A questo punto ci sarebbero varie altre cose che si potrebbero dire ma io mi limito a dirne ancora un po' ma non troppe per non mangiare il tempo a chi deve parlare dopo di me. Le leggi statistiche come mai hanno l'importanza che hanno nonostante le cose che ho detto? Purchè si capisca dove vanno applicate, vanno applicate nella prevenzione o profilassi. Lì è sensatissimo tutto questo perché la loro natura statistica sta perfettamente in piedi. Ovviamente mentre, ho detto un momento fa, non posso se un fumatore è morto di cancro stabilire con assoluta certezza che la causa è stato il cancro, tu hai fatto l'esempio della tubercolosi ma siamo lì, è estremamente sensato fare una campagna contro il fumo perché sulla popolazione presa globalmente la legge di copertura statistica mi permette di dire che avrò una diminuzione del 50 per cento o del 60 per cento dei casi di cancro polmonare. A questo punto entra in campo il discorso sull'individuo, anche l'individuo ne avrà un beneficio, ma non posso lo stesso dire che quell'individuo ne avrà beneficio. Facciamo un esempio diverso. quando c'è stato vari e vari anni fa il divieto di circolare la domenica per risparmiare benzina. E` chiaro che noi sappiamo che tutte le domeniche morivano, come muoiono oggi, di incidente stradale supponiamo in una certa città 25 persone, e quindi sapevamo matematicamente che per esempio a Milano quella domenica lì c'erano 25 persone che non erano morte. Sarebbe stato grottesco per esempio che io uscendo al mattino incontro il mio vicino di casa e dico "mi congratulo con te che non sei morto ieri", fa sorridere, ma è così, la previsione statistica non mi consente di dire dell'individuo "si, sei tu quello che non è morto perché abbiamo sospeso la circolazione" come non mi consentire di dire "sei tu quello che non è morto perché abbiamo eliminato il fumo dai locali pubblici, abbiamo fatto la grande propaganda", tuttavia questo è utile. Ecco allora in soldoni l'importanza delle ricerche epidemiologiche, hanno questo senso. Le ricerche epidemiologiche, quando non sconfinino a soppiantare la metodologia clinica, perché nella letteratura ormai c'è questo sconfinamento, ma siano appunto indagini di popolazione, hanno un'importanza grandissima dal punto di vista della politica sanitaria, l'abbiamo sentito questa mattina, ma anche direi da un punto di vista del pensiero medico. Io tra l'altro mi sono occupato di filosofia della medicina, proprio lo scorso hanno abbiamo fatto al San Raffaele un grosso convegno internazionale della mia accademia su questo. Quello che sta emergendo in medicina è l'interesse di un punto di vista olistico, cioè globalizzante che in particolare rinuncia all'ingenua prospettiva della monofattorialità. Allora niente di più prezioso dell'epidemiologia per rimettere in tutto il suo risalto questa importanza. Cioè che è multifattoriale il fatto patologico e quindi anche l'eziologia del medesimo. Questo modo di pensare è importante perché sta, ed è auspicabile che cominci a riorientare la pratica medica in senso antiriduzionistico. Però accanto a questo grandissimo merito dell'epidemiologia, soprattutto se viene capita in questo spirito, è chiaro anche il suo limite, perché è sempre un discorso su popolazioni. Quindi epidemiologicamente, proprio perché è un discorso di tipo sistemico, mi esclude la difficoltà che con quegli strumenti si possa ricostruire la causa dell'evento singolo ed in particolare dell'evento patologico singolo. Ovviamente, questo a prescindere da altre considerazioni.. a prescindere da una considerazione che riguarda l'attendibilità scientifica degli stessi metodi statistici ed epidemiologici. Anche quelli non possono essere semplicemente delle restrizioni, cioè un'ipotesi statistica o un'ipotesi epidemiologica vanno puntualmente controllate, sperimentalmente, sennò si tirino fuori dal campo delle scienze sperimentali a cui credo di appartenere. Cosa può voler dire questo dal punto di vista dell'epidemiologia? Che se la tua analisi epidemiologica ti porta a sostenere una certa relazione causale a livello di popolazione da questa induci una politica sanitaria e se l'applicazione di questa politica, che elimina il congetturato, presunto, preteso agente patogeno, di far riscontrare che sui grandi numeri, e dopo il tempo necessario, è diminuita significativamente la malattia tu hai la conferma della tua ipotesi. Cosa difficilissima da fare proprio perché non possiamo manipolare a nostro piacere le collettivita'. Quindi resta salva questa importanza e restano contemporaneamente presenti anche determinati altri limiti. Io avrei avuto qualcosa da aggiungere sull'aspetto ideografico rispetto a quello che ha detto Federspil ma siccome mi rendo conto che ho coperto i miei 45 minuti ringrazio dell'attenzione che mi è stata data ed eventualmente se qualcuno vuole potrò cercare di rispondere a qualche domanda.

 

Avvocato Stella: Ringrazio il professor Agazzi, mi viene in mente quello che diceva Kant, che gli scienziati sono come dei nomadi che vanno da una città all'altra avendo perso la propria identità e la propria matrice comune. Il professor Agazzi credo che abbia fatto un tentativo di farci ritrovare la matrice comune. Di questo lo ringrazio, posso anche con un uno spunto autobiografico dire che sono fiero di aver sentito il professor Agazzi perché siamo stati compagni di collegio universitario. Io ringrazio, non ho domande da fare, se l'accusa ha..

 

Presidente: Ci sono domande da parte di qualche difensore? Nessuna. Noi ringraziamo il professor Federspil e il professor Agazzi del loro contributo.

Avvocato Stella: Ora il professor Frosini che ci illustrerà gli aspetti statistici a questo punto dopo l'introduzione del professor Federspil e del professor Agazzi. Il professor Frosini è ordinario di statistica ed illustrerà il punto di vista statistico rispetto alle indagini epidemiologiche e poi il concetto di spiegazione statistica dal punto di vista dello statistico.

 

Pubblico Ministero: Presidente, per il verbale, prima che inizi il nuovo consulente, vorrei che venisse dato atto che rinuncio all'eccezione per quanto riguarda i due consulenti di oggi e qualsiasi opposizione.

 

DEPOSIZIONE CONSULENTE 

DR. FROSINI BENITO VITTORIO

 

Presidente: Se vuole presentarsi intanto.

 

RISPOSTA - Sono nato a prato il 17 ottobre del 1940, dal 1975 sono professore ordinario di statistica prima a Torino, poi a Genova e dal 1983 all'Università Cattolica di Milano. Mi è stato chiesto in relazione ovviamente alle mie competenze, che sono di metodologia statistica, di considerare da un lato le indagini epidemiologiche, in particolare quelle che sono state utilizzate e presentate in questa sede, e dall'altra, come ricordava adesso il professor Stella, il problema particolare del caso singolo. Comincerò a dire qualcosa in generale sulle indagini epidemiologiche dal punto di vista statistico ma in questo sarò molto facilitato e data anche l'ora del pomeriggio e la stanchezza che io personalmente, ma credo anche molti possono rivelare, andrò un po' più rapidamente perché posso utilizzare e dare un po' per scontato quello che è stato già detto, in particolare dal professor Zocchetti stamattina, dai professori Federspil e Agazzi oggi, ma soprattutto da quello che ha detto il professor Piergiorgio Duca ieri che ha fatto un'esposizione molto corretta, pulita e precisa, secondo me con una sola piccolissima pecca che non è quello che ha detto, ma in tutto quello che ha detto anche rapidamente c'è una piccola omissione che è bene coprire. Quindi, superato il problema di non poter ricorrere, come più volte è stato detto, a leggi universali, e poi è alla mia specializzazione, consideriamo il ricorso a leggi statistiche, che tipicamente utilizzano, come è stato appena detto, probabilità di tipo frequentista, probabilità dette anche in letteratura oggettive, nel senso che sono state ricavate, tipicamente almeno, da un numero molto grande di esperienze o a volte da un contesto di simmetria, per esempio se si lancia un dado ben costruito si può, per le ragioni della asimmetria del dado, associare una probabilità ad un sesto, alla moneta un mezzo ad un mezzo e così via. Però questo è molto raro, accade solo in determinati giochi di sorte, di regola invece si fanno esperimenti o osservazioni e si conteggia quante volte su un totale di prove è accaduto un certo evento, che è una probabilità che non è l'unica che usa lo scienziato, perché è impossibile che sia l'unica, è stato detto chiaramente questo pomeriggio da ambedue i professori che mi hanno preceduto, perché c'è anche un'altra probabilità che ho sentito qui chiamare ieri ed in altre udienze credibilità razionale, si può dire, ma mi sembra eccessivamente roboante, gli statistici preferiscono un termine molto più brutale che è probabilità soggettiva, infatti il termine internazionale in lingua inglese è proprio subjective probability, perché questo riflette esattamente il fatto che è la probabilità dell'individuo che emette una certa valutazione di probabilità. Naturalmente se questo individuo è così bravo da esporre i motivi che l'hanno condotto a quella certa valutazione e a convincere anche altri, benissimo, altrimenti resta la sua valutazione personale. C'è un tipo di legge statistica che è abbastanza raro, ma che potrebbe condurre in determinati casi ad eseguire una pseudo deduzione, un'argomentazione molto simile alla deduzione, al sillogismo, che è di questo tipo: cito da "Helbel" che è già stato citato altre volte, per esempio la prima premessa di questo pseudo sillogismo potrebbe essere "l'esposizione alle condizioni C provoca la malattia M nel 98 per cento dei casi", seconda premessa "Tizio è stato esposto alle condizioni C, conclusione con elevata probabilità - si potrebbe anche dire 98 per cento ma ci può essere una differenza come si sottolineava prima di qualita' - con elevata probabilità Tizio ha preso la malattia M". Quindi la grossa somiglianza, che sarebbe un sillogismo vero se la malattia si prendesse sempre, date le condizioni C, se ci fosse una legge universale, però c'è una grossa somiglianza perché abbiamo supposto una probabilità molto elevata per cui non si è certi ma si sa che in una proporzione, 98, 99, 999 su mille, in una proporzione molto elevata questo accade. Questa è una situazione, come dicevo, estremamente rara delle scienze empiriche, comunque molto diversa dai problemi che noi abbiamo, perché come è stato rilevato più volte, ed in particolare questa mattina dal professor Zocchetti, le probabilità di cui stiamo parlando sono probabilità non dico microscopiche ma molto piccole, sono probabilità di malattie, in particolare riferite a persone in età non particolarmente avanzata, lavoratori, e quindi sono probabilità di accadimenti molto e molto piccole, dell'ordine, tanto per dare un'idea, dell'ordine dell'1 per cento, alcune anche nell'ordine di 1 su 10 mila, 1 su 1 milione, sono probabilità estremamente piccole. Allora bisogna fare un ragionamento abbastanza diverso ed è quello che tipicamente fanno appunto gli statistici. Avverto che non è l'unico tipo di ragionamento, in realtà all'interno della statistica ci sono varie scuole metodologiche che propongono appunto diversi criteri e diverse procedure, il discorso naturalmente ci porterebbe lontano e non apro questo capitolo, anche perché ritengo che il modo di affrontare questi argomenti che è stato utilizzato da Comba, Pirastu e da altri che hanno parlato è ampiamente condivisibile. Non è l'unico modo, in letteratura autori anche importanti suggeriscono altri metodi, però è il metodo di gran lunga più utilizzato se non altro, e tutto sommato per le ragioni che dirò credo di poterlo sostanzialmente condividere. Cioè in cosa consiste, lo ricordo brevemente perché ieri il professor Duca ne ha parlato a lungo, ed anche il dottor Comba ne ha parlato più di una volta. Il modo tipico, e facciamo riferimento a situazioni del tipo che qui interessano, ad esempio si considera un campione di 2 mila individui, 2 mila lavoratori, si considera l'evento insorgenza oppure decesso per cancro al polmone, tanto per fare un esempio tipico, si considera quella che è la situazione nella popolazione di non esposti, nella popolazione generale oppure di un campione di controllo, è stato spiegato oggi da più persone cosa si intende un gruppo di controllo, campione di controllo, e quindi si parte da un'ipotesi, eventualmente da falsificare, in senso induttivo, ipotesi che dice che in quel campione dovremmo osservare più o meno quello che si osserva per esempio nella popolazione in generale di riferimento, anche qui ammettiamo che sia pacifica la popolazione di riferimento. Perché ho detto "più o meno"? Perché è un campione casuale. Cioè se la popolazione, un esempio di maschi, per i gruppi di età, se la popolazione di riferimento è costituita mettiamo da 5 milioni di persone, i 2 mila li posso prendere, come potete immaginare, in un numero di modi che non è infinito ma è un numero che se lo dovessi scrivere a mano vado da qui fino a là, un numero elevatissimo. Quindi i campioni che possono essere estratti sono tipicamente molto numerosi e tra questi campioni possono esserci campioni molto simili alla popolazione in generale, si dice anche in modo non del tutto appropriato, ma tanto per intenderci campioni rappresentativi, e potremmo anche essere sfortunati e tirar su dei campioni poco rappresentativi, pur tuttavia scelti dalla popolazione generale. Notate che la scelta di un campione con criteri di casualità, cioè un campione probabilistico, è assolutamente essenziale, è essenziale perché se il campione non è probabilistico noi non possiamo fare nessuna affermazione probabilistica sul campione, è quasi una tautologia, ma è così. Devo anche dire però che in molti casi, ed è una delle prime debolezze dell'applicazione che è stata fatta praticamente in tutte le indagini, io cito 40, 45 articoli, praticamente quelli citati da Zocchetti stamane, praticamente in tutte queste indagini il campione causale non esiste. Uno va a prendere quel gruppo di lavoratori che in quel quel momento in quegli anni lavoravano presso l'industria tale, addetti a certe mansioni, etc. etc.. Il campione probabilistico non esiste, non sono stati scelti a caso, e questa se vogliamo inizia ad altre una prima debolezza. Cosa si fa allora? Come per altri problemi che vedremo si fa finta, si fa come se fosse un campione casuale scelto dalla popolazione, si fa un po' finta. Devo dire però che questo far finta ha soprattutto a che che vedere con la falsificazione dell'ipotesi H0 in via pura e semplice, perché poi c'è anche un'altra ipotesi, ne ha parlato a lungo ieri Duca, che è l'ipotesi alternativa. L'ipotesi alternativa può essere esposta in vari modi, il modo più semplice è spesso l'influenza di quella data esposizione aumenta il rischio di prendere una certa malattia, questo può essere, che è un'ipotesi alternativa come si dice tecnicamente composta, perché da un punto di vista tecnico si può dire: "potremmo pensare in via alternativa che il rischio magari è aumentato del 30 per cento, del 50 per cento, del 200 per cento, etc," in realtà nell'ipotesi alternativa ci sono diverse ipotesi semplici. Non mi addentro molto ma è una cosa da tener presente poi quando parlerò del calcolo di certe probabilità, ed in particolare della potenza del test. Sostanzialmente, e qui non mi dilungo perché queste cose sono già state dette, si considera un certo campione, "che è un certo insieme di lavoratori nei nostri casi", c'è un'ipotesi nulla che ammette, appunto in via ipotetica, che questo campione sia stato estratto a caso dalla popolazione generale di riferimento, e quindi noi ci aspettiamo che in questo campione la caratteristica che ci interessa non sia molto diversa da quello che accade nella popolazione. Per esempio nella popolazione per quel gruppo di persone, quella numerosità, quei gruppi di età e per gli anni considerati nella popolazione ci aspetteremo, che so, sei decessi per cancro al polmone, in media, attenzione, cioè sull'intera popolazione. Però se noi prendiamo questo campione a caso potremmo sempre a caso prendere un campione di 2 mila persone che ha sei decessi per quel tipo di tumore, esattamente sei come nella popolazione, però attenzione, apro una piccola parentesi, noi non lo sapremo mai, questo è il tragico un po' dell'inferenza statistica e un po' di tutte le inferenze, cioè si fa inferenza sperando di non sbagliare però la verità noi non la sapremo mai, ci è proprio vietata, insomma. Quindi può essere che noi prendiamo questo campione che coincide con quello che accede nella popolazione, questo almeno in genere. Però invece di sei può essere un campione abbastanza sfortunato e ne abbiamo molti di più o molti di meno, sfortunato nel senso che non ci rappresenta la popolazione, se non abbiamo di meno è meglio per loro, non è sfortunato questo senso, sfortunato nel senso di scarsamente rappresentativo, però se il campione è casuale abbiamo una possibilità per giudicare della rappresentatività o meno di questo campione, proprio utilizzando un modello probabilistico. E quindi sostanzialmente il tipo di test o verifica di ipotesi che si applica è di questo tipo: si fissa una costante, costante C che può essere, tanto per fissare le idee, in questo caso mettiamo il numero 12, e diciamo che fino all'osservazione di 11 decessi per quel tipo di tumore assumiamo che il campione possa essere rappresentativo della popolazione, oltre, e quindi avendo dei numeri abbastanza grossi, diciamo che questo campione non è più rappresentativo della popolazione, e cioè ci sentiamo di assumere che ha agito una qualche causa particolare, per esempio l'esposizione ad una certa condizione lavorativa. Come fissare questo limite? In linea di massima questo va bene, credo che tutti sono d'accordo, diciamo che se il numero di decessi è molto più piccolo o molto più grande di quello che accadrebbe in media in un campione di 2 mila persone nella popolazione, se è molto più piccolo o molto più grande ci sembra ragionevole assumere che difficilmente questo campione potrebbe essere venuto fuori da quella popolazione, il criterio è appunto probabilistico, quindi esistono dei metodi per calcolare la probabilità di questi valori sotto quell'ipotesi, cioè sotto l'ipotesi che il campione provenga da quella popolazione. Quindi sotto quell'ipotesi io arrivo a dire che i valori in un certo intervallo intorno alla media 6 della popolazione, ad esempio tra 2 e 11, questi valori hanno una probabilità di accadimento poniamo di 0,98, e quindi 98 volte su 100 io osservo dei valori che sono in questo intervallo intorno alla media, se vado oltre diciamo che posso ricordare l'alternativa di Fischer, che diceva: "a questo punto delle due l'una, o è accaduto un evento abbastanza raro sotto l'ipotesi che il campione sia estratto dalla popolazione, oppure invece c'è una causa particolare, c'è un cambiamento sistematico". In realtà non è venuto fuori da quella popolazione. Data l'alternativa e chiarissimo, come è stato detto da altri, in particolare da Duca, che abbiamo una possibilità di errore, in questo caso, nell'esempio che ho fatto l'errore è del 2 per cento, quindi se noi accettiamo quel tipo di test e cadiamo fuori da quell'intervallo di valori possiamo accettare l'ipotesi alternativa sapendo che per puro effetto del caso due volte su 100 noi possiamo sbagliare, e naturalmente conviene ridurre il più possibile questa probabilità, in linea di principio. Però ahimè c'è anche un altro tipo di errore purtroppo, che appunto è l'errore di seconda specie, quello di cui ho appena parlato adesso si usa chiamare errore di prima specie o errore di primo tipo. L'errore di prima specie era di respingere l'ipotesi nulla, che il campione proviene dalla popolazione, quando è vera. L'errore di seconda specie è invece di accettare l'ipotesi nulla quando è falsa, altri errori non ci ci possono essere perché le altre possibilità sono accettare l'ipotesi nulla quando è vera ed accettare l'ipotesi alternativa quando è vera. Quindi qui andiamo bene, e poi c'è la possibilità degli altri due incroci, evidentemente c'è interesse a ridurre entrambi i tipi di errore. E dico subito che dalle indagini scientifiche, e quindi non di tipo operativo, indagini meramente scientifiche, e quindi conoscitive, si cerca di tenerli abbastanza in equilibrio questi due tipi di errori. Riguardo alle possibilità di questi errori, e qui sciolgo subito la riserva riguardo al discorso che ha fatto ieri Piergiorgio Duca, dicevo che è tutto condivisibile, aggiungerei una cosa che aggiungo adesso, cioè diceva in un suo passaggio su cui ha insistito molto, Duca, dice: "attenzione, quando uno studio è negativo" anche questa mattina è stato usato questo termine, "cerchiamo di vedere se l'esposizione al monocloruro di vinile ha un effetto per il cancro al polmone..", è possibile che a seguito dell'applicazione di questa inferenza statistica noi concludiamo che non ha nessun affetto, almeno non c'è nessuna conferma dal campione che possiamo trarre questa conclusione. Questo naturalmente non vuol dire che non abbia effetto, perché c'è una probabilità di errore, la certezza non c'è mai, la cosa che è stata detta da molti la ripeto, non c'è mai la certezza. E quindi se noi concludiamo nel senso che non c'è apparentemente un effetto questo non vuol dire che un effetto non ci sia, e questo è stato molto sottolineato da Duca. Però c'è anche l'altro fatto, cioè sembrava che quando si raggiunge la cosiddetta significatività statistica il ricercatore si sfrega le mani e dice "benissimo ho scoperto qualcosa di meraviglioso, era lo scopo della mia ricerca" poi c'è la cosiddetta distorsione da pubblicazione, e quindi mando alla rivista tale un risultato significativo e quindi è anche più facile che lo pubblichino. Anche qui è uguale, è la stessa cosa, la cosa è a specchio. Posso avere un risultato significativo però in realtà l'ipotesi alternativa è falsa, questo è ovvio, ma non è stato detto e quindi lo dico per completare il discorso. Dicevo che è desiderabile che entrambe le probabilità di errore siano piccole, e questo mi sembra assolutamente ovvio, però tutte e due le probabilità di errore, a parità di campione ed in generale a parità di contenuto informativo nel campione, sono in un certo senso quello che sono, o meglio c'è una relazione tra le due nel senso che se cerco di abbassare l'una l'altra inevitabilmente si alza. Posso anche abbassarle tutte e due ma tipicamente posso conseguire questo risultato ampliando il campione, facendo nuove osservazioni, però date le osservazioni fatte è quello che è. Di solito si comincia, questo è un discorso che molti statistici mettono in discussione, quello che sto per fare, cioè quello che è usuale è iniziare a stabilire una probabilità per l'errore di prima specie, il primo dei due anche nell'ordine che ho esposto, una probabilità relativamente piccola, dico relativamente perché come è stato detto e come tornerò a dire molto dipende dagli scopi dell'indagine, cioè la probabilità può essere elevata addirittura come al 10 per cento, in certi studi lo si fa, ed in altri invece non si vuole andare oltre 1 su 1000 o 1 su 10000, dipende dagli scopi dell'indagine. Comunque se una di queste probabilità si fa diminuire l'altra non può che aumentare, allora bisogna stare molto attenti a questo e, come dicevo, in un'indagine scientifica possibilmente cercare di mantenere, se non un'eguaglianza, un certo equilibrio tra queste due probabilità di errore. Nella terminologia che è stata utilizzata da molti, in particolare, correttamente, dal dottor Comba, si parla anche di potenza del test, ricordo comunque sul discorso terminologico che poi utilizzerò, che queste due probabilità sono indicate con le lettere greche alfa e beta, alfa per la probabilità dell'errore di prima specie e beta per la probabilità dell'errore di seconda specie. Il complemento A1 della probabilità di errore beta, che quindi è la probabilità di prendere una decisione corretta, perché ricordiamoci: o si sbaglia o non si sbaglia; allora il complemento A1 della probabilità beta, per esempio se beta è 0,20, 1 meno 0,20 è 0,80, questo 0,80 è la probabilità di prendere una decisione corretta e si usa indicare con il termine di potenza del test , nel senso che è una cosa positiva, e quindi un test più è potente, più elevata questa probabilità di prendere una decisione corretta e meglio è. Questo discorso della potenza è gia' stato ricordato da molti, in particolare un grosso rilievo è stato dato giustamente, e sottoscrivo tutte le parole dette ieri dal professor Duca, è veramente importante che un'indagine abbia una potenza abbastanza elevata anche perché come dicevo una delle due probabilità di errore può essere fissata ad arbitrio, uno può fissarla anche bassissima, però l'altra tende ad 1, questo non ha senso, ci vuole un certo equilibrio soprattutto nelle indagini scientifiche. Questo è già stato detto qui, io ricorderò ancora l'autorevole analisi di Beaumont e Breslow, che è stata ricordata anche stamane dal professor Zocchetti perché in questa indagine un giudizio sull'informatività delle analisi che sono state considerate in quello studio, che erano nove analisi relativamente alla mortalità di lavoratori esposti a cloruro di vinile, il criterio principale per valutare l'informatività di questi studi, e quindi quelli che erano più affidabili, era la potenza degli studi. Il discorso che ho fatto fino ad ora, tornerei un attimo indietro a quel modo di impostare per esempio un test, fisso un certo intervallo, se cado al di fuori dell'intervallo accetto l'ipotesi alternativa. Questo è un modo abbastanza usuale di fare materialmente un test, di eseguirlo numericamente. Un modo del tutto equivalente è quello che ho visto seguire da quasi tutti gli autori degli studi, in particolare dal dottor Comba che ha esposto ampiamente su questo punto. Un modo del tutto equivalente è di considerare gli intervalli di confidenza, cioè si stabilisce un intervallo di confidenza, mettiamo al 90 per cento, vuol dire che l'intervallo di valori che vengono fuori dal campione casuale, 90 volte su 100 copre il parametro esatto che ci interessa, nei nostri casi è il famoso SMR, questo parametro; se comprende il valore 100 diciamo che questo valore del parametro è compatibile, con quel livello di probabilità, con i campioni che abbiamo trovato, oppure il campione è conforme, c'è conformità tra il campione.. La relazione tra il cosiddetto coefficiente di confidenza, per esempio il 90 per per cento e le probabilità di errore sono il complemento A1, se prendo un intervallo al 90 per cento la probabilità dell'errore di prima specie, cosiddetta alfa è 0,10, se prendo l'intervallo al 99 per cento è l'1 per cento. Come si può intuire, e come è effettivamente, se aumento la probabilità di coprire il valore vero, che è una cosa molto desiderabile, è chiaro che io vorrei avere un intervallo che mi copra il valore vero, basterebbe amplificare questa probabilità e quindi far tendere a zero ha probabilità di errore. Come abbiamo visto questo non è senza danni. Da un lato questo intervallo diventa amplissimo, e quindi praticamente non informativo e dall'altro mi fa aumentare la probabilità dell'errore di seconda specie. Quindi, insomma, anche adottando questo criterio non è che le cose cambiano, è solo un altro modo di fare lo stesso tipo di inferenza. Vorrei tuttavia sottolineare, a proposito dell'intervallo di confidenza, una cosa che più volte è stata sottolineata giustamente dal dottor Comba: perché si usa praticamente molto più spesso l'intervallo di confidenza anche per fare un test, quando se ne potrebbe fare a meno? Il motivo è che in un certo senso si prendono due piccioni con una fava, cioè l'intervallo di confidenza, non solo serve, se serve, a fare il test, ma serve anche come stima, cioè l'intervallo di confidenza è tipicamente utilizzato senza nessun problema di test, ma per eseguire una stima per intervallo. Invece di dare un valore singolo, cioè dal campione posso stimare che nella popolazione il tale parametro è uguale a 8, questa è una stima puntuale, stabilisco un intervallo di valori che ha associata la probabilità, e quindi c'è vantaggio e svantaggio. Da un lato ho un intervallo e non un singolo valore, però li associo alla probabilità che può anche essere abbastanza elevata. Quindi se l'intervallo in assoluto non è tanto grande direi che si ha un'informazione molto importante. Uno sa che abbastanza facilmente il parametro vero sta in quell'intervallo, invece quando si fa una stima puntuale il discorso diventa molto più sfumato, non si hanno queste informazioni. Dico questo perché ritengo che questi intervalli di confidenza, anche al 90 per cento come sono stati calcolati nello studio di Porto Marghera siano stati impostati molto correttamente perché mi pare che lo scopo era principalmente, se non esclusivamente, quello di eseguire delle stime. Non c'era nessun discorso né di inferenza né decisionale. Questo naturalmente si può utilizzare, perché ripeto quando si ha l'intervallo di confidenza uno può dire: "benissimo, proviamo anche a vedere cosa succede alla verifica di ipotesi", qui però le due cose in un certo senso possono non andare d'accordo dal punto di vista di sostanza. Dal punto di vista formale vanno bene, dal punto di vista di sostanza, intendo, andando a quel punto a vedere le probabilità di errore. Se uso l'intervallo di confidenza solo per la stima, e per certi motivi mi va bene l'intervallo al 90 per cento, benissimo, il discorso è finito lì, ma se lo uso per fare un'inferenza del tipo "accetto o respingo la data ipotesi" devo andare a vedere le probabilità di errore. Una la so già, perché se era al 90 per cento so che sto usando una probabilità di errore alfa che è del 10 per cento, però devo andare a vedere la probabilità dell'errore di seconda specie. Devo fare un discorso di test statistico che in sé e per sé non è insito nell'intervallo di confidenza, anche se può essere da esso ricavato. Un cenno ai problemi di scelta di queste probabilità di errore. Ho detto prima che raramente si possono stabilire entrambe queste probabilità, quando si possono stabilire entrambe si cerca da stabilirle a livelli molto bassi, a volte è possibile, quando è possibile? Quando si fanno esperimenti che in termini di costo, il costo proprio in lire, ed in termini di tempo e di impegno dei ricercatori costano molto poco. Ci sono esperimenti a volte, per esempio di tipo chimico, che costano relativamente poco, allora se ne possono fare tanti, si fissa in partenza qual è la dimensione del campione che mi assicura un'alfa uguale a beta, uguale ad un millesimo, viene fuori magari una dimensione campionaria di 2890, benissimo, si vede se c'è il tempo e la disponibilità finanziaria per farlo e se si può fare si ha la soddisfazione di aver impostato un discorso in modo molto rigoroso, cioè prefissando entrambe le probabilità di errore a livelli molto bassi. Questo, ripeto, non si può fare quasi mai, ci sono dei casi in cui le probabilità di errore sono inevitabilmente grandi, non c'è niente da fare, ho detto che in linea di massima, non è solo questo che gioca, ma in linea di massima quello che conta di più è la dimensione del campione. A volte c'è poco da fare, io ricordo un amico che anni fa lavorava presso una grossa azienda siderurgica ed ogni tanto facevano anche esperimenti con gli altoforni, ogni esperimento costava circa 50 milioni, per cui anche se erano importanti quando lui aveva quattro o cinque esperimenti era il massimo, potete immaginare che tipo di probabilità di errore veniva fuori, d'altra parte lui adottava dei metodi che erano ottimali, perché ci sono delle situazioni in cui la statistica offre e produce dei metodi che sono ottimali, non si può fare di meglio, e dimostrato matematicamente che se uno usa quel metodo adotta la procedura ottimale, quindi nessuno lo può criticare, ho fatto il meglio che si poteva fare, ma il meglio non vuol dire che era una buona cosa, il meglio era lavorare con probabilità di errore del 25 per cento, però meglio di così non si poteva fare. Anche qui distinguiamo la buona tecnica e la buona operatività statistica da quello che sono a volte inevitabilmente le probabilità di errore. Come vedremo per esempio, ho fatto anche qualche calcolo di probabilità, nei casi di cui parleremo ci sono delle probabilità di errore elevatissime, che però non vogliono dire che chi ha applicato quelle certe tecniche ha sbagliato, doveva fare di meglio, no, assolutamente, io credo che non avrei saputo fare di meglio, però con il materiale disponibile vengono fuori delle probabilità di errore enormi, è una cosa insita nei dati in sé, non ha a che fare con la bravura di chi ha fatto l'indagine. Sui valori comunque, tanto per dare un'idea della letteratura, vedo che il tempo passa, vorrei dare un'idea dei livelli, in particolare dell'errore di prima specie, che non dovrebbero essere molto diversi da quelli dell'errore di seconda specie che tipicamente vengono prefissati e Ronald Fischer, il più grande statista di tutti i tempi, che per moltissimi anni ha fatto sperimentazioni agricole, non è solo il più grande statistico matematico, era un grande matematico, ma per molti anni era a capo di una stazione sperimentale agricola dove praticamente ha inventato il grosso della sua metodologia applicandolo. Lui tra l'altro non è mai stato professore di statistica, era professore di genetica a Cambridge, aveva un'enorme esperienza di sperimentazione, infatti nei suoi libri ogni tanto prende in giro gli statistici matematici che non hanno mai seguito un esperimento. Ronald Fischer tipicamente utilizza, in particolare nel suo testo più famoso, livelli di significatività, cioè probabilità dell'errore di prima specie che vanno dall'1 per cento al 5 per cento con una preferenza dichiarata per il 2 per cento, che gli sembra in genere abbastanza ragionevole, un 2 per cento di errore, però dicevo molto dipende dalle applicazioni. Per esempio Marcello Boldrini, grande statistico italiano, ha lasciato scritto in più testi che riteneva che per giudicare la significatività di un risultato, la probabilità di errore non dovrebbe superare il 3 per mille, che sarebbe grosso modo il criterio dei tre sigma, lo dico tra virgolette senza entrare nel merito, comunque questo dicevo era il 3 per mille. In altri casi vengono suggeriti valori dell'1 per cento, 1 per mille, etc., comunque su questo ritorneremo, è solo per dire che sono valori abbastanza comunemente scelti da questi statistici, comunque ci torneremo, non vorrei adesso dilungarmi perché il tempo sta scorrendo. Ricordo anche che nelle scienze sociali è abbastanza standard il riferimento al 5 per cento, per esempio in psicologia. Una probabilità come il 5 per cento è chiaro che è una probabilità di errore abbastanza elevata, si dovrebbe cercare di diminuirla. Molte volte viene applicata proprio in modo acritico, però c'è da dire che in moltissime applicazioni questo non preoccupa più di tanto, in che senso? Direi per almeno due motivi e poi ne aggiungeremo anche un terzo. Uno è che accettare o respingere un'ipotesi statistica è sempre un fatto assolutamente provvisorio, l'approccio è quello di Popper, ci sono dei nuovi dati che possono permettere di confermare o se, in numero molto grande, di respingere un'ipotesi già accettata, benissimo, andiamo a vedere e ne traiamo una conclusione, ma non è mai una conclusione definitiva, è una tappa nel percorso della scienza. Non c'è da preoccuparsi più di tanto. E poi, il motivo ancora più importante, è stato detto prima da Federspil, nella gran maggioranza dei casi, soprattutto nelle scienze sociali, un errore, perché il 5 per cento non è una probabilità altissima ma una probabilità di errore non trascurabile. Uno dice: "e se faccio un errore?" Non succede niente di grave, uno legge tante ricerche dove si usa il 5 per cento, se uno si chiede: " e se avesse sbagliato?" Non è che ci siano poi degli effetti estremamente spiacevoli perché infatti, se si va a vedere, come diceva Federspil, se gli eventuali effetti di una decisione sbagliata fossero molto gravi, vedete che non si sceglie il 5 o il 10 per cento così con molta leggerezza, tutt'altro, si sta molto attenti a calibrare le probabilità e casomai ad abbassare drasticamente la probabilità che è collegata all'evento pericoloso, quindi si sta molto attenti, però si usa spesso questo indirizzo generale del 5 per cento soprattutto nelle scienze dove il discorso è abbastanza teorico e non ha grossi riflessi pratici. Il terzo motivo è un motivo che è molto vicino a quello di cui stiamo dibattendo, è un motivo che ho avvertito subito ma poi ho trovato conferma in molte pubblicazioni, quando ho visto il dettato I.A.R.C. dell'87 ed altre cose di questo genere, sono andato a controllare le pubblicazioni che venivano indicate dalle quali loro avevano preso questo indirizzo, questo consiglio. A me pare evidente che quando, come in questi casi, si fa un'indagine sui rischi per la salute dei lavoratori, emerge un indizio, non dico una prova, un indizio sulla pericolosità dell'esposizione ad una certa sostanza, mi sembra preferibile stare dalla parte sicura: un ente che sovrintende, come l'Istituto Superiore di Sanità, che sovrintendono alla salute pubblica, quando viene fuori un pericolo, sia pure non provato ma con indizi che emergono da indagini non proprio piccolissime, di una certa serietà, uno dice: "beh, cominciamo a correre ai ripari, poi faremo ulteriori indagini e vediamo un po'", questo mi sembra estremamente corretto e vuole anche dire che in questi casi si potrebbe accettare una probabilità di errore relativamente alta, per esempio il 10 per cento o anche il 15 per cento, perché no, perché si preferisce andare in questa direzione piuttosto che nell'altra direzione. Questo è un discorso che non ha niente a che fare con la scientificità, è un discorso di prevenzione, di salute pubblica che non ha nulla a che fare con la valutazione "è vera l'ipotesi A o è vera l'ipotesi B". Tutto quello che ho detto fino a questo momento parlando delle probabilità di errore ricorderete che associavo le probabilità di errore ad un modello statistico, non mi soffermo sui tipi di modelli perché non c'è tra l'altro bisogno di entrare nel tecnicismo, comunque c'è un modello statistico che per varie ragioni viene accettato per quella determinata applicazione, si calcolano queste probabilità, per esempio si dice che la probabilità alfa è al 5 per cento, la probabilità beta è all'8 per cento.. che affidamento possiamo fare su questi calcoli? Non dico che magari ho sbagliato calcolo, anche questo può succedere, mettiamo che non è stato fatto nessun errore di calcolo, ho un 5 per cento ed un 8 per cento. Diciamo che queste probabilità sono quasi sempre, si potrebbe dire praticamente sempre, delle approssimazioni delle vere probabilità, perché? Perché queste probabilità sono state ricavate da un modello matematico, qualcosa che sta in cielo, non è qualcosa di questa terra. Il modello matematico non esiste in natura, ce lo siamo inventati noi. Anche la famosa curva gaussiana, che prima citava Federspil, che è così utile ed applicata, non esiste in natura, non son cose esistono, però si usa come i modelli della fisica e dell'astronomia perché si rivela molto utile nelle applicazioni e nelle previsioni, ma sono dei modelli, non dobbiamo dimenticare che sono modelli. Allora bisogna pur sempre controllare se l'applicazione, cioè le condizioni concrete dell'applicazione rispondono in larga massima ai requisiti dei modelli, questo dovrebbe essere controllato. Anche qui devo dire subito che nei casi che trattiamo questo controllo è impossibile, purtroppo. Perché per renderlo possibile bisognerebbe poter estrarre un numero possibilmente grande, molto grande di campioni, sotto le stesse condizioni da quella certa popolazione, mentre in tutte le indagini epidemiologiche il campione è quello lì e basta. Uno potrebbe dire: "si, però ne sono state fatte tante", per esempio qui ne ho 40 o 45, ma le condizioni, è stato ricordato da molti, in particolare da Zocchetti questa mattina, le condizioni che riguardano i diversi esperimenti casuali, io parlo in genere di esperimenti casuali, in questo caso diciamo "fatti dalla natura", non è che sono stati fatti appositamente dall'uomo, mentre sugli animali sono fatti dall'uomo. Questi esperimenti casuali non sono comparabili, sono esperimenti casuali che diciamo che se io scrivo ordinatamente le principali condizioni che possono influire su un risultato, mi accorgo che sono condizioni molto diverse, una cosa che ha ricordato il dottor Comba all'udienza del primo luglio alla quale ho partecipato quando rispondendo all'Avvocato Scatturin spiegava come sia stato egualmente costruito un certo campione, diciamo pooled, io preferisco dirlo in italiano, cumulato, questo pool di più esperienze, tuttavia rilevava molto correttamente che non bisogna dimenticare che notevoli caratteristiche come generi, gruppi di età, esposizione, tecnologie diverse in questi impianti differivano in modo notevole, questo per dire che quando si confrontano più studi, se andiamo a fare un controllo appena appena accurato ci accorgiamo che sono studi non comparabili. Quindi, tornando al discorso di prima, un numero grande di campioni, nelle stesse condizioni etc. non si può fare, qualcosa del genere non si può fare nemmeno mettendo insieme più studi di questo genere perché sono eseguiti in condizioni radicalmente diverse, e quindi si tratta di modelli che non possono essere né confermati né respinti. Se però mi si chiedesse: il modello di Poisson, che è quello usualmente impiegato in questi casi, si può usare o non si può usare? Io penso, per analogia, perché nella scienza si usa anche questo vecchio strumento un po' arrugginito, a volte però non si può farne a meno, che è lo strumento dell'analogia, per analogia con altri fenomeni, con altri tipi di studi mi sentirei di dire che approssimativamente può essere utilizzato questo strumento, però molto approssimativamente. In altre parole le probabilità che sono state utilizzate, non solo nel caso di Porto Marghera, ma in tutti questi studi sono probabilità largamente approssimate. Uno potrebbe dire: "approssimate come?". Qui c'è tutta una letteratura che riguarda in particolare gli intervalli di confidenza, vedo che il tempo corre via svelto e non sto a leggervela, ma la letteratura sostanzialmente dice questo: quando ci sono queste condizioni, diciamo così, concrete, che riflettono solo molto a spanne il modello teorico, la regola quasi assoluta è che l'incertezza che sta nelle probabilità di errore viene amplificata, non si sa quanto, ma in linea di massima viene tanto più amplificata quanto più c'è divergenza tra modello teorico e concrete condizioni. Questo sembra abbastanza ovvio ma tutta la letteratura è concorde, comunque tutta quella che conosco, può darsi che un autore abbia scritto una cosa diversa, ma tutti sono d'accordo su questo e non sto a diffondermi ulteriormente, casomai poi, visto che qualche citazione l'avevo anche preparata, poi farò avere al Tribunale questi riferimenti. Potrebbero esserci critiche anche più devastanti, una è portata da Greenland in un famoso articolo del '90 su Epidemiology, e Greenland sostanzialmente dice che al di fuori delle sperimentazioni randomizzate, quelle ricordate prima dal professor Federspil, al di fuori di quelle, ed in particolare prende in considerazione le analisi epidemiologiche, non si può stabilire un rapporto di causalità. Già comunque in quelle randomizzate bisogna andare con i piedi di piombo, ma al di fuori di quelle lui fa un'affermazione molto forte, io al momento sono abbastanza vicino a questa posizione ma non la sposo, come si suol dire, anche per poter fare qualche altro discorso perché se dicessi questo, cioè se fossi d'accordo con Greenland il discorso sarebbe finito perché vorrebbe dire da parte mia ammettere che non solo quello che è stato fatto per Porto Marghera, ma anche tutti questi lavori, sono carta straccia da buttar via, e non mi sento veramente di dire una cosa di questo genere. Ho detto un motivo per cui queste probabilità - che è un motivo molto forte -per cui queste probabilità sono vaghe approssimazioni delle vere probabilità di errore e sono sicuramente limiti inferiori, le probabilità di errore sono più elevate. Diciamo un altro motivo. Un altro motivo è questo, non sono sicuro ma mi sembra che non ne abbia parlato nessuno, è un motivo che invece, devo dire per onestà, molti di questi autori magari in due o tre righe accennano. E` un confronto tra quello che io chiamo test semplici e test multipli. Voglio dire questo: facciamo il caso di un test e consideriamo per semplicità solo l'errore di prima specie. Io stabilisco un test che ha una probabilità alfa del 5 per cento, applico questo test, posso accettare o non accettare, sbagliare o non sbagliare, questo non lo saprò mai, se sbaglio non saprò mai se ho sbagliato. Se faccio un altro campione, anche qui posso accettare, non accettare, etc., ammettiamo di considerare due campioni e mi chiedo qual è la probabilità che in almeno uno di questi campioni trovi un effetto, cioè trovi una significatività. Attenzione io ho due campioni, non più uno, mettiamo uguali per dimensione, tutto, discorso teorico perfetto. Allora mi sto chiedendo qual è la probabilità che in almeno uno di questi venga fuori un risultato significativo. La probabilità si calcola in un modo molto semplice - aggiungo per i tecnici: due campioni indipendenti - se alfa era, tanto per fissare le idee, 0,10, questa probabilità è uguale ad 1 meno 0,9 al quadrato e cioè 1 meno 0,81 e cioè 0,19. Questo è un valore grossissimo, già 0,10 la probabilità è indifendibile come probabilità di errore, ma 0,19 poi.. Eppure viene fuori in modo deduttivo, non è discutibile, in modo deduttivo che se 0,10 e' applicato a ciascuno dei test, la probabilità che almeno uno dei due mi dia un risultato significativo è 0,19. Tanto per dare un'idea, se fossero quattro i campioni, si ottiene 1 meno 0,9 alla quarta, che è 0,345, 34,5 per cento di errore, sono cose folli. Cosa ha a che fare? E ripeto che è una cosa che anche diversi autori dicono che bisogna anche tener conto di questo. Dato che quando sono state fatte queste indagini voi sapete che vengono stampati in tutti questi studi degli elenchi, come questo della tabella 1 della relazione di Comba e Pirastu, causa di morte e qui c'è un elenco di cause di morte, non se ne segue una, se ne seguono in genere 30, 40, 50, in un caso mi pare 60, tutte le cause di morte. Molte di queste cause di morte sono praticamente indipendenti, non tutte, ma molte sono sostanzialmente indipendenti, comunque sono tante, se solo ce ne fossero quattro indipendenti, la probabilità che ci sia almeno un risultato significativo non è 0,10 ma è 0,345. Allora capite che quando uno vede una tabella di questo genere, se io non sapessi niente, adesso ne so qualcosa, non molto, ma se uno mi sottoponesse una tabella di questo genere e vedo che al 10 per cento ci sono alcuni risultati significativi che però salvo uno sono per noi di scarso interesse, nel senso che sono al di sotto di 100 come SMR, ce n'è uno solo che è significativo al 10 per cento che è tumori maligni del fegato, che un SMR di 214, che però scomparirebbe anche lui se solo usassi il 5 per cento. Quindi l'impressione generale, visto che su un numero di - a occhio - 35 cause di morte c'è qualche risultato significativo, pochi, uno solo di quelli che potrebbero interessare sotto questo aspetto, e al 5 per cento non ce n'è neanche uno, uno dice: "sostanzialmente sembra di avere un campione che è abbastanza bene rappresentativo della popolazione". In ogni caso, ripeto, teniamo presente che questo discorso dei test multipli da solo può da un lato metterci in guardia e cioè le probabilità di errore che già sono approssimazioni per difetto sono in realtà molto più grandi; poi non dobbiamo essere particolarmente sorpresi se su 40 cause di morte troviamo qualche caso, non moltissimi, qualche risultato significativo. Ci mancherebbe altro, se non ne trovassimo mai vuol dire che qualcuno ha manipolato i dati, non so lo. E` giusto, ci mancherebbe, uno adotta una probabilità di errore così alta e poi gli errori non saltano mai fuori? Sarebbe pazzesco, devono saltar fuori. Per ciò stesso, e se ci limitiamo a questo discorso, vuol dire che siamo perfettamente in regola con l'ipotesi H0. Ritornerei, ma brevemente perché ne ho già accennato, al discorso della eterogeneità delle indagini epidemiologiche. Qui c'è anche una grossa letteratura perché questo discorso dell'eterogeneità non investe solo le indagini epidemiologiche ma investe un po' tutte le indagini. Per esempio anche per gli esperimenti randomizzati si fanno talvolta degli studi cosiddetti di meta-analisi, cioè studi di studi, cioè si mettono insieme in certi modi più esperienze, magari una certa esperienza sperimentale svolta a Padova, un'altra a Milano, un'altra a Tokyo, un'altra a New York. Lo si fa con grande cautela, anche per gli esperimenti randomizzati lo si fa con grande cautela. Eppure uno potrebbe dire: "sono utilizzati gli stessi materiali, i pazienti, o i ratti se sono sui ratti, se sono scelti a caso si fa in modo che né il paziente né il medico curante sappia per quale trattamento è stato scelto, ci sono delle garanzie fortissime", eppure di solito questo cumulo di esperienze non si fa, perché resta il dubbio, che è stato esposto sia pure rapidamente nella parte finale da Federspil, che in realtà delle condizioni di differenziazione non irrilevanti siano rimaste. Allora bisogna stare molto attenti perché allora viene fuori che nonostante il metodo randomizzato in questi diversi laboratori in realtà si sono studiate delle ipotesi diverse. Si fanno queste cose ma con grandissima cautela che invece non esiste nel modo più assoluto per le indagini epidemiologiche. Si comincia dal caso dei singoli stabilimenti dove ci sono presente che per genere, per gruppi di età, per tipo di lavorazione, esposizione, etc. etc., sono in condizioni completamente diverse le une dalle altre, quindi già c'è una eterogeneità notevole all'interno di ciascuna esperienza, dopodichè mettiamo insieme tutto ed anche qui facciamo finta che questo si possa fare. Ora personalmente anche qui, certo, si può arrivare come Greenland a dire che questo non si può fare e questa è carta straccia, io non dico questo, perché credo anzi che un'utilità questi studi cumulati ce l'abbiano, e a volte sono credo inevitabili, indispensabili, proprio perché i singoli studi spesso hanno una potenza statistica molto bassa. Certo che non bisogna dimenticare quello che si sta facendo. Una cosa è dire: mettiamo insieme tutti questi studi per cercare di vedere se mediamente, ignorando tutte le variabilità particolari, tutte le differenze, se mediamente viene fuori qualcosa di interessante, però capite che da lì ad andare a calcolare delle probabilità sempre con il modello di Poisson ma forse anche un altro modello, direi che quando si mettono insieme più esperienze quelle approssimazioni che dicevo diventano veramente larghissime. Restano sempre dei limiti di queste probabilità vere, però francamente credo che sia estremamente difficile capire quanto siamo lontani, forse molto lontani da quelle probabilità. E` stato fatto anche un altro discorso sotto questo aspetto dal professor Berrino, ed è un discorso che dal punto di vista teorico potrebbe essere accettabilissimo, anch'io cito perché ero presente, mi sembra che fosse anche questo il primo luglio, e cioè dice: "d'accordo, ci sono diverse situazioni dove abbiamo osservato degli eccessi ma non risultati significativi, oppure risultati significativi però solo al 10 per cento che effettivamente", ha riconosciuto, "non è una probabilità di errore tanto bassa", però diceva anche: "se noi abbiamo più studi di questo tipo e facciamo 0,10 per 0,10 per 0,10 già diventa un millesimo e quindi se abbiamo tre studi significativi abbiamo una probabilità di errore di un millesimo". Su questo ci sono due cose da dire: dal punto di vista della teoria questo non fa una grinza, ma quando possiamo fare questo prodotto? Possiamo fare questo prodotto, che ha significato per la stessa ipotesi, quando le esperienze sono identiche. Abbiamo detto prima che di esperienze, non solo identiche, ma neanche approssimativamente coincidenti non ce e sono. Quindi questo discorso crolla in partenza, non si può fare questo prodotto perché non si capisce che razza di ipotesi viene fuori. Tra l'altro, apro una piccola parentesi, può sembrare che si abbia sempre a che fare con la stessa ipotesi per un motivo, e cioè si fa l'ipotesi che l'SMR sia uguale a 100. Allora uno dice: "come? in quel caso ho SMR di cancro al polmone uguale a 100, di qua 100, di qua 100, ho tre situazioni e tre ipotesi uguali". Non è proprio così, cioè questo 100 è un modo comodo per mandare il messaggio. In una situazione può essere che il 100 viene calcolato rispetto ad un numero di casi nella popolazione generale per esempio di sei su mille, sei decessi per quel tipo di tumore su un campione di mille, valore medio. In un altro caso per comodità di riferimento mettiamo campioni sempre della stessa dimensione, ma poi non lo sono, ma mettiamo magari otto, in un altro caso è nove, in un altro caso è uno. Cioè in realtà le ipotesi che si vanno a verificare dal punto di vista statistico.. l'ipotesi non è SMR uguale a 100, è che il campione sia estratto dalla popolazione generale che ha quel certo valore, per esempio sei di decessi su un campione di mille. Questa è l'ipotesi. Che poi basta intendersi, per comodità si dice: "visto che poi faccio il valore osservato diviso questo se ottengo 100 ottengo lo stesso valore", e quindi è utile gire che è più il 20 per cento, meno il 30 per cento, è molto utile, ma l'ipotesi vera è quella che ho detto prima, non è l'SMR che viene sottoposta ad ipotesi. Allora voi capite che le varie ipotesi sono diverse. Non parliamo poi, perche' ne ho parlato molto, della eterogeneità dei vari esperimenti, etc.. E poi bisogna anche aggiungere che in realtà anche se, sto arrampicandomi sui vetri per cercare di dare ragione a Berrino, anche se effettivamente questi studi fossero tutti eseguiti nelle stesse condizioni quello che ha detto Berrino non si può fare, perché dovremmo avere studi che vanno tutti nella stessa direzione, per esempio io ho quindici studi tutti che mi dicono "ok c'è significatività per il tumore al polmone", tanto per fare l'esempio, non così, non è così. Perche' io ho esaminato tutti questi lavori e ho visto che questa conferma generale non esiste in nessun caso, ne ha parlato a lungo stamane il professor Zocchetti, mi limiterò a ricordare due situazioni molto importanti che sono due "regolarità statistiche", lo metto tra virgolette perché non è che siano proprio regolarità, tanto per intenderci, che sono l'angiosarcoma del fegato ed il tumore del polmone. Qui troviamo una letteratura abbastanza concorde, in questo senso dicevo regolarità, cioè letteratura non nel senso del convincimento delle persone, ma nel senso degli esiti delle osservazioni. Per esempio per l'angiosarcoma tutti questi autori dicono che certamente è così, non lo discutiamo però ci sono sette lavori, sette indagini, se non ho capito male questa mattina ne citava un'altra Zocchetti, comunque cito le sette che mi sono controllato io, sette indagini, alcune di queste grosse, dove di angiosarcomi del fegato non se sono stati osservati nemmeno uno. Cito brevemente, poi farò avere riferimenti precisi, ma per coloro che conoscono bene i lavori, sono Ott nel '75, Chiazze nel '77, Buffler nel '79, Smulevich nell'88, Dahar nell'88, Hagmar nel '90, Lundberg nel '93, e probabilmente ce n'è un altro. Qui ci sono anche indagini piccole, medie e abbastanza grandi. Se io adottassi per un'indagine media o grande tra queste lo stessissimo criterio della significatività, non dico al 10 per cento, neanche al 5, ma all'1 per cento, ponendo come ipotesi nulla che c'e' un effetto grosso, per esempio raddoppio del rischio, triplicazione del rischio per l'angiosarcoma del fegato, questa la prendo come ipotesi nulla adesso, perché tutti dicono che è così, prendiamola come ipotesi da falsificare, la considero per questi campioni, cosa mi viene fuori? Mi viene fuori che è da respingere non solo con quella piccolissima probabilità alfa, ma anche con una piccolissima probabilità beta, siamo sull'ordine di un millesimo sia per alfa e sia per beta. Cosa vuol dire questo, che non è vero tutto il discorso dell'angiosarcoma del fegato? Diciamo, per l'idea che mi sono fatto io, che è abbastanza vero, cioè è chiaro che c'è una grossa conferma in letteratura, e questo certamente è molto importante, però anche tutti questi lavori dove il fenomeno non si manifesta e dove un test di significatività darebbe risultati enormemente significativi, cosa vuol dire? Io non so rispondere, posso solo immaginare che probabilmente diverse condizioni tecnologiche, di lavoro e di esposizione possono essere responsabili in determinati casi di elevati valori di decessi per angiosarcoma ed in altri casi di nessuna osservazione. Ho detto una cosa molto banale, ma al di là di questa non saprei andare. L'altra conferma che c'è in letteratura, ricordata ampiamente da Zocchetti è quella del polmone, direi che quasi tutti gli studi sono nel senso che non c'è significatività ed addirittura quasi tutti danno dei valori leggermente, alcuni notevolmente inferiori a 100 dell'SMR. Mi limito a citare i più grossi e quelli con le più lunghe latenze degli ultimi 10 anni, sono stati tutti ricordati da Zocchetti, mi limito brevemente, Dole e Jones dell'88, Wu dell'89, Teta del '90, i tre studi di Pirastu, Wong e Simonato del '91, Laplanche del '92, Lundberg del '93, studi quasi tutti importanti, grossi, con buona potenza che in base a questo criterio che era il criterio adottato in quel famoso articolo di Breslow, direi che c'è una grossa conferma che appunto non c'è nessun effetto, grossa conferma, anche qui stiamo attenti alle parole, non c'è nessuna prova. Perché non c'è nessuna prova? Perché non si può mai provare niente, ci mancherebbe altro. Non c'è nessuna prova, però torno a ripetere quello che ho detto all'inizio: in questo caso il critico potrebbe dire che non c'è nessuna prova ma l'effetto potrebbe esserci, ed io dico certamente, è banale, però allora tutti dobbiamo riconoscere che anche dove c'è una significatività l'effetto potrebbe non esserci, bisogna essere onesti in tutto, non si può essere onesti solo in quello che magari riflette le proprie preferenze personali. Due parole molto rapide su qualche calcolo che ho fatto qui per il caso, qualche dato di Porto Marghera. Dicevo prima la situazione dei tumori del fegato SMR 214 significativo, al 10 per cento ma non al 5 per cento, e comunque sia pure con una probabilità di errore di prima specie, del 10 per cento che è molto elevata, se si va a calcolare la probabilità dell'errore di secondo tipo si trova 0,45 e 56, circa il 46 per cento, ripeto il 46 per cento. Allora con il criterio di cercare di bilanciare, può alzare una cosa ed abbassare l'altra, si arriva attorno al 20 per cento di ambedue le probabilità, mi sembra che non c'è da aggiungere altro, si tratta di uno studio che ha uno scarsissimo contenuto informativo e torno a ripetere, non per colpa degli autori, perché i dati sono quelli che sono, io stesso non avrei saputo fare di meglio, anzi probabilmente non l'avrei fatto così bene. Anche peggio le cose poi vanno per gli insaccatori, questo è ovvio, perché abbiamo delle coorti più piccole e quindi se si fanno calcoli analoghi per le due coorti separate l'ordine di grandezza dell'errore di seconda specie, con un 10 per cento di prima specie, qui si avvicina al 60 per cento. E se cerco di riequilibrarli arriviamo al 25, 30 per cento. Se anche li metto insieme, facendo finta di niente, non abbiamo sentito tutte le critiche a partire da quelle che onestamente ha fatto la dottoressa Chellini, facciamo finta di niente, restano pur sempre delle probabilità di errore dell'ordine del 45, 50 per cento, anche qui mi sembra che non valga la pena di andare oltre. Ripeto, si tratta di studi che qualche vago indizio lo offrono, perché non si può dire che siano privi di valore, però hanno uno scarsissimo contenuto informativo, e questo direi che è di tutta evidenza perché sono i numeri. Dovrei parlare della spiegazione causale del caso singolo, cercherò di stringere il più possibile. Mi soffermo su quattro questioni. Una è la pluralità delle cause, ma molto rapidamente perché altri ne hanno parlato, anch'io sono andato a vedermi un po' di letteratura specialistica ed oltre a Vineis che è gia' stato più volte citato, e quindi me l'ero preparato anch'io, devo dire che nonostante che siamo consulenti della difesa io ed il professor Zocchetti abbiamo lavoravo separatamente, l'ho conosciuto pochi giorni fa, ho saputo il lavoro che aveva fatto, uno dei due avrebbe potuto evitare parte del lavoro, è andata a finire così che tutti e due abbiamo fatto molte cose abbastanza coincidenti. La pluralità delle cause, questo lui non l'ha citato, il professor Gobbato di Trieste e Gobbato in una memoria dell'89 dice "se si tiene presente che i tumori rappresentano un fenomeno spontaneo nella popolazione, le neoplasie professionali non hanno carattere di specificità, ne discende che l'esposizione lavorativa a cancerogeni condurrà ad un eccesso di rischio, cioè ad un aumento di casi di tumore, i tumori professionali si manifestano in modo del tutto casuale, cioè randomizzato, pertanto l'evidenza del fenomeno è apprezzabile solo sul piano epidemiologico e valutabile in termini di eccesso di rischio", quindi non arriva al caso individuale. Secondo punto: "la necessità di ricorrere a leggi statistiche sembra ovvia" anche qui faccio una citazione che finora non mi risulta sia stata fatta, ed anche questa la sottoscrivo, è di un articolo del dottor Bracci e del dottor Comba del '92, ho preso questa frase: "secondo la giurisprudenza il rapporto di causalità può essere considerato come provato avvalendosi del modello della sussunzione sotto leggi statistiche, ove non disponga di leggi universali, per cui si dirà che è probabile che la condotta della gente costituisca una condizione necessaria dell'evento. Probabilità che altro non significa che probabilità logica o credibilità razionale, probabilità che deve essere di alto grado nel senso che il Giudice dovrà accertare.." - non è rivolto a lei che sa meglio di me queste cose ma sto leggendo - "..dovrà accertare che senza il comportamento della gente l'evento non si sarebbe verificato appunto con alto grado di probabilità", punto di vista ripreso da una nota sentenza della Corte di Cassazione ed altre numerose sentenze che hanno seguito e ho sentito oggi che sono già state ricordate. Anche qui come altri autori che ho considerato, quando passano ad una decisione "si, no" sul caso singolo, richiedono una probabilità molto elevata. "Molto elevata" cosa può voler dire? Prima ho fatto qualche cenno però su questi punti particolari la letteratura va anche più in là, va anche più in là, per esempio la Corte di Cassazione parla di pratica certezza, io conoscevo un po' di letteratura del Regno Unito, loro si esprimono con la formula beyond reasonable doubt, cioè bisogna arrivare ad una convinzione al di là di ogni ragionevole dubbio, che non vuol dire la certezza che non c'è mai, ma qualcosa di estremamente vicino alla certezza. Su probabilità del tipo probabilità di errore dell'1 per mille ho una citazione di Sjostrom Nilsson che è un lavoro sul talidomide, in un certo senso, parlo da statistico, non per quelle poverette che hanno avuto figli malformati, etc., ma lì c'erano degli errori, c'era la possibilità di lavorare con errori estremamente piccoli, o meglio con probabilità di errore estremamente piccole, cioe' nettamente inferiori ad 1 su 10 mila, per sui si poteva prendere una decisione, in realtà inferiore ad 1 su 1 milione, quello che è un caso molto particolare ma questi ritengono che bisogna non superare a scopi solamente scientifici la probabilità di un millesimo. Ho potuto controllare che nei paesi della common law l'attribuzione di un profilo di DNA in una data persona in un processo penale, ho partecipato un mese fa ad un congresso a Glasgow, dove il professor Heitken di Edimburgo ha esposto molti casi di questo genere che sono emersi in processi penali tenuti in Gran Bretagna, soprattutto in cause di stupro, ed in questi casi è stata eseguita l'analisi del DNA ed i Giudici hanno accettato questo tipo di prova quando l'errore non superava 1 su 10 mila, di solito è nell'ordine di 1 su 100 mila, 1 su 10 mila. Lo stesso vale per l'indice di rifrazione del vetro: le lastre di vetro hanno una specie di impronta digitale, se uno va a misurare l'indice di rifrazione può per esempio stabilire, anche qui non con certezza ma con elevata probabilità, per esempio che qualche piccola scaglia di vetro trovata sull'abito di una persona sospetta può essere colui che ha infranto. Anche qui si può arrivare con una probabilità molto elevata che ho visto applicate anche in Italia, cito Macchiarelli-Feola, che è un volume di medicina legale del '95, loro dicono "una volta ottenuto con il calcolo un valore di probabilità - parlano di probabilità relativa al profilo DNA che loro trattano nel caso dell'affiliazione, cioè attribuzione di paternità: "è necessario dare a questo un significato in particolare quale sia il valore limite indicativo ai fini dell'attribuzione di paternità". In Germania tale valore è stato indicato al 99,73 per cento - cioè è come Boldrini questo - mentre in Olanda si richiede il 99,99 per cento. Poi loro fanno dei casi, ci sono delle sentenze che sono in genere di questo ordine, 99,99 per cento, che è la probabilità di prendere la decisione corretta, quindi 1 millesimo sarebbe la probabilità di sbagliare. Io non vorrei offendere nessuno ma dato che è difficile, come dire, farsi un'idea operativa di cosa vogliono dire queste probabilità, di solito gli statistici pensano ed offrono degli esperimenti canonici, esperimenti estremamente semplici. Io faccio rilevare che se lanciamo una moneta, mettiamo che sia una moneta onesta, ben costruita, se consideriamo l'evento che in quattro lanci di seguito venga sempre testa, è tanto difficile, la probabilità è del 6,25 per cento, siamo già vicini, tanto è meno del famoso 10 per cento, che in quattro lanci venga sempre testa; che in sei lanci venga sempre testa o sempre croce è dell'1,5 per cento circa; in dieci lanci è dell'1 per mille; in tredici lanci è dell'1 per 10 mila. Cito questi dati perché altrimenti può essere magari difficile per una persona che non è abituata a lavorare con probabilità in particolare molto piccole, come accade spesso agli statistici. Vi faccio un'idea cosa vuol dire una cosa di questo genere, riferendosi ad un esperimento banale come il lancio della moneta credo che ci si può rendere conto. Ultima questione e vi assicuro che sto chiudendo, la difficoltà nella spiegazione causale del singolo caso, ne sto già parlando, probabilità estremamente piccole, quali i motivi, etc., però ci sono delle difficoltà in un certo senso insite. Cito ancora Gobbato del '89 dice, proprio proseguendo: "per contro né si potrà prevedere quali persone svilupperanno la malattia, né potrà essere stabilito con certezza se il tumore che si svilupperà in una data persona sarà attribuibile all'esposizione professionale. A rendere ancora più difficile il riconoscimento dell'origine professionale di un tumore a livello individuale sta il fatto che la cancerogenesi non è un processo semplice ma multifasico". E` stato ricordato da molti, lo stesso dice Vineis, è stato già detto, non sto a ripetermi. Questa attribuzione abbiamo detto che ha un compito molto arduo, sostanzialmente anche Berrino la riconosce, direi che la letteratura è piuttosto concorde sotto questo aspetto. Chiuderei con una questione direi molto importante, vorrei cercare di chiarire una cosa che mi sembra che anche nella letteratura, salvo che da parte degli specialisti e degli statistici c'è una cosa che non è affatto chiara. E qui prendo ancora spunto da Gobbato, prima condividevo per quello che ne so, e qui non condivido per niente, cosa scrive? Dice "è ovvio che se in un gruppo di esposti si verificano tre casi di tumore verificati contro due attesi, ognuno dei colpiti avrà il 33 per cento delle probabilità che il tumore sia di origine professionale, anche se uno ed uno soltanto è il portatore della malattia da lavoro". Allora anche qui come spesso succede questa frase può essere anche sottoscritta, può essere vera al 100 per cento o al 99 per cento, in quale contesto? Per la verità Gobbato la inserisce in un contesto di tutela assicurativa. In realtà, io posso immaginare, poiché il discorso era di tipo assicurativo, voi sapete che le assicurazioni assicurano dei danni, facendo pagare un certo premio, etc., pensando di sottoscrivere certi contratti con migliaia o decine di migliaia di persone e poi finisce che a qualcuno pagano un risarcimento mentre alla maggioranza degli altri no, etc.. Quindi è possibilissimo che Gobbato nello scrivere questo avesse in mente non il singolo caso in cui c'è da decidere dei tre chi o quale è portatore di una malattia professionale, per esempio, ma in un numero molto elevato di casi, per esempio duecento, trecento triple di quel genere - io credo che avesse in mente questo - perché in questo caso il discorso non sarebbe correttissimo ma sostanzialmente tiene. In questo caso si potrebbe dire per esempio, mettiamo di avere 300 esperienze di questo genere, si potrebbe dire che mediamente - faccio un discorso approssimativo ma non è sballato - mediamente 1 caso su 3 dipende dalle condizioni professionali, dipende dall'esposizione. Ma noi non siamo in queste condizioni, noi siamo nelle condizioni per esempio in cui, e qui abbiamo, mi riferisco al caso del fegato per esempio, c'è 4,2 attesi, 9 osservati, e abbiamo solo questa esperienza, non è che ne abbiamo 300 e diciamo che mediamente è così, non si può fare neanche il discorso del mediamente, lasciamo perdere poi chi, nome e cognome, questo è un altro discorso. Allora in questo caso si vede che il discorso di Gobbato è completamente sbagliato, perché? Basta fare due calcoli, i due calcoli si fanno con il solito modellino che abbiamo sempre utilizzato che è quello di Poisson e cioè ci chiediamo: sotto l'ipotesi che valgano i due nella popolazione, cioè sotto l'ipotesi che questo campione sia stato prelevato dalla popolazione di riferimento tra persone che non sono in quell'attività lavorativa, sotto questa ipotesi qual è la distribuzione di probabilità dei casi di tumore? I casi di tumore possono essere 0, 1, 2, 3, etc.. Le probabilità di questi casi, 0 casi è una probabilità del 16 per cento, 1 caso del 27 per cento, 2 casi del 27 per cento, 3 casi 18 per cento, 18 per cento è una probabilità relativamente elevata, non è un evento che sotto l'ipotesi H0 si verifica raramente, è un evento che si verifica 18 volte su 100. 4 casi 9 per cento e abbiamo una probabilità di 5 e più casi che è leggermente superiore al 5 per cento. Per cui se per esempio in un caso di questo genere io applicassi un test bidirezionale al 10 per cento, cioè il classico intervallo di confidenza con il 90 per cento interno io fino ai quattro casi direi che sono abbastanza convinto, il campione secondo me conferma che proviene dalla popolazione di riferimento, e cioè che non c'è nessun effetto. Ecco perché il discorso di Gobbato è completamente errato. Io mi fermerei qui.

 

Presidente: Allora aggiorniamo l'udienza al giorno 23 ottobre.

 

RINVIO AL 23 OTTOBRE 1998

 

IVDI -  Sede operativa: Casale sul Sile

processi on line - processo Petrolchimico Marghera -  vai alla home page