Alfabeta - anno X - n. 105 - febbraio 1988

Alfabeta 105 Saggi pagina 33 Sul rischio N on c'è oggi, probabilmente, settore della ricerca scientifica e tecnologica che non sia in qualche modo interessato dalla statistica. Le applicazioni della stat1st1ca, in particolare, stanno assumendo un peso' crescente nello studio e nella valuta_zionedei rapporti tra l'uomo e l'ambiente e pertanto nella valutazione dei rischi di malattia associati con la trasformazione tecnologica dell'ambiente. Manca tuttavia, a tutt'oggi, un consenso sui principi di base del pensiero statistico e conseguentemente sul senso e sulle implicazion_idi alcuni dei suoi usi. Una considerazione «micrologica» di alcuni momenti della storia della statistica e delle sue interconnessioni con altre discipline può essere interessante anche per una migliore comprensione dell'attuale dibattito sul rischio. Presupposti storici La statistica viene usualmente insegnata partendo dal teorema del limite centrale, vale a dire dalla frequenza osservata di un evento (es. testa) nel corso di una serie ripetuta di prove (lanci di una moneta). L'enfasi viene posta sull'evidenza empirica disponibile a favore di un certo valore di tale frequenza; nel caso specifico se si prova a lanciare la moneta un certo numero di volte si vedrà che la frequenza di «testa» è all'inizio molto variabile, ma tende col tempo ad attestarsi intorno al valore centrale di 0.5 Così il signor Kerrick, durante il suo internamento in Danimarca nel corso della Seconda guerra mondiale, tirò in aria una moneta 1000 volte ed estrasse 5000 volte due palle da un'urna, «dimostrando» empiricamente il teorema del limite centrale. La frequenza con cui un evento si realizza viene usualmente considerata una proprietà intrinseca del sistema in oggetto (es. la moneta) e non dipende pertanto dalla nostra conoscenza del sistema. Scarsa rilevanza viene data, nella didattica, alle origini pratiche, materiali, della statistica, come se essa fosse nata da subito come disciplina astratta e interessata alle frequenze osservate nel corso di prove ripetute. La statistica ha invece le sue radici in problemi strettamente pratici: scommettere, investire, rischiare. Meglio ancora, essa ebbe già dall'inizio quella duplice natura che tuttora le viene assegnata nelle ripartizioni disciplinari: descrittiva e inferenziale. La statistica descrittiva nacque dall'aritmetica politica, dai censimenti aventi principalmente finalità fiscali (censere=tassare). La statistica inferenziale nacque invece da uno strano miscuglio di fede, scienza e gioco d'azzardo. Meccanismi casuali, atti cioè a generare sequenze casuali di eventi, sono stati usati in tutti i tempi per divinare. Il vescovo Wibold, nel 960 d.C., enumerò 56 virtù teologiche e fece corrispondere a ciascuna il risultato del lancio di tre dadi. I dadi venivano lanciati e quindi il fedele si concentrava per qualche ora sulla virtù così «estratta». Più recentemente, la statistica formale è stata iniziata da Pascal su ispirazione del Chevalier de Mere, noto frequentatore di casinò. In generale, l'attenzione si è concentrata per molto tempo sulle previsioni, sulle scommesse (o, se vogliamo, sulle divinazioni) e sul grado di certezza che siamo disposti ad accordare alla loro realizzazione nell'ambito di scelte pratiche (investimenti, viaggi, ecc.) Solo in tempi molto recenti ci si è rivolti alle proprietà delle frequenze osservate sul lungo periodo nel corso di prove ripetute, e lo si è fatto considerando il teorema del limite centrale di volta in volta come una curiosità, come una proprietà degli eventi studiati o addirittura come un segno dell'esistenza di Dio. Una delle storie più interessanti a questo proposito è quella del medico Arbuthnot, il quale nel 1710 presentò alla Royal Society una comunicazione dal titolo An Argument for Divine Providence taken from the Constant Regularity of the Births of Both Sexes. Egli misurò il rapporto tra il numero di maschi e il numero di femmine tra i nati nella città di Londra in 82 anni successivi. In tutti questi anni, senza eccezioni, il numero di maschi eccedette quello delle femmine. Arbuthnot, che era, oltre che medico della regina Anna, anche buffone e compagno di satira di Swift, inferì (probabilmente senza intenzioni troppo serie) che «l'arte, e non il Caso, governa la distribuzione dei sessi», e tale arte era quella di Dio; il suo argomento a favore della divina provvidenza venne usato dai teologi e predicato dai pulpiti per -il resto del secolo. Lo, spostarsi progressivo dell'interesse dalla scommessa allo studio delle frequenze è indicato anche dai primi articoli comparsi sulle riviste specialistiche come «Biometrika»: la distribuzione nel tempo degli individui uccisi da calci di muli nell'esercito prussiano (Bortkiewicz, 1898); la distribuzione per diametro delle uova di cuculo (Latter, 1902). In questo modo, e attraverso lo studio dei diversi tipi di distribuzione, si è venuta affermando una concezione oggettivistica della probabilità, intesa - come già detto - come limite di una frequenza osservata e pertanto come proprietà intrinseca di un sistema. Come osserva Lindley, autore di uno dei testi Paolo Vineis più noti di teoria della probabilità, il fatto di basare il teorema del limite centrale sull'osservazione· empirica - come .. negli esperimenti di Kerrick - è privo di senso; ogni evento è condizionato a un altro evento, per esempio al fatto che la moneta sia stata coniata perfettamente e pertanto sia bilanciata. In altre parole, se la frequenza di «testa» non fosse 0.5 cambierei la moneta, non il teorema del limite centrale; 0.5 rappresenta la mia «attesa» per una moneta bilanciata e la serie di prove successive è solo un modo per verificare se tale attesa è corretta. In assenza di altre informazioni, 0.5 è una stima ragionevole, poiché non ho motivo di pensare che la moneta si comporti in modo anomalo. Il concetto di base in questa concezione non è più quello di frequenza sul lungo periodo, ma di «criticai odds for a bet» (Lindley), che si può tradurre come «quanto sono disposto a puntare su una certa realizzazione (testa verso croce)». La differenza tra la concezione oggettivistica della probabilità e quella definita «del grado di certezza» (degree of belief) risiede principalmente nella sequenza di osservazione e ipotesi: nella prima la frequenza osservata viene usata per inferire una proprietà del sistema, nella seconda viene usata per corroborare o confutare una precedente congettura. A loro volta la concezione oggettivista e quella del «grado di certezza» hanno ulteriori ramificazioni interne, come quella, molto nota, che differenzia l'interpretazione logica del grado di certezza, dovuta a Keynes (la probabilità esprime il grado di supporto dato da una proposizione ad un'altra proposizione) dalla interpretazione soggettivistica sviluppata da Jeffreys e De Finetti. Maggiormente interessa qui, tuttavia, seguire gli sviluppi interni alla concezione dominante, quella oggettivistica, per la loro rilevanza nelle applicazioni pratiche. Una delle più note polemiche sviluppatesi entro la statistica contemporanea è stata quella tra Fisher e Pearson. Fisher derivò gran . -- -- 1· -:. ... .__ ......... ~~-- Daumier, Alla maniera di Turenne parte della sua teoria dall'applicazione del disegno sperimentale alle tecniche di coltura in una grande fattoria, ove non si trattava di decidere una linea di condotta in condizioni di incertezza, quanto piuttosto di stabilire se un certo parametro si differenziasse da un valore ipotizzato a priori e se questa differenza potesse attribuirsi all'errore campionario. Non si doveva cioè «puntare» sull'una o sull'altra ipotesi, quanto piuttosto. effettuare la migliore stima con i dati disponibili. Neyman e Pearson insistettero invece in misura molto maggiore sull'uso della statistica per «prendere una chiara decisione». In generale, gli sviluppi della statistica negli Stati Uniti a partire dagli anni trenta hanno sottolineato il carattere decisionale (pragmatico) degli strumenti statistici; l'applicazione di un test statistico ha, per Neyman e Pearson, come principale scopo quello di accettare o respingere quella che definiscono «ipotesi nulla» (secondo la quale il valore osservato di un parametro non differisce da quello che ci attenderemmo qualora il campione fosse una rappresentazione non distorta della popolazione di origine). L'insistenza di Neyman e Pearson sull'esistenza di regole decisionali entro i test statistici fu sicuramente benefica, in quanto evidenziò la non completa oggettività dei procedimenti inferenziali. Essa improntò tutta la statistica di scuola americana (un esempio è il libro di Wald del 1950 avente come oggetto l'assunzione di decisioni in condizioni di incertezza). L'esito fu - come vedremo - di una certa rilevanza pratica e, per certi versi, fu paradossale; mentre, infatti, Fisher - non ammettendo gli aspetti decisionali nel test di ipotesi - concepiva l'inferenza statistica come un puro problema di stima, gli americani finiscono per confondere stima e decisione e aprono pertanto la strada ali' «accettabilità» dei rischi sulla base del calcolo statistico. Tornando ai presupposti genera.li delia teoria statistica e alla contrapposizione oggettivismo/soggettivismo, una delle indicazioni più originali e interessanti viene nientemeno che da Simone Weil (Sulla scienza, p. 125 e sgg.). Partendo da una serie di considerazioni sul carattere della fisica contemporanea e sul linguaggio di cui fa uso («un linguaggio che ha questo di particolare: non significa niente»), la Weil analizza il nesso tra Caso e necessità. L'idea di base è che i due partner del binomio non si danno mai isolatamente, ma sempre in coppia. «Se si suppongono un certo numero di cause distinte che producono degli effetti secondo una rigorosa necessità, se un insieme di una certa struttura appare negli effetti, se non si possono raggruppare le cause in un insieme che abbia la stessa struttura, questo è il caso. Un dado, per la sua forma, ha solo sei maniere di cadere, e c'è invece una varietà illimitata di modi di gettarlo. Se getto mille volte un dado, le cadute del dado si dividono in sei classi che stanno tra loro in rapporti numerici; i lanci non possono suddividersi così.» Questa descrizione dell'arcano - molto semplice in verità - rivela che il caso è fondamentalmente una nostra costruzione, derivante dalla combinazione tra un dispositivo materiale (il dado) e il modo in cui noi lo usiamo, dunque tra una componente oggettiva ed una soggettiva. • «In giochi simili l'insieme delle cause ha la forza del continuo, cioè le cause sono come i punti di una linea; l'insieme degli effetti viene definito da una modesta cifra di possibilità distinte.» Il caso nasce dall'incontro tra una scala continua e una scala discreta; noi abbiamo organizzato questo incontro, dunque noi stessi dobbiamo saperlo interpretare. Continuando nella sua analisi, la Weil evidenzia.il fatto che i dispositivi sperimentali sono sempre un'imitazione di sistemi puramente teorici. Essi non imitano la natura, ma una nostra idea semplificata della natura («i gas perfetti, così chiamati perché non esistono»). Nel fare ciò, per esempio nel coniare i principi della matematica nella loro purezza, noi confondiamo «con un errore volontario» le cose con le nozioni di cui sono le immagini. Nel caso specifico della statistica, noi confondiamo la regolarità con cui una certa realizzazione si presenta nel lancio di un dado - dovuta . all'accuratezza con cui noi abbiamo costruito il dado e al disegno dell'esperimento, in cui un numero infinito di modi di lanciare viene riportato a un numero limitato di classi - con una proprietà intrìnseca della «natura», una legge naturale. Confondiamo la nostra aspettativa nei confronti della realizzazione della serie di lanci (una nozione) con un messaggio che le cose stesse intendono inviarci. Ma queste contraddizioni, conclude la Weil, riflettono le contraddizioni della condizione umana. Nel confrontare la scienza contemporanea con quella greca, la Weil evidenzia come la prima si risolva interamente in un linguaggio matematico privo di ulteriori fondamenti, mentre la seconda è simile all'arte, per il suo reggersi sulle nozioni di ordine e di equilibrio formale. Il linguaggio matematico è però un'astrazione, esso fa delle nostre rappresentazioni della realtà dei modelli teorici, sempre separati dalla realtà empirica da uno scarto più o meno piccolo. «Se vedo due stelle, penso tra di esse una retta, la più pura possibile [... ]; ma è necessario che queste stelle siano punti, mentre esse sono più grandi della nostra terra.» Nella sua purezza, il linguaggio matematico lascia fuori qualcosa di trascurabile - in termini di calcolo - ma al contempo di essenziale, perché è quello che manca al modello per corrispondere al mondo reale. Così «la nozione stessa di trascurabile [... ] è esattamente l'essenziale della fisica.» Conseguenze pratiche Vediamo ora che rilevanza abbiano i dibattiti riportati in precedenza ai fini dell'applicazione alla valutazione dei rischi ambientali. Ho ricordato che una delle grandi contrapposizioni teoriche in campo statistico è stata quella tra Fisher e Pearson. Mentre il primo negava l'esistenza di alcunché di decisionale nell'applicazione dei test statistici, e insisteva sull'obbiettivo di interpretare nel miglior modo i dati ( «assess the data»), Pearson incentrò la sua interpretazione dei test sulle regole di decisione in essi insite e sulla loro finalità di guidare a una chiara e univoca scelta in condizioni di incertezza. Il fatto di attirare l'attenzione sulle regole di decisione non aveva certo la finalità di evidenziarne il carattere soggettivo - come si potrebbe pensare - (per esempio: «sono propenso a rifiutare una certa ipotesi con una probabilità di meno del 10% di sbagliarmi»); al contrario, l'idea di fondo era quella di rendere esplicito e quantitativo il· processo decisionale, e in qualche modo oggettivarlo. Il passaggio è sottile, ma fondamentale, e conviene seguirlo nei dettagli. ' Secondo Neyman e Pearson (1933), gli elementi che definiscono un test statistico sono, tra altri: a) un'ipotesi «nulla» _e un'ipotesi «alternativa», che si concretizzano in diversi

RkJQdWJsaXNoZXIy MTExMDY2NQ==