mercoledì 17 aprile 2013

1a) Caso probabilistico e necessità statistica

La statistica, in senso lato, come quantificazione di capi di bestiame, di nascite, di popolazione, ecc., è molto antica e risale ad alcuni millenni prima della nostra era. Basti pensare alla divisione per classi di censo dell'antica Atene o dell'antica Roma. Dopo la fase di stagnazione feudale, la statistica risorse, come ogni altro ramo della scienza moderna, nel secolo XVI, e si sviluppò in due direzioni che presero il nome di indirizzo investigativo (in Inghilterra) e descrittivo (in Germania). Essa rappresentò, in entrambi i casi, uno strumento di indagine empirica che ebbe come oggetto di studio i fenomeni collettivi -composti di numerose unità- propri delle cosiddette scienze sociali.

Nello stesso periodo sorgeva, nell'ambito delle scienze naturali, per opera di scienziati matematici, il calcolo delle probabilità il cui oggetto di studio era costituito dai singoli eventi. Punto di partenza del calcolo probabilistico fu l'analisi matematica dei giochi d'azzardo e precisamente il tentativo di determinare i singoli eventi casuali, come ad esempio il lancio di un dado. Si trattò, quindi, più di un gioco matematico che di una seria operazione scientifica.

Fino ai primi decenni dell'Ottocento, la statistica e la probabilistica sembrarono ignorarsi, la prima estendendosi in molte branche delle scienze sociali, la seconda sviluppando una metodologia che oggi potrebbe essere chiamata teoria dei giochi. La separazione tra il calcolo delle probabilità e la statistica può essere spiegata facilmente se consideriamo, in primo luogo, che mentre la prima era soprattutto una teoria matematica dei giochi, l'altra era uno strumento di indagine empirica; in secondo luogo, ma questo è il motivo principale, che mentre la prima aveva come oggetto la determinazione di singoli eventi, la seconda si occupava di fenomeni collettivi.

Ma è proprio in relazione all'oggetto di studio che venne a determinarsi la confluenza dell'una nell'altra, e precisamente della probabilistica nella statistica. Infatti, sebbene la teoria matematica delle probabilità parta dal singolo evento, la verifica sperimentale dei suoi assunti porta al risultato che, se si osservano numerose prove, si ottiene un dato costante e regolare: la frequenza relativa.

Se è vero che il calcolo delle probabilità ha per oggetto il singolo evento, come il lancio di una moneta o di un dado o di una pallina da roulette, è anche vero che la probabilità dell'evento singolo rimane un dato incerto che non dà nessuna sicurezza del risultato, mentre, se astraiamo dal singolo evento e consideriamo un gran numero di eventi, come ad esempio ripetuti lanci della stessa moneta nelle medesime condizioni, si perviene a un risultato certo e sicuro: la frequenza relativa.

Ma questa frequenza non è più un dato probabilistico, in primo luogo perché non riguarda più il singolo evento ma un numero elevato di eventi, in secondo luogo perché non più di probabilità si tratta, ossia di incerta possibilità, ma di certezza statistica. La frequenza relativa è dunque un dato statistico certo. Il calcolo delle probabilità, verificato empiricamente, si rovescia in statistica e mostra che solo in senso statistico si perviene ad una conoscenza certa.

Abbiamo già sottolineato a più riprese che questo imprevisto rovesciamento della probabilistica in statistica non fu accolto con eccessive manifestazioni di entusiasmo: al contrario, il suo accoglimento non fu affatto pacifico e diede luogo a lunghe controversie che hanno lasciato dietro di sè soltanto una grande confusione. Si tratta, perciò, di risolvere, dal punto di vista della teoria della conoscenza, i problemi che la confluenza della probabilistica in statistica ha sollevato nei diversi rami della scienza, a cominciare dalla fisica, dove essa contribuì ad acuire una crisi già in atto tra materialisti, idealisti e agnostici attorno alla natura della materia, all'oggetto della scienza e ai metodi di indagine da impiegare.

La prima osservazione da fare è la seguente: dal momento in cui la probabilistica si rovescia in statistica è possibile finalmente fare emergere il rapporto dialettico caso-necessità dai processi naturali; in altre parole, il rovesciamento dialettico del caso nella necessità si manifesta come rovesciamento della probabilistica in statistica. Chiarire l'uno significa contribuire a chiarire l'altra. La scienza dell'Ottocento e del Novecento è stata cieca di fronte a questa possibilità di chiarimento teorico: non l'ha vista e perciò non l'ha potuta cogliere. Eppure fu chiaro sin dall'inizio che il calcolo delle probabilità parte dai singoli eventi casuali. Quel che non è mai stato chiaro è che cosa si debba intendere per casualità. 

Come testimonianza della confusione regnante ancor oggi attorno al concetto di caso, citiamo un testo didattico, "Elementi di statistica" (1995) di Fraire e Rizzi. Gli autori scrivono: "Il contenuto della nozione di caso non è semplice, e la stessa parola caso è utilizzata in situazioni molto diverse (sic!). Così, ad esempio, si impiega questa espressione a proposito dei giochi d'azzardo (dadi, roulette, ecc.)". Essi ritengono, al contrario, che qui il caso non sia altro che l'ignoranza del modo di governare, con la precisione delle leggi fisiche, il movimento del dado o della pallina; perciò l'incertezza sarebbe qui soltanto operazionale, non essenziale.

Il caso essenziale sarebbe, invece, per loro, esemplificato dalla situazione della caduta accidentale di un martello sulla testa di un malcapitato passante, provocata da un maldestro operaio posto su un'impalcatura. Il vero caso, insomma, sarebbe rappresentato da simili "circostanze assolute", cioè "quelle che risultano dall'intersezione di due catene casuali totalmente indipendenti l'una dall'altra". (C'è da chiedersi se qui non si tratti di un refuso, considerando che nella classica intepretazione di questo esempio si parla sempre di due catene causali indipendenti).

Gli autori sostengono inoltre che "sul concetto e sul significato di caso il lungo discorso iniziato dai filosofi greci è ancora aperto". E non può essere altrimenti se non si è in grado di andare oltre la frase di Democrito, citata in nota: "Tutto ciò che esiste nell'universo è frutto del caso o della necessità". Frase che rappresenta l'errore specifico del pensiero metafisico sul rapporto caso-necessità.

Ai fini della nostra indagine, partiamo dai concetti di caso e di probabilità. Punto di partenza d'ogni considerazione sulla casualità è l'evento singolo; perciò, consideriamo un qualsiasi evento singolo casuale: esso può dar luogo a diversi risultati. Nello schema proposto da Fraire e Rizzi, nel capitolo dedicato alla teoria della probabilità, i risultati possono essere di tre tipi:

1) risultato certo, come quando si estrae a caso una pallina nera da un'urna contenente solo palline nere;
2) risultato impossibile, come l'estrazione di una pallina bianca da un'urna contenente solo palline nere;
3) risultato possibile (incerto), come quando si estrae a caso una pallina bianca da un'urna contenente palline bianche e nere.

Vediamo: nella situazione 1), la casualità viene annullata dalla circostanza che esistono soltanto palline nere, e quindi la certezza dell'estrazione della pallina nera è garantita necessariamente; per la stessa ragione, nella situazione 2) il caso è annullato dalla assoluta impossibilità di estrarre una pallina bianca da un'urna contenente soltanto palline nere. Se nel primo e nel secondo caso, non può trattarsi di altro che di certezza assoluta, soltanto nella terza situazione si può parlare di risultato soltanto possibile, per estrazione casuale. Eppure in termini matematici sembra del tutto normale definire come limiti estremi della probabilità le due opposte certezze assolute: quella che un evento si verifichi e quella che non si verifichi. Quindi sembra affatto lecito sostenere che la probabilità di un evento è un numero tale che:
                   
                                                      0 ≤ p(E) ≤ 1

Questa relazione va perciò considerata come una convenzione matematica, la quale esprime che per un evento certo la probabilità è uguale a 1, che per un evento impossibile è uguale a 0, e infine che, per ogni altra situazione, la probabilità può assumere uno degli infiniti valori compresi tra 0 e 1.

Insomma questa relazione autorizza a considerare equivalente qualsiasi gradazione di probabilità, qualsiasi misura di gradi di incertezza. In un mare di incertezze, soltanto due certezze estreme: probabilità zero e probabilità uno! Il probabilismo matematico assoggetta in questo modo la certezza all'incertezza, la necessità alla casualità.

Prendiamo ora la più semplice definizione di probabilità: "La probabilità di un evento è il rapporto tra il numero di casi favorevoli e il numero di casi possibili purché tutti i casi siano ugualmente possibili". E consideriamo l'esempio classico più semplice, il lancio di una moneta: le possibilità sono due, o esce testa o esce croce. Perciò il matematico scrive la relazione 1/2 come rapporto tra la singola possibilità e le due possibilità totali (testa e croce). Per definizione questa relazione è la probabilità che si verifichi uno dei due eventi.

La relazione, in se stessa, dice soltanto che 1/2 è il rapporto tra la singola possibilità e le possibilità totali: così, nel caso del lancio del dado, il rapporto sarà 1/6. Dal punto di vista della teoria matematica della probabilità, 1/2, 1/6, non sono, però, soltanto differenti rapporti che dipendono soltanto dal numero di possibilità, essi differiscono tra loro anche in un senso non più soltanto matematico, ma psicologico: nel senso, cioè, delle aspettative umane sul verificarsi di un evento. In questa accezione la probabilità 1/2 indicherebbe un'aspettativa più favorevole di 1/6. La misura della probabilità avrebbe quindi questa caratteristica, molto apprezzabile come lenitivo delle angosce umane, di permettere la misura delle nostre aspettative.

Mentre il rapporto matematico esistente tra la singola possibilità, o alcune singole combinazioni di possibilità, e la totalità delle possibilità non presenta nulla di strano e misterioso, quando sosteniamo che questo rapporto misura la nostra aspettativa sul verificarsi di un determinato evento o di una determinata combinazione di eventi, noi introduciamo nel calcolo un elemento mistico. Come altro definire il fatto che si possa avere un'aspettativa più favorevole sull'uscita di testa nel lancio di una moneta, e meno favorevole sull' uscita del numero sei nel lancio di un dado, e poi assistere all'uscita di croce nel primo caso e del sei nel secondo? Non è mistica una teoria che stabilisce vari gradi di probabilità, ossia di aspettative più o meno favorevoli, per avvenimenti che, presi singolarmente, accadono in maniera del tutto imprevedibile, ossia casuale? *

Comunque si consideri la faccenda, anche l'introduzione del concetto psicologico di aspettativa non cambia affatto i termini della questione: il calcolo delle probabilità indica soltanto l'ambito della casualità; così, per il lancio della moneta, due sono le possibili manifestazioni casuali: casualmente può uscire testa o croce; così, per il lancio del dado, sei sono le possibili manifestazioni della casualità, tante quante il numero delle facce del dado. Il caso non è dunque tanto astruso da far uscire testa quando si lancia un dado! Perciò, comunque si valuti il concetto di probabilità, la possibilità del verificarsi di un singolo evento è puramente casuale. (Continua)

*La differenzatra tra le possibilità 1/2 e 1/6 non misura una maggiore o minore casualità, ciò che non avrebbe senso, bensì il minore o maggiore numero di possibilità, ovvero quella che può essere chiamata ampiezza del caso relativo al complesso di eventi considerato.

-------

Tratto da "Il caso e la necessità - L'enigma svelato - Volume primo  Teoria della conoscenza" (1993-2002)

Nessun commento:

Posta un commento

Related Posts Plugin for WordPress, Blogger...