sabato 11 maggio 2013

2d) La logica dell'incertezza, il pensiero debole di Bruno de Finetti

Il  probabilismo soggettivista di De Finetti

(Continuazione) Se l'identità matematica tra probabilità del caso singolo e frequenza del complesso di casi analoghi favorisce in apparenza l'identità tra probabilità e frequenza, dal punto di vista della interpretazione teorica le cose si complicano. De Finetti, prendendo in considerazione esempi di frequenze che si conservano, come ad esempio quella dei nati vivi maschi e femmine, che si aggira sempre attorno, rispettivamente, al 51,7% e al 48,3%, è costretto ad ammettere se non proprio la loro oggettività, almeno una notevole stabilità.

A questo proposito, egli scrive: "Sta di fatto però che, anche senza risalire al perché dei perché, appare abbastanza naturale a tutti l'idea che la frequenza con cui si verificano eventi che si sogliono raggruppare come "analoghi" sia piuttosto stabile. Forse oggi lo sembra anche eccessivamente causa formulazioni troppo semplicistiche e apodittiche che sono in voga tra molti cultori di statistica; ma un fondo genuino esiste, perché lo si riscontra anche nei profani incontaminati (che, ad es., si stupiscono se certi fenomeni si ripetono in un certo periodo con frequenza inusitata). Accettiamola così".

"Accettiamola così", come? Perché non è affatto chiaro come De Finetti accetti la stabilità di questo genere di frequenza. Ma se i "profani incontaminati" si stupiscono di fronte alle frequenze stabili, bisogna cercare di comprendere il "fondo genuino" di questo stupore. Il fatto è che lo stupore indica confusione, perdita di orientamento. Cosa che capita a chi pretende che la stabilità della frequenza debba consistere anche nella stabilità della probabilità. Ora, chi concepisce l'identità tra probabilità e frequenza, è preso da stupore per il fatto che mentre la prima è variabile, la seconda è stabile. L'oggettivista se la cava negando la variabilità della probabilità. Il soggettivista se la cava negando la stabilità della frequenza. "Pensando che tali frequenze si conservino, potremmo adottarle universalmente come probabilità?" Si chiede De Finetti, per poi dimostrare che ciò non è possibile, che "la validità della "stabilità della frequenza" come principio probabilistico o statistico risulta del tutto illusorio e infondato".

Non comprendendo la polarità singolo-complesso, l'autore può permettersi d'essere specioso e "dimostrare", con esempi, che la stabilità della frequenza non rende conto della probabilità del caso singolo. "Trattasi ad esempio di assicurare la vita di un dato individuo". Secondo lui il calcolo deve tener conto delle probabilità di questo individuo. Insomma, le compagnie di assicurazioni dovrebbero calcolare le probabilità di ciascun individuo. Ma ciascun individuo è sottoposto al caso, quindi può morire anche per puro accidente. Ora, per la società di assicurazioni è puramente indifferente quando muoia questo o quello tra i suoi assicurati, perché essa si affida non alle singole probabilità ma alle frequenze complessive. Perciò essa applicherà tariffe differenziate a seconda della fascia di appartenenza degli assicurati: fasce di età, di classe sociale, di attività, ecc.

Un altro esempio prodotto da De Finetti per contestare la stabilità della frequenza dei nati vivi, è una ricerca di Gini sui dati di Geissler sulla Sassonia 1876-1885, che "hanno messo in luce una differenziazione per famiglie: i casi di figliolanza con forte eccedenza o per maschi o per femmine sono troppi per potersi "attribuire al caso"." Come i "profani incontaminati", i competenti, contaminati dal probabilismo soggettivistico, si stupiscono del fatto che la stabile frequenza complessiva dei nati vivi maschi e femmine si realizzi "nonostante" situazioni particolari di prevalenza, ora qui, ora là, di figliolanze di maschi o di femmine.*

Riassumendo fin qui il pensiero dell'autore, vediamo che il concetto di "probabilità" non ha alcun fondamento oggettivo: si tratta di una nozione soggettiva; e per quanto riguarda la "frequenza", sebbene essa appaia oggettiva a causa di una apparente stabilità, di fatto essa è solo un altro modo di esprimere la probabilità. Entrambe sono la stessa cosa: si tratta di una banale identità matematica. Però egli accetta l'identità tra "probabilità e frequenza" solo come banalità, non potendo accettare che la nozione soggettiva di probabilità venga modificata da argomentazioni relative alla nozione di frequenza. In tal caso non ammette più l'identità. Insomma, può accettare l'identità nella versione: la frequenza è la probabilità, ma non nella versione: la probabilità è la frequenza.

Sembrano banali giochi di parole. In realtà, si tratta di paradossali prese di posizione da parte di chi non comprende che, mentre la probabilità definisce a priori un rapporto matematico esistente tra una o più possibilità su tante, che riguarda un singolo evento o pochi singoli eventi (e la realizzazione di queste possibilità è affidata al puro caso), la frequenza è un rapporto statistico che risulta a posteriori da un gran numero di eventi dello stesso tipo (e quindi rappresenta la necessità del complesso).

In campo scientifico è soprattutto la fisica quantistica che non ha compreso la differenza tra probabilità e frequenza, facendosi confondere dalla banale identità matematica tra le due nozioni. Poiché i fisici non hanno a che fare con sensazioni soggettive, ma con fatti oggettivi, è più che ovvio che essi abbiano valutato la banale identità come se la probabilità del singolo evento non fosse altro che una frequenza.

A questo proposito De Finetti scrive: "Per il fisico si può ben dire che la probabilità si identifica con la frequenza. E tale affermazione, in un certo senso, è vera [lo è nel senso della identità]; però si tratta di una forma di espressione completamente errata dal punto di vista concettuale, anche se apparentemente non dà luogo ad inconvenienti". L'errore, secondo lui, è la forma con cui è espressa questa identità, perché nella forma probabilità = frequenza, sono favorite le "argomentazioni intese a trasformare la probabilità da soggettiva in oggettiva mediante più o meno scoperte confusioni o connessioni di tale nozione con quella di frequenza". Argomentazioni che l'autore si ripropone di "smontare rapidamente una per una".
   
L'unica argomentazione che giustamente può criticare (ma non smontare, non possedendo egli la soluzione reale) è quella relativa al nesso fra certezza e alto grado di probabilità: "qualcosa di "molto probabile" si dice "praticamente certo" (o, per brevità, addirittura "certo"), e, simmetricamente, qualcosa di "molto poco probabile" si dice "praticamente impossibile" (o addirittura "impossibile")." Detto per inciso, però, i fisici quantistici, in teoria, non negano persino possibilità "molto, molto, molto, improbabili". Ciò nonostante, De Finetti fa bene a mettere in guardia dal confondere la certezza con l'"alta probabilità". 

Dal punto di vista della scienza, ad esempio della fisica, la questione principale è la determinazione della necessità o, altrimenti detto, dell'ordine e la giusta considerazione del caso o del disordine. I concetti di probabilità e di frequenza sono divenuti parte in causa in questa questione. De Finetti ne parla nel secondo volume dell'opera che stiamo considerando. Nel capitolo VII, pagrafo 5 "Leggi 'dei grandi numeri'", scrive: "Per esprimere questo risultato si usa dire informalmente, che, su un gran numero di prove, è praticamente certo che la frequenza coincide praticamente con la probabilità, od anche che "gli scarti hanno tendenza a compensarsi". Egli dice giustamente, tra parentesi, "che è piuttosto ingannevole chiamare così", ossia "leggi del caso" il risultato dell'"ordine generato dal caos" che "prende spesso l'aspetto della distribuzione normale". Giustamente, nel senso che non può esserci "legge del caso" ma solo legge di necessità, anche quando al suo fondamento non c'è una causa ma il caso stesso.

L'autore così continua: "La meraviglia, l'entusiasmo ed anche una certa esagerazione nella fiducia in un'universale validità di tale distribuzione, sono ben comprensibili in coloro che per primi la videro presentarsi in numerosi esempi di distribuzioni statistiche (per es. di caratteri vari in specie animali, ecc.)". Allora, egli ricorda, veniva chiamata "legge di frequenza degli errori". E oggi "L'idea che tutti i caratteri in natura debbano essere distribuiti normalmente è senz'altro superata: è un fatto empirico che ciò accada o no. Ma quel che importa, per queste osservazioni di commento, (...) è l'atteggiamento di fronte al "paradosso" di una "legge" che regola l'"accidentale" che non ha regola".

De Finetti non riesce, però, a cogliere gli opposti atteggiamenti, rispettivamente, del determinismo e dell'indeterminismo a proposito delle leggi statistiche, limitandosi a considerare la prima versione "svisata" e la seconda "esatta". La sua preferenza per l'indeterminismo è qui solo una conseguenza della logica probabilistica. Se si concepisce la logica della certezza, o determinismo, fondata sulla oggettiva frequenza, va da sé che il suo opposto, l'indeterminismo, può essere solo la logica dell'incertezza fondata sulla soggettiva probabilità. Non a caso, egli cita H. Jeffreys che, su "Logic and scientific inference", vuole dimostrare "il carattere ineluttabilmente incerto e ipotetico di tutte le "verità" o "leggi" scientifiche e la necessità di basare pertanto ogni ragionamento sulla logica probabilistica".

A sua volta, De Finetti, per voler dimostrare l'incertezza delle leggi scientifiche, toglie ogni certezza all'inferenza statistica, e lo fa banalizzando il carattere di necessità relativo ai complessi di grandi numeri. "Si tratterebbe, secondo quel punto di vista, della situazione speciale in cui ci si troverebbe quando si dispone di grandi masse di dati omogenei, si conosce ad esempio la frequenza su un gran numero di prove di un medesimo fenomeno, le percentuali di individui con diverse caratteristiche in una popolazione, e così via". "Per riallacciarci a un argomento classico, si tratterebbe di una proprietà legata all'esistenza di un mucchio: finché si hanno pochi oggetti essi non costituiscono un mucchio e nulla si potrebbe concludere, ma se sono molti il mucchio c'è e allora, ma soltanto allora, tutto il ragionamento fila".

L'autore riconduce quella che è la dialettica probabilità-frequenza statistica (a lui sconosciuta) al vecchio sofisma greco sulla testa calva. Così può sminuire con sofismi l'importanza fondamentale della frequenza relativa ai complessi. Negare la certezza della frequenza statistica, non significa però farne a meno. "Nella nostra trattazione i problemi "di tipo statistico" avranno il dovuto rilievo, perché sono indubbiamente importanti dal punto di vista teorico e importanti per applicazioni in ogni campo della pratica" -scrive De Finetti-, per il quale ciò che conta è garantire il primato del pensiero incerto.

Ma come può l'incertezza pretendere il primato sulla certezza? E Qui esce fuori il lato tartufesco del pensiero debole che, mentre si fa piccolo, modesto e persino umile, tira fuori le unghie delle sue pretese: "Quella soggettivistica, come detto più volte, è infatti (deliberatamente) la concezione più debole, in quanto richiede soltanto la coerenza (sic!), senza pretendere di interferire con la libertà delle valutazioni di un individuo entrando nel merito di esse sotto altri aspetti".

Mentre si dichiara "la concezione più debole", la concezione soggettivistica pretende soltanto... "la coerenza", senza pretendere di interferire con la libertà delle valutazioni individuali, se non "sotto altri aspetti"! Ergersi a giudice di coerenza e di altri aspetti non è una pretesa umile: è la forma apparentemente umile con la quale la concezione soggettivistica afferma il suo primato sulla concezione oggettivistica, nel momento stesso in cui ammette di accettarne metodi e risultati.

Scrive, infatti, De Finetti: "Le interpretazioni della nozione di probabilità in senso (pretesamente) oggettivo, basate sulla simmetria (casi ugualmente probabili: concezione classica) o sulla frequenza (prove ripetute di un fenomeno: concezione statistica), forniscono dei criteri accettabili e applicati anche dai soggettivisti (come è stato fatto ampiamente anche in questo libro). Non è questione di rifiutarli o di farne a meno; la differenza sta nel rilevare come essi richiedano sempre di venir integrati in un giudizio soggettivo..."

Insomma, i probabilisti soggettivisti possono accettare i metodi e i risultati della statistica oggettiva, ossia le oggettive frequenze statistiche, pretendono soltanto che siano integrate "in un giudizio soggettivo" (!!!). Non potendo evitare di utilizzare i criteri dell'oggettiva statistica, ossia non potendo essere coerenti con il proprio soggettivismo, i probabilisti soggettivisti pretendono come coerenza l'incoerente integrazione tra i risultati oggettivi e il giudizio soggettivo. In definitiva, pretendono di valutare i primi come dati empirici privi di giudizio, da sottomettere al giudizio della probabilità. In questo modo, la logica del certo, o pensiero forte, dovrebbe essere sottomessa alla logica dell'incerto, o pensiero debole. L'assurda stravaganza di questa impostazione tartufesca è che la debolezza debba sottomettere la forza e che l'incertezza debba convincere la certezza!


* Una delle credenze più comuni è che il caso si manifesti in maniera, per così dire, uniforme, ché se, al contrario, si manifestasse in maniera difforme, favorendo ora questo ora quell'evento, non più di caso si tratterebbe, ma di qualcosa di necessario. Questo modo di ragionare non tiene presente che anche l'eccezione più rara è casuale. Così può accadere che in un luogo nascano solo maschi, in un altro solo femmine, in un altro luogo ancora famiglie di soli maschi e di sole femmine. Ma ciò avviene soltanto per puro caso: lo stesso caso che, ad esempio, può favorire testa o croce in un certo numero di lanci consecutivi di una moneta. La media statistica è il risultato di un gran numero di eventi dello stesso tipo, i quali considerati in numeri piccoli possono dare risultati molto differenti dalla media, persino eccezionalmente differenti. L'incomprensione di questa realtà produce spesso delle conclusioni arbitrarie che paiono razionali, come quando si ritiene che la reiterazione di singoli eventi a bassa frequenza, cioè molto rari, sia artefatta.

Aggiunta 2010. Eventi simili, così rari da apparire artefatti, sono stati concepiti recentemente come eccezioni statistiche straordinarie, chiamate "cigni neri" da Taleb (2007).

-------

Tratto da "Il caso e la necessità - L'enigma svelato - Volume primo  Teoria della conoscenza" (1993-2002).

Nessun commento:

Posta un commento

Related Posts Plugin for WordPress, Blogger...