domenica 18 luglio 2010

Probabilità e statistica da Laplace ai teorici dell'Ottocento: Poisson e Cournot

Nell'introduzione a "L'ordine e il caso", l'autrice, Paola Dessì, scrive: "Lo studio della probabilità, proprio a causa dei molteplici significati che il termine assume, può offrire un punto di osservazione privilegiato per comprendere i non semplici rapporti tra scienza e filosofia nell'Ottocento. Come è noto, il concetto di probabilità gode sin dal suo nascere della caratteristica di essere estremamente ambiguo, capace di riferirsi ora all'aspetto soggettivo, ora all'aspetto oggettivo della conoscenza, definibile ora a priori, ora a posteriori, a seconda che lo si consideri una proprietà logica o la semplice espressione di una frequenza".

Sta di fatto "che il riconoscimento dell'impossibilità di raggiungere la certezza se non in ambiti molto ristretti, porterà Laplace a definire la certezza soltanto come limite della probabilità, capovolgendo di fatto la gerarchia usuale e riconoscendo alla probabilità un ruolo fondamentale. In precedenza, infatti, di conoscenza probabile si era parlato soltanto in relazione all'impossibilità di raggiungere una conoscenza certa".

Se prima era l'incertezza a costituire una gradazione peggiorativa della conoscenza certa, ora la certezza diventa una gradazione della conoscenza incerta. Questo capovolgimento è semplicemente il risultato del calcolo matematico delle probabilità. Può sembrare paradossale, ma è proprio Laplace, considerato da sempre nume tutelare del determinismo assoluto, ad operare questo capovolgimento. Ma la cosa non deve stupire: determinismo e indeterminismo, come abbiamo già visto nella indagine di Marx su Democrito ed Epicuro, hanno rappresentato, nella teoria della conoscenza, le due facce opposte della stessa medaglia, volgendosi continuamente l'una nell' altra.

Dessì così conclude la sua introduzione: "Sul terreno applicativo l'attenzione si concentra prevalentemente sulla possibilità di usare metodi statistici basati sulla probabilità, dando luogo alla formazione della moderna scienza statistica. Sul versante teorico gli sforzi più significativi saranno rivolti alla sistemazione assiomatica della teoria probabilistica".

Mentre la teoria metteva al primo posto il concetto di probabilità, nasceva una branca della statistica, fondata sul calcolo delle probabilità, che si caratterizzò come scienza applicata. Avvenne così che, a partire dal concetto ambiguo di probabilità, si pervenne "sul terreno applicativo" ai metodi statistici che nulla hanno di ambiguo. In definitiva avvenne che, partendo dal sistema di calcolo delle probabilità, creato allo scopo di determinare l'indeterminabile, l'imprevedibile, il casuale, si pervenne alla statistica che rende possibile determinare ciò che è determinabile prevedibile e necessario. Sembra un' ironia, ma ciò che non era ancora compreso come legge della natura, ossia la "determinazione" casuale della necessità, si manifestava concretamente come legge del pensiero nella forma della "determinazione" probabilistica della statistica.

Laplace voleva avere uno strumento di calcolo per determinare i singoli eventi che appartengono alla sfera della casualità, e si rivolse alla teoria della probabilità. Ma che cosa avvenne? Quello strumento matematico si trasformò nelle sue mani, contro la sua volontà, in uno strumento statistico che riesce a determinare i fenomeni complessivi, mostrandone l'intima necessità come "determinazione" casuale. I successori di Laplace, che come lui negavano la conoscenza certa*, mentre si accapigliavano nel tentativo fittizio di determinare l'incertezza probabilistica inerente i singoli eventi, dovevano con rammarico rendersi conto che il complesso dei singoli eventi, ossia i grandi numeri, garantiscono quella certezza, quella regolarità che i piccoli numeri o, peggio ancora gli eventi singoli, non hanno alcuna intenzione di concedere.

Ciò che era stato creato per determinare il singolo caso si dimostrava valido scientificamente soltanto come risultato medio statistico di grandi numeri. Il caso mostrava così un modo specifico di trasformazione nel suo opposto dialettico, la necessità. Nonostante ciò, anzi proprio per questo, il pensiero metafisico matematico, irritato per un simile risultato non voluto, considerò la statistica poco degna del suo interesse teorico e si intestardì nel voler imbrigliare il caso, elucubrando attorno alla teoria probabilistica, permettendo in tal modo al probabilismo ambiguo di spadroneggiare capricciosamente sulla statistica.

Vediamo di ripercorrere sinteticamente questo percorso che, iniziato da Buffon e tracciato da Laplace, approdò al dibattito dell'Ottocento, nel quale, a nostro avviso, soltanto Poisson si avvicinò alla soluzione. (Per questo scopo, utilizzeremo il testo di Dessì.)

Il primo che in epoca moderna ha collegato i concetti di certezza e di probabilità è stato Buffon, nel Settecento. Per Buffon "la certezza fisica, cioè la certezza più certa di tutte, è soltanto la probabilità quasi infinita che un effetto, un avvenimento che non è mai mancato di verificarsi, si verificherà ancora una volta". Tra la certezza fisica assoluta e il dubbio, ossia l'incertezza assoluta, Buffon introduce il concetto di certezza morale. Non è un caso che egli consideri il caso della paura della morte e stabilisca, sulla base delle tavole della mortalità, quale sia la probabilità che un uomo, in buona salute ad una determinata età, possa morire entro le prossime ventiquattr'ore. Il calcolo gli permette di concludere che ogni probabilità superiore a 1 su 10. 000 costituisce una certezza morale.

La paura della morte appartiene a quei motivi di origine psicologica che favoriscono il determinismo riduzionistico, come esigenza di determinazione di eventi singoli che appaiono imprevedibili. Così, la paura della morte è la paura di un evento che è sempre imprevedibile nella sua singola manifestazione. Ma la certezza morale di Buffon è soltanto una certezza illusoria, perché il singolo individuo non potrà mai avere certezze psicologiche riguardo a eventi singoli e perciò casuali.

Se Buffon cerca delle certezze là dove non esistono, Laplace compie il percorso inverso: trasforma le certezze in incertezze anticipando di un secolo i teorici della fisica quantistica. Scrive Dessi: "Laplace invece non riconosce più alcuna priorità logica alla certezza ché anzi questa è soltanto il limite della probabilità quando il rapporto tra i casi favorevoli e i casi possibili è uguale all'unità".

Il pensiero matematico rende possibile questo modo di concepire la certezza perché, facendo uso di quantità continue, non distingue la diversa qualità esistente tra la certezza o determinazione e l'incertezza o indeterminazione. Perciò può solo concepire vari gradi di incertezza. La certezza viene, così, calcolata mediante il suo contrario l'incertezza. Una conoscenza sarà tanto più certa quanto più bassa è l'incertezza. Il pensiero metafisico ha, in questo modo, creato un paradosso logico; da quel momento, gli scienziati si sarebbero divisi in due schiere: quelli che sottolineano che i vari gradi di incertezza in realtà forniscono gradazione di certezza, e quelli che invece sottolineano l'incertezza persino nel caso in cui il grado di incertezza è infinitesimo. Questione di gusti, si dirà. E invece si tratta della nuova forma logica, nella quale si contrapporranno deterministi e indeterministi.

Dessì osserva: "Ma è nella determinazione del risultato medio più vantaggioso tra varie misurazioni che il calcolo delle probabilità dimostra di essere lo strumento più adeguato per studiare la realtà. Paradossalmente, esso è il metodo matematico più esatto che si possa applicare allo studio dei fenomeni empirici. Questo metodo ci fa conoscere non soltanto il risultato che offre meno presa all'errore, ma anche i limiti entro i quali esso è compreso". L'osservazione è giusta, ma si può aggiungere anche quest'altro paradosso: mentre i teorici si trastullavano nel vano tentativo di determinare la sorte dei singoli eventi con il concetto fittizio di probabilità, il metodo statistico imponeva il concetto di media nella indagine scientifica. Basti pensare che lo stesso concetto di media statistica poté servire, nell'Ottocento, alla teoria cinetica dei gas e alla definizione del saggio medio del profitto.

Nell'800, Poisson definì la sua legge dei grandi numeri, considerandola non soltanto una legge matematica ma una vera e propria legge della natura. Egli scrive: "Le cose di qualsiasi natura sono sottomesse a una legge universale che si può chiamare legge dei grandi numeri. Essa consiste nel fatto che, se si osservano numeri grandissimi di avvenimenti della stessa natura, che dipendono sia da cause costanti che da cause che variano irregolarmente, tanto in un senso, quanto in un altro (cioè senza che la loro variazione propenda in un senso determinato), si troveranno tra questi numeri rapporti pressoché costanti". (Poisson: Recherches ...)

Poisson ha il merito di aver scoperto una legge dialettica della natura, anche se lo ha fatto in maniera contorta, perché dominato dalla concezione deterministica; e quindi non fu neppure consapevole delle conseguenze della sua scoperta. Dessì, interpretando Poisson, scrive: "Alla maggior irregolarità dei singoli corrisponde perciò un maggior ordine globale". Anche la Dessì potrebbe essere più conseguente: alla completa casualità, quindi, irregolarità dei singoli corrisponde perciò il massimo ordine possibile a livello globale. La casualità si rovescia nella necessità. La mancanza di una precisa consapevolezza dialettica della statistica può essere osservata nelle seguenti considerazioni dell' autrice: "Si può costruire una teoria matematica del calore grazie al fatto che al fenomeno di radiazione termica sono interessati grandi numeri di molecole che, pur (!) comportandosi singolarmente in maniera estremamente irregolare garantiscono, in virtù del gran numero di esse interessate al fenomeno, un risultato regolare e calcolabile".

Giustamente Dessì considera il risultato dei grandi numeri come regolare e calcolabile in termini statistici, ma, come la grande maggioranza di coloro che considerano il rapporto tra la casualità dei singoli eventi e la necessità del risultato complessivo, non vede che è proprio la casualità dei singoli che permette la necessità del complesso. L'irregolarità o casualità dei singoli numeri è il fondamento della legge dei grandi numeri. La legge universale dei grandi numeri mostra precisamente che la casualità è necessaria.

Il determinismo però non è in grado di concepire la determinazione casuale della necessità. Al massimo arriverà a concedere una generica corrispondenza. Così l'autrice può arrivare soltanto ad ammettere che la legge dei grandi numeri "garantisce che al comportamento irregolare (e quindi imprevedibile) delle singole molecole corrisponda un comportamento regolare (e perciò prevedibile) di un gran numero di esse".

Ma il determinismo, se può fare concessioni alla regolarità del complesso, non ammette tanto facilmente di rinunciare alla determinazione dei singoli eventi. Questa è la sua litania preferita. Dessì osserva: "Nel modello che si ricava dagli scritti di Poisson, noi conosciamo soltanto la risultante, ma non possiamo mai arrivare alle forze componenti e cade perciò la speranza di conoscere ciò che è complicato a partire da ciò che è semplice". E questa speranza cade perché, se la legge di Poisson "procura l'indubbio vantaggio di dare dignità scientifica al calcolo statistico per lo studio dei fenomeni di massa", il prezzo da pagare è la rinuncia a conoscere gli elementi ultimi della realtà.

"Se Laplace aveva negato il caso riportandolo all'ignoranza delle cause, Poisson lo esorcizza assimilando il comportamento di ciò che è complicato al comportamento di ciò che è semplice. Per salvare l'ordine a livello macroscopico, egli ipotizza una realtà disordinata a livello microscopico che non siamo in grado di conoscere". Perciò "è avvenuto un mutamento significativo: l'oggetto della previsione non è più la singola molecola, ma un gran numero di esse".

Una simile soluzione non poteva essere accettata dalla scienza deterministica dell'Ottocento. Cournot, agli inizi del secolo, dopo aver considerato da determinista che "nessun avvenimento si produce senza causa", ammette l'esistenza di avvenimenti prodotti "dalla combinazione o dall'incontro di fenomeni che appartengono a serie indipendenti nell'ordine della causalità", dei quali si dice che sono "avvenimenti fortuiti o risultati del caso". Per salvare il determinismo si torna ad Aristotele, per il quale la distinzione fra eventi del tutto causali ed eventi che sono prodotti dall'incontro casuale di serie causali tra loro indipendenti era solo un modo per circoscrivere il danno arrecato dalla casualità al determinismo.

Dessì conclude: "Il mondo naturale offre un intrico di combinazioni delle quali alcune, quelle probabili, individuano rapporti di causa ed effetto e altre, quelle improbabili, denunciano l'incontro fortuito di serie causali indipendenti l'una dall'altra". E questo è il massimo che il determinismo può concedere al caso, senza rendersi conto di restringere l'ambito della casualità in maniera arbitraria. Il groviglio della natura è il risultato di infiniti singoli oggetti animati e inanimati, dove ogni combinazione sarà il risultato del caso, perché a livello dei singoli oggetti e delle singole combinazioni il caso regna sovrano.

Dessì ritiene che il "termine determinismo ha assunto significati molto vari e riconducibili alla matrice laplaceana soltanto a prezzo di molte semplificazioni". L'osservazione è interessante, ma ancor più interessante sarebbe stato tentare di individuare sia le ragioni di questa varietà, sia le vicissitudini cui il determinismo è andato incontro. Innanzi tutto occorre dire che il fallimento del determinismo ottocentesco ha lasciato, come pungiglione avvelenato, la teoria anarchica della conoscenza. Per comprendere questo risultato, che rappresenta una degenerazione della teoria della conoscenza odierna, occorre partire dal fatto indubitabile che la statistica, invece di rassicurare i deterministi, li colpì nel loro punto debole, perché mostrò che l'evento singolo era casuale e perciò indeterminabile. Per sottrarsi all'imbarazzante riconoscimento di questo fatto, il determinismo cercò una via di salvezza nel concetto di probabilità. Per salvare la concezione che riteneva ogni caso necessario, i deterministi finirono inconsapevolmente per togliere ogni certezza anche alla necessità.

E così, mediante lo strumento matematico del calcolo delle probabilità, essi considerarono la realtà come un continuo indistinto, differenziabile soltanto per gradi o percentuali di probabilità: l'avvenimento certo veniva spiegato mediante il suo contrario, l'incertezza. La certezza non era ormai più che una percentuale di incertezza molto bassa. L'avvenimento impossibile veniva assimilato alla situazione di una grande urna contenente una sola pallina bianca in una moltitudine di palline nere: La pallina bianca non verrà mai estratta perché il teorema di Bernouille ci assicura che una possibilità infinitamente piccola corrisponde ad una impossibilità fisica.

Non distinguendo la sfera della necessità (accessibile alla scienza mediante la statistica) dalla sfera del caso (inaccessibile alla scienza, anche se determinante per i fenomeni della natura), i deterministi, quando non hanno più potuto negare il caso, hanno cercato di circoscriverlo, di limitarlo, e mediante il calcolo delle probabilità hanno reso dipendente possibilità e impossibilità, certezza e incertezza da una semplice percentuale di probabilità. In questo modo hanno creduto di aver determinato il caso, di aver scoperto le leggi del caso, come leggi probabilistiche. E così il determinismo si è rovesciato nel suo opposto: nell'indeterminismo.

La certezza statistica sarebbe diventata "incertezza probabilistica". Col passare del tempo e delle generazioni di scienziati, i vecchi freni deterministici sarebbero venuti a mancare: sempre meno frequentemente si sarebbe precisato che la probabilità dell'uscita della famosa pallina bianca equivale all'impossibilità fisica. La pallina avrebbe potuto sortire dall'urna. E così Reeves, (“L’evoluzione cosmica” 2000), ad esempio, può dilettare il lettore sulla eventualità, sia pure eccezionale, ma non più impossibile, che il diamante conservato nella torre di Londra finisca per caso nelle tasche di un ignaro passante; e, cerca persino di dare una spiegazione fisica del fenomeno! Risultato: la teoria anarchica della conoscenza, o "scienza del caso".

* Può sembrare paradossale affermare che i deterministi negavano la conoscenza certa. In realtà essi affermavano che, essendo impossibile una conoscenza assolutamente certa dei singoli eventi, per l'ignoranza temporanea o definitiva delle cause determinanti, troppo numerose e per lo più sconosciute, era necessario affidarsi al calcolo delle probabilità, dal quale però si attendevano di poter determinare quegli eventi. In sostanza, la concezione determinista dominante fino al secolo XIX, non potendo rendere conto delle cause dei singoli eventi, pretese di determinarli col calcolo delle probabilità, e così eludere il caso.

--------

Tratto da "Caso e necessità -  L'enigma svelato - Volume primo  Teoria della conoscenza" (1993-2002)

Nessun commento:

Posta un commento

Related Posts Plugin for WordPress, Blogger...