giovedì 5 dicembre 2019

Come Boniolo affronta la probabilità

Vediamo come Boniolo concepisce la probabilità in riferimento al caso: "Ritorniamo adesso al caso (inteso come evento casuale o come processo (sic!) casuale, anzi ritorniamo alla probabilità, visto che è la probabilità che ci consente di trattarlo". E questa conclusione sarebbe valida se non fosse che per l'autore la probabilità può riguardare indifferentemente i singoli eventi e i processi complessivi.

Ma andiamo avanti: egli dice che sarebbe sbagliato parlare di probabilità "sic et simpliciter. Si devono, infatti, separare due aspetti pericolosamente (!) poco distinti: da un lato, LA PURA TEORIA MATEMATICA delle probabilità che si svilupa assiomaticamente; dall'altro, L'ASPETTO FILOSOFICO FONDAZIONALE che cerca di capire che cosa voglia dire 'probabilità'. Il primo aspetto fu fissato da A.N. Kolmogorov in un famoso saggio del 1933 (... FONDAMENTI DEL CALCOLO DELLE PROBABILITA'), in cui metteva in luce la struttura formale del calcolo delle probabilità".
Da qui inizia il formalismo matematico, che tralasciamo perchè non è essenziale per risolvere il problema logico-dialettico della teoria delle probabilità e delle frequenze statistiche. Riprendiamo soltanto l'assunto di Laplace, per il quale "la probabilità di un evento casuale è data dal rapporto fra il numero dei casi favorevoli al suo verificarsi (Ng) e il numero finito dei casi probabili (Np), ossia

                                p(E) = Ng/Np

Si intuisce che in questo modo la probabilità di un evento [singolo] è calcolata a priori, cioè indipendentemente da eventuali risultati empirici. Ne segue che colui che calcola la probabilità adottando questa interpretazione deve ovviamente conoscere sia il numero dei casi favorevoli sia il numero  dei casi possibili".

A questo punto, Boniolo passa a considerare la frequenza statistica complessiva ottenuta sperimentalmente a posteriori: "Abbandoniamo, allora, l'interpretazione a priori, di scarsa utilità in biologia, e concentriamoci sull'INTERPRETAZIONE FREQUENTISTICA, o statistica, o a posteriori delle probabilità", che dobbiamo a R.von Mises.

"Da questo punto di vista, la probabilità di un evento è interpretata come il limite cui tende la FREQUENZA RELATIVA del numero delle volte in cui quell'evento si è verificato al crescere del numero totale delle prove effettivamente svolte. Ovvero, se n è il numero di volte in cui l'evento E si è effettivamente verificato e N è il numero delle prove effettuate, la frequenza relativa di un evento è data da

                                      f(E) = n/N

per cui la probabilità di E è

                                  p(E) = lim f(E)
                                    N - infinito

In questo caso il calcolo delle probabilità si basa sull'osservazione dei risultati di prova effettivamente fatte".

Ma tra le due (anzi tre) formule c'è una differenza qualitativa che Boniolo non sottolinea, perché anche storicamente le due formule non sono state distinte. Mentre la prima formula p(E) indica la probabilità singola (rappresentazione matematica del caso relativo al singolo evento), la seconda formula rappresenta la frequenza statistica (rappresentazione matematica della necessità relativa a un complesso di eventi uguali, necessità tanto più certa quanto maggiore è il numero dei singoli eventi considerati. Infine, nella terza formula, si torna indietro, inutilmente, al singolo evento casuale partendo dalla frequenza complessiva necessaria.

Senza questa distinzione è inevitabile che sorgano problemi. Boniolo ne indica tre relativi alla interpretazione frequentista. Primo: essa, "come l'interpretazione classica, non è in grado di rendere conto della probabilità di eventi singoli"! Secondo: "come nell'interpretazione non è banale affermare che i casi devono essere equiparabili, ora non è banale dire che le prove devono essere ripetute nelle stesse condizioni. Il terzo problema è invece connesso al fatto che occorrerebbe un numero infinito di prove per poter essere sicuri che la frequenza relativa con cui un evento si verifica coincida effettivamente con la probabilità di quell'evento".

Il paradosso di quest'ultima  proposizione è che si pretenda utilizzare una frequenza (complessiva) per rendere conto di una probabilità (singola), in altra parole, che la necessità statistica debba rendere conto del caso probabilistico! Fa sorridere la preoccupazione che dall'osservazione di una frequenza statistica n/N, questa non è detto che sia anche la sua probabilità. Ma per la scienza che cosa è importante? Per la scienza il problema non è partire dalla necessità per garantire il caso, ma partire dal caso per garantire la necessità. E ciò avviene statisticamente solo per i complessi, senza bisogno di scomodare l'infinito.

Boniolo rovescia completamente il reale problema scientifico, sostenendo: "Una volta introdotta un pò di chiarezza terminologica, ossia una volta stabilito di non menzionare più la necessità (sic!) perché non si sa bene che cosa voglia dire (sic!!), specie in biologia (sic!!!), e una volta stabilito di pensare al caso solo in termini di probabilità, possiamo passare a considerare lo stesso ambito fenomenico considerato da Monod".

In questo modo egli fa un cattivo servizio non solo a Monod ma anche a se stesso. Il modo è quello di affrontare Monod considerando il solo concetto di caso probabilistico, separato dal concetto di necessità (di fatto, privata così di ogni significato e importanza). Insomma, l'anarchico Monod è affrontato apparentemente sul suo terreno, in modo doppiamente anarchico, da un causalista come Boniolo mascherato da probabilista.



  

 

Nessun commento:

Posta un commento

Related Posts Plugin for WordPress, Blogger...