La concezione probabilistica ha riproposto la vecchia antinomia determinismo-indeterminismo in una forma nuova che può essere semplificata nel modo seguente: mentre gli indeterministi (o probabilisti soggettivi) considerano degna d'interesse scientifico anche la minima probabilità, i deterministi (o probabilisti oggettivi) pretendono per l'indagine scientifica un'alta probabilità.
In questo paragrafo prenderemo in considerazione Hans Reichenbach, uno dei più illustri rappresentanti della logica formale determinista-probabilista, fondata sul probabilismo oggettivo. A questo scopo esaminiamo un suo saggio degli anni'30, "Causalità e probabilità", nel quale l'autore pretese riconciliare le leggi statistiche con le leggi causali. La tesi è, infatti, la seguente:
"La riduzione di una metrica probabilistica a funzioni di probabilità costituisce un grande progresso nell'analisi epistemologica del problema della probabilità. Mentre si è soliti considerare le leggi probabilistiche come rappresentanti di un tipo particolare di regolarità, distinta dalle regolarità causali della natura, si può dimostrare, sulla base della teoria delle funzioni di probabilità, che questa distinzione è solo superficiale, e che le leggi probabilistiche e le leggi causali sono variazioni logiche dello stesso tipo di regolarità".
Secondo Reichenbach, i deterministi che si fondavano soltanto sulla connessione di causa ed effetto, partivano dalla considerazione che "quando tutti i fattori causali sono conosciuti, allora un effetto può essere predetto con certezza". Ma, rendendosi conto che "E' impossibile conoscere tutti i fattori causali", avevano trovato la seguente soluzione: "Noi possiamo solo scegliere un limitato numero di fattori rilevanti, e servircene per predire gli eventi futuri, ma dobbiamo tralasciare fattori di minore influenza. Si assume di solito che l'influenza dei fattori meno importanti sia piccola, e che perciò noi possiamo predire il futuro, entro certi limiti di precisione".
Secondo Reichenbach, i deterministi che si fondavano soltanto sulla connessione di causa ed effetto, partivano dalla considerazione che "quando tutti i fattori causali sono conosciuti, allora un effetto può essere predetto con certezza". Ma, rendendosi conto che "E' impossibile conoscere tutti i fattori causali", avevano trovato la seguente soluzione: "Noi possiamo solo scegliere un limitato numero di fattori rilevanti, e servircene per predire gli eventi futuri, ma dobbiamo tralasciare fattori di minore influenza. Si assume di solito che l'influenza dei fattori meno importanti sia piccola, e che perciò noi possiamo predire il futuro, entro certi limiti di precisione".
Ma non è d'accordo perché, di fatto -dice- noi "possiamo affermare soltanto l'alta probabilità che gli eventi futuri si manterranno entro certi limiti di precisione". "Non c'è alcuna via d'uscita a questo dilemma: o la previsione è assolutamente certa, nel quale caso è logicamente vera (e cioè analitica), ma non afferma nulla riguardo la realtà; o è un'asserzione descrittiva con un contenuto empirico (e cioè sintetico), nel qual caso si può asserire solo con una certa probabilità".
Quindi propone una soluzione che ribalta sia il vecchio assunto deterministico sia il correttivo probabilistico, ammesso a malincuore da deterministi come Planck. Infatti afferma: "L'asserzione delle leggi causali è garantita solo se sono ammesse leggi probabilistiche". Affermazione che sembra fondare la causalità sulla probabilità. Ma poi si accontenta di combinare le leggi causali con le leggi probabilistiche affermando: "L'ipotesi che certi eventi sono causalmente connessi deve essere accompagnata da un'ipotesi sull'effetto probabile dei fattori trascurati; solo la combinazione di queste due ipotesi ci permette di stabilire proposizioni sulla realtà. Ho chiamato queste due ipotesi: il princìpio di connessione (causalità), e il principio di distribuzione (probabilità). Solo la combinazione di questi due princìpi giustifica completamente le assunzioni scientifiche".
Precisando ulteriormente, Reichenbach afferma: "dobbiamo rivedere le nostre concezioni sulle leggi fisiche, abbandonando la vecchia idea che, mentre tutti gli eventi sono strettamente determinati, la limitata mente umana ne ha una conoscenza solo approssimativa". E aggiunge: "Perciò dobbiamo sostituire la tradizionale formulazione del determinismo, con questa più modesta formulazione: vi è una descrizione della natura che ci permette di predire il futuro con probabilità, ed è possibile avvicinare arbitrariamente a 1 questa probabilità con una più precisa trattazione dei parametri rilevanti".
Da notare che, nella sua modesta riformulazione del determinismo, la causalità scompare e rimane solo la probabilità. Fondamentale è la probabilità. Ma, aggiunge ancora: "Allo stesso tempo, questa formulazione corretta del determinismo (sic!) conduce ad una generalizzazione del concetto di causalità, generalizzazione che sembra coincidere con la concezione di causalità che prevale nella fisica moderna".
Ma come si perviene dal determinismo probabilistico alla generalizzazione della causalità? La questione non sembra interessare più di tanto l'autore, preoccupato, al contrario, di dimostrare il carattere probabilistico della scienza. Infatti dichiara: "la sostituzione delle leggi causali con leggi probabilistiche è stata considerata un fallimento del metodo scientifico. La discussione ha raggiunto addirittura intonazioni morali. E' stato attribuito al fisico il dovere di ricercare metodi più precisi, anche se, al momento, non si riesce a vederli. Ci sembra che questa interpretazione nasca dal trascurare il fondamentale carattere probabilistico della scienza".
Quindi Reichenbach si pone la seguente domanda: "come sappiamo che le leggi probabilistiche valgono?". Ma per rispondere non può fare altro che riprendere in considerazione l'esperienza, la regolarità degli eventi ripetuti, in breve, il problema dell'induzione di Hume che assume al rango di princìpio fondamentale della probabilità: "Ora possiamo riconoscere la posizione centrale che il princìpio di induzione occupa nella scienza: esso ci permette di giudicare sulla verità delle teorie scientifiche"; "per essere più precisi, dovremmo dire che ci serve per decidere sul loro grado di probabilità. Nella scienza l'alternativa non è vero o falso; ma invece vi è una scala continua di valori di probabilità, i cui limiti irraggiungibili sono il vero e il falso".
La conclusione è netta e recisa: "Le asserzioni probabilistiche non hanno significato se non si presuppone il princìpio di induzione. Abbiamo visto che questo princìpio gioca un ruolo essenziale nella interpretazione delle asserzioni probabilistiche, poiché la predizione che le frequenze relative osservate si conserveranno nel futuro presuppone il princìpio di induzione". Ecco il metodo dei logici moderni: senza una spiegazione, voilà le frequenze relative. Così ora abbiamo, ovviamente, le asserzioni probabilistiche che sono fondamentali grazie soltanto alla induzione; ma quale induzione? Quella che deriva dall'osservazione delle frequenze relative; ma queste frequenze relative da dove saltano fuori? E in quale rapporto stanno con le asserzioni probabilistiche?
Reichenbach non dà una risposta: "Piuttosto il tentativo di dare una prova logica delle asserzioni probabilistiche è impossibile, come la quadratura del cerchio". E allora su che cosa fare affidamento? In maniera sibillina egli rispolvera il metodo di Jacobi: "In quanto noi crediamo che le asserzioni sul mondo fisico abbiano significato, in modo altrettanto sicuro possiamo credere nel significato del concetto di probabilità".
Per capirci qualcosa, prendiamo in considerazione un altro saggio di Reichenbach, dal titolo: "Scopi e metodi della moderna filosofia della natura". Qui egli dice, tra le altre cose, che il princìpio di Boltzmann, fondato sulla probabilità, introdusse l'incertezza nella più esatta delle scienze naturali. Perciò se "la fisica riconosceva simili leggi probabilistiche, non poteva più affermare l'esattezza di quelle leggi che avevano costituito la sua struttura". La soluzione di compromesso, osserva giustamente l'autore, "stabilì una distinzione fra una natura fisica rigorosamente regolata da un lato, e l'imperfetta conoscenza umana, dall'altro". E, ancor più giustamente, scrive: "Qualche tempo prima, Laplace ci aveva offerto il classico esempio di questa concezione, postulando un'intelligenza sovrumana, che poteva predire il futuro con certezza, senza ricorrere alla probabilità".
Pertanto il compromesso deterministico, come abbiamo già visto nei primi paragrafi di questo capitolo, giustificò l'utilizzo del calcolo delle probabilità a ragione dell'imperfezione umana. Abbiamo anche visto che questa impostazione soggettivistica della probabilità doveva pur sempre confluire nella statistica, ovvero nella oggettiva frequenza statistica, per poter interessare le scienze. Ma ciò ha creato una confusione, a dir poco, ostinata tra il concetto di probabilità e quello di frequenza.
Abbiamo già visto che i deterministi probabilisti identificano la probabilità con la frequenza. E così fa Reichenbach, per il quale la probabilità si fonda sulle frequenze statistiche. Infatti, scrive: "Secondo questa interpretazione, la regolarità di processi statistici, quale il comportamento delle molecole, costituisce una proprietà indipendente dei fenomeni fisici, ed è compito della scienza formulare leggi statistiche proprio come ha formulato leggi causali".
Se si trattasse solo di questo, potremmo obiettare che le leggi statistiche devono prendere il posto delle leggi causali perché non esiste nei fenomeni della natura nulla che possa essere compreso come connessione di causa ed effetto; quindi non c'è alcuna possibilità di combinare leggi statistiche con leggi causali. Ma Reichenbach compie un errore madornale quando parla indifferentemente di leggi probabilistiche e di leggi statistiche. Perché le prime sono un calcolo matematico che parte dalla probabilità di singoli eventi, mentre le seconde sono frequenze empiriche che riguardano complessi di eventi. E, poiché per lui "La conoscenza scientifica consiste nella capacità di predire un certo evento", non se ne esce fuori: perché nessun calcolo di probabilità può permettere la previsione del singolo evento, in quanto casuale, nonostante che la frequenza statistica possa prevedere il complesso degli eventi, in quanto necessario.
Non avendo compreso che il fondamento della frequenza statistica è il caso relativo ai singoli eventi, per cui la probabilità fornisce soltanto l'ampiezza della casualità dei costituenti un complesso, Reichenbach si illuse di poter aumentare la probabilità, aumentando "il numero di fattori causali inclusi nella descrizione matematica delle condizioni iniziali", immaginando in questo modo di ridurre le leggi causali a leggi statistiche. Questa è confusione per completo smarrimento riduzionistico! Secondo lui, "questa riduzione altera il carattere della nostra conoscenza scientifica solo se rende impossibile descrivere causalmente un singolo evento, e cioè se la probabilità della predizione di un evento non potesse essere portata arbitrariamente vicino a 1, considerando sempre più parametri".
Ma che cosa sperava Reichenbach? di poter imitare, con le sue leggi "probabilistico-statistiche", la mente suprema di Laplace, descrivendo i singoli eventi come connessioni causali o probabilità arbitrariamente vicino a 1, invece di accontentarsi del semplice correttivo proposto da Laplace? Sembra proprio di sì! In conclusione, per conciliare il principio di causalità con leggi di probabilità, egli ha dovuto identificare la probabilità con la frequenza, senza tener conto che l'oggettiva frequenza riguarda i complessi di eventi, non i singoli eventi. Dopo di che ha preteso attribuire alla frequenza, chiamata "probabilità oggettiva", il compito riduzionistico di predire i singoli eventi. Nulla di più contraddittorio poteva escogitare il determinismo riduzionistico per sopravvivere alla caduta del principio deterministico di causa-effetto.
-------
Tratto da "Il caso e la necessità - L'enigma svelato - Volume primo Teoria della conoscenza (1993-2002)
-------
Tratto da "Il caso e la necessità - L'enigma svelato - Volume primo Teoria della conoscenza (1993-2002)
Nessun commento:
Posta un commento