(Continuazione) Come punto di partenza della "nuova teoria", Popper riprende il famoso teorema di Bernouille, il quale "asserisce che i segmenti brevi di sequenze assolutamente libere o casuali presenteranno spesso deviazioni relativamente grandi, e quindi fluttuazioni relativamente grandi da p [probabilità], mentre i segmenti più lunghi presenteranno, nella maggior parte dei casi, deviazioni da p sempre più piccole a misura che cresce la loro lunghezza. Di conseguenza, la maggior parte delle deviazioni nei segmenti sufficientemente lunghi diventeranno piccole a piacere o, in altre parole, le grandi deviazioni diventeranno rare, a nostro piacere".
Il ragionamento di Bernouille non fa una piega, se però si mette in chiaro che questa p sta per f (frequenza). In se stessa, la probabilità è solo un numero che indica la possibilità di un evento singolo casuale. Ma quando si considera una sequenza reale di eventi, la probabilità è solo quel dato matematico che ci fornisce la frequenza reale della sequenza stessa, mentre le reali deviazioni o fluttuazioni sono relative alla frequenza reale, e non al valore di probabilità.
Il ragionamento di Bernouille non fa una piega, se però si mette in chiaro che questa p sta per f (frequenza). In se stessa, la probabilità è solo un numero che indica la possibilità di un evento singolo casuale. Ma quando si considera una sequenza reale di eventi, la probabilità è solo quel dato matematico che ci fornisce la frequenza reale della sequenza stessa, mentre le reali deviazioni o fluttuazioni sono relative alla frequenza reale, e non al valore di probabilità.
La conseguenza per Popper è che "se prendiamo un segmento molto lungo di una sequenza casuale allo scopo di trovare la frequenza all'interno delle sue sottosequenze contando o, forse, usando altri metodi empirici e statistici, otterremo nella grande maggioranza dei casi il seguente risultato. Esiste una frequenza media caratteristica tale che le frequenze relative nell'intiero segmento e in quasi tutti i sottosegmenti lunghi, devieranno solo di poco da questa media, mentre le frequenze relative dei sottosegmenti più piccoli devieranno da questa media ancora, e tanto più spesso, quanto più corti li scegliamo. Possiamo riferirci a questo fatto -cioè a questo comportamento statisticamente accertabile dei segmenti finiti- come al "comportamento quasi-convergente" di tali segmenti, o come al fatto che le "sequenze a casaccio sono statisticamente stabili"." (Avrebbe potuto anche aggiungere: necessarie!)
D'accordo su tutto questo, ma che cosa dobbiamo dedurne? Secondo Popper, "il teorema di Bernouille asserisce che i segmenti piccoli di sequenze casuali presentano spesso larghe fluttuazioni, mentre i segmenti grandi si comportano sempre in modo che suggerisce costanza e convergenza; in breve che troviamo disordine e irregolarità nel piccolo, ordine e costanza nel grande". Ma se troviamo disordine e irregolarità nel "piccolo" è perché il "piccolo" si avvicina di più al singolo evento; e, viceversa, se troviamo ordine e regolarità nel "grande" è perché il "grande" si avvicina di più all'intera sequenza di eventi.
Così abbiamo due estremi opposti polari: la probabilità, relativa ai singoli eventi casuali, e la frequenza relativa al complesso degli eventi (o sequenza) necessario. E in mezzo fluttuazioni: ossia, se consideriamo una qualsiasi sottosequenza, o segmento finito, abbiamo maggiori o minori oscillazioni dalla frequenza relativa al complesso. Ora, interpretare tutto ciò come se la legge dei grandi numeri si riferisse al comportamento disordinato e irregolare (ossia casuale) del "piccolo" e al comportamento ordinato e costante (ossia necessario) del "grande", significherebbe prendere per essenziale ciò che è una conseguenza puramente accessoria, significherebbe non voler ammettere che è sulla base della casualità relativa al singolo evento che si origina la necessità del complesso. Insomma, Popper concepisce una banale contrapposizione metafisica tra "piccolo" e "grande" che sono dei derivati accessori, per non ammettere la polarità singolo (casuale) - complesso (necessario), che rappresenta, invece, il reale fondamento del rapporto probabilità-frequenza statistica.
Può sembrare paradossale, ma l'errore di Popper si spiega col rifiuto opposto dal pensiero anarchico alla condizione assolutamente casuale e dunque imprevedibile del singolo evento, oggetto, individuo. I teorici anarchici sono anarchici solo in quanto pretendono togliere ogni certezza, ogni determinazione necessaria al vero oggetto della conoscenza: il complesso, mentre sono più deterministi dei deterministi assoluti quando prendono in considerazione il caso singolo. Ad esempio, quella che segue è una vera e propria dichiarazione di principio deterministica da parte di Popper: "Si sente, talvolta, dire -egli scrive- che i movimenti dei pianeti obbediscono a leggi rigorose, mentre la caduta di un dado è fortuita, soggetta al caso. Dal mio punto di vista (!) la differenza consiste nel fatto che finora siamo stati in grado di predire con successo i movimenti dei pianeti, ma non i risultati dei singoli lanci di un dado". (paragrafo 69. Legge e caso)
E non è finita: prendendo in considerazione la vecchia argomentazione del determinista Laplace, sulla mancanza di condizioni iniziali per il singolo lancio di un dado, egli osserva che "le regole per giocare correttamente ai dadi (scuotere la scatola dei dadi) sono scelte in modo da impedire di misurare le condizioni iniziali!" E questa osservazione gli serve per sostenere che non si può rinunciare all'idea di determinare i casi singoli: "In nessun caso, comunque, possiamo affermare in modo definitivo che in un campo particolare non esistono leggi". In parole povere, Popper respinge il caso relativo al singolo evento, utilizzando l'argomento del determinismo laplaciano: il caso è soltanto l'ignoranza delle condizioni iniziali. "Ciò significa che secondo il mio punto di vista (!) -egli scrive- il concetto di caso diventa soggettivo. Parlo di "caso" quando la nostra conoscenza è insufficiente per la predizione, come nel caso del gioco dei dadi in cui parliamo di "caso" perché non abbiamo alcuna conoscenza delle condizioni iniziali (si può pensare che un fisico dotato di buoni strumenti possa predire un lancio mentre altre persone non possono predirlo (sic!))".
Abbiamo già visto che Popper attribuisce il caso alle sequenze di eventi; ora veniamo a sapere che "Dal fatto che una sequenza è casuale non possiamo neppure inferire che non è possibile predire i suoi elementi, o che essi sono dovuti al "caso" nel senso soggettivistico di conoscenza insufficiente; e meno che mai, possiamo inferire, da questo fatto, il fatto "oggettivo" che non ci sono leggi. Non soltanto dal carattere casuale della sequenza non è possibile inferire nulla intorno alla conformità a leggi, o, per dirla altrimenti, nulla degli eventi individuali: non è possibile inferire, dalla considerazione delle stime probabilistiche, che la sequenza stessa sia completamente irregolare". *
D'accordo su tutto questo, ma che cosa dobbiamo dedurne? Secondo Popper, "il teorema di Bernouille asserisce che i segmenti piccoli di sequenze casuali presentano spesso larghe fluttuazioni, mentre i segmenti grandi si comportano sempre in modo che suggerisce costanza e convergenza; in breve che troviamo disordine e irregolarità nel piccolo, ordine e costanza nel grande". Ma se troviamo disordine e irregolarità nel "piccolo" è perché il "piccolo" si avvicina di più al singolo evento; e, viceversa, se troviamo ordine e regolarità nel "grande" è perché il "grande" si avvicina di più all'intera sequenza di eventi.
Così abbiamo due estremi opposti polari: la probabilità, relativa ai singoli eventi casuali, e la frequenza relativa al complesso degli eventi (o sequenza) necessario. E in mezzo fluttuazioni: ossia, se consideriamo una qualsiasi sottosequenza, o segmento finito, abbiamo maggiori o minori oscillazioni dalla frequenza relativa al complesso. Ora, interpretare tutto ciò come se la legge dei grandi numeri si riferisse al comportamento disordinato e irregolare (ossia casuale) del "piccolo" e al comportamento ordinato e costante (ossia necessario) del "grande", significherebbe prendere per essenziale ciò che è una conseguenza puramente accessoria, significherebbe non voler ammettere che è sulla base della casualità relativa al singolo evento che si origina la necessità del complesso. Insomma, Popper concepisce una banale contrapposizione metafisica tra "piccolo" e "grande" che sono dei derivati accessori, per non ammettere la polarità singolo (casuale) - complesso (necessario), che rappresenta, invece, il reale fondamento del rapporto probabilità-frequenza statistica.
Può sembrare paradossale, ma l'errore di Popper si spiega col rifiuto opposto dal pensiero anarchico alla condizione assolutamente casuale e dunque imprevedibile del singolo evento, oggetto, individuo. I teorici anarchici sono anarchici solo in quanto pretendono togliere ogni certezza, ogni determinazione necessaria al vero oggetto della conoscenza: il complesso, mentre sono più deterministi dei deterministi assoluti quando prendono in considerazione il caso singolo. Ad esempio, quella che segue è una vera e propria dichiarazione di principio deterministica da parte di Popper: "Si sente, talvolta, dire -egli scrive- che i movimenti dei pianeti obbediscono a leggi rigorose, mentre la caduta di un dado è fortuita, soggetta al caso. Dal mio punto di vista (!) la differenza consiste nel fatto che finora siamo stati in grado di predire con successo i movimenti dei pianeti, ma non i risultati dei singoli lanci di un dado". (paragrafo 69. Legge e caso)
E non è finita: prendendo in considerazione la vecchia argomentazione del determinista Laplace, sulla mancanza di condizioni iniziali per il singolo lancio di un dado, egli osserva che "le regole per giocare correttamente ai dadi (scuotere la scatola dei dadi) sono scelte in modo da impedire di misurare le condizioni iniziali!" E questa osservazione gli serve per sostenere che non si può rinunciare all'idea di determinare i casi singoli: "In nessun caso, comunque, possiamo affermare in modo definitivo che in un campo particolare non esistono leggi". In parole povere, Popper respinge il caso relativo al singolo evento, utilizzando l'argomento del determinismo laplaciano: il caso è soltanto l'ignoranza delle condizioni iniziali. "Ciò significa che secondo il mio punto di vista (!) -egli scrive- il concetto di caso diventa soggettivo. Parlo di "caso" quando la nostra conoscenza è insufficiente per la predizione, come nel caso del gioco dei dadi in cui parliamo di "caso" perché non abbiamo alcuna conoscenza delle condizioni iniziali (si può pensare che un fisico dotato di buoni strumenti possa predire un lancio mentre altre persone non possono predirlo (sic!))".
Abbiamo già visto che Popper attribuisce il caso alle sequenze di eventi; ora veniamo a sapere che "Dal fatto che una sequenza è casuale non possiamo neppure inferire che non è possibile predire i suoi elementi, o che essi sono dovuti al "caso" nel senso soggettivistico di conoscenza insufficiente; e meno che mai, possiamo inferire, da questo fatto, il fatto "oggettivo" che non ci sono leggi. Non soltanto dal carattere casuale della sequenza non è possibile inferire nulla intorno alla conformità a leggi, o, per dirla altrimenti, nulla degli eventi individuali: non è possibile inferire, dalla considerazione delle stime probabilistiche, che la sequenza stessa sia completamente irregolare". *
Con una simile impostazione, Popper non può evitare di scontrarsi con l'impostazione di Heisenberg. A questo proposito afferma di dissentire "dalla metafisica indeterministica oggi così in voga", e, in particolare, dal risultato raggiunto da Heisenberg sulla impossibilità di predire la traiettoria di una particella. Interessante è seguire la sua argomentazione su una delle principali questioni della fisica contemporanea, e vedere quale soluzione contrapponga all'indeterminismo della scuola di Copenaghen. Egli parte dalla considerazione che i complessi della fisica, come fasci di fotone, ecc. dovevano essere interpretati statisticamente dalla teoria quantistica: ciò "era suggerito da vari aspetti dell'orizzonte dei suoi problemi. Il suo compito più importante -la deduzione degli spettri atomici- dovette essere considerata come un compito statistico fin dai tempi dell'ipotesi einsteniana dei fotoni (o quanti di luce); infatti questa ipotesi interpretava gli effetti osservati della luce come fenomeni di massa: come fenomeni, cioè, dovuti all'incidenza di molti fotoni".
A questo proposito cita un passo tratto da "Quantomeccanica elementare" di Born e Jordan: "Sotto la guida dell'esperienza, i metodi sperimentali della fisica atomica sono (...) giunti ad occuparsi esclusivamente di questioni statistiche. La meccanica quantistica, che fornisce la teoria sistematica delle regolarità osservate, corrisponde per tutti gli aspetti allo stato presente della fisica sperimentale, perché fin dall'inizio si limita a questioni statistiche e a risposte statistiche".
Ma, come la maggior parte dei fisici, Popper confonde la statistica con la probabilistica, e quindi si crede in dovere di asserire: "Se partiamo dal presupposto che le formule peculiari alla teoria dei quanti siano ipotesi probabilistiche, e perciò asserzione statistiche, è difficile vedere come da una teoria statistica che abbia questo carattere sia possibile dedurre proibizioni degli eventi singoli (...)".
Ciò che non ha compreso, o forse non ha voluto accettare, è che la teoria della frequenza statistica, ossia della frequenza riguardante i complessi, fondandosi sulla probabilità dei singoli, esclude che gli eventi singoli possano essere determinati. E ciò in coerenza con la polarità caso-necessità che attribuisce il caso alla probabilità dei singoli, e la necessità alla frequenza dei complessi. Se Popper ha avuto buon gioco è perché nessuno, eccetto forse Schrodinger, ha compreso il nesso tra caso-probabilità-singolo, e necessità-frequenza-complesso.
Popper dice di aver compreso che "la dispersione statistica rende impossibile predire quale sarà la traiettoria della particella dopo l'operazione di misurazione"; ma ritiene che non si sia guadagnato gran ché da un simile risultato. Quindi, ricorda il § 71 dove "abbiamo imparato (sic!) che ogni asserzione probabilistica formalmente singolare può essere interpretata in modo soggettivistico come una predizione indefinita, come un'asserzione che riguarda l'indeterminatezza della nostra conoscenza", per poter sostenere che una oggettivistica statistica non regge se si ha un'intrepretazione oggettivistica singolare, attribuendo l'indeterminazione al singolo evento.
Insomma, egli nega che si possa affermare in senso oggettivo che la necessità della frequenza statistica si possa fondare sulla oggettiva casualità dei singoli eventi che costituiscono la sequenza. E, per avvalorare la sua conclusione, cita Jeans: "In breve, l'immagine corpuscolare ci dice che la nostra conoscenza di un elettrone è indeterminata, l'immagine ondulatoria, che l'elettrone stesso è indeterminato, indipendentemente dal fatto che su di esso si facciano o no esperimenti. Tuttavia il contenuto del principio d'indeterminazione dev'essere esattamente il medesimo nei due casi. C'è solo un modo per renderlo tale: dobbiamo supporre che l'immagine ondulatoria fornisca una rappresentazione, non già della natura oggettiva, ma della nostra conoscenza della natura": detto in altre parole che sia qualcosa di puramente soggettivo.
Come vedremo nel volume dedicato alla fisica, c'è un altro modo di interpretare la faccenda, in coerenza con la polarità dialettica caso-necessità, probabilità-statistica, e cioè che l'indeterminazione del singolo corpuscolo sia intesa come oggettivo caso singolare (ecco la ragione della indeterminazione!), mentre l'immagine dell'onda rappresenti la necessità relativa a un fascio o complesso di corpuscoli.
Per concludere, l'astuto logico formale, che la sa lunga sulla insipienza degli esperimenti ideali della fisica, afferma di poter dimostrare nientemeno che "la possibilità di predire, con precisione arbitraria, la traiettoria delle singole particelle", appunto, grazie a "un esperimento fisico immaginario"; e afferma che "tale esperimento può essere considerato come una specie di experimentum crucis per decidere tra la concezione di Heisenberg e un'interpretazione, coerentemente statistica, della teoria dei quanti" (la sua!).
Il paradosso cui è giunto l'anarchico Popper è la pretesa di determinare statisticamente la singola particella, "smentendo" l'unico aspetto valido di una teoria indeterministica come quella di Heisenberg. Il fatto è che l'indeterminismo di Heisenberg non è affatto possibilista, e stabilisce (determina) in maniera assoluta l'inconoscibilità della singola cosa in sé; mentre Popper, pretendendo provare la possibilità di predizione (ossia di determinazione) della singola particella, in realtà vuole solo affermare un generico possibilismo.
* Insomma Popper è giunto al bel risultato di concepire la sequenza di eventi (il complesso) come casuale, e il singolo evento come necessario e determinabile (naturalmente se sono date le condizioni iniziali). E magari non sa neppure che Leibniz la pensava alla stessa maniera.
-------
Tratto da "Il caso e la necessità - L'enigma svelato - Volume primo Teoria della conoscenza" (1993-2002)
Nessun commento:
Posta un commento