domenica 31 dicembre 2017

Scienziati senza cervello, autori di supercazzole

Mi è capitato di leggere un articolo su "Le Scienze.it" del 1 luglio 2017, per le cui conclusioni è irrilevante citare gli autori, ma solo perché molto più rilevante è sottolineare il fatto che nessuno abbia fatto obiezioni, eccetto il blog di un autodidatta.

Per la critica di quell'articolo è sufficiente, comunque, citare il titolo e l'incipit: "Contrordine: forse non c'è un limite alla longevità umana. La durata massima della vita umana non ha un limite invalicabile, ma potrebbe continuare ad aumentare. Lo sostiene una nuova ricerca, che ha rivisto i dati usati da uno studio precedente secondo il quale 115 anni sarebbero il massimo raggiungibile, e ne contesta le conclusioni."

giovedì 14 dicembre 2017

Una bizzarra conseguenza del rifiuto teologico del grande dispendio naturale

Il solito ignoto che non vuole comparire mi ha segnalato lo storico della scienza Stephen S. Mason per avere un mio parere. Posso esaudire il suo desiderio ripescando un mio paragrafo tratto da "La dialettica caso-necessità in teoria della conoscenza" 1° Volume (1993-2002).

"Può sembrare paradossale, ma  nel momento stesso in cui si affermò l'economica concezione meccanicistica cartesiana, e si cercarono vari princìpi economici del "minimo" per dimostrare la saggezza della provvidenza divina, s'impose anche la teoria della pluralità dei mondi, da quella più ristretta, che solo la luna fosse popolata, a quella più ampia, che l'universo fosse infinito e ogni stella rappresentasse il centro di un sistema planetario.

Insomma, per non dovere accettare il grande dispendio naturale, gl'ingegni del Seicento finirono con l'accettare la pluralità dei mondi: così pensavano Brahe, Keplero e Galileo; e Descartes pensava che esistessero nell'universo una pluralità di sistemi solari abitati, e il prete puritano John Wilkins si diede da fare per conciliare questa concezione cosmologica con la teologia.

lunedì 11 dicembre 2017

4) Riflessioni conclusive sul saggio medio del profitto

Nel secondo volume di "TEORIE SUL PLUSVALORE" Marx, affrontando la rendita fondiaria, ritorna sulla questione del saggio generale del profitto, per ribadire che è errato sostenere "che la concorrenza dei capitali determini un saggio generale del profitto livellando i prezzi della merci ai loro valori. Al contrario essa lo determina trasformando i valori delle merci in prezzi medi nei quali una parte del plusvalore di una merce è traferita ad un'altra ecc."

Comprendere questo traferimento del plusvalore non è semplice. Marx precisa: "Il Valore di una merce è = alla quantità di lavoro pagato + non pagato [plusvalore], in essa contenuto. Il prezzo medio di una merce è = alla quantità di lavoro (oggettivato o vivo) pagato in essa contenuto +una quota media di lavoro non pagato che  non dipende dal fatto che esso era contenuto o meno nella stessa merce in questa ampiezza o se ne era contenuto più o meno nel valore della merce".

In sostanza, non importa chi ha prodotto, e come, la sua quota di plusvalore, perché ciò che conta è l'intero serbatoio di plusvalore prodotto nella produzione totale capitalistica. Se confrontiamo la produzione delle merci a basso contenuto di capitale costante con la produzione delle merci a elevato contenuto di capitale costante  (come può essere oggi ad esempio il confronto tra la produzione di beni di consumo nei PVS e la produzione di alta tecnologia nei PSA), possiamo dire: nel primo caso viene prodotto molto plusvalore, nel secondo poco plusvalore (in relazione al capitale variabile ossia alla forza lavoro impiegata), quindi le merci avranno, rispettivamente, valore maggiore o minore.

sabato 9 dicembre 2017

3) L'incompresa necessità statistica del saggio medio del profitto

Lo scopo di questi capitoli dedicati al Capitale di Marx non è certo quello di compiere un'analisi approfondita del testo, che rappresenta una miniera inesauribile di analisi economico politica, sociale e storica. Lo scopo è molto più circoscritto: si tratta di verificare l'applicazione della dialettica caso-necessità ad alcuni temi fondamentali trattati da Marx. Per la realizzazione di questo obiettivo occorre, però, pagare uno scotto a una oggettiva difficoltà: ogni passo del Capitale rappresenta soltanto un momento di una concatenazione di nessi quasi senza fine. Dovendo, comunque, fare delle citazioni, s'impone la necessità di sacrificare la parte più analitica per privilegiare i passi più sintetici, nei quali sono riassunti e sintetizzati i risultati più interessanti per il nostro scopo.

In questo e nei prossimi paragrafi tratteremo a fondo il saggio medio del profitto, soluzione statistica del saggio generale del profitto, elaborato da Marx nel terzo libro del Capitale, e riveduto e corretto da Engels. Per il nostro scopo dobbiamo necessariamente partire dal saggio del plusvalore e dal valore delle merci prodotte. Come abbiamo già osservato, e avremo ancora modo di osservare, Marx era solito iniziare la sua analisi secondo il metodo dominante nell'Ottocento, ossia in senso riduzionistico. Ad esempio, egli scrive: "Il valore di ogni merce M prodotta capitalisticamente si esprime con la formula M=c+v+pv [dove M indica il valore della merce, c il capitale costante, v il capitale variabile e pv il plusvalore]. Se da questo valore del prodotto si sottrae il plusvalore pv, rimane un puro equivalente ovvero un valore di merce sostitutiva del valore capitale c+v, speso negli elementi della produzione".

Se il punto di partenza è riduzionistico, il punto d'arrivo è, però, statistico: il valore di "una merce" è in realtà il valore della merce complessiva, di cui la singola merce, prodotta dal singolo capitalista, rappresenta soltanto un'aliquota.

mercoledì 6 dicembre 2017

2) Il caso e la necessità nel processo di scambio delle merci

Sullo scambio delle merci, Marx osserva: "In un primo momento il loro rapporto quantitativo di scambio è completamente casuale. Sono scambiabili per l'atto di volontà dei loro possessori di alienarsele reciprocamente. Intanto, il bisogno di oggetti d'uso altrui si consolida a poco a poco. La continua ripetizione dello scambio fa di quest'ultimo un processo sociale regolare". "Da questo momento in poi si consolida, da una parte, la separazione fra l'utilità delle cose per il bisogno immediato e la loro utilità per lo scambio. D'altra parte il rapporto quantitativo diventa dipendente dalla produzione. L'abitudine le fissa come grandezze di valore".

Inizialmente "L'articolo di scambio non riceve dunque ancora una forma di valore indipendente dal suo proprio valore d'uso o dal bisogno individuale di coloro che compiono lo scambio. La necessità di questa forma si sviluppa col crescere del numero e della varietà delle merci che entrano nel processo reale". La necessità deriva quindi dai grandi numeri: il crescere del numero e della varietà delle merci che entrano nel processo di scambio, crescita che dipende dai singoli scambi casuali, rovescia il caso singolo nella necessità complessiva di un processo sociale regolare.

sabato 2 dicembre 2017

1) Il carattere feticcio della merce e il suo arcano

Dice Marx che la merce sembra, a prima vista una cosa ovvia e persino triviale, ma dalla "sua analisi risulta che è una cosa imbrogliatissima, piena di sottigliezze metafisiche e di capricci teologici". Quindi, si chiede: "Di dove sorge dunque il carattere enigmatico del prodotto di lavoro appena assume la forma di merce?" E risponde: "Evidentemente, proprio da tale forma". Per gli scopi della nostra indagine è fondamentale tornare alla distinzione che Marx opera tra i "lavori privati" e il "lavoro sociale complessivo", Egli dice che: "Gli oggetti d'uso diventano merci, in genere, soltanto perché sono prodotti di lavori privati, eseguiti indipendentemente l'uno dall'altro. Il complesso di tali lavori privati costituisce il lavoro sociale complessivo".

E' solo se si concepisce questa distinzione qualitativa che si può comprendere la differenza che passa tra la necessità e il caso, ossia tra ciò che può essere definito nella legge scientifica e ciò che non può esserlo. I singoli lavori privati appartengono alla sfera del caso, mentre il complesso di tali lavori, ossia il lavoro sociale complessivo, appartiene alla sfera della necessità. I lavori privati -scrive Marx- producono oggetti utili, valori d'uso e "solo all'interno dello scambio reciproco i prodotti del lavoro ricevono un'oggettività di valore socialmente uguale, separata dalla loro oggettività d'uso materialmente differente. Questa scissione del lavoro in cose utili e cose di valore si effettua praticamente soltanto appena lo scambio ha acquistato estensione ed importanza sufficienti affinché cose utili vengano prodotte per lo scambio, vale a dire affinché nella stessa produzione venga tenuto conto del carattere di valore delle cose".

E così le merci seguono, per così dire, la sorte loro derivata dalla differente considerazione del lavoro che le ha prodotte; quindi, anche le merci vanno considerate dal duplice punto di vista delle singole cose utili (prodotte dai lavori privatti) e del complesso delle cose di valore (prodotte dal lavoro sociale complessivo): le prime, tra loro materialmente differenti, le seconde, tra loro socialmente uguali. Possiamo, perciò, considerare le cose utili come appartenenti alla sfera del caso e le cose di valore come appartenenti alla sfera della necessità.

martedì 28 novembre 2017

Le forme materiali prodotte dall'evoluzione consistono in complessi, non in composti

La questione della divisibilità della materia e la questione della opposizione metafisica dei concetti di continuo e discreto rappresentano la conseguenza inevitabile del determinismo riduzionistico, il quale ha concepito le forme materiali come composti di elementi semplici, Cercheremo di dimostrare che il concetto di composto, se ha una sua giustificazione nell'ambito dei meccanismi prodotti dall'uomo, non ne ha alcuna in relazione ai prodotti naturali. Per conseguenza, la divisibilità della materia non ha alcun significato se cade il concetto di composto e se l'opposizione tra il continuo divisibile e il discreto indivisibile viene a cadere come falso problema.

Per esempio, se consideriamo la molecola alla solita maniera, come composto di atomi, significa ammettere che ciò che permane è non solo il composto, ma anche i suoi cosiddetti componenti. Ma la molecola è un'unità complessiva, al cui interno non si trovano singoli atomi come unità indipendenti: ciò che permane non è più lo stato atomico, ma quello molecolare.

Per comprendere tutto questo occorre partire dalla considerazione che soltanto l'attrazione, derivata da una diminuzione di energia repulsiva degli atomi, è responsabile della formazione della molecola. In questo modo gli atomi si annullano nella molecola e, se vogliamo riavere gli atomi come unità indipendenti, dobbiamo fornire tanta energia quanto serve a distruggere la molecola; ma distruggere una molecola per riottenere gli atomi in quanto tali non è la stessa cosa che dividere la materia: in altre parole la divisibilità della materia non può essere concepita.

lunedì 27 novembre 2017

Premessa sui rapporti possibilità-realtà e caso-necessità

Marx ed Engels hanno utilizzato la dialettica hegeliana, rovesciandola in senso materialistico nella economia politica, nella storia e, per quanto possibile, nelle scienze della natura, dedicando la maggior parte del loro tempo alla materia concreta, piuttosto che allo spirito astratto e alla logica delle diverse scienze. Se è vero che ogni ramo della scienza ha una sua logica specifica, è anche vero che il complesso di tutte le scienze ha bisogno di princìpi logici validi in generale. Come vedremo nelle conclusioni, dobbiamo all'arretratezza delle scienze della natura dell'Ottocento il fatto che neppure Engels abbia potuto stabilire una logica dialettica valida in generale.

Oggi, di fronte alla gran mole di scoperte empiriche, di nuovi fatti e circostanze concrete delle scienze naturali, che erano del tutto sconosciute alla scienza dell'Ottocento, i concetti e i princìpi dialettici che Marx ed Engels avevano preso in considerazione non sono più sufficienti. Occorre, perciò, tornare a quella miniera inesauribile che è la Logica di Hegel per togliere dall'oblio una serie di strumenti concettuali, necessari allo sviluppo della teoria scientifica.

venerdì 24 novembre 2017

La soluzione del rebus del lavoro produttivo nella globalizzazione

Occorre trovare il bandolo della matassa, e possiamo farlo nel solo modo che abbiamo in conformità con la dialettica caso (singolo) - necessità (complesso). Nelle tesi riassuntive sul lavoro produttivo e sul lavoro improduttivo che troviamo nell'ultimo paragrafo dell'appendice di "TEORIE SUL PLUSVALORE", Marx ci fornisce argomentazioni fondamentali. Innanzi tutto questa: "Il capitalista stesso è rivestito di autorità solo in quanto è la personificazione del capitale". Dunque, fondamentale è il capitale, inteso come il complesso della produzione capitalistica.

Per chiarire definitivamente la questione del lavoro produttivo e improduttivo bisogna partire dal capitale complessivo, per il quale la produzione del plusvalore rappresenta la sua stessa esistenza. Scrive Marx: "Dunque il capitale è produttivo: 1. in quanto costringe a fornire plusvalore; 2. in quanto assorbe in sé, se ne appropria (ne è la personificazione), le forze produttive del lavoro sociale e le forze produttive generalmente sociali come la scienza".

Poiché il capitale è produttivo se costringe a fornire plusvalore e se assorbe le forze produttive del lavoro sociale, a sua volta il lavoro sociale sarà produttivo se crea plusvalore. Dunque, Marx può scrivere: "Solo il lavoro che si trasforma direttamente in capitale è produttivo": "lavoro che crea plusvalore, ossia che serve al capitale come forza (agency) per produrre plusvalore, e perciò a porsi come capitale, come valore che si valorizza". Perciò, alla domanda: che cosa è il lavoro produttivo, Marx risponde: "lavoro produttivo -nel sistema di produzione capitalistico- è dunque il lavoro che produce plusvalore per chi lo impiega..., ossia quello che trasforma le condizioni oggettive di lavoro in capitale e il proprietario di esse in capitalista, quindi che produce il suo proprio prodotto come capitale".

mercoledì 22 novembre 2017

La definizione delle classi sociali: il lavoro produttivo e il lavoro improduttivo

Per definire i contrassegni delle classi sociali nel capitalismo occorre distinguere il lavoro produttivo dal lavoro improduttivo. Per stabilire questa non facile distinzione ci riferiremo al Quarto Libro del Capitale, pubblicato con il titolo di "TEORIE SUL PLUSVALORE", dove troviamo un ampio capitolo dedicato da Marx all'analisi delle "Teorie sul lavoro produttivo e improduttivo".

Analizzando Adam Smith, Marx scrive: "Il lavoro produttivo viene qui definito dal punto di vista della produzione capitalistica, e A. Smith ha esaurito il problema anche concettualmente, ha colto nel segno -è questo uno dei suoi più grandi meriti scientifici..., quello di aver definito il lavoro produttivo come lavoro che si scambia direttamente col capitale, cioè mediante uno scambio in cui le condizioni di produzione del lavoro e il valore in genere, denaro e merce, si trasformano anzitutto in capitale (e il lavoro si trasforma in lavoro salariato nel senso scientifico della parola). In questo modo è anche stabilito in maniera assoluta che cosa è il lavoro improduttivo. E' lavoro che non si scambia con capitale, ma che si scambia direttamente con reddito, quindi con salario e profitto (naturalmente anche con le diverse rubriche che partecipano al profitto del capitalista nelle vesti di consoci..., come interesse e rendita".

Questo passo sembra chiarire la questione, se non fosse che Marx la complica cercando di verificare la concezione di Smith in senso riduzionistico. Infatti, aggiunge:" Queste definizioni non sono dunque ricavate dalle caratteristiche materiali del lavoro (né dalla natura del suo prodotto, né dalla determinatezza del lavoro in quanto lavoro concreto), ma dalla forma sociale determinata dai rapporti sociali di produzione in cui questo si realizza. Un attore per esempio, persino un pagliaccio (clown), in base a queste definizioni è un lavoratore produttivo se lavora al servizio di un capitalista..., al quale egli restituisce più lavoro di quanto ne riceve da lui sotto forma di salario, mentre un sartuccio che va in casa del capitalista a rammendargli i pantaloni gli procura un semplice valore d'uso, è un lavoratore improduttivo. Il lavoro del primo si scambia con capitale, quello del secondo con reddito. Il primo crea plusvalore; nel secondo si consuma reddito".

domenica 19 novembre 2017

La cieca necessità delle classi sociali: un capitolo non terminato di Marx

Nell'ultimo capitolo del primo volume del CAPITALE, il 52°, intitolato "Le classi", interrotto dopo due sole pagine, Marx si pone "la domanda a cui si deve rispondere" per la definizione delle classi sociali. La domanda è la seguente: "Che cosa costituisce una classe? E la risposta risulterà automaticamente da quella data all'altra domanda: che cosa fa sì che gli operai salariati, i capitalisti e i proprietari fondiari formino le tre grandi classi sociali?" Marx non si pone il problema di determinare il singolo individuo, ma di trovare i contrassegni necessari che distinguevano le tre grandi classi sociali della società capitalistica del suo tempo.

"A prima vista -egli scrive- può sembrare che ciò sia dovuto all'identità dei loro redditi e delle loro fonti di reddito. Sono tre grandi gruppi sociali, i cui componenti, gli individui che li formano, vivono rispettivamente di salario, di profitto e di rendita fondiaria.

Tuttavia, da questo punto di vista, anche i medici, ad es., e  gli impiegati  verrebbero a formare due classi, poiché essi appartengono a due distinti gruppi sociali, e i redditi dei membri di ognuno di questi gruppi affluiscono da una stessa fonte. Lo stesso varrebbe per l'infinito frazionamento di interessi e posizioni, creato dalla divisione sociale del lavoro fra gli operai, i capitalisti e i proprietari fondiari. Questi ultimi, ad es., divisi in possessori di vigneti, in possessori di terreni arativi, di foreste, di miniere, di riserva di pesca".

La penna di Marx non è andata oltre quest'ultima obiezione, e la scuola marxista è sembrata impuntarsi su questo scoglio: ossia, sull'impossibilità di distinguere le classi sociali secondo l'identità del loro redditi, senza però riuscire a comprendere la ragione dell'interruzione del manoscritto. Ciò che Marx vede immediatamente è che, se consideriamo i redditi, le classi si sbriciolano in una infinità di gruppi sociali; ovvero la necessità si rovescia in casualità. "L'infinito frazionamento di interessi e posizioni" è, perciò, sotto il dominio del caso.

mercoledì 15 novembre 2017

L'incomprensione di Lenin sul caso e sulla necessità

La preoccupazione di Lenin sulla possibilità che l'agnosticismo potesse aprire la porta al fideismo nella scienza era paradossale, perché il fideismo era già di casa nelle scienze della natura. Come abbiamo dimostrato in altra sede, la scienza moderna è sorta dalla teologia, ereditandone metodi e concetti, tra i quali il principio di causalità, il riduzionismo e il finalismo. Quindi, non c'era alcun pericolo di aprire la porta al fideismo, ma solo perché dentro la scienza dominava il fideismo peggiore, in quanto non riconosciuto neppure dai materialisti dialettici: ossia la fede nel determinismo riduzionistico.

Del resto, quanto fosse difficile riconoscere il "fideismo" nel determinismo delle scienze naturali dell'Ottocento, lo testimonia l'atteggiamento manifestato dai maestri della dialettica: Hegel, Feuerbach, Marx ed Engels. Lenin se ne rese conto: basta ricordare il suo rammarico per il fatto che Hegel avesse dedicato così poco spazio al principio di causalità e per il fatto che Marx non avesse scritto una nuova logica. E, riguardo all'Anthiduring di Engels, Lenin ammette con rammarico che egli "non ebbe occasione, se non erro, di contrapporre, in modo speciale, sulla questione della causalità, il suo punto di vista materialistico alle altre tendenze".

lunedì 13 novembre 2017

2. L'equivoco del riduzionismo deterministico nel pensiero di Lenin

(Continuazione) La confusione e gli equivoci sulla trasformazione della "cosa in sé" in "cosa per noi" dipendono in parte dalla eccessiva semplificazione. Queste due questioni sono invece molto complesse, perciò occorre approfondire.

1) Sulla trasformazione della "cosa in sé" in "cosa per noi" occorre considerare, in primo luogo, la scoperta della "cosa in sé", indipendentemente dal suo, più o meno immediato, utilizzo che può verificarsi anche con scarsa o nessuna conoscenza teorica di essa. Occorre anche tener presente che, se per l'agnosticismo la "cosa in sé" esiste ma non è conoscibile, per il dialettico Engels la "cosa in sé" esiste anche quando ne ignoriamo l'esistenza (com'è avvenuto per l'ossigeno). Quindi, il primo passo della scienza è la scoperta di una determinata "cosa in sé". Stabilita la sua esistenza, dalla quale deriva anche un parziale utilizzo come "cosa per noi", inizia il momento della sua reale conoscenza o riflesso nella coscienza. Superato questo passaggio, la "cosa in sé" può diventare "cosa per noi"; ma perché ciò accada occorrono favorevoli condizioni tecnologiche, ecomiche, sociali e politiche: sono queste a garantire che la "cosa in sé" conosciuta agisca secondo un piano e per fini voluti, trasformandosi, a tutti gli effetti, in "cosa per noi".

2) Riguardo alla "prova pratica", riprendiamo la "seconda tesi" di Marx, citata* da Lenin: "La questione se al pensiero umano appartenga una verità oggettiva non è una questione teorica, ma pratica, E' nell'attività pratica che l'uomo deve dimostrare la verità, cioè la realtà e il potere, il carattere terreno del suo pensiero. La disputa sulla realtà o non realtà di un pensiero che si isoli dalla pratica è una questione puramente scolastica". Lenin cita anche il professore A. Levy che, intepretando Marx, scrive: "Che cosa dunque vi garantisce la fedeltà della traduzione? Che cosa prova che il pensiero vi dia la verità obiettiva? A questa obiezione Marx risponde con la seconda tesi".

La "seconda tesi" rispondeva alla domanda principale della teoria della conoscenza: che cosa garantisce che una teoria rifletta fedelmente il fenomeno indagato? Ciò che va sottolineato della risposta di Marx è la considerazione sulla realtà di un pensiero che non si isoli dalla pratica; ma sotto questa voce non possiamo considerare soltanto l'attività umana, dimenticando l'opera della natura. Il mondo reale è la pratica umana soltanto in relazione alla società, ma, relativamente alla natura, il mondo reale è la produzione delle forme materiali. Perciò, un pensiero che attribuisca alla natura il modo di operare umano, che si avvale del finalismo e della connessione di causa ed effetto, è un pensiero che, effettivamente, si isola dalla reale pratica naturale!

Stabilito questo, possiamo domandarci: se la natura non imita il modo di produzione umano, ossia se la pratica della natura non ha nulla a che fare con la pratica dell'uomo, può, al contrario, la pratica umana ricalcare la pratica naturale? La risposta è che l'uomo, come specie cosciente, può fare di meno e di più: di meno, in quanto non può permettersi il dispendio naturale; di più, perché può ridurre il peso del caso. Solo in questo modo può economizzare il reale dispendio naturale, solo in questo modo dimostra di poter trasformare la cieca, incosciente e dispendiosa necessità della "cosa in sé", propria della natura, nella previdente, consapevole necessità della "cosa per noi", propria dell'uomo.

Consideriamo ora il secondo punto fermo di Lenin, quello più discutibile, sulla verità relativa o approssimativa, che il materialismo dialettico ha creduto di poter contrapporre alla verità assoluta del materialismo metafisico e all'agnosticismo di Hume e Kant. L'oggetto della contesa che il materialismo dialettico doveva risolvere, una volta per tutte, riguardava non solo la possibilità della reale conoscenza del mondo esterno, ma principalmente l'affidabilità del principio di causa-effetto: infatti, era quest'ultimo che, soprattutto, divideva il determinismo assoluto dei materialisti metafisici dall'agnosticismo di Hume e di Kant, anche se, come abbiamo visto, Hume negava l'oggettività della causa, mentre Kant l'ammetteva come oggettività di qualcosa di soggettivo: il mondo dei fenomeni possibili.

Engels, nel suo "Ludwig Feuerbach", ha definito Hume e Kant filosofi "i quali contestano la possibilità di una conoscenza del mondo, e almeno di una conoscenza esauriente". Al contrario, i deterministi assoluti pretendevano ottenere una conoscenza esauriente, o verità assoluta del mondo, grazie alla connessione causale di tutte le cose, considerate singolarmente. Per Lenin a questa contrapposizione occorreva dare una risposta. A questo proposito, egli cita Dietzgen*: "Per la conoscenza che abbia acquistato consapevolezza della sua natura, ogni particella, sia pure una piccola particella di polvere o di pietra o di legno, è un qualcosa che non si può conoscere fino in fondo, cioè ogni particella è un materiale inesauribile per l'umana capacità di conoscere; conseguentemente è qualcosa che va oltre i limiti dell'esperienza".

Dietzgen serve a Lenin per impostare la questione del determinismo riduzionistico nei termini che però Engels aveva ridicolizzato nella "Dialettica della natura"**, con l'esempio del baccello di piselli, definendo casuale la condizione del singolo elemento soggetto a infiniti nessi. Tutta la nostra indagine ritorna sempre, inevitabilmente, alla inconoscibilità della singola cosa, presupposto fondamentale della conoscibilità della cosa complessiva. L'errore di Kant è stato quello di non  aver inteso che la reale inconoscibilità non riguardava la "cosa in sè", vuota astrazione del mondo delle cose, ma la cosa singola: singolo elemento di un complesso o forma materiale. Se egli aveva ragione a negare la conoscenza al metodo riduzionistico, predominante nella scienza, aveva torto a negare la possibilità della conoscenza del mondo delle cose.

Ora, il determinismo riduzionistico, sebbene fondato sulla errata connessione causale degli infiniti nessi di ciascuna singola cosa, fu, spesso, costretto ad ammettere che, in pratica, non era possibile ottenere una conoscenza esauriente di essi. Fu, così, costretto ad ammettere, come variante della sua impostazione, l'idea della conoscenza approssimativa, come progressione all'infinito e mai esauriente della ricerca della verità. Questa errata concezione ha fatto breccia anche nel materialismo dialettico.

L'Antiduhring di Engels, ancora dominato dalla concezione deterministica, accolse questa versione, come attesta il seguente passo citato da Lenin: ammesso che l'uomo è in grado di riflettere la natura, la questione è: le rappresentazioni umane "possono esprimere senz'altro questa verità integralmente, incondizionatamente, assolutamente, o possono soltanto esprimerla in modo relativo, approssimativo?" La domanda retorica di Engels, che contiene già la risposta favorevole alla verità relativa-approssimativa, dimostra che siamo ancora lontani dal riconoscimento del rapporto caso-necessità come principale polarità dialettica.

Ciò che occorre chiarire è che la questione della verità relativa sembrò essere risolta con la "verità approssimativa", soltanto perché si presuppose riduzionisticamente l'infinita e mai raggiungibile conoscenza della singola cosa in tutti i suoi infiniti nessi con il resto del mondo, ossia in tutte le sue infinite proprietà. Ma, come in seguito Engels ha mostrato nella "Dialettica della natura", la relatività riguarda le polarità dialettiche, non le singole cose soggette al caso.

La mia tesi sostiene che la "verità approssimativa" è stata un errore di teoria della conoscenza che ha portato fuori strada la scuola marxista: così Lenin, mentre ha ribadito correttamente la realtà oggettiva al di fuori dell'uomo, non ha colto l'errore fondamentale degli agnostici quando scrive: "Essi non riconoscono la realtà obiettiva, entrando così in contraddizione diretta con le scienze naturali, e aprendo la porta al fideismo (!). Al contrario per il materialista, il mondo è più ricco, più vario di quanto sembri, giacché ogni progresso nella scienza ne scopre nuovi aspetti. Per il materialista le nostre sensazioni sono l'immagine dell'unica e ultima realtà obiettiva, ultima non perché sia conosciuta a fondo, ma perché non c'è e non può esserci altra realtà al di fuori di quella".

Se è vero che gli agnostici, partendo dalla considerazione che le sensazioni non riproducono la realtà obiettiva perché, o, come dice Hume, l'induzione empirica non garantisce l'oggettività della connessione causale, o, come dice Kant, non si può conoscere la cosa in sé, hanno negato l'esistenza stessa della realtà obiettiva indipendente dalla coscienza umana, è anche vero che il materialismo ha potuto solo affermare con assoluta certezza l'esistenza della realtà obiettiva indipendente, ma quando ha dovuto rendere conto di questa certezza, rispondendo alla domanda: come riflettere questa realtà obiettiva, ha dovuto accogliere il riduzionismo nella sua versione più accettabile, quella della verità approssimativa, come progressione all'infinito.

E così il materialista Lenin, ammettendo la conoscenza inesauribile, approssimativa, ha finito col riconoscere che di ogni singola cosa non fosse possibile una conoscenza esauriente, perché la scienza scopre sempre nuovi nessi causali (!). A sua volta, l'agnostico ha avuto buon gioco a ribattere: anche per noi non si può avere una conoscenza esauriente, ma ciò perché è il principio di causalità che non ce lo permette; anzi, non ci permette neppure una conoscenza certa. Ora, è chiaro che, se la conoscenza umana dovesse affidarsi soltanto al principio di causalità, l'agnosticismo avrebbe ragione a negare ogni certezza, persino quella dell'esistenza del mondo esterno. (Continua)

*Lenin: "Materialismo ed empiriocriticismo".

** Libro sconosciuto a Lenin, perché rimasto chiuso in un cassetto della scrivania dello stupido Liebkenecht.


sabato 11 novembre 2017

1. L'equivoco deterministico nel pensiero di Lenin

Ho lasciato passare un pò di tempo dal "Centenario della rivoluzione d'Ottobre", per evitare d'essere sommerso dalla "calca" delle "commemorazioni". Mi limiterò, comunque, a rispolverare, dai miei vecchi scritti, alcuni contributi personali sul pensiero di Lenin, coerentemente  con  l'obiettivo principale di dimostrare il fallimento del determinismo nella teoria della conoscenza e di indicare la strada maestra della dialettica caso-necessità. A questo scopo era necessario mostrare il fallimento del determinismo riduzionistico anche nella scuola marxista del Novecento, che pure ha ritenuto in buona fede di riflettere i reali processi della natura e della società.

Lenin è stato il principale rappresentante di questa scuola e ha esposto la sua concezione in "Materialismo ed empiriocriticismo" (1909), opera che ci permette di dimostrare la seguente tesi: legando la concezione del materialismo dialettico alla sorte del principio deterministico di causa-effetto, egli ha ottenuto, inconsapevolmente, il contrario di ciò che si prefiggeva: riteneva di poggiare il materialismo dialettico su solide fondamenta, così da metterlo al riparo da ogni attacco dell'idealismo e dell'agnosticismo, e, invece, lo ha coinvolto nella caduta del principio stesso di causalità.

mercoledì 8 novembre 2017

A proposito dell'Unità d'Italia: il metodo cavouriano e il metodo garibaldino" 6)*

"La politica italiana, dall'unità ad oggi, è stata contrassegnata da due metodi opposti che derivano dai due principali artefici dell'unificazione, Cavour e Garibaldi.

1) Come capo incontrastato del parlamento piemontese, Cavour sa come cogliere tutte le opportunità, comprendere tutte le sfumature, aggirare gli ostacoli, utilizzare l'intrigo e la corruzione pur di raggiungere i risultati voluti. Ma quando gli avvenimenti prendono la forma di azione militare e rivoluzionaria, perde il controllo della situazione e dei suoi nervi. Il suo metodo non lo sostiene più ed egli comincia ad agitarsi fino al parossismo. Con Cavour l'arte politica del compromesso e dell'intrigo, spinta all'estremo dell'azione militare, si rovescia nell'invettiva più appassionata e nel rifiuto inflessibile del compromesso.

Così, quando Napoleone manifesta la sua volontà di chiudere rapidamente la guerra contro gli austriaci, con l'approvazione e il benestare del re Vittorio Emanuele, Cavour si oppone fino a mettere a repentaglio la propria posizione e carriera politica. Nel momento in cui l'azione militare porta alcuni frutti, ma non quelli sperati nell'immediato, Cavour perde la qualità politica che lo contraddistingueva: l'arte del compromesso, l'arte della paziente tessitura, ed "eroicamente", si potrebbe dire "alla garibaldina", mette a repentaglio se stesso.

lunedì 6 novembre 2017

La moderna forma usuraia: il capitale finanziario 5)*

"Studiando il ruolo dell'usura nell'antichità e nel Medioevo e la sua sostituzione, nell'era moderna, con il capitale finanziario "produttivo" d'interesse, si può ipotizzare che quest'ultimo altro non sia che la moderna forma usuraia, la quale, come l'antica usura, deborda dai limiti della sua dipendenza dalla produzione e da serva ne diventa padrona. Può il capitale finanziario essere considerato come quel fattore che alla fine disgregherà il modo capitalistico di produzione? Una serie di fatti indicherebbe che il capitale finanziario crea parecchi scompensi e squilibri, accentuando l'imputridimento e la decadenza dell'attuale epoca imperialistica.

In questa ipotesi il capitale finanziario potrebbe apparire, come capitale usuraio, di dimensioni tali da creare effetti sconvolgenti. Del resto esso è figlio del capitale produttivo d'interesse che, a sua volta, è figlio dell'antica usura. Abbiamo qui un esempio di dialettica della negazione della negazione: usura = affermazione. Negazione dell'usura = capitale produttivo d'interesse. Negazione della negazione = capitale finanziario.

Studiando l'antichità, Marx ed Engels attribuirono al lavoro schiavistico l'assenza del capitale industriale; il quale non può esistere senza il lavoro salariato (creazione del plusvalore nella forma di pluslavoro). Nell'antichità esiste, invece, il commercio e l'usura. I valori d'uso prodotti vengono trasformati in merce soltanto grazie al commercio che, a sua volta, è permesso dalla moneta e, sulla base della circolazione delle merci e della moneta, s'impone l'usura. In questo senso anche nell'antichità si può trovare sia il capitale commerciale che il capitale monetario.

sabato 4 novembre 2017

Il determinismo assoluto di Marco Aurelio Antonino 4)*

"Significativa la concezione deterministica di Marco Aurelio Antonino, che, nei suoi "Ricordi", si manifesta nella forma di una angosciosa preoccupazione di determinare la propria esistenza individuale come necessità assoluta: così il senso del dovere, la bontà, lo scrupolo eccessivo nell'evitare errori personali, ecc. devono per lui poggiare su un fondamento certo e necessario. Egli non accetta, quindi, la contraddizione esistente tra la necessità della sua esistenza complessiva di imperatore e il caso relativo alla propria esistenza individuale.

Per Antonino "Ogni cosa è profondamente intrecciata con le altre; sacro è il filo che tiene legate le cose. Nessuna, certamente, può dirsi estranea a un'altra". Il caso individuale viene, in questo modo, respinto e sostituito dalla connessione causale di tutte le cose, che egli attribuisce alla Provvidenza divina. "Del resto -scrive- a un bove nulla può accadere che non sia bovino; a una vigna nulla che non appartenga all'ordine delle viti; né a una pietra cosa estranea all'ordine petrigno".

giovedì 2 novembre 2017

Sulla schiavitù nell'antichità 3)*

"Bestia nera degli storici, da sempre, la concezione di Marx e di Engels è ormai trattata solo di sfuggita e in maniera del tutto inadeguata. Un esempio recente di come si possa evitare di fare i conti con le tesi del marxismo ci è dato da Finley nel suo scritto dal titolo "La civiltà greca si fondava sul lavoro degli schiavi?"** L'autore si limita a citare in maniera parziale alcune osservazioni di Marx sull'argomento, dimenticando completamente le "Origini della famiglia, della proprietà privata e dello Stato", dove Engels sviluppò ampiamente la questione della schiavitù nell'antichità.

Finley è abbastanza ingenuo da confessare i dispiaceri che uno storico agnostico come lui può patire a causa della concezione di Marx, affermando di non poter asserire che la schiavitù era un elemento fondamentale della civiltà greca, ma solo per la seguente ragione: se potesse liberarsi del dispotismo della storia partigiana, se potesse rimanere neutrale, affermerebbe che Atene si fondava sul lavoro schiavistico, ma non può farlo perché il concetto di "fondamento" è un concetto marxista!?

mercoledì 1 novembre 2017

Le origini di Roma 2)*

"Come ricostruire un evento storico quale fu l'origine di Roma, quando le fonti dell'epoca forniscono ipotesi suffragate soltanto da leggende? Si tratta di riferire quell'evento al modo di esistere della società del tempo: il suo modo di produzione, gli scambi, gli usi e costumi, il modo di combattere, ecc. Inoltre, per capire la nascita di Roma, occorre capire come si formavano le città antiche e per quali scopi.

La costruzione di una città, nell'antichità, era di fatto la costruzione di una fortezza dove chiudere il raccolto e mettere al riparo la popolazione dai rigori dell'inverno e dalle razzie di altre tribù. Nelle campagne le genti si stabilivano per il necessario lavoro di dissodamento della terra, di semina e di raccolto. Poiché questo lavoro era eseguito in primavera e in estate, le capanne erano più che sufficienti per alloggiare i contadini e le loro famiglie. La città fortezza si riempiva d'inverno, ma veniva utilizzata anche come rifugio durante le incursioni dei razziatori.

Ciascuna città, in un intricato sistema di alleanze temporanee, aveva il compito di difendere il proprio raccolto e, nel contempo, di utilizzare una parte degli uomini per razziare il raccolto di altre città, ma anche per assediarle e sottometterle con guerre di espansione di minore o maggiore ampiezza e durata. Lo scopo di queste guerre di espansione era duplice: garantirsi nuovi tributi e nuove alleanze per future espansioni. Il tributo che le città più forti imponevano si presentava in varie forme, ma la sostanza era unica: si pagava il tributo per poter salvare il raccolto e garantirsi la sopravvivenza.

martedì 31 ottobre 2017

La cieca necessità dell'impero nell'antichità 1)*

Il dispotismo asiatico delle satrapie era fondato sul tributo, ma anche Atene utilizzava il tributo oltre al commercio e all'artigianato. Nell'impero romano troviamo non solo il tributo ma anche l'usura su larga scala. Il tributo è, comunque, una costante nell'antichità. L'impero si distingue dalle città stato, dalle satrapie e dai popoli nomadi perché rappresenta, nell'antichità, la concentrazione politica che garantisce la centralizzazione dei tributi.

Che cosa mancò ad Atene per divenire Impero? Non certo la capacità di riscuotere tributi, ma la loro riscossione su larga scala. Roma diventò un impero perché riuscì a sottomettere vasti territori e numerosi popoli ottenendo una base tributaria molto ampia, e perché la sua "industria" della guerra realizzò quella centralizzazione economica del tributo a cui doveva corrispondere, nell'antichità, la forma politica dell'impero.

sabato 28 ottobre 2017

Una bizzarra conseguenza del rifiuto teologico del grande dispendio naturale

Può sembrare paradossale, ma  nel momento stesso in cui si affermò l'economica concezione meccanicistica cartesiana, e si cercarono vari princìpi economici del "minimo" per dimostrare la saggezza della provvidenza divina, s'impose la teoria della pluralità dei mondi, da quella più ristretta, che solo la luna fosse popolata, a quella più ampia, che l'universo fosse infinito e ogni stella rappresentasse il centro di un sistema planetario.

Insomma, per non dovere accettare il grande dispendio naturale, gl'ingegni del Seicento finirono con l'accettare la pluralità dei mondi: così pensavano Brahe, Keplero e Galileo; e Descartes pensava che esistessero nell'universo una pluralità di sistemi solari abitati, e il prete puritano John Wilkins si diede da fare per conciliare questa concezione cosmologica con la teologia.

Ricaviamo queste notizie dallo storico della scienza, S.F. Mason**: si tratta di fatti poco noti, perché quasi dimenticati dalla letteratura ufficiale, la quale, per sua natura, smussa gli angoli acuti delle contraddizioni come qualcosa di sconveniente. Ma la tendenza a mostrare la storia del pensiero scientifico come qualcosa di assolutamento assennato e giudizioso, che mostra imbarazzo per concezioni come quella della pluralità dei mondi, non fa che nascondere le vere difficoltà che questo pensiero ha trovato nel suo percorso: la principale fra tutte, la necessità della coerenza logica.

lunedì 9 ottobre 2017

Dimenticare non è una falla

Su "Le scienze" del 22 giugno 2017, troviamo un articolo dal titolo "Le dimenticanze che ci rendono più intelligenti"

"Dimenticare non è una falla nella nostra capacità di ricordare, ma un processo che ci consente di trattenere solo le informazioni essenziali per adattarci in modo intelligente a nuove situazioni, tralasciando i dettagli inutili: è questo il nuovo modello che emerge da una revisione di studi sui processi di memoria e di oblio e da alcune sperimentazioni."

E' proprio vero che gli "scienziati" che pretendono sperimentare, riducendole a piccole dimensioni, faccende gigantesche come la memoria umana, o meglio che pretendono sperimentare faccende complesse riguardanti i prodotti del cervello umano, finiscono sempre col cadere nelle amenità.

giovedì 5 ottobre 2017

9] La discutibile metafora della "freccia del tempo"

L'astrofisico D. Layzer, in un suo articolo "La freccia del tempo" (1976), dopo aver accennato all'evoluzione della materia, scrive: "Tutti questi processi hanno qualcosa in comune: generano ordine, ossia informazione, trasformano uno stato semplice in uno più complesso. Per usare un'espressione di Sir Arthur Eddington, indicano in che direzione è orientata la "freccia del tempo", definiscono quella che chiamerò la freccia "storica" del tempo. Paradossalmente è possibile definire la direzione del tempo anche per mezzo di una classe completamente opposta di processi: quelli che distruggono l'informazione e generano disordine".

Come esempio di processo di secondo tipo Layzer cita il dissolversi della zolletta di zucchero in una tazza di tè caldo, e conclude: "I processi irreversibili che distruggono l'informazione macroscopica (nel nostro esempio la diffusione molecolare, la viscosità e la conduzione del calore) sono manifestazioni del secondo principio della termodinamica. Questo principio stabilisce che tutti i processi naturali generano entropia, essendo l'entropia una misura del disordine. La distruzione irreversibile dell'ordine macroscopico  definisce quella che chiamerò freccia "termodinamica" del tempo".

Se i due tipi di processi sono diametralmente opposti, in relazione al concetto di ordine e di informazione, allora tempo storico e tempo termodinamico dovrebbero essere, nella concezione di Layzer, opposti diametrali. In realtà, essi  vanno nella stessa direzione e indicano l'irreversibilità dei processi sia storici che termodinamici. Per quale ragione, allora, distinguere due opposti tipi di processi che seguono due tempi diversi pur nella stessa direzione irreversibile? I concetti di tempo storico e di tempo termodinamico servono a Layzer per mascherare il circolo vizioso secondo il quale, definita l'entropia come misura del disordine, rimane inspiegabile il fatto che la maggior parte dei processi irreversibili della natura si sviluppino nella direzione dell'ordine e della complessità.

Marco Cattaneo e la crisi della teoria scientifica

A Dicembre del 2016, la rivista "Le Scienze" presentava un editoriale di Marco Cattaneo molto più pessimista del solito nei confronti della scienza contemporanea, la quale, ormai, pullula di equipe di scienziati. Basta leggere le seguenti righe per farsene un'idea: "C’era una volta la peer review. Poi è arrivato il publish or perish, perché nella scienza moderna la pubblicazione del proprio lavoro di ricerca è lo strumento d’eccellenza per giudicare il lavoro di uno scienziato, ma anche –o forse soprattutto– la sua reputazione e il suo accesso ai finanziamenti, per i quali si è scatenata una competizione senza precedenti."

Insomma, non è soltanto la caccia ai finanziamenti, ma è la sperimentazione (che fa guadagnare consensi, fama ecc.) a imporsi sulla teoria scientifica. Quindi si sperimenta tutto e non si teorizza niente. I finanziamenti ne sono una conseguenza, perché si sperimenta su tutto ciò che può avere una ricaduta economica.

lunedì 2 ottobre 2017

8] L'entropia impone alla natura l'involuzione dall'ordine al disordine

E' destino del pensiero metafisico interpretare il mondo mediante teorie diametralmente opposte. Così, le opposte concezioni, il determinismo e l'indeterminismo, l'uno fondato sulla necessità e l'altro fondato sul caso, hanno concepito uno svolgimento lineare che privilegia, rispettivamente, l'ordine (la necessità) e il disordine (il caso).

Riguardo al cosmo si sono avvicendate, però, due concezioni che sembrano, a prima vista, non seguire il passaggio o dall'ordine all'ordine o dal disordine al disordine. Il motivo è che se si concepisce uno svolgimento dei processi naturali e sociali che degrada verso il disordine, come fa la termodinamica, si è costretti a immaginare un inizio ordinato. All'opposto, se si concepisce uno svolgimento di quei processi che progrediscono sempre più verso la necessità e l'ordine, come hanno fatto i deterministi dei secoli passati, è inevitabile pensare a un inizio caotico e disordinato.

Ma questo apparente passaggio dell'ordine al disordine o, viceversa, dal disordine all'ordine, è fittizio, perché rappresenta soltanto una faccenda iniziale. Infatti, per gli indeterministi termodinamici, l'ordine iniziale viene meno di colpo perché sostituito da un continuo aumento del disordine; viceversa, per i deterministi, il disordine iniziale viene subito sostituito da un ordine crescente che realizza un progressivo aumento dell'ordine grazie alla connessione di causa ed effetto.

martedì 26 settembre 2017

7] La complicazione di un'idea semplice in Fisica: la crescita dell'entropia

Nel breve saggio "Energia", scritto in collaborazione con I. Stengers, Prigogine sostiene che la perplessità che suscita il concetto termodinamico di "degradazione dell'energia" è spiegabile con "la natura complicata della termodinamica, prodotto di tradizioni intellettuali eterogenee". La nozione di irreversibilità, che è derivata da problemi di rendimento delle macchine, "ha prodotto da un lato la tranquilla efficacia del formalismo dell'equilibrio, e dall'altro una concezione  profondamente nuova dei processi naturali, che trova espressione radicale nell'idea della morte termica dell'universo". Ma, aggiunge Prigogine: "All'origine comune di questa doppia storia ci sono le macchine termiche e la scoperta che la conservazione dell'energia non basta a rendere conto del loro funzionamento".

Clausius concepì il primo principio della termodinamica, o principio della conservazione dell'energia, come compensazione ideale della conversione di calore in lavoro, in riferimento alle macchine termiche. Nella realtà, però, la compensazione non esiste. Clausius trovò allora una relazione tra la  quantità di calore e la temperatura, che chiamò entropia, ed enunciò come secondo principio della termodinamica.

A questo proposito, Prigogine scrive: "Le trasformazioni non ideali subìte da un motore, quelle in cui il calore fluisce verso la sorgente fredda in quantità maggiore di quella imposta dalla relazione di compensazione, appartengono alla classe generale dei "processi irreversibili" produttori di entropia, che conservano l'energia ma sfuggono al bilancio delle conversioni reversibili. L'energia "dissipata" irreversibilmente in calore non è più disponibile per altre conversioni e non può più, in particolare, fornire effetti meccanici utilizzabili".

sabato 23 settembre 2017

6] L'eterno movimento ciclico della materia infinita e la restituzione dell'energia dissipata

L'idea che la materia, nel suo ciclo attuale, partendo da uno stato originario di pura energia termica, si sia evoluta fino alla forma dell'organismo cosciente, è un'idea recente che fatica ad imporsi, ma l'idea che i cicli della materia si rinnovino in perpetuo con quella cieca necessità che ha per fondamento il caso e che, di coseguenza, la coscienza sarà sempre il prodotto più elevato ma di breve durata di ogni ciclo, è un'idea che non viene neppure presa in considerazione.

Poiché non possiamo concepire un'evoluzione che sia soltanto casuale, altrimenti sarebbe il caos eterno, o soltanto necessaria, altrimenti sarebbe predeterminata e affidata a un continuo atto di creazione sovrannaturale, sembra logico presupporre che caso e necessità siano tra loro in rapporto reciproco: non di caso assoluto o di necessità assoluta si può trattare, ma di caso e necessità relativi. Relativi a che cosa? All'unica certezza assoluta: il movimento della materia. Tutto è creato dal movimento della materia. Tutti i processi naturali dipendono dal movimento della materia in tutte le direzioni.

Poiché, inoltre, non possiamo concepire gli infiniti singoli movimenti in altro modo che come casuali, e del resto il caso da solo non può rendere ragione dell'evoluzione della materia, non rimane che concepire un caso originario che si rovesci dialetticamente in necessità, così da creare una polarità caso-necessità dalla quale dipenda l'evoluzione stessa.

martedì 19 settembre 2017

5] Il significato dei concetti di composto e di divisibilità della materia in fisica

Riguardo alla questione dei composti e della divisibilità della materia abbiamo già trattato nella sezione dedicata alla Teoria della conoscenza, raggiungendo il seguente risultato: i concetti di composto e di divisibilità della materia non hanno alcun significato in una concezione evolutiva. Abbiamo, inoltre, visto che nel cosmo esistono due situazioni qualitativamente diverse: gli aggregati di unità già divise (allehit), e i complessi indivisibili (totalitat): i primi che costituiscono, per così dire, la materia prima, o base casuale, per la formazione evolutiva e necessaria dei secondi. In questa parte dedicata alla fisica non ci resta che riprendere il discorso, per mostrare in concreto come sia sorto storicamente l'equivoco del composto e della divisibilità della materia, e perché, ormai, sia arrivato il tempo di deporre questi concetti tra i vecchi arnesi inservibili della storia della scienza.

Se noi consideriamo l'epoca in cui il pensiero scientifico ha concepito la divisibilità della materia e il concetto di composto, il Seicento, possiamo affermare che si trattò di un'epoca dominata dai meccanismi della fisica e dai composti della chimica. Storicamente i primi passi nello studio della materia furono compiuti dai chimici: Boyle introdusse nel 1661 il concetto di "elemento" per sostanze che non potevano essere ulteriormente decomposte. Per i chimici suddividere la materia significava decomporla fino all'elemento chimicamente indivisibile. La materia si presentava, quindi, ai loro occhi, nella forma di composto. La sintesi e l'analisi chimica non potevano procedere oltre la separazione degli atomi e il loro riunirsi in composti molecolari.

domenica 17 settembre 2017

Non chiedetemi come e perché

Non chiedetemi come, ma quest'anno, dopo aver ricevuto più commenti del solito, li ho ignorati per distrazione. Li ho scoperti solo in questi giorni e ho cercato di riparare, ma nella fretta sono incorso in altre distrazioni. 

Comunque, per il futuro, su questo blog usciranno, soprattutto, post tratti da paragrafi di libri (mai pubblicati) che ho scritto a macchina dal 1993 al 2008. Sull'epoca più recente, invece, ho già scritto (e postato) quanto basta per le mie possibilità.

venerdì 15 settembre 2017

4] La soluzione della contraddizione onda-particella

In questo paragrafo approfondiremo l'apparente dualismo onda-particella, per dimostrare che esso riflette una reale contraddizione dialettica, in quanto tale risolvibile. Nel prossimo paragrafo prenderemo in considerazione l'esperimento delle due fenditure come conferma della soluzione del concetto polare onda-particella. A questo scopo utilizzeremo due testi, il primo di Pietro Cardirola "Dalla microfisica alla macrofisica", edito nel 1974; il secondo, molto più recente, di Giancarlo Ghirardi, "Un'occhiata alle carte di Dio", edito nel 1997. Il libro di Cardirola ci servirà per la parte teorica riguardante la soluzione dell'apparente dualismo onda-particella e, nel prossimo paragrafo insieme con il libro di Ghirardi, per l'interpretazione dell'"esperimento delle due fenditure".

Detto per inciso, i dibattiti teorico scientifici erano, negli anni '60-'70, assai più profondi di quelli attuali. I motivi sono vari e non è questa la sede per trattarli. Certamente, l'affossamento del "materialismo dialettico", che ha accompagnato la caduta del preteso "comunismo sovietico", ha tolto dal dibattito qualsiasi residuo di aspirazione dialettica lasciando libero campo al pensiero metafisico. In un libro come quello di Cardirola del 1976, possiamo ancora trovare argomenti dialettici che oggi sono completamente abbandonati all'oblio: come vedremo, si tratta di una dialettica non conseguente, che scivola anche nel suo contrario, ma che permette spunti di riflessione molto più interessanti di quelli che si possono trarre dalle pubblicazioni attuali come quella di Ghirardi.

lunedì 11 settembre 2017

3] La "Dialettica senza dogma" di Havemann

Una concessione all'indeterminismo probabilistico della fisica quantistica

Uno dei pochi studiosi che hanno collegato i concetti di possibilità e realtà al rapporto caso-necessità è stato Havemann, chimico dissidente dell'Est, che ha tentato un'operazione ideologica nei confronti dei fisici quantistici Bohr ed Heisenberg. Il suo tentativo di conciliare determinismo e indeterminismo è sfociato nella fittizia conciliazione del "materialismo dialettico" con il "probabilismo". Interessante è vedere con quali argomenti.

Nella Settima lezione dal titolo "Casualità e necessità", pubblicata in "Dialettica senza dogma" (1965), Havemann parte dalla considerazione che nessun scienziato "negherà il determinismo nel senso che nel mondo dei fenomeni esistono e agiscono leggi, e che noi conosciamo e dimostriamo queste leggi mediante le osservazioni e gli esperimenti scientifici", per dire che "in questo senso gli scienziati sono sempre rimasti deterministi". Ma si chiede: "come si concilia con questo determinismo il concetto di "indeterminismo" che è comparso nella meccanica quantistica?"

Havemann delimita la questione dell'opposizione tra determinismo e indeterminismo riconducendola alla problematica sollevata dal principio di indeterminazione di Heisenberg e dal tentativo di conciliazione di Bohr mediante il concetto di complementarità. Come vedremo, lo studioso dissidente dell'Est accetterà la soluzione conciliatoria di Bohr identificandola con una pretesa "dialettica senza dogma", come il titolo del suo libro .

venerdì 8 settembre 2017

2] Tornando al sofferto determinismo della fisica del Novecento

"La teoria e l'esperienza -scrive Planck- ci costringono dunque a distinguere fondamentalmente, in fisica, fra necessità e probabilità, ed a chiedersi, in presenza di ogni fenomeno che ci parrà regolato da leggi determinate, se si tratti di leggi dinamiche o statistiche". Come si vede, con questa distinzione, si pretende che la natura obbedisca alle esigenze dello scienziato determinista, il quale le impone, arbitrariamente, di obbedire alle proprie dicotomie metafisiche. Ma la confusione, ormai, si tocca con mano: Planck insiste a tenere separati i fenomeni reversibili da quelli irreversibili, nonostante sappia molto bene che soltanto i fenomeni irreversibili sono reali; continua a confondere tra loro la probabilità con la statistica e insiste a parlare di leggi statistiche quando non ha fatto altro che togliere ogni certezza a queste leggi, considerandole leggi di probabilità.

Ormai, all'iniziale distinzione tra il concetto di caso e il concetto di necessità, Planck ha sostituito la distinzione tra probabilità e necessità. Il risultato teorico è il seguente: alla statistica intesa in senso probabilistico è associato il caso, ossia l'incertezza, mentre alle leggi dinamiche continua ad essere associata la necessità, ossia la certezza. Di conseguenza, le leggi statistiche appaiono leggi di casualità, e queste leggi riguarderebbero, però, l'assoluta maggioranza dei fenomeni fisici reali, quelli irreversibili. C'è da stupirsi che i teorici dell'indeterminismo ne abbiano approfittato affermando l'esistenza di sole leggi probabilistiche? Esclamando sconsolato: "perciò il concetto di necessità assoluta verrebbe eliminato dalla fisica", Planck non si era reso conto che tutta la sua elaborazione portava a quella conclusione.

martedì 5 settembre 2017

1] Fisica quantistica. Il rovesciamento del determinismo nell'indeterminismo

Per comprendere come il determinismo si sia rovesciato nel suo opposto, nell'indeterminismo, o, più esattamente, come esso abbia prodotto il suo opposto creando un'antinomia, entro la quale avrebbe oscillato la teoria fisica del '900, prendiamo in considerazione la concezione teorica di uno dei maggiori rappresentanti della fisica quantistica, il suo involontario fondatore: Max Planck.

La concezione di Planck fu inequivocabilmente deterministica, ossia fondata sulla assoluta necessità, garantita dalla connessione di causa ed effetto; ma questo determinismo metafisico dovette fare presto i conti con un'altra concezione altrettanto assoluta e metafisica, fondata sul caso, che scaturì dalle contraddizioni in cui si era avviluppato il determinismo stesso. Dall'inevitabile confronto tra le due concezioni non uscì fuori la reale soluzione del rapporto caso-necessità, ma una soluzione intermedia nell'illusione di fornire ai fisici la possibilità di scegliere, col buon senso, il giusto mezzo, senza però poter evitare che alcuni oscillassero verso il polo della necessità e altri verso quello del caso.

In "Leggi dinamiche e leggi statistiche"** Planck cerca di chiarire quelli che, a suo avviso, sono i metodi con i quali si possono ottenere leggi scientifiche. Punto obbligato della sua riflessione  è la considerazione del rapporto caso-necessità: "Sarebbe un errore -scrive- il credere che nel campo delle scienze della natura le leggi abbiano ovunque un rigore assoluto ed il succedersi dei fenomeni sia sempre necessario e non ammetta eccezioni, che al contrario nel campo dello spirito non si possa seguire un rapporto causale senza imbattersi di tratto in tratto nell'arbitrio o nel caso".

venerdì 1 settembre 2017

Il dispendioso processo di differenziazione cellulare dipende dall'ambiente interno e non da meccanismi programmati*

Ciò che i biologi cellulari conoscono o credono di conoscere delle cellule staminali è il risultato di esperimenti "in vitro" dei quali non esiste alcuna garanzia di conferma "in vivo", ossia all'interno dei tessuti, degli organi e dei sistemi fisiologici dell'organismo animale e umano. Se "in vitro" si riesce in certi casi a far proliferare staminali, quando si tratta di farle differenziare in forme cellulari volute ci si trova di fronte a difficoltà insormontabili. L'illusione di poter ottenere la differenziazione cellulare programmata, voluta, "una volta dato il giusto segnale biochimico" (Milano e Palmerini**) è del resto continuamente smentita dalla pratica sperimentale.

Insomma, fare affidamento sulle solite metafore dell'informazione, dal punto di vista sperimentale, non fornisce alcun risultato pratico. Occorre quindi confidare su qualcosa di più semplice e concreto. Allo stato attuale delle nostre conoscenze, si può solo ipotizzare che il processo di differenziazione cellulare inizi da cellule staminali tra loro indistinguibili, le quali cominciano a "distinguersi" soltanto quando l'ambiente interno si modifica, dividendosi in endoderma, ectoderma e mesoderma.

Insomma, l'embrione subisce una scissione che ricrea tre distinte colonie di cellule staminali identiche (che in seguito, a loro volta, si scinderanno in altre colonie). L'ontogenesi ancora una volta ricapitola la filogenesi: ossia quell'evoluzione che, a partire dagli organismi unicellulari, diede luogo, prima a semplici colonie di unicellulari, poi a organismi "pluricoloniali" (che poco correttamente continuiamo a chiamare "pluricellulari").

mercoledì 30 agosto 2017

Le cellule e l'ambiente interno: un dispendioso processo

"Le Scienze"19 luglio 2017

"Come fanno le cellule a percepire il loro ambiente


Per differenziarsi e rispondere correttamente all'ambiente circostante, le cellule dei diversi tessuti e organi, pur essendo immerse nella rete di fibre della matrice extracellulare, devono potersi muovere almeno un po' e cambiare forma. La scoperta contribuirà a comprendere come fanno le cellule tumorali a colonizzare tessuti diversi da quelli in cui si sono sviluppate.

Per ottenere dall’ambiente circostante le informazioni necessarie a un corretto funzionamento, le cellule del corpo devono poter compiere piccoli movimenti e cambiare forma. A scoprirlo sono stati ricercatori del Lewis-Sigler Institute for Integrative Genomics a Princeton, dell’Università Ludwig-Maximilians a Monaco di Baviera e della Harvard University che firmano un articolo su “Nature Communications”.


Ma che cosa avrebbero scoperto di diverso, rispetto all'ipotesi dell'autore di questo blog, secondo la quale è l'ambiente a condizionare determinati tipi cellulari? Vediamo:

lunedì 28 agosto 2017

10) Il meccanicismo teleonomico della biologia molecolare nasconde la soluzione statistica dell'immunologia

E' sempre capitato a ogni nuova disciplina della scienza della natura che, invece, di arrivare a comprendere il movimento reale si ripetano da capo le solite baggianate. E' successo all'immunologia ed è accaduto alla biologia molecolare: si tratta sempre delle solite baggianate meccanicistiche riduzionistiche: se l'immmunologia, di primo acchitto, ignorò il caso e pretese riduzionisticamente che ogni antigene istruisse ogni cellula linfoide secondo il principio della specificità immunologica, la biologia molecolare non fu da meno stabilendo il principio della replicazione esatta del DNA, intesa come assoluta corrispondenza tra sequenze di DNA e geni codificanti. E neppure la scoperta delle sequenze "non codificanti" ha modificato il modo di concepire il processo DNA-RNA-proteine.

Ma, mentre i biologi molecolari hanno considerato strane e paradossali le deviazioni dai princìpi che essi avevano stabilito, gli immunologi hanno dovuto riconoscere un fenomeno inatteso: l'estrema variabilità sia delle cellule linfoidi che dei loro prodotti immunoglobulinici. Perciò, hanno dovuto ammettere che il fenomeno era comprensibile soltanto in termini statistici. Ma la constatazionr di un fatto non significa ancora giusta interpretazione: così, invece di attribuire la variabilità al cieco caso relativo ai miliardi di singoli elementi in gioco, la maggioranza degli immunologi si sono intestarditi a cercare meccanismi finalistici, pretendendo identificarli in ogni singolo momento del processo.

sabato 26 agosto 2017

9) La soluzione statistica e l'incomprensione del rapporto caso-necessità nella "nuova immunologia"

Nel 1986 usciva, per le Edizioni "Le Scienze", una pubblicazione dedicata al recente sviluppo dell'immunologia. Il curatore, Franco Celada, riassumendo nel primo scritto del testo* l'evoluzione della teoria immunologica, scriveva: "Con una procedura tipicamente darwiniana si ottiene pertanto un risultato che può apparire dettato da richieste teleologiche: un buon esempio di ciò che Monod nel suo Il Caso e la Necessità ha chiamato "teleonomia".

Affermazione questa che, ancora una volta, dimostra la capitolazione dell'ennesima branca della scienza della natura di fronte all'incompreso rapporto caso-necessità. Come abbiamo già mostrato, non solo Monod non ha contribuito a risolvere il suddetto rapporto, ma lo ha eluso introducendo un termine fuorviante tratto dall'informatica: la teleonomia. Poiché abbiamo già trattato a fondo questo aspetto, qui ci limiteremo a verificarne le conseguenze negative nel campo dell'immunologia.

Celada, dopo aver invocato la teleonomia, sottolinea i grandi numeri degli elementi cellulari e molecolari che partecipano ai processi immunitari. Ai dati che abbiamo già considerato, egli aggiunge, mettendolo in risalto, il ritmo del ricambio cellulare: 10 alla 7 nuove cellule al minuto, che testimonia un gigantesco dispendio. Questo dato può essere espresso anche nel modo seguente: in poco più di un mese il ricambio equivale ai mille miliardi di cellule linfoidi presenti in media nell'organismo umano.

giovedì 24 agosto 2017

8) Il principale contrassegno del processo immunitario: l'involuzione delle cellule linfoidi

Dall'articolo di Milstein*, pubblicato su "Science" del 1985, si possono trovare sufficienti elementi per una interpretazione realistica della formazione dei linfociti B, che rappresentano le cellule anticorpali del sistema immunitario. I biologi hanno potuto fornire agli immunologi le basi per venire a capo del processo immunitario, quando hanno scoperto la struttura del genoma delle cellule linfoidi grazie al metodo del DNA ricombinante. Ma, nel cercare di venirne a capo, gli immunologi non sono stati capaci di comprenderlo teoricamente, perché fuorviati dalla "nuova immunologia" fondata sul concetto fittizio di riconoscimento-informazione.

Occorre, perciò, reinterpretare in termini dialettici le conclusioni della "nuova immunologia", ponendo il caso dove per gli immunologi c'è un meccanismo, un'informazione, ecc. Si tratta, inoltre, di mostrare il paradosso apparente per cui il sistema immunitario, che può essere considerato un prodotto maturo dell'evoluzione, e perciò un progresso evolutivo, dipende da trasformazioni di cellule staminali in cellule linfoidi che rappresentano una decisa involuzione, un vero e proprio ritorno ai primordi; ma sono proprio i caratteri arcaici di queste cellule che permettono il processo immunitario  negli organismi pluricellulari evoluti. Come abbiamo già dimostrato nella precedente sezione, l'evoluzione del "tutto" è prodotta dall'involuzione delle sue "parti".

martedì 22 agosto 2017

7) Pioggia di meccanismi sull'immunologia

Nel breve saggio di Edelman, "Il problema del riconoscimento molecolare mediante un sistema selettivo", pubblicato nel 1974, viene ripercorsa la storia del pensiero immunologico dal punto di vista meccanicistico. Mentre, come abbiamo visto, il termine di "meccanismo" si insinuò all'inizio timidamente fra i termini classici di "processo", "fenomeno", "sistema", a cominciare dagli anni settanta i meccanismi precipitarono a pioggia sulla Immunologia. Basta sfogliare il ponderoso volume "Microbiologia" (autori: Davis, Dulbecco, Eisen e Ginsburg), per rendersi conto del fenomeno: in ogni pagina, almeno, una mezza dozzina di meccanismi.

Secondo Edelman: "Nell'ultimo decennio, l'immunologia è stata profondamente modificata da due trasformazioni fondamentali: la teoria della selezione clonale e l'analisi chimica della struttura degli anticorpi. In conseguenza di queste trasformazioni, è diventato chiaro che il problema centrale dell'immunologia è quello di comprendere, da un punto di vista quantitativo, il meccanismo del riconoscimento selettivo molecolare".

Se proprio vogliamo precisare, il processo della selezione clonale è stato trasformato in meccanismo e questo, a sua volta, è stato definito meccanismo del riconoscimento selettivo. Essendo, però, il processo immunitario qualcosa di molto complicato che coinvolge grandi numeri di cellule e molecole, il meccanismo si è sbriciolato in un numero interminabile di minuti meccanismi, dove non si vede la fine. Ma ciò che complica la faccenda del riconoscimento è il fatto che un numero enorme di strutture chimiche dovrebbero essere riconosciute in maniera specifica da un numero altrettanto enorme di anticorpi casualmente differenti tra loro.

domenica 20 agosto 2017

6) Un tentativo non riuscito della nuova immunologia

Di fronte all'immenso groviglio dei fenomeni immunitari, inestricabili per il meccanicismo riduzionistico della "nuova immunologia", Jerne* propose, in analogia col sistema nervoso, di considerare il sistema immunitario come rete di interazioni multicellulari, formulando però uno schema eccessivamente macchinoso che non prenderemo in considerazione, limitandoci a considerare alcune sue idee rilevanti. Questa proposta fu presentata in uno scritto pubblicato nel 1974 con il titolo "Verso una teoria del sistema immunitario come rete di interazioni".

Secondo Jerne, gli anni Settanta erano ancora caratterizzati dalla teoria selettiva cellulare, anche se prevedeva che, nel periodo 1970-1990, le teorie immunologiche sarebbero state di tipo multicellulare: i tentativi di affrontare le interazioni fra i linfociti B e T rappresentavano, infatti, la fase iniziale del nuovo corso dell'Immunologia. "Anche se la ricerca continuerà a occuparsi di meccanismi di funzionamento ai livelli subcellulare e intercellulare, penso -scriveva Jerne- che una crescente attenzione sarà rivolta all'analisi strutturale dell'intero sistema immunitario".

A mio avviso, egli era consapevole del fatto che l'analisi riduzionistica dei più minuti meccanismi era meno valida dell'analisi dell'intero sistema immunitario; ma la sua soluzione, fondata sulla "rete di interazioni", non ruppe affatto con il riduzionismo, anzi lo rafforzò nel senso della ricerca minuta delle singole interazioni. La situazione era complicata anche dalle contraddizioni createsi dalla compresenza di due diverse teorie immunologiche antitetiche: quella "selettiva" e quella "istruttiva". Come conciliare la programmazione "istruttiva" delle cellule con le loro mutazioni "selettive"?

venerdì 18 agosto 2017

5) Dal fittizio riconoscimento immunologico alla pretesa selezione del programma

Nello scritto "Linfociti T e B e le risposte immunitarie", uscito nei 1973, Raff* affermò: "Il dogma centrale dell'immunologia è la teoria della selezione clonale, la quale sostiene che, in qualche fase dell'ontogenesi e indipendentemente dall'antigene, singoli linfociti (o cloni di linfociti) diventano programmati per rispondere a uno o a un numero relativamente piccolo di antigeni. Essi manifestano questo programma mediante l'espressione, sulla loro superficie, di recettori per l'antigene. Così, quando un antigene penetra nell'organismo seleziona quei linfociti che hanno già i recettori per l'antigene sulla loro superficie. L'interazione dell'antigene con il suo recettore provoca l'attivazione delle cellule specifiche per quell'antigene".

Qui è chiara l'influenza dell'Informatica: la complessa e dispendiosa realtà biologica viene ridotta convenzionalmente all'attività di un programma. Se Darwin aveva paragonato la selezione naturale alla selezione operata dagli allevatori, qui la selezione clonale dei linfociti viene paragonata all'informazione programmata, tipica dei calcolatori. Ma l'informazione dei processi naturali immunologici, concepita come raffinata evoluzione della teoria della conoscenza, rappresenta, invece, un ritorno indietro: una involuzione meccanicistica.

mercoledì 16 agosto 2017

4) La convenzionale teoria immunologica della selezione dell'informazione

Si può senz'altro sostenere che negli anni '60 la teoria immunologica, sulla base del concetto cibernetico di informazione, ha reinterpretato la selezione darwiniana nei termini di selezione dell'informazione immunologica. Per comprendere questa soluzione teorica convenzionale, prenderemo in esame lo scritto di Burnet*, "Il riconoscimento immunologico del sé", pubblicato nel 1960.

"Nel mio discorso -scrive l'autore- affronterò sostanzialmente un solo problema. Come fa l'organismo di un vertebrato a distinguere -in senso immunologico- ciò che gli è proprio (self), da ciò che gli è estraneo (non-self) e come si sviluppa questa capacità". E' questo un problema fittizio che poteva sorgere, soltanto, nella mente di chi non era in grado di comprendere che ogni organismo è inconsapevole dei miliardi di eventi che avvengono in se stesso e che perciò sfuggono completamente al suo controllo.

Burnet si chiede: "Come può un animale immunizzato riconoscere la differenza tra un materiale iniettato, come l'insulina o l'albumina serica proveniente da un'altra specie, e la propria corrispondente sostanza?" E risponde: "Chiaramente si tratta di un problema d'informazione". Pare ovvio che se, per convenzione, si concepisce un problema di riconoscimento, esso sarà per forza un problema d'informazione, perché i due concetti si sostengono a vicenda.

domenica 13 agosto 2017

3) L'involuzione della teoria immunologica

Nel 1959 usciva uno scritto di Lederberger* che rappresenta il passaggio dal momento più alto della teoria immunologica (ancora sospesa tra la nuova concezione della selezione naturale e la vecchia concezione istruttivista) alla sua involuzione. Esaminando questo scritto avremo modo di comprendere il successivo sviluppo meccanicistico-convenzionale dell'immunologia, che, per uno strano scherzo del destino, subirà la stessa sorte dell'oggetto che studiava: quella che sembrava essere una evoluzione era, invece, il chiaro segno di un processo involutivo. E' ciò che ci proponiamo di dimostrare analizzando il carattere involutivo della cellule immunitarie e l'involuzione della teoria immunologica.

Scriveva Lederberger: "Un anticorpo è una globulina che compare nel siero di un organismo animale in seguito all'introduzione di una sostanza, l'antigene. Ciascuna delle numerose globuline reagisce spontaneamente con un particolare antigene. Lo scopo di questo lavoro è la formulazione di un meccanismo plausibile per spiegare il ruolo dell'antigene nell'induzione della sintesi di grandi quantità di una globulina specifica a esso complementare. Un elemento importante di ogni teoria della formazione degli anticorpi è l'interpretazione che essa fornisce del riconoscimento del sè, ovvero dei modi in cui l'organismo distingue i propri costituenti dalle sostanze estranee, le quali sono stimoli efficaci della risposta immunitaria".

Come si vede, se la formazione delle globuline è ritenuta ancora casuale e apparentemente non costituisce un problema, sorge, invece, il problema dell'induzione da parte dell'antigene alla sintesi di molti anticorpi specifici, che l'autore si propone di risolvere formulando un meccanismo plausibile fondato su un nuovo concetto di tipo istruttivo: il cosiddetto riconoscimento del sé. Il meccanismo plausibile altro non è, però, che una soluzione convenzionale, così come sono convenzionali tutti i termini che abbiamo posto  in grassetto.

venerdì 11 agosto 2017

2) Prime teorie sulla formazione degli anticorpi

Ancor prima della scoperta delle cellule linfocitarie, gli immunologi poterono fondare le proprie teorie soltanto sull'osservazione della reazione anticorpale. Inizialmente, s'imposero le teorie dello stampo antigenico, dette anche teorie informative o istruttive, che furono successivamente soppiantate dalle teorie selezioniste o selettive. Partendo dall'osservazione della specificità stereochimica, le prime teorie giunsero fino a supporre una perfetta specificità anticorpo-antigene, che venne visualizzata con l'immagine della chiave e della serratura.

Il principale esponente di questa concezione, Linus Pauling, era un estimatore della teoria dei quanti che introdusse nella biochimica. La sua visione riduzionistica e meccanicistica derivava proprio della fisica, come conferma il seguente brano tratto da un suo scritto del 1948*: "Vi sono ormai prove abbastanza convincenti che la specificità del potere di combinazione degli anticorpi può essere spiegata in termini di forze a breve raggio d'azione di natura sconosciuta, derivando, la specificità stessa, dalla complementarità di struttura della regione di combinazione dell'anticorpo e della superficie dell'antigene omologo. Non è impossibile che si possa spiegare in maniera simile la specificità biologica in generale, come conseguenza delle ordinarie forze specifiche, forze a breve raggio, che operano fra tutte le molecole".

Sebbene, all'inizio del saggio, Pauling scrivesse: "Progressi rilevanti sono stati effettuati recentemente nell'affrontare il problema che riguarda la natura delle forze biologiche specifiche e anche la questione, strettamente connessa, del meccanismo di produzione delle molecole biologiche complesse dotate di proprietà specifiche", il termine "meccanismo" non aveva ancora soppiantato nella sua prosa il termine "processo", come si può osservare nella seguente esposizione della teoria dello stampo: "Questa teoria della struttura del processo di formazione degli anticorpi si basa su due concetti fondamentali: a) che le forze di legame fra un anticorpo e il suo antigene omologo sono le normali forze a breve raggio d'azione, le quali, come sappiamo, intervengono tra le molecole più semplici; b) che la grande specificità è conseguenza di una precisa "complementarità, nella configurazione, che si estende sopra una superficie notevole della molecola di antigene e sulla corrispondente zona di combinazione della molecola di anticorpo".

giovedì 10 agosto 2017

1) Immunologia: vecchie intuizioni e idee da riconsiderare*

Lo scopo della nostra indagine è quello di ripercorrere la nascita e lo sviluppo delle principali teorie immunologiche, inizialmente fondate su intuizioni e idee spesso soltanto contingenti, ma talvolta profonde, sebbene viziate dall'abituale mancanza di dialettica. A un iniziale periodo caratterizzato da uno sviluppo teorico di elevato livello, fondato su limitate osservazioni sperimentali, fece seguito una fase, che dura ancora oggi, di piatto meccanicismo, con la formulazione di una terminologia puramente convenzionale, incapace di riflettere una realtà che l'abbondante messe di osservazioni sperimentali mostra sempre più aggrovigliata e complessa.

Se i primi teorici dell'immunologia cercavano faticosamente di spiegare l'oggetto della loro indagine, prima ancora d'essere in grado di descriverlo, i teorici più recenti, che hanno fin troppo materiale da descrivere, lo riducono a meccanismo credendo, in questo modo, di spiegarlo. Il loro limite consiste proprio in ciò, che pretendono ridurre una realtà aggrovigliata e complessa, come il sistema immunitario, a un insieme di meccanismi giustapposti, dimenticando, in questa operazione, vecchie intuizioni  e idee che andrebbero, invece, riconsiderate.

lunedì 7 agosto 2017

Il fenomeno chimico chiamato catalisi

Mentre l'"affinità chimica" e il "legame" sono termini sorti come idee generiche, imprecisate, per rendere ragione  delle combinazioni molecolari della chimica, la "catalisi" riguarda un fenomeno specifico: l'accelerazione di certe reazioni chimiche. Nel primo caso la difficoltà consiste nel fatto che il nome indica qualcosa di convenzionale per spiegare fenomeni reali, nel secondo la difficoltà non è nel nome, ma nel fenomeno stesso.

"Come rilevò Ostwald nel 1909, "prima della creazione della teoria della velocità di reazione non era possibile ricavare conclusioni utili sulla catalisi, dato che questa consiste nel cambiamento della velocità delle reazioni chimiche a seguito della presenza di sostanze che non figurano nei prodotti finali delle reazioni stesse"."* Si trattava, quindi, di rendere conto della peculiarità delle reazioni catalitiche: in parole povere, come avviene questo mutamento di velocità per la presenza di sostanze, dette catalitiche?

Per lo studio della catalisi, occorse l'introduzione in chimica del concetto di tempo che permise il nascere della cinetica chimica. Berzelius interpretò per primo il fenomeno catalitico  come manifestazione delle reazioni elettrochimiche della materia: egli "chiamò forza catalitica "la causa dell'azione chimica e richiamò l'attenzione sulle "migliaia di reazioni catalitiche che si svolgono negli organismi"."

sabato 5 agosto 2017

I concetti convenzionali di legame e di affinità chimica

Il termine di legame è il più usato in ogni campo della conoscenza umana, dalla fisica alla chimica, alla biologia molecolare, fino alla sociologia e alla storia economica, politica e militare. Il senso comune ha sempre concepito il legame in se stesso come qualcosa che tiene unito ciò che senza di esso sarebbe separato. Così, ogni complesso, a partire dall'atomo alla molecola, ecc. è concepito come un composto le cui parti componenti sono tenute insieme da un legame. In fisica questo legame ha sempre preso il nome di forza. Per il senso comune la forza lega ciò che altrimenti sarebbe libero e separato.

Abbiamo già criticato l'uso di questo significato di legame in fisica osservando che, convenzionalmente, si chiama legame, nel senso comune del termine, ciò che tiene unito, ad esempio, un atomo, mentre non si osserva nulla che "leghi", bensì, semplicemente,  una certa quantità di energia mancante: il difetto di massa. Poiché è questa mancanza di energia che "lega", il "legame" sembra essere nient'altro che una privazione.

mercoledì 2 agosto 2017

La biochimica al servizio della biologia molecolare

La biologia molecolare, seppure fondata sulla discutibile teoria del codice genetico, non avrebbe potuto fare un solo passo avanti se non avesse avuto al proprio servizio la biochimica. E' quest'ultima che ha fornito strumenti d'indagine, sperimentazioni e risultati alla biologia molecolare, indagando in vario modo le macromolecole della vita: principalmente proteine (enzimi), acidi nucleici e i loro costituenti, rispettivamente: aminoacidi e nucleotidi.

Paradossalmente, la biochimica ha rovesciato la metodologia della chimica, perché, se quest'ultima, nelle sue sperimentazioni, ha dovuto fornire energia, riscaldando, la prima ha dovuto togliere energia, raffreddando, per poter indagare le macromolecole nella forma di cristalli. "Le operazioni tipiche della chimica consistono nel mescolare e nel riscaldare, quelle della biochimica consistono nel raffreddare e purificare".*

Strano paradosso questo, che si è potuta affrontare la difficile questione dei processi molecolari della vita solo nella forma più lontana dalla vita stessa: la forma cristallina. Ora, quando si riduce una macromolecola allo stato di cristallo, non solo non si ha più a che fare con la stessa molecola allo stato vivente, ma la si isola come un fotogramma istantaneo di una lunga e complessa sequenza: è l'istante bloccato di un movimento caotico, è l'ordine apparente estorto al disordine reale. Come abbiamo visto con la scoperta della doppia elica del DNA, raccontata da uno dei suoi autori, Watson, l'ordine cristallino era proprio ciò che ci voleva per la questione del DNA nei termini del determinismo riduzionistico.

lunedì 31 luglio 2017

Caso e necessità da Monod a Boniolo: di male in peggio!

Nel Capitolo 8 del libro "Filosofia e scienza della vita" (2008), scritto a più mani dal professor Boniolo e dai suoi allievi-assistenti, il principale autore affronta il tema "Monod e il caso e la necessità". Partendo dalla convinzione che Monod non abbia chiarito a fondo la questione del rapporto caso-necessità, Boniolo la prende molto alla larga partendo da Galileo. Ma nel criticare, a mia volta, la sua incomprensione dei rapporti di causa-effetto e di caso-necessità, mi limiterò ai tempi nostri, prendendo subito in considerazione il suo formalismo.

Al punto 1), dopo aver preso in considerazione i sistemi deterministici, Boniolo afferma: "Quando accade che non riusciamo a determinare univocamente l'evoluzione di un sistema siamo di fronte a un sistema non deterministico, ossia a un sistema probabilistico". Si tratta della probabilità laplaciana, conseguente la nostra ignoranza a determinare un sistema, ecc. Ma poi si chiede: "E il caso?" La sua risposta è un modo molto sofistico di sbarazzarsi del problema: "Non esiste il caso a livello di rappresentazione scientifica, sebbene possa esistere a livello metafisico (?!)"

Una simile risposta, persino in corsivo, sembra qualificare il nostro autore come un determinista assoluto che respinge il caso alla maniera degli antichi greci. Ma, poi, egli sembra concedere una chance al caso: "Senza addentrarci in questioni metafisiche, per evitare ogni problema (sic!) è sufficiente essere un pò cauti (!) e affermare che la scienza ci parla anche di eventi casuali e, di conseguenza, anche di processi casuali. Con questo s'intende che ci sono eventi la cui realizzazione è legata a cause che, per qualche motivo, sono indeterminate o indeterminabili (!), ma che tuttavia possono essere trattati con leggi di probabilità. Ne segue che, se proprio si volesse parlare di leggi del caso, dovremmo intendere leggi di probabilità'".

domenica 30 luglio 2017

La teoria sintetica o pretesa terza via di Ernst Mayr

Le incomprese polarità singolo-complesso e caso-necessità in biologia 

Abbiamo avuto modo di considerare il pensiero di Ernst Mayr quando abbiamo trattato la concezione teleonomica. Prima di riassumere la soluzione che egli pretese d'aver trovato con la sua Teoria Sintetica, cerchiamo di riassumere i termini dell'intera questione. Il concetto principale è l'evoluzione, l'oggetto della evoluzione è la specie. La specie è costituita da individui che variano; quindi, abbiamo delle variazioni o, in termini più attuali, delle mutazioni genetiche.

La questione principale è la seguente: come avviene l'evoluzione delle specie? Darwin ha cercato di spiegare l'evoluzione con il concetto di selezione naturale. In che cosa consiste la selezione naturale? La risposta a questa domanda comporta una serie di problemi di interpretazione.

1° problema: la selezione, secondo Darwin, significa in senso deterministico la sopravvivenza del più adatto. Ma Darwin ha fornito anche una versione indeterministica: la maggiore probabilità di sopravvivenza del più adatto. Affermare che il più adatto ha maggiore probabilità di sopravvivere non significa certezza di sopravvivenza individuale.

giovedì 27 luglio 2017

Gli equivoci dell'evoluzione biologica guidata dalla selezione naturale

Un altro importante biologo, il genetista Theodosius Dobzhansky, è intervenuto nel dibattito teorico sulla determinazione dell'ordine e della necessità biologica, sollevato dalla constatazione che i geni mutano casualmente. In ordine di tempo, Dobzhansky ha anticipato i contributi di Monod, Jacob e Luria. Con il suo libro, "L'evoluzione della specie umana", uscito nel 1962, egli è stato tra i primi a teorizzare attorno all'evoluzione biologica, alla selezione naturale e al rapporto caso-necessità in biologia.

Sebbene le sue riflessioni abbiano avuto come oggetto specifico l'evoluzione dell'uomo, i risultati che ha ritenuto d'aver raggiunto non possono essere ascritti alla sola specie umana. Il suo intendimento universale è, del resto, espresso chiaramente nella citazione dell'opera di Teilhard de Chardin come "un tentativo incoraggiante di tratteggiare una filosofia ottimistica dell'evoluzione, biologica e umana".

Punto di partenza per Dobzhansky è l'osservazione che è "solo dovuto al caso che un figlio erediti certi o certi altri geni dai genitori; ed è un evento addirittura fortuito che ne erediti da antenati a parecchie generazioni di distanza". "Quali geni saranno trasmessi parecchie volte e quali mai devesi, a questo punto, ascrivere al caso, e al caso soltanto".

lunedì 24 luglio 2017

I limiti naturali della "clonazione"

Con il seguente, breve, paragrafo concludevo il saggio pubblicato nell'estate del 2009 con il titolo di "Chi ha frainteso Darwin?" Vale la pena di riproporlo nel blog perché può spiegare, in parte, il motivo per cui, da tempo, la clonazione sembra che sia sparita dalla circolazione.

"Ciò che abbiamo stabilito nel terzo volume (Biologia) sulla clonazione è servito a farci un'idea dell'assurda pretesa umana di poter clonare animali superiori e persino esseri umani, secondo un progetto voluto, finalizzato e preordinato. Sembra proprio che l'uomo, dopo aver per millenni proiettato se stesso in cielo, ingigantendo le proprie attitudini per attribuirle a divinità superiori, se ne voglia oggi riappropriare immaginando di poter fare tutto grazie ai propri progressi tecnologici. Clonazione, prolungamento della vita in eterno, ecc.: ecco come l'uomo sembra volersi riappropriare delle doti divine per poter affermare finalmente: io sono dio! Peccato che la natura ogni volta gli ricordi quanto dispendio le occorra per poter fare qualcosa in campo biologico.

domenica 23 luglio 2017

Sulle origini della vita

Il paragrafo che segue introduce il mio breve saggio, pubblicato nell'estate del 2009, dal titolo "Chi ha frainteso Darwin?" Vale la pena di riproporlo perché chiarisce la realtà dell'origine della vita nella Terra come conseguenza della dialettica caso-necessità della evoluzione della materia nel cosmo.

"Sulle origini della vita

E' un errore di metodo ritenere di poter risolvere la questione della evoluzione della materia alla forma vivente, previo accordo sul principale contrassegno della vita. E' un limitato modo di pensare quello che imposta la questione delle origini della vita chiedendosi quale sia la prima manifestazione della materia che possa essere ritenuta vivente e stabilire il primo gradino della vita individuando il primo essere vivente.

Ciò che chiamiamo vita è una fase del processo della evoluzione della materia. E noi siamo ancora molto lontani dal riflettere realmente il processo evolutivo della materia alla forma vivente, anche perché ci manca ancora la riflessione del reale processo evolutivo della materia non vivente. Si tratta principalmente del processo di evoluzione molecolare, a partire dagli atomi. L'evoluzione dagli atomi alle molecole dà luogo a quei processi chimici che, su un terreno fertile come il nostro pianeta, rappresentano una fase della evoluzione delle forme materiali fino alla forma vivente.
Related Posts Plugin for WordPress, Blogger...