sabato 31 maggio 2014

II] La necessità di Democrito e il caso di Epicuro nell'indagine del giovane Marx

(Continuazione) E' a questo punto che il giovane Marx individua la vera questione fondamentale -ancora oggi irrisolta nella filosofia ufficiale- della teoria della conoscenza: l'atteggiamento del pensiero umano nei confronti dei concetti di caso e di necessità. A questo proposito egli scrive: "Democrito adopera come forma di riflessione della realtà la necessità. Aristotele dice di lui che egli riconduceva ogni cosa alla necessità. Diogene Laerzio riferisce che il vortice degli atomi, da cui ogni cosa origina, è la necessità democritea". Seguendo i vari autori, Marx giunge alla conclusione che Democrito concepiva "la sostanza di questa necessità" nel respingersi degli atomi e nel movimento e nell'urto della materia. La sua dottrina, anche secondo Aristotele, respingeva il caso.

"Al contrario Epicuro [che afferma]: "la necessità, che da alcuni è introdotta come dominatrice di tutte le cose, non lo è; bensì alcune cose sono casuali, altre dipendono dal nostro arbitrio. La necessità non si può persuadere, e il caso d'altra parte è instabile. Sarebbe meglio seguire il mito degli dèi che essere schiavi del determinismo dei fisici. Quello infatti lascia adito alla speranza della misericordia se rendiamo onore agli dèi, questo è invece necessità inesorabile. Ma è il caso, e non Dio, come crede la moltitudine, che bisogna ammettere". "E' una sventura vivere nella necessità, ma vivere nella necessità non è una necessità. Ovunque sono aperte le vie verso la libertà, molte, brevi, facili. Ringraziamo dunque dio per il fatto che nessuno può essere trattenuto a forza in vita. Domare la necessità stessa è consentito". E di nuovo Marx: "Qualcosa di simile dice l'epicureo Velleio in Cicerone a proposito della filosofia stoica: "Qual conto si deve fare di una filosofia alla quale, come a donnette vecchie ed ignoranti, tutto sembra avvenire per opera del fato?... per merito di Epicuro siamo stati redenti, posti in libertà"."

I] La necessità di Democrito e il caso di Epicuro nell'indagine del giovane Marx

Il saggio che Karl Marx scrisse per conseguire il dottorato in filosofia merita d'essere preso in seria considerazione perché d'importanza fondamentale per la teoria della conoscenza. L'argomento è noto. Si tratta, come indica il titolo, della differenza tra la filosofia di Democrito e quella di Epicuro. Ma, essendo il primo lavoro teorico di un giovanissimo ventitreenne, ancora alle prese con l'idealismo hegeliano, esso è stato trascurato e considerato più come una curiosità (anche per quella preferenza verso Epicuro che generalmente gli viene attribuita) che come un serio contributo teorico.

Il biografo ufficiale di Marx, Franz Mehring*, ha scritto: "Era nello stile di Marx, e lo è rimasto fino alla fine della sua vita, che la insaziabile brama di sapere lo costringesse ad affrontare rapidamente i problemi più difficili, e che d'altra parte l'inesauribile autocritica gli impedisse di venirne altrettanto rapidamente a capo". Ciò vale anche per questo primo saggio, nel senso che egli affrontò la più difficile questione di teoria della conoscenza: quella della opposizione tra il caso e la necessità.

venerdì 30 maggio 2014

L'eterno ritorno di Nietzsche: l'esaltazione dell'eterna esistenza individuale

L'egocentrismo smisurato di Nietzsche era talmente ostile al caso individuale da non lasciargli, nella sua concezione dell'eterno ritorno, neppure un pertugio. Ciò che rimane è la più assoluta necessità, e in una forma così estrema che nessuna religione è mai riuscita a concepire e nessuna scienza a pretendere.

"Qualunque stato questo mondo possa raggiungere, esso deve averlo già raggiunto, e non solo una volta, ma innumerevoli volte. Così pure il momento presente: esso è già esistito una e molte volte, e così ritornerà, e tutte le forze saranno esattamente ripartite come sono ora: e lo stesso si deve dire del momento che generò il momento presente e di quello che è figlio del momento presente. Uomo! l'intera tua vita si svolgerà sempre come una clessidra e scorrerà sempre di nuovo, -passerà un grande minuto di tempo e poi tutte le condizioni dalle quali tu sei divenuto ritorneranno insieme nella circolazione del mondo. E allora tu ritroverai ogni dolore e ogni gioia...", fino a che a tutti sorgerà "il formidabile pensiero, quello dell'eterno ritorno di tutte le cose: -ogni volta è quella per l'umanità l'ora del Mezzogiorno".

Se questa, in sintesi, è la teoria dell'"eterno ritorno", occorre domandarsi: chi è l'uomo a cui si rivolge l'autore? La specie umana nel suo complesso o i singoli uomini? La specie umana è per Nietzsche niente di più che un armento, e il fatto che "con la morale l'individuo viene indirizzato a essere funzione dell'armento", ossia elemento della sua conservazione, significa solo che l'individuo sociale non conta nulla, che "la sua moralità è l'istinto dell'armento".

La gaia scienza di Nietzsche: il rifiuto dell'effimera esistenza individuale

Nonostante Nietzsche rappresenti un caso estremo della filosofia tedesca della seconda metà dell'Ottocento, caso unico nel suo genere -e, in quanto tale, poco rilevante per la reale teoria della conoscenza-, eppure, paradossalmente, egli ha intuìto la legge del dispendio, ed è soprattutto per questo motivo che lo prendiamo in considerazione.

Per un filosofo "nato e cresciuto in un'atmosfera di rigida pietà, nella casa del padre, pastore evangelico"*, con una propensione verso il mito del superuomo, -compensazione psicologica di una personale debolezza dovuta a una eccessiva sensibilità fisica e nervosa- l'intuizione del carattere effimero della maggior parte delle cose, per cui l'ordine dell'universo, come quello della vita, è soltanto l'eccezione di un grande dispendio, non poteva che produrre sconvolgimento.

Per capire il personaggio può bastare questa lettera scritta a un amico nel 1881: "Ah, amico, talvolta mi passa per la testa il presentimento di vivere una vita estremamente pericolosa, perché io sono uno di quegli uomini che possono scoppiare! Le intensità del mio sentimento mi fanno rabbrividire e ridere -già un paio di volte io non potei lasciare la camera per il ridicolo motivo che i mei occhi erano infiammati- perché? Perché ciascuna volta io avevo nelle mie passeggiate il giorno prima pianto troppo, non già lacrime sentimentali, ma lacrime di gioia, io cantavo e dicevo cose assurde, pieno di nuovo sguardo che io possiedo a preferenza di tutti gli uomini..."

martedì 27 maggio 2014

Il fato di Plutarco subordinato alla divina provvidenza

Prendiamo in considerazione "Il fato e la superstizione", opera nella quale Plutarco compie la sua ricerca sull'essenza del fato in relazione alla necessità. Già nell'introduzione, dopo aver detto che, nella "Repubblica", Platone ha definito il fato "quale espressione di Lachesi, figlia della necessità", osserva: "nell'esporre il suo pensiero, Platone si esprime proprio in termini teologici. Volendo semplificare e rendere questa definizione in un linguaggio corrente, possiamo dire che il Fato, in quanto al Fedro, è "una legge divina inviolabile", perché precede da una causa di cui niente e nessuno può intralciare gli effetti", quanto al Timeo, è "una legge conforme alla natura dell'universo, la quale regola il corso di tutto ciò che accade", e quanto alla Repubblica, è "una legge divina che collega il futuro al passato e al presente".

In questo giudizio ritroviamo il determinismo assoluto dell'antico pensiero greco nella forma della necessità fatale. Ma Plutarco si rende conto che una cosa è il fato (la necessità) in generale, altra cosa è la sua manifestazione nei singoli casi. Infatti dice: è "evidente che cos'è il fato in generale ma non quale esso risulta nell'ambito delle cose particolari e dei singoli individui". In altre parole, se non è un problema la definizione di necessità fatale in generale, il problema nasce quando si prende in considerazione la necessità fatale in relazione alle singole cose, ai singoli eventi, ai singoli individui.

lunedì 26 maggio 2014

De Rerum Natura: le intuizioni di Lucrezio sul caso e la necessità

Nell'antichità troviamo un allievo di Epicuro, in genere sottovalutato perché la sua opera, "De rerum natura", è pur sempre un poema, non un trattato filosofico: si tratta di Lucrezio, la cui importanza, riguardo alla dialettica, assume un rilievo maggiore di quella del suo stesso maestro, perché, diversamente da lui, non si limitò a considerare il caso separato dalla necessità, ma, collegando insieme i due concetti, intuì molti aspetti della dialettica caso-necessità.

Lucrezio fu anche molto avversato perché il suo poema filosofico inizia con un forte attacco alla religione: "Spesso proprio la religione ha dato vita ad azioni delittuose ed empie". Ed anche perché egli nega il finalismo provvidenziale di origine divina: la natura è "matrigna", non ha per fine il benessere dell'uomo. L'uomo è abbandonato a se stesso. La natura materiale del mondo ha per fondamento originario il caso e i suoi risultati, le cose, rappresentano una cieca necessità naturale.

domenica 25 maggio 2014

L'opposizione di Epicuro alla cieca necessità

Queste considerazioni su Epicuro di Samo sono frammentarie, come frammenti sono tutto ciò che ci è rimasto della sua opera. Qualcuno crede persino di potergli attribuire il determinismo fondato sulla causa che appartiene al suo vecchio maestro Democrito. Ma chi scrive ritiene che valgano per lui le seguenti valutazioni.

Il filosofo di Samo rifiuta la necessità assoluta del fato. Nella "Lettera a Meneceo", egli scrive: "è vana opinione credere il fato padrone di tutto", e aggiunge: "le cose accadono o per necessità, o per arbitrio della fortuna, o per arbitrio nostro. La necessità è irresponsabile, la fortuna è instabile, invece il nostro arbitrio è libero, per questo può meritarsi biasimo o lode". Nell'affermare che la necessità è irresponsabile, Epicuro ha in mente la cieca e incosciente necessità del fato. Ora, la necessità irresponsabile e la fortuna instabile non sono sotto il controllo dell'uomo, non dipendono da lui. L'arbitrio dell'uomo, invece, essendo indipendente dal fato "padrone di tutto", è concepito da Epicuro come libertà.

Riguardo alla cieca necessità naturale, egli dice: "Piuttosto che essere schiavi del destino dei fisici, era meglio allora credere ai racconti degli dei, che almeno offrono la speranza di placarli con le preghiere, invece dell'atroce, inflessibile necessità". Sebbene rifiuti sia la cieca necessità naturale che la necessità divina, polemicamente afferma che è meglio credere nella divinità, la cui necessità può essere, almeno nella speranza, modificata con preghiere.

Aristotele: cause finali e cause accidentali

Il più grande filosofo di tutti i tempi, sebbene avesse intuìto l'evoluzione della natura fondata sulla dialettica caso-necessità, la respinse. Il pensiero teorico antico, con Aristotele di Stagira, pur sopravanzando di gran lunga la conoscenza della natura, fu costretto a tirarsi indietro per adeguare la sua andatura al lento passo della scienza, ancora al suo stentato inizio.

Lo stagirista sapeva bene che "se si pone una sola assurdità, questa si tira dietro tutto il resto", e "per assurdo si deve intendere ciò che è impossibile". Eppure fu costretto a concepire quella "sola assurdità" che per due millenni si è tirata "dietro tutto il resto" portando il pensiero teorico su una falsa strada: si tratta del concetto di causa finale, ossia il ritenere che la natura "è fine e causa finale". Così che essa doveva essere predeterminata, e doveva esserlo in senso teologico.

Per quale serie di ragionamenti il pensatore più profondo dell'antichità ha potuto concepire la causa finale, oscurando il ruolo del caso in connessione con la necessità? La questione è di rilevanza fondamentale se consideriamo che il concetto di causa finale ha impedito, persino in epoca moderna, di comprendere e risolvere il reale rapporto caso-necessità. Cercheremo di rispondere a questa domanda rivolgendoci alla "Fisica" e alla "Metafisica"* di Aristotele.

sabato 24 maggio 2014

III] Domande e risposte della cosmologia

(Continuazione) Dice De Bernardis che dopo vari sforzi si è giunti a calcolare oltre al 4% della materia visibile un altro 25% di materia oscura ma normale. Totale 29%. Il restante 71% è stato attribuito all'energia oscura: un'entità misteriosa: "Altre ipotesi alternative sono state confutate successivamente e, a oggi, più di dieci anni dopo, l'ipotesi dell'accelerazione dell'universo è confermata da tutti i nuovi dati raccolti. La strana componente di massa-energia non diluibile fu chiamata energia oscura, un nome che manifesta la nostra ignoranza sulla sua reale natura".

Appunto un nome contraddittorio che riassume in sé una opposizione inconciliabile: come fa una energia ad essere oscura? Come rappresentare una simile essenza contraddittoria? Come si può avvalorare l'idea di una energia oscura che non si manifesti come radiazione ma soltanto come repulsione? Di assolutamente oscuro ci può essere solo la massima densità della materia gravitazionale: i cosiddetti buchi neri.

venerdì 23 maggio 2014

II] Domande e risposte della cosmologia

(Continuazione) Qui possiamo osservare il massimo del capovolgimento operato dalla relatività generale. Qui tutto è pura apparenza: a muoversi sarebbe solo lo spazio che si trascinerebbe dietro le masse presenti in esso, e De Robertis avvalora la banale immagine di un universo che si espande come un panettone, grazie alla pretesa espansione dello spazio stesso (sic!).

"La relatività generale ci consente di capire meglio l'origine del redshift. Non sono le galassie che si muovono, ma è il sistema di riferimento (la "metrica"), cioè lo spazio stesso, che si espande. Le galassie restano ferme rispetto allo spazio in espansione, come le uvette restano ferme nella parte del panettone che si espande lievitando. Ma se tutte le lunghezze cosmologiche si allungano a causa dell'espansione del sistema di riferimento, la relatività generale dimostra che si allungano nello stesso modo anche le lunghezze d'onda delle onde elettromagnetiche che viaggiano nello spazio. Più lontane sono le galassie osservate, più lungo è il tempo di percorrenza, maggiore è l'espansione dell'universo durante il viaggio della luce, maggiore sarà l'allungamento delle sue lunghezze d'onda. Se le lunghezze dell'universo si espandono di un certo fattore dal momento in cui la luce lascia la galassia osservata al momento in cui arriva ai nostri occhi, le lunghezze d'onda della luce proveniente da quella galassia si devono espandere dello stesso fattore. E' la spiegazione del fenomeno del redshift ".

I] Domande e risposte della cosmologia

Tratte da "Osservare l'universo" (2010) di Paolo De Bernardis

L'importanza di questo libro, sia in positivo che in negativo, merita una attenzione particolare. Per questo gli dedicheremo tre post. Cominceremo con la dichiarazione d'intenti del suo autore: "studieremo l'universo nella sua globalità e la sua evoluzione: studieremo la cosmologia". Ed ecco le domande che egli propone: "Quanto grande è l'universo? L'universo evolve? C'è stato un inizio? Ci sarà una fine? Di che cosa è fatto l'universo? Tutte domande che vengono da lontano". Interessante è, però, la seguente ammissione: "comincia a crollare l'idea dell'universo eterno e immutabile che tanto piaceva a Newton e che tanto piacerà a Einstein".

Riguardo a quest'ultimo, riportiamo subito alcune osservazioni di De Bernardis: la prima riguarda la relatività ristretta, nel cui ambito Einstein pensò "che la gravità non fosse necessariamente da descrivere come una forza: un'accelerazione opportuna può provocare esattamente gli stessi effetti. E quindi si possono descrivere gli effetti della gravità come effetti di un movimento. Ma dalla relatività speciale sappiamo che il movimento modifica il tempo e le lunghezze. L'effetto della gravità è quindi di modificare le lunghezze e i tempi, deformando così la geometria dello spazio-tempo".

giovedì 22 maggio 2014

3] L'universo oscuro. Origine, conformazione ed evoluzione

Astronomia e fisica delle particelle: due metodologie opposte

(Continuazione) Nel 2007 sorse una questione fondamentale sulla quale vale la pena di riflettere. Scrive Panek: "L'argomentazione centrale era che l'astronomia e la fisica delle particelle sono due culture distinte. Gli astronomi sono "generalisti" che esplorano la complessità dell'universo caso per caso. I fisici delle particelle sono "fondamentalisti" che affrontano la complessità dell'universo nella speranza di trarne un "fondamento ultimo": una "verità". "L'energia oscura -scrisse*- è un legame unico tra esse, che riflette gli aspetti profondi della teoria fondamentale, apparentemente accessibili, però, soltanto attraverso le osservazione astronomiche"."

Nelle ultime pagine conclusive del suo libro, Panek riassume la situazione rivelando cose molto interessanti. Innanzi tutto scrive: "Gli osservatori avevano fatto il proprio lavoro. Avevano usato supernove, lenti gravitazionali, BAO, ammassi di galassie e la radiazione cosmica di fondo per accumulare dati sempre più solidi a sostegno dell'espansione accelerata, finché la comunità fu concorde: l'effetto era genuino. Poi gli osservatori avevano continuato a fare la loro parte, tentando di capire se l'energia oscura fosse la quintessenza o la costante cosmologica. E avevano continuato a fare il loro lavoro. "L'energia oscura è il pifferaio magico -scrisse White- che attrae gli astronomi al di fuori del territorio a loro familiare e li induce a seguire i fisici delle alte energie in un percorso che porta all'estinzione professionale"."

mercoledì 21 maggio 2014

2] L'universo oscuro. Origine, conformazione ed evoluzione

Da Newton ad Einstein, fino ad oggi: soluzioni fittizie ad hoc per problemi reali insolubili 

(Continuazione) Sia Newton che Einstein ebbero il problema di giustificare il mancato collasso gravitazionale dei corpi cosmici. Newton lo attribuì alla preveggenza divina, Einstein inventò una costante lambda. Ecco il metodo dei fisici matematici da sempre: inventare soluzioni ad hoc. Scrive Panek: "Nel 1931 Einstein, dalla Germania, andò a far visita a Hubble al Mount Wilson Observatory, nelle montagne a nord-est di Pasadena. Dopo aver esaminato personalmente i dati che dimostravano l'espansione dell'universo, Einstein abbandonò il suo fattore ad hoc.

Se prima il problema era perché l'universo non stava collassando, sorse in seguito un'altra domanda: in che misura esso si espande, ossia in che misura sta rallentando l'espansione? Saltando alcuni passaggi secondari per il nostro scopo, veniamo alla fine del Novecento: "Nell'autunno del 1997 i due gruppi [di studiosi di supernove] avevano ormai raccolto dati a sufficienza per tentare di stabilire, almeno in via preliminare, in quale misura l'espansione dell'universo stia rallentando e se esso sia destinato a finire in un big crunch o in un big chill [grande freddo]".

martedì 20 maggio 2014

1] L'universo oscuro. Origine, conformazione ed evoluzione

[Per un approfondimento della fisica cosmologica, in tre post successivi, ci serviremo di un libro fondamentale di Richard Panek, uscito nel 2011 col titolo  "L'UNIVERSO OSCURO" ]

Se la materia oscura è valutata il 23 per cento dell'universo e un altro 73 per cento è concepito come energia oscura, "la materia che ci costituisce è solo il 4 per cento. Come ama dire un teorico durante le conferenze, "Siamo solo un poco di inquinamento". Se noi e tutto ciò che abbiamo ritenuto l'universo venissimo spazzati via, ben poco cambierebbe. "Siamo assolutamente irrilevanti" conclude allegramente".

La conclusione è coerente con la l'errata idea della rilevanza quantitativa e della conseguente irrilevanza della rarità statistica. Seconda questa logica, tutto ciò che è raro e scarso quantitativamente sarebbe trascurabile, di poco conto. Trascurabile sarebbe, allora, la "Divina commedia" rispetto alle numerose "commedie" che si sono accumulate nella letteratura mondiale? Allo stesso modo sarebbe irrilevante la materia vivente rispetto a quella non vivente? Così sarebbe irrilevante la specie umana rispetto ai miliardi di specie che si sono evolute sulla Terra? E che cosa pensare di chi considera irrilevante ogni rarità statistica?

Come decifrare l'universo?*

Con "Le Scienze" ottobre 2009 era uscito un dossier dal titolo significativo "Decifrare L'UNIVERSO". In questo post ci occuperemo dell'ultimo articolo del dossier: "Dal big bang ai buchi neri". Autori: Paolo De Bernardis e Stefano Vitale. Interessante il sottotitolo: "Dopo le grandi scoperte sulla nascita e l'evoluzione dell'universo, la cosmologia affronta le sfide di materia oscura e di energia oscura e della presenza delle onde gravitazionali". Sapendo come è andata a finire quasi 5 anni dopo, può essere utile riprendere l'analisi che l'autore di questo blog svolse in quell'anno.

Entriamo subito nel merito di alcuni aspetti empirici come i fotoni che, dicono i due autori, "si separarono dalla materia dell'universo primordiale 380.000 anni dopo il big bang, quando l'universo si raffreddò a una temperatura di circa 3000 Kelvin, rendendo possibile la formazione dei primi atomi". Se ciò ha un senso fisico, lo ha nel senso che l'evoluzione della materia dopo 380.000 anni, continuò solo grazie al suo stesso, costante raffreddamento.

La posizione di De Bernardis e Vitale è chiaramente deterministica-meccanicistica, come si può vedere dal riquadro "Paradossi cosmici": "Oggi la materia è organizzata (!) nell'universo in una gerarchia (!) di strutture, fatte di filamenti di galassie, ammassi di galassie, galassie, stelle. L'universo deve quindi evolvere non solo espandendosi e raffreddandosi, ma anche passando dalla semplicità alla complessità. Deve essere la gravitazione ad addensare la materia, partendo da piccole concentrazioni di densità iniziali, che lentamente attirano la materia circostante, crescendo e strutturandosi".

sabato 17 maggio 2014

"L'evoluzione della vita sulla Terra": un articolo del 1994 di Stephen Jay Gould

Rileggendo, dopo venti anni, gli estratti e le osservazioni riguardanti quell'articolo, l'autore di questo blog trova conferma alle sue tesi su Gould; anzi, trova in lui direttamente il passaggio dal fallimento del determinismo al fallimento del suo opposto, l'indeterminismo, confermando la millenaria opposizione metafisica del pensiero umano: determinismo democriteo / indeterminismo epicureo.

Di Darwin, Gould sottolineava- nel suo articolo- il "nuovo meccanismo della causalità evolutiva": "la selezione naturale". E aggiungeva: "Per quanta importanza possa avere questo principio, la selezione naturale non è la sola causa del cambiamento evolutivo (anzi, in parecchi casi, può essere messa in ombra da altre forze)". Non è molto strano che Gould, pur orientando tutto il suo articolo nella direzione della pura contingenza, lo iniziasse partendo da una impostazione deterministica, scomodando la causa, e dimenticando di ricordare che Darwin, come scrisse ad Asa Gray, fu molto colpito dalla presenza del caso?  "Sono conscio di essere in un terribile pasticcio non potendo pensare che il mondo, come lo vediamo, sia il risultato del caso: eppure non posso guardare ogni cosa come se fosse il risultato della necessità".

venerdì 16 maggio 2014

Che cos'è la biologia dei sistemi?

Vediamo la risposta data dall'autore di questa teoria, Leroy Hood, a un'intervista del 26 aprile 2010: "Per me, la biologia dei sistemi è il tentativo di guardare alla biologia da un punto di vista olistico piuttosto che atomistico. Per poter capire tutte le proprietà straordinarie del sistema che ne derivano è necessario definire tutte le sue componenti e le loro interazioni. Successivamente bisogna vedere come questi elementi si modificano in modo dinamico grazie agli stimoli che attivano l'intero sistema".

Si tratta della ricorrente opposizione diametrale (metafisica) tra il determinismo riduzionistico (che pone in primo piano la parte) e il determinismo olistico (che pone in primo piano il tutto). In altre parole, si tratta dell'opposizione diametrale tra i singoli elementi di un complesso e il complesso stesso. Ciò che per la dialettica caso-necessità riflette correttamente il rapporto polare singolo-complesso, nella concezione deterministica, rappresenta  una opposizione diametrale insolubile.

giovedì 15 maggio 2014

IV] La vita si origina dall'RNA e si evolve in DNA

(dal trattato di "Biologia molecolare della cellula", di Alberts e altri, 2011)

(Continuazione) Riguardo all'origine della vita, è vero che essa si origina dall'RNA e che da questo si evolve in DNA come magazzino dal quale attingono i vari RNA, ecc. per la sintesi delle proteine della vita. Falso, invece, è ritenere che, se alle origini preminente era stato l'RNA, "in una fase successiva dell'evoluzione il DNA avrebbe preso il sopravvento come materiale genetico e le proteine avrebbero assunto un ruolo preminente come catalizzatori e come componenti strutturali". In questa versione si dimentica l'importanza vitale dei vari tipi di RNA, grandi e piccoli, che fanno praticamente tutto in combinazione con le proteine polimerasi.

Ma, forse per una "distrazione" degli autori, salta fuori un brano corretto in questo trattato. Citiamolo: "Presumibilmente il DNA apparve più tardi sulla scena, e allora si dimostrò più utile dell'RNA come deposito permanente (si! E' proprio così!) di informazione genetica (no! non è così! Semplicemente si tratta di un deposito di sequenze nucleotidiche!). In particolare, il deossiribosio come componente dello scheletro zucchero-fosfato rende la catena del DNA chimicamente molto stabile, e quindi le permette di diventare più lunga senza rompersi". Permettendo in questo modo una evoluzione della vita verso forme sempre più varie, complesse e durature, in tutte le direzioni unicellulari e pluricellulari.

mercoledì 14 maggio 2014

III] Degradazione delle proteine: controllo fine o dispendioso turn over?

(dal trattato di  "Biologia molecolare della cellula" di Bruce Alberts e altri, 2011)

(Continuazione) Dal punto di vista teorico non è cambiato nulla in biologia molecolare dal 1998-99, anni in cui l'autore di questo blog decise di approfondire questa disciplina scientifica; ma, nel frattempo, i progressi nel campo della tecnologia sperimentale e dei risultati pratici sono stati notevolissimi, mentre le pretese spiegazioni sono rimaste deterministiche, tautologiche, alla maniera del "naso di Pangloss".

Ciò che, teoricamente, chi scrive concepisce realisticamente come enorme dispendio, turn over e omeostasi delle proteine, i biologi molecolari chiamano invece "controllo fine". E' questo un esempio di determinismo riduzionistico completamente irrealistico: si parte dalle proteasi, enzimi che degradano le proteine, ma, invece di riconoscere che questa degradazione è continua e incessante, per cui vitale è l'omeostasi mantenuta dal reale continuo processo di creazione-distruzione, i biologi molecolari affermano il seguente irrealistico procedimento programmato: "Le vie proteolitiche hanno la funzione (!) di degradare rapidamente le proteine che devono (!) avere vita breve (!) e anche di riconoscere (!), avviandole alla eliminazione, le proteine danneggiate o conformate erroneamente (!). Eliminare le proteine malformate ha una grande importanza per un organismo: malattie neurodegenerative come la sindrome di Huntington, di Alzheimer e di Creutzfeld-Jacob sono dovute all'aggregarsi di proteine mal formate".

II] Caratteristiche e funzioni delle genoteche di cDNA

(dal Trattato di "Biologia molecolare della cellula" di Bruce Alberts e altri, 2011)

(Continuazione) Nel Trattato leggiamo: "Le genoteche di cDNA contengono copie di cDNA clonate di tutti gli mRNA presenti in un particolare tipo di cellula o di tessuto. A differenza dei cloni di DNA genomico, i cloni di cDNA contengono prevalentemente sequenze che codificano proteine; non ci sono introni, sequenze regolatrici e promotori. Per questo motivo sono particolarmente adatti quando si vuol fare esprimere il gene clonato per produrre la proteina codificata".

Comodo nella pratica, questo metodo smentisce però completamente il dogma centrale DNA-RNA-proteine, sostituito da una tecnica (particolare) mRNA-cDNA-proteine. Insomma, nella pratica attuale, la doppia elica di DNA non è neppure più considerata, e quello che oggi chiamiamo gene è soltanto il cDNA con il quale lavorano gli sperimentatori, ricostruito a ritroso utilizzando l'mRNA maturo.

Questo comodo metodo è semplicemente una nuova tecnologia, che abitua i biologi molecolari a considerare fondamentale solo il cDNA (i cosiddetti esoni), ossia quella parte codificante di DNA concepita come vero gene: gene "tecnologico", non naturale. In questo modo scompare, come inutile vestigia di un passato sepolto, il vecchio concetto di genoma, identificato a suo tempo nella doppia elica di DNA e ricostruito, più nelle intenzioni che nella realtà, nel vecchio "Progetto genoma".

martedì 13 maggio 2014

I] La tecnologia del cDNA o DNA complementare

(dal trattato di "Biologia molecolare della cellula", 2011, di Bruce Alberts e altri)

Per contare quante regioni codificanti ci sono in un genoma, ovvero per "determinare sperimentalmente quanti geni sono effettivamente espressi" viene usato un metodo in apparenza semplice ed efficace, ma che crea un qui pro quo che impedisce la conoscenza del dispendioso processo genetico naturale.

Gli autori così descrivono questo metodo: "Per distinguere i geni che codificano proteine e che sono espressi in un particolare tipo di cellula o di tessuto, si isolano gli mRNA e si convertono nel DNA complementare o cDNA. Poiché gli mRNA sono un prodotto della trascrizione dei geni codificanti proteine e della successiva maturazione (splicing), questo insieme di cDNA rappresenta la sequenza di tutti i geni espressi nelle cellule dalle quali è stato estratto l'mRNA. I cDNA si preparano da più tessuti diversi, perché questo approccio ha l'obiettivo di identificare tutti i geni, e i vari tessuti esprimono geni differenti. Lavorare con i cDNA presenta un altro vantaggio: nell'mRNA mancano sia gli introni sia il DNA spaziatore intercalato tra i geni e pertanto le sequenze di cDNA corrispondono direttamente alle sequenze codificanti del genoma".

Sembra molto semplice ed economico partire dall'mRNA o RNA messaggero, ottenendo cDNA o DNA complementare, pensando così di avere sotto mano i veri geni e la loro espressione. In questo modo, però, tutto viene semplificato in maniera artificiale, senza rendere conto di una realtà complessa e soprattutto dispendiosa: l'mRNA e il cDNA sono prodotti, infatti, di un processo molto dispendioso per la presenza di una grande quantità di DNA cosiddetto spazzatura. In particolare, l'mRNA rappresenta solo l'1% del DNA trascritto, perciò utilizzarlo per ottenere il cDNA è lo stesso che astrarre dal dispendio e far apparire un inesistente meccanismo economico.

lunedì 12 maggio 2014

3] La questione dei legami e l'equivoco della forza in biologia molecolare

(dal trattato di  "Biologia molecolare del gene", Watson e altri, 2009)

Il codice genetico

(Continuazione) Il dogma del codice genetico con il tempo è divenuto sempre più rigido e indiscutibile. Così lo hanno voluto, e lo hanno chiamato come lo volevano: dogma. Ma i dogmi sono cose di chiesa non di scienza. Come la teologia, infatti, anche la biologia molecolare continua a fare abbondante uso di metafore, la principale fra tutte quella del linguaggio-informazione: "Al cuore del dogma centrale c'è il concetto di trasferimento dell'informazione dalla sequenza lineare della catena polinucleotidica, formata da un alfabeto di quattro lettere, al linguaggio di 20 amminoacidi della catena polipeptidica".

Possiamo notare qui che la "teologia" biologica molecolare non si avvale soltanto del "verbo" in codice imposto dal dogma, ma anche della metafora dei linguaggi "in codice" da "decifrare". Infine, è come se anche la religione della biologia molecolare avesse il suo inferno e i suoi diavoli, nella forma del "codice degenerato".

2] La questione dei legami e l'equivoco della forza in biologia molecolare

(dal trattato di  "Biologia molecolare del gene", Watson e altri, 2009)

(Continuazione) Torniamo alla biologia: l'evoluzione della vita in un pianeta come la Terra è permessa dai cosiddetti "legami deboli", che possono passare facilmente dal livello di energia che respinge le molecole al livello di attrazione che le "lega", e viceversa. Esempi di "legami deboli" sono 1) i legami di Van der Waals, 2) i legami idrofobi, 3) i legami idrogeno e ionici, tra loro molto simili e spesso indistinguibili. Ricordiamo inoltre che gli atomi che tendono ad attrarre elettroni, e perciò sono detti elettronegativi, hanno un deficit di energia, viceversa quelli che tendono a cedere elettroni, e perciò sono detti elettropositivi, hanno un eccesso di energia.

Nella biologia molecolare troviamo, comunque, l'equivoco di concepire le "forze di attrazione" contrapposte alle "forze di repulsione", ovvero l'equivoco di chiamare forza sia ciò che può essere soltanto aumento di attrazione, per riduzione di energia, sia ciò che può essere soltanto aumento di repulsione, per aumento di energia.

domenica 11 maggio 2014

1] La questione dei legami e l'equivoco della forza in biologia molecolare

(dal trattato di "Biologia molecolare del gene", Watson e altri, 2009) 

 "La formazione spontanea di un legame fra due atomi implica sempre il rilascio dell'energia interna, contenuta negli atomi non legati, e la sua conversione in una diversa forma di energia. Più forte è il legame, maggiore è la quantità di energia ceduta durante la sua formazione. La formazione di un legame fra i due atomi A e B può essere descritta nel modo seguente:
                    
                                      A+B -- AB + energia

dove AB rappresentano i due atomi legati"
.

In modo molto semplice è qui indicata l'essenza del cosiddetto legame molecolare: è l'attrazione tra atomi, conseguente il rilascio (perdita) di un quantum di energia. Perciò, l'attrazione chimica altro non è che la conseguenza di perdita di repulsione. Ma, sebbene abbiano la soluzione sotto gli occhi, i biologi non riescono a comprenderla se continuano a concepire i legami come fossero forze e, persino, forze che rompono i legami stessi, non tenendo conto del fatto che, se la perdita di un quanto di energia è l'unica responsabile dell'attrazione che produce il legame, la restituzione di questo quanto di energia sarà responsabile della rottura del legame stesso.

sabato 10 maggio 2014

Spunti di critica gnoseologica al concetto di gene

suggeriti da "Filosofia e scienze della vita" (a cura di Giovanni Boniolo e Stefano Giaimo) -2008-

Nel capitolo 1, dal titolo "Il concetto di 'gene'", gli autori, Giaimo e Testa, affermano giustamente: "Gene: uno dei concetti più pervasivi della biologia e allo stesso tempo uno dei più evasivi. Introdotto agli inizi del XX secolo nel dibattito tra i sostenitori di differenti teorie dell'ereditarietà dei caratteri biologici, il concetto di 'gene' ha attraversato e sta attraversando da protagonista pressoché tutte le discipline biologiche e biomediche dell'ultimo secolo, dalla genetica di popolazione all'oncologia molecolare, senza mai essere catturato da un'unica definizione che soddisfi tutte le esigenze".

I due autori sembrano, però, valutare positivamente il fatto che il concetto di "gene" non sia catturato da un'unica definizione, tanto è vero che, aggiungono subito dopo, il concetto di gene si è adattato ai molteplici cambiamenti successivi: "Anzi, si può dire che la forza del concetto di "gene" sta proprio nella sua estrema duttilità". Segue poi una breve sintesi storica su Lamark, Darwin, Galton, e poi Mendel che scoprì il carattere dominante e quello recessivo; e ancora, Weismann e William Bateson che introdusse il termine "genetica" per indicare la disciplina che studia la fisiologia della discendenza, che ha per concorrente la biometria; infine, la citologia o studio dei cromosomi.

Un omaggio anticipato a Italo Calvino per i trent'anni dalla sua scomparsa - Seconda parte

(Continuazione) Un altro intellettuale -e giungiamo così alla prima metà del Novecento-, che Calvino prende in considerazione, è il francese Raymond Queneau, che diceva di rifiutare l'ispirazione perché schiava del caso. E' ciò che si può appurare da un articolo del 1938 nel quale Queneau scrisse: "Un'altra falsissima idea che pure ha corso attualmente è l'equivalenza che si stabilisce tra ispirazione, esplorazione del subconscio e liberazione; tra caso, automatismo e libertà. Ora questa ispirazione che consiste nell'ubbidire ciecamente a ogni impulso è in realtà una schiavitù". Giustamente Queneau respinse la connessione caso-libertà: il caso è in effetti una schiavitù perché si rovescia in cieca necessità.

Calvino sottolinea le costanti del pensiero di Queneau, "che sono "il rifiuto dell'"ispirazione", del lirismo romantico, del culto del caso e dell'automatismo (ideali dei surrealisti), e invece la valorizzazione dell'opera costruita, finita e conchiusa (...)". "Cosicché possiamo dire che le direzioni principali della polemica di Queneau negli anni trenta sono due: contro la poesia come ispirazione e contro il "falso sapere"." E aggiunge: "Nel disegno della circolarità della scienza che egli abbozza in uno scritto databile tra il 1944 e il 1948 (dalla scienza della natura alla chimica e alla fisica, e da queste alla matematica e alla logica) la tendenza verso la matematizzazione si ribalta in una trasformazione della matematica al contatto con i problemi sorti dalla scienza della natura."

venerdì 9 maggio 2014

Un omaggio anticipato a Italo Calvino per i trent'anni dalla sua scomparsa - Prima parte

E in occasione del novantesimo anno del suo amico e compagno di liceo Eugenio Scalfari


Prenderemo in considerazione l'opera di Calvino: Perché leggere i classici (scritta nel 1981 e pubblicata postuma nel 1991), cercando di dimostrare che egli ha tratto dai principali classici di filosofia e letteratura, dell'inizio dell'era moderna, interessanti spunti di riflessione in relazione al caso e alla necessità, sfiorando spesso la soluzione, ma, forse, preferendo non trovarla in ossequio alla propria arte letteraia.

Cominciamo dal confronto tra Jacques le fataliste di Diderot e il Tristan Shandy di Sterne: "La parentela tra le due opere -scrive Calvino- va cercata a livello più profondo: il vero dell'una e dell'altra è la concatenazione delle cause, l'inestricabile insieme di circostanze che determinano ogni accadimento anche minimo e che tiene per i moderni il ruolo di Fato". Come si vede, Calvino parte dalla concatenazione delle cause che riguardarebbero anche i minimi accadimenti, ossia egli pone il riduzionismo deterministico in luogo del caso singolare; ma, facendo intervenire il fato, è come se restituisse al caso il suo ruolo nei minimi accadimenti: caso che, invece, in senso epicureo, diventa erroneamente fondamento di libertà.

"Diderot aveva intuìto che è proprio dalla concezione più rigidamente deterministica che si può trarre una carica propulsiva per la libertà individuale, come se volontà o libera scelta possano essere efficaci solo se aprono i loro varchi nella dura pietra della necessità". Il fascino di questa soluzione è, però, puramente letterario. La realtà è, invece, molto più prosaica: è la cieca necessità che s'impone come conseguenza di numerosi, singoli casi.

giovedì 8 maggio 2014

3] Il sorgere del neoempirismo logico

e il suo sbocco nel piccolo cabotaggio teorico del pluralismo democratico

(Continuazione) Può essere interessante, a questo punto, leggere la quarta parte della "Concezione scientifica del mondo", perché ci fornisce alcuni elementi storici per comprendere sia la nascita di una componente del neoempirismo logico, sia lo sbocco di questa tendenza in quello che abbiamo chiamato piccolo cabotaggio teorico nell'epoca del pluralismo democratico.

Il manifesto del Circolo di Vienna nasce in opposizione all'"incremento delle tendenze metafisiche e teologizzanti, che oggi si avvertono in molti gruppi e sétte, in libri e periodici, in conferenze e lezioni accademiche". Per capire il soggetto al quale allude questa frase un pò reticente occorre considerare il momento storico: l'anno 1923 è l'anno in cui il riflusso rivoluzionario cominciava a delinearsi chiaramente, mentre le dittature fascista e nazista cominciavano a sviluppare i loro strumenti propagandistici e le loro violente azioni di piazza. Ma, nonostante tutto, le masse in Europa erano ancora prevalentemente orientate verso la rivoluzione e il socialismo.

2] Il sorgere del neoempirismo logico

Le sue pretese riduzionistiche e le sue divisioni interne

(Continuazione) Dietro le infantili domande dei neoempiristi logici c'è la solita vecchia pretesa riduzionistica: quella di dissolvere i concetti complessi "in asserzioni elementari sui dati sensibili", pretesa che assume, e questa è la novità rispetto al vecchio Cartesio, la forma del divieto di qualsiasi "asserzione" che non sia induttiva. Tutto ciò che non appartiene al riduzionismo neoempirista logico, apparterrebbe così alla metafisica (diabolicamente profonda): ad esempio, il patrimonio di concetti che appartengono all'opposizione diametrale materialismo-idealismo (ribattezzati, rispettivamente, realismo e nominalismo), vengono dichiarati metafisici, ossia "privi di senso, in quanto non verificabili e vacui"!

Ma, dato che siamo in tema, vediamo a chi spettano l'insensatezza, l'inverificabilità e la vacuità. Il manifesto del Circolo di Vienna ha caratterizzato la sua "Concezione scientifica del mondo" con due soli attributi: "Primo, essa è empirista e positivista: si dà solo conoscenza empirica, basata su dati immediati. In ciò si ravvisa il limite dei contenuti della scienza genuina"

Se ripensiamo all'intelligente e profonda critica hegeliana all'immediatismo di Jacob, viene da sorridere di fronte alla vacuità della "scienza genuina" dei neoempiristi. Soltanto la più assoluta ignoranza della storia del pensiero umano poteva essere invocata a sostegno  del primo attributo della "conoscenza scientifica del mondo" neoempirista. E col secondo attributo le cose non vanno affatto meglio: "Secondo, la concezione del mondo è contraddistinta dall'applicazione di un preciso metodo, quello dell'analisi logica. Il lavoro scientifico tende, quindi, a conseguire, come suo scopo, l'unità della scienza applicando l'analisi logica al materiale empirico. Poiché il senso di ogni asserto scientifico deve risultare specificabile mediante riduzione (!) ad asserti sul dato, anche il senso del concetto, quale sia il settore della scienza cui questo appartiene, deve potersi stabilire mediante riduzione graduale (!) ad altri concetti, giù fino ai concetti di livello più basso (!), che concernono il dato medesimo".

Ma che cos'è questo, se non il vecchio riduzionismo cartesiano, ripescato dai neoempiristi logici, e con una presunzione sconosciuta persino al vecchio Descartes? E c'è forse bisogno di sottolineare la vacuità di questa analisi logica che riduce i concetti complessi "giù fino ai concetti di livello più basso"? Non è questa logica che è caduta in basso?

Se fin qui abbiamo seguito il Circolo di Vienna nel suo "genuino" proposito di unificare le scienze mediante la nuova analisi logica, senza però dare alcun credito a questa fisima, ora potremo facilmente renderci conto che non si può far credito a chi se lo nega da solo. Infatti, se il Circolo di Vienna ha ritenuto di farla facile, prima considerando la divisione della scienze come conseguenza dei pseudo problemi, poi proponendo un nuovo metodo "chiaro" e "semplice", alla fine il risultato è stato che il manifesto ha dovuto ammettere: "Attualmente in questo campo si fronteggiano tre correnti di pensiero: accanto al logicismo di Russell e Whitehead, stanno il formalismo di Hilbert (...), nonché l'intuizionismo di Brower, (...). Le divergenze fra i tre orientamenti vengono seguite con il massimo interesse nel Circolo di Vienna" (che dobbiamo considerare un'altra corrente, per non parlare delle dottrine di Wittgenstein, sulla cui base il Circolo, solo nella sua immaginazione, prevedeva una futura confluenza delle tre correnti suddette).*

Insomma, le divisioni, cacciate dalla porta, sono rientrate dalla finestra: così, la nuova logica formale si è trovata più divisa della scienza che essa voleva unificare. Si può dire di più: non esiste oggi ambito nel quale il solipsismo teorico spadroneggi tanto, quanto il neoempirismo logico! (Continua)

* Di fronte alle numerose voci che si contrappongono nel campo della logica formale, viene in mente quel tal personaggio di Chamfort che, capitato in una sala dove tutti si accapigliavano, chiese: "Che ne direste, signori, se parlassimo solo in quattro per volta?"

------

Tratto da "Il caso e la necessità L'enigma svelato - Volume primo -Teoria della conoscenza" (1993-2002)

mercoledì 7 maggio 2014

1] Il sorgere del neoempirismo logico

La pretesa concezione scientifica del mondo nel manifesto del Circolo di Vienna

Il matematico Hahn, il sociologo Neurath e il logico Carnap, nella "Concezione scientifica del mondo", ricostruiscono la storia del Circolo di Vienna e ne riportano il manifesto, che rappresentò una specie di documento programmatico il cui intento principale fu quello di "depurare" la scienza della natura, considerata puramente empirica, da nozioni metafisiche.

Il punto di partenza fu un seminario del 1923, diretto da Moritz Schlick, professore di filosofia dell'università di Vienna dal 1922. Due anni più tardi, nel 1925, si formò un gruppo di discussione al quale parteciparono studiosi di varie discipline. La prima conferenza, dove fu distribuito il manifesto, nel 1929. I principali membri attivi, oltre allo stesso Schlick specializzatosi in fisica sotto la guida di Max Planck, furono il matematico Hans Hahn, il sociologo Otto Neurath, lo storico delle idee Victor Kraft, il giurista Felix Kaufmann, il matematico Kurt Reidmeister e il fisico Philips Franck.

martedì 6 maggio 2014

Ah metafisica, metafisica! Quanti danni continui a procurare!

Fa una certa impressione a un vecchio come l'autore di questo blog, che si è occupato approfonditamente di teoria della conoscenza nel periodo 1993-2002, leggere, su Le Scienze di Maggio 2014, la paginetta della professoressa Elena Castellani dal titolo molto significativo di "Filosofia della scienza e metafisica".

Ricorda Castellani che "Sono sempre di più gli articoli dedicati a riflessioni sul rapporto tra metafisica e scienza e i convegni in cui i filosofi della scienza (specialmente filosofi della fisica) e filosofi che si occupano di metafisica riflettono insieme su questioni come: la natura di "ciò che è", il rapporto tra identità e cambiamento, che cosa vuol dire persistere nel tempo, la realtà del divenire temporale, che cosa vale come legge di natura, che cos'è fondamentale e via dicendo".

Ma è quando scrive che "La filosofia della scienza come disciplina a sè stante, nasce nel contesto del positivismo logico, e per l'appunto in opposizione ai grandi sistemi metafisici del secolo precedente", e cita a questo proposito "il manifesto del cosiddetto circolo di Vienna", uscito nel 1929, che l'autore di questo blog ha avuto un moto di stupore: ma come, dopo quasi un secolo, una professoressa di filosofia della scienza torna al neopositivismo logico, sorto in un'epoca post rivoluzionaria, foriera di una grande crisi economica e di una gigantesca guerra mondiale?

domenica 4 maggio 2014

Sull'azione umana e la sua valutazione*

A tutti i livelli, dalla vita privata a quella economica, sociale e politica, su mille cose che pensiamo, che facciamo, o che scegliamo di pensare e di fare, solo poche sono rilevanti. Le restanti o sono effimere e di poca importanza o sono semplicemente spazzatura. E se questo vale per i singoli individui in maniera pressoché assoluta, in relazione alla società, alle varie organizzazioni, ai partiti, partitini, conventicole, ecc. vale in una misura relativa ma non certo trascurabile. Ad esempio, quante singole azioni politiche hanno un valore duraturo? Quante sono semplici ripetizioni al solo scopo, ad esempio, di mantenere un'organizzazione, persino quando questa produce risultati nulli o ininfluenti (spesso proprio come se non esistesse)?  

Questo attivismo senza conseguenze riguarda molte sfere dell'azione umana singola e complessiva. Nessuno, però, sembra rendersi conto della facilità con la quale l'azione individuale produca risultati non voluti, casuali. Anzi, nessuno sembra sapere che il risultato necessario (positivo o negativo rispetto ai fini voluti) è spesso conseguenza non voluta del rovesciamento di grandi numeri di eventi casuali, e che, quindi, il risultato necessario che s'impone, alla fine, è il più delle volte come "risultato non voluto", ossia come cieca necessità della storia realizzatasi sulla base di grandi numeri di minuti eventi casuali.
Related Posts Plugin for WordPress, Blogger...