giovedì 22 dicembre 2011

III) Fox Keller: Il meccanicismo metaforico della genetica

(Continuazione) La storia ricostruita dalla Keller testimonia un complicato intreccio tra teoria dell'informazione, cibernetica, ecc. a tutti i livelli, militare, politico, sociale, biologico e fisico. "Molto hanno scritto gli storici della biologia moderna riguardo alla influenza della fisica e dei fisici sullo sviluppo della biologia molecolare e in particolare sui tentativi di controllare l'organismo a mo' di macchina (di meccanismo a orologio) tradizionali. Ma l'influenza è soltanto una parte della vicenda. Per capire i cambiamenti occorsi dalla seconda guerra mondiale in poi nella nostra comprensione di che cosa sia un organismo, dobbiamo disegnare una ragnatela di interazioni ben più complesse".

Si tratta, in primo luogo, di sottolineare l'influenza esercitata da un periodo storico che, in altro luogo, abbiamo definito così atroce (come è stata la Seconda guerra mondiale), da aver tolto a studiosi e scienziati dell'epoca il coraggio dell'intelligenza, e d'aver suggerito loro la comoda soluzione delle utili convenzioni. Si tratta allora di dipanare, nella "ragnatela di interazioni", ciò che è fondamentale per la teoria scientifica da ciò che è stato puramente contingente.

mercoledì 21 dicembre 2011

II) Fox Keller: "Il meccanicismo metaforico della genetica"

(Continuazione) Così genetica ed embriologia si riavvicinarono, però nel senso che la prima inglobò la seconda. "Ma i termini di questo riavvicinamento sono risultati ben diversi da quelli immaginati dalla prima generazione di genetisti e di biologi molecolari. La ricerca attuale -traendo vantaggio dai successi tecnici inauditi della biologia molecolare e anche dalle informazioni giunte dai sequenziamenti del Progetto Genoma Umano- invita (con sempre maggior insistenza) a cambiar idioma (!), e a riconoscere al citoplasma la stessa probabilità del genoma di venir raffigurato quale locus del controllo. Com'è potuto accadere?"

Insomma, com'è potuto accadere che il "successo" della biologia molecolare sia risultato inutile, e si sia dovuto abbandonare la cosiddetta "azione del gene", a favore della cosiddetta "attivazione dei geni", passando da una metafora a un'altra? In sostanza, chi stabilisce, chi controlla i processi di differenziazione cellulare? Nel 1984, Sidney Brenner ammise che all'inizio si diceva che le risposte alle domande sullo sviluppo sarebbero venute dalla conoscenza dei meccanismi molecolari del controllo genico; ma questi meccanismi "sembrano noiosamente semplici e non ci dicono quello che vogliamo sapere". "Dobbiamo cercare di scoprire dei principi di organizzazione... Non credo che questi princìpi risulteranno incorporati in un semplice meccanismo chimico, come nel caso del codice genetico".

lunedì 19 dicembre 2011

I) Fox Keller: il meccanicismo metaforico della genetica

La storica della scienza, Fox Keller, in "Vita, scienza e cyberscienza" (1995), compie una ricognizione sulla concettualizzazione della genetica del Novecento, dimostrando che si è trattato sempre e soltanto di metafore meccanicistiche. Come vedremo, si conferma la nostra tesi secondo la quale i biologi del secolo appena trascorso, privi di una teoria realistica, non sono riusciti a rendere ragione, spiegare, in definitiva, conoscere realmente i processi e i fenomeni della vita; e non hanno potuto fare altro che rifugiarsi nel vecchio convenzionalismo fìttizio.

Cominciamo da una domanda fondamentale alla quale la comunità scientifica non ha finora risposto: "Da tempo i genetisti credono (e negli ultimi anni la credenza si sta diffondendo sempre di più anche nell'opinione pubblica) che i geni siano gli agenti primi della vita: che siano le unità fondamentali dell'analisi biologica, e che il fine ultimo della scienza biologica sia di capire come essi agiscono". Da qui "il discorso sull'azione del gene" che sta alla base del varo del "Progetto Genoma Umano". "Ma che cosa significa attribuire (oppure negare) potere causale ai geni? Fino a che punto questo modo di dire riflette un insieme di "fatti di natura" e fino a che punto invece riflette i fatti di cultura di una particolare disciplina? Ed è soltanto un modo di dire? O non è anche un modo di pensare, di vedere e fare scienza?"

venerdì 16 dicembre 2011

2) Aspettando i risultati di LHC

II] I litigiosi congressi di Solvay (1913-1933) nella accomodante versione di Bohr

(Continuazione) 1913. 1° Conferenza sulla "struttura della materia". Scrive Bohr: "E' illuminante per la comprensione dell'atteggiamento generale dei fisici a quel tempo notare come non fosse ancora generalmente apprezzata l'importanza eccezionale che aveva per queste ricerche (sulla struttura della materia) la scoperta di Rutheford del nucleo atomico". Ma se trascuravano il nucleo atomico, i fisici accoglievano con soddisfazione la scoperta di Laue della diffrazione dei raggi X (Rontgen) nei cristalli.

Alcuni mesi prima della conferenza era stato pubblicato il lavoro di Bohr sul modello dell'atomo, che tentava di interpretare la scoperta di Rutheford, ma, sebbene l'autore non lo dica espressamente, esso fu in sostanza ignorato. A Thompson fu concesso di relazionare ampiamente sulla costituzione elettronica dell'atomo, mentre Rutheford, dice Bohr, accennò solamente alla sua scoperta, insistendo però "sull'abbondanza e accuratezza dei dati che stavano alla base del suo modello nucleare".

Illuminante per definire l'atteggiamento dei fisici non è soltanto lo scarso apprezzamento della scoperta del nucleo. A nostro avviso, questa conferenza si caratterizzò per il prevalere delle influenze positivistiche e idealistiche che la scoperta di Laue sembrava favorire, proprio perché eliminava "gli ultimi dubbi sulla necessità di attribuire proprietà ondulatorie" a radiazioni penetranti i cui aspetti corpuscolari "erano stati illustrati in modo sorprendente dalle fotografie in camera di Wilson".

giovedì 15 dicembre 2011

1) Aspettando i risultati di LHC

I] I litigiosi congressi di Solvay (1913-1933) nella accomodante versione di Bohr

In una raccolta di scritti, pubblicata in Italia nel 1961 con il superbo titolo "I quanti e la vita", Bohr rifà la storia dei Congressi e delle Conferenze di Solvay, smussando tutte le polemiche e i contrasti che li avevano accompagnati, e fornendo la soluzione di compromesso, da lui stesso escogitata, che fu accettata senza vera soddisfazione, appunto soltanto perché era un compromesso che non risolveva niente.

Prima di affrontare la storia scritta da uno dei protagonisti della crisi della fisica dei primi decenni del Novecento, vediamo di riassumere i termini di questa crisi. I Congressi iniziarono nel 1911, dopo la scoperta sperimentale dell'elettrone (Thompson) e del nucleo (Rutheford), dopo l'equazione di Planck e i saggi di Einstein sui quanti di luce e sull'equivalenza massa-energia.

Queste novità riproposero il vecchio dilemma tra la concezione corpuscolare e quella ondulatoria. Agli inizi del Novecento, la comunità dei fisici era divisa tra due concezioni sulla natura della materia: alla costituizione atomistica corpuscolare veniva contrapposta una concezione energetista-ondulatoria, nella quale la materia veniva fatta scomparire. Era questa la forma in cui nella scienza della fisica si riproponeva l'antica opposizione tra materialismo e idealismo.

mercoledì 14 dicembre 2011

La mistica particella di Dio, il bosone di Higgs, ha lasciato la sua impronta?

Nel lontano 1964, il matematico fisico Peter Higgs, evidentemente nelle grazie del Signore, creava una matematica apposita che contemplava una specie di comunione di campo e particelle chiamate bosoni, tra cui il bosone responsabile della formazione delle masse.

Nell'ultimo post chi scrive ha avuto torto a predire che i due articoli storici di Maiani e Greco, usciti su "Scienza in rete", stavano a significare che avremmo dovuto aspettare ancora parecchio per la conferma del "bosone di Higgs". Infatti, all'improvviso, un modesto risultato, tutto da valutare non solo dai teorici matematici ma anche dai fisici empirici, viene strombazzato dai quotidiani come fosse: "se non ora, quando?"

martedì 13 dicembre 2011

Il futuro della conoscenza: una possibilità in attesa di essere realizzata, se mai lo sarà

L'autore di questo blog può intervenire in diversi campi della conoscenza umana perché, dal 1993, ha prodotto una serie di volumi, dai quali ogni volta pesca paragrafi che non invecchiano mai, quali ad esempio quelli relativi alla storia della teoria della conoscenza, per fare un solo esempio. Si potrebbe dire che il  passato della conoscenza è una necessità comunque garantita, sia nei suoi errori che nelle sue verità.

Ma, per poter eseguire nuovi approfondimenti suggeriti da nuove letture e nuovi studi, e tradurli in sintesi degne di essere pubblicate o postate, i diversi campi della conoscenza, nel presente, si fanno concorrenza nella testa dell'autore, perché tutti ugualmente attraenti ma non tutti fronteggiabili in contemporanea. E' così che da tempo due ponderosi trattati di biologia molecolare e cellulare, per ora soltanto compulsati, aspettano pazientemente d'essere ripresi in considerazione: sono in lista di attesa, dopo essere stati messi da parte assieme a un centinaio di pagine manoscritte estratte. Si potrebbe dire che il futuro della conoscenza è solo una possibilità che attende di essere realizzata, se mai lo sarà.

lunedì 12 dicembre 2011

Heinz Pagels: la metafora del campo in fisica

Il riduzionismo indeterministico applicato alle particelle e ai campi quantistici

Secondo Heinz Pagels ("Universo simmetrico", 1988) le particelle fondamentali della fisica non sarebbero fatte di "materia" nel senso comune del termine, ma di entità stabilite dal "mondo stravagante della realtà quantistica". E ancora: "Il primo modo in cui i fisici concepiscono queste particelle si riferisce alle proprietà intrinseche (quali massa, spin, carica elettrica e così via) che sono alla base della loro classificazione. Il secondo modo si fonda sulle interazioni tra particelle diverse. Una volta che un fisico conosce le proprietà intrinseche e tutte le interazioni di una particella quantistica, conosce tutto ciò che di essa si può conoscere".

Si tratta della pretesa conoscenza riduzionistica che predetermina persino ciò che si può conoscere. Ma che cosa si può conoscere? Chi lo stabilisce? Le particelle, come forme materiali, non contano nulla; ciò che conta è la nozione di simmetria, che è una nozione tipicamente matematica, geometrica, che vale per tutto ciò che vogliamo, che non distingue tra un cerchio e una particella, tra una sfera e un cristallo di ghiaccio. I matematici fisici adorano i concetti che valgono indistintamente per tutto (e quindi per niente in modo specifico). Credono in questo modo di fare una scienza superiore, mentre si elevano nel cielo terso delle astrazioni pure. Simmetria, supersimmetria, rottura della simmetria: sembra di tornare all'esoterismo.

Seth Lloyd: l'universo a immagine e somiglianza del computer

Se la materia, secondo Zeilinger, è informazione, perché l'universo non potrebbe essere un computer? Seth Lloyd lo ipotizza chiaramente fin dal titolo del suo libro "IL PROGRAMMA DELL'UNIVERSO. Il cosmo come uno sconfinato computer"(2006). Ecco un chiaro esempio di realtà convenzionale, fittizia e metafisica, che traduce l'idea dell'identità realtà-informazione. Non sapendo come concepire realmente l'universo, lo si considera "come se" fosse uno sconfinato computer, così da utilizzare in cosmologia la nuova "scienza delle reti". Questo è il modo di procedere della scienza contemporanea: inventare nuovi paradigmi tratti dalle ultime novità della tecnologia umana.

Se Zeilinger ha detto: realtà e informazione sono la stessa cosa, Lloyd dice: "In principio era il bit". "Le cose nascono da pezzi di informazione, cioè dai bit". Murray Gell Mann ha obiettato all'autore che non tutti i bit sono uguali: "Ci sono bit preziosi e altri no". E alla domanda di uno studente: "c'è un modo preciso, matematico, di quantificare l'importanza dell'informazione contenuta in un bit?", l'autore non risponde, sprofondando nel più banale e semplicistico riduzionismo estremo.

venerdì 9 dicembre 2011

III] Kant: la cosa in sé inconoscibile e il caso inesistente

Eliminato il caso, rimangono solo le vuote tautologie e il noumeno

(Continua) 1) "Se il concetto ha una semplice connessione intellettuale con le condizioni formali dell'esperienza, il suo oggetto si dice possibile". Quindi, il concetto di possibile riguarda soltanto la possibilità delle condizioni formali dell'esperienza, permessa dai concetti a priori; è dunque possibile tutto ciò che non contraddice i concetti a priori. La possibilità kantiana non ha nulla a che vedere con l'oggettiva possibilità, che realmente si presenta come multiforme possibilità.

2) Se il concetto "è collegato alla percezione (sensazione come materia sensibile) ed è da questa determinata mediante l'intelletto, l'oggetto è reale". Quindi è reale soltanto ciò che è percepito come materia sensibile (esperienza, fenomeno) ed è determinato, ossia concepito, dall'intelletto. La realtà kantiana è dunque soggettiva, e nulla ha a che vedere con la oggettiva realtà di fatto, indipendente dalla coscienza.

3) Infine, se il concetto "è determinato dal collegamento delle percezioni in base ai concetti, l'oggetto si dice necessario". Quindi, se i concetti collegano le percezioni, la realtà di cui sopra è necessaria.

mercoledì 7 dicembre 2011

II] Kant: la cosa in sé inconoscibile e il caso inesistente

Lo schema trascendentale e la possibilità formale

(Continuazione) Scrive Kant: "Ma ogni nostra intuizione è sensibile e la conoscenza, essendo il suo oggetto dato, è empirica. La conoscenza empirica è però esperienza. Ne segue, dunque, che per noi non è possibile alcuna conoscenza a priori che non sia conoscenza di oggetti d'esperienza possibile". Il soggettivista trascendentale ha scoperto questa formuletta che ripeterà in tutte le salse, e che sembra collegare la conoscenza a priori con la conoscenza di oggetti d'esperienza, attraverso soltanto l'aggettivo possibile. Messa in positivo, la proposizione precedente suona così: per noi è possibile ogni conoscenza a priori che sia conoscenza di oggetti d'esperienza possibile. E' possibile ciò che è possibile. Bella tautologia per qualcosa d'impossibile!

Perché la questione è questa: com'è possibile accordare la sfera dell'a posteriori con la sfera dell'a priori, ossia l'esperienza con  i concetti a priori degli oggetti dell'esperienza stessa? Kant pone questa questione come aut, aut: "o è l'esperienza a rendere possibile questi concetti, o sono i concetti a rendere possibile l'esperienza". Poiché l'esperienza (come abbiamo già visto in Hume) non rende possibile generalizzare concetti di necessità, e di causa ed effetto, e Kant è dello stesso avviso (per cui rifiuta che i concetti derivino dall'esperienza), allora che cosa può restare se non la seconda alternativa? E infatti, così conclude: "le categorie contengono, dal lato dell'intelletto, i fondamenti della possibilità di ogni esperienza in generale" .

Questa soluzione puramente formale, che non rappresenta altro più di un espediente, non può bastare. Occorre, per così dire, una soluzione concreta, applicabile. Kant crede di trovarla nello schema trascendentale (Libro II Analitica dei princìpi): "Ora è chiaro che ci deve essere un qualcosa di intermedio, che risulti omogeneo da un lato con la categoria e dall'altro col fenomeno, affinché si renda possibile l'applicazione della prima al secondo. Questa rappresentazione intermedia deve essere pura (senza elementi empirici) e, tuttavia, per un verso intellettuale e per l'altro sensibile: essa è lo schema trascendentale".

lunedì 5 dicembre 2011

I] Kant: la cosa in sé inconoscibile e il caso inesistente

L'incolmabile separazione tra la sfera dell'intelletto puro e la sfera della esperienza sensibile

Nella prefazione alla seconda edizione della "Critica della ragion pura", Kant espone il suo programma per una teoria della conoscenza soggettivistica: "Finora si è creduto che ogni nostra conoscenza debba regolarsi sugli oggetti; ma tutti i tentativi, condotti a partire da questo presupposto, di stabilire, tramite concetti, qualcosa a priori intorno agli oggetti, onde allargare in tal modo la nostra conoscenza, sono andati a vuoto. E' venuto il momento di tentare una buona volta, anche nel campo della metafisica, il cammino inverso, muovendo dall'ipotesi che siano gli oggetti a doversi regolare sulla nostra conoscenza; ciò si accorda meglio con l'auspicata possibilità di una conoscenza a priori degli oggetti, che affermi qualcosa nei loro riguardi prima che ci siano dati".

Vedremo in seguito che se kant può "immaginare benissimo" la possibilità della conoscenza a priori è solo perché distingue tra l'oggetto in se stesso, che chiama cosa in sé e considera inconoscibile, e l'oggetto sensibile, che chiama fenomeno e considera il reale oggetto dell'esperienza; ed è quest'ultimo che si può e si deve regolare sulla nostra conoscenza, in quanto dipendente dal soggetto stesso del quale esso costituisce l'esperienza.

Ma l'idea fondamentale kantiana della inconoscibilità della cosa in sé può essere considerata anche da un punto di vista nuovo. Per il pensiero dialettico, la vera inconoscibilità riguarda, secondo la tesi principale del presente studio, la singola cosa di un complesso. Il riduzionismo deterministico, invece, ha sempre posto come vero oggetto della conoscenza la singola cosa, considerandola il semplice a cui deve essere ridotto il complesso.

venerdì 2 dicembre 2011

Zeilinger: la metafora del mondo come informazione al posto della realtà scientifica

Anton Zeilinger, autore di "Il velo di Einstein" (2003), nell'ultimo capitolo dal titolo molto significativo "Il mondo come informazione", sostiene che "la scelta dello strumento da usare in un esperimento determina quale grandezza fisica si può osservare; il che non presuppone necessariamente che questa grandezza fisica esista prima della osservazione". Quindi cita Bohr, che affermò: "E' sbagliato pensare che sia compito della fisica scoprire come è fatta la natura. La fisica tratta di ciò che si può dire della natura". Formula questa che favorì il soggettivismo idealistico. E l'aggiunta, in perfetto stile popperiano, dell'autore conferma l'assunto: "Nel caso della fisica quantistica abbiamo già visto che con i nostri strumenti, in fondo, poniamo domande alla natura, che in un modo o nell'altro risponde, se siamo fortunati".

In altro luogo abbiamo criticato questa impostazione, tipica del modo di operare dei servizi segreti nel periodo della guerra fredda. Ma Zeilinger ha in mente qualcosa di più raffinato e in sintonia con il nostro tempo, dominato da Internet e dalle informazioni computerizzate. Così, prima scopre come "principio fondamentale" l'informazione, intesa come risultato della osservazione, poi si domanda: "Ciò forse significa che tutto è solo informazione? Addirittura che forse la realtà non esiste?" E risponde: "Non possiamo semplificare la cosa fino a questo punto".

mercoledì 30 novembre 2011

II] Barabasi: teoria delle reti, una metafora informatica

(Continuazione)  Giunto a un pelo dall'agguantare il significato reale della eccezione statistica come conseguenza del dispendio naturale, Barabasi, non riuscendo a distaccarsi dal convenzionalismo che domina da troppo tempo le scienze della natura, concepisce i prodotti naturali come computer soggetti all'interconnettività delle reti. In realtà, è vero l'opposto: è l'ampiezza delle reti create nel software del computer che può essere paragonata al grande dispendio naturale. L'uomo ha creato qualcosa che imita soltanto la natura, e in una forma resa possibile da una "macchina", che perciò si comporta diversamente dai processi naturali.

Lo scambio delle parti fa sì che Barabasi, paradossalmente, colga il contrassegno dei processi naturali non nella natura ma nella tecnologia umana del computer: "Qual è l'origine di questa sorprendente robustezza tecnologica? Ciò che distingue le reti a invarianza di scala dalle altre reti è la presenza di hub, i rari nodi altamente connessi che le tengono insieme. I guasti, però, non discriminano fra hub e nodi più piccoli, colpendo tutti allo stesso modo. Se preleviamo alla cieca dieci palline da una borsa che ne contiene 10 rosse e 990 bianche, avremo novantanove possibilità su cento di trovarci in mano solo palline bianche. Quindi, se in una rete tutti i nodi hanno la stessa probabilità di essere colpiti, sarà più facile che vengano smantellati i più piccoli, essendo i più numerosi".

martedì 29 novembre 2011

Le smorfie di Merkozy e la mestizia di Monti nella crisi dell'euro

Difficile giustificare i sacrifici nascondendo per pudore la realtà

C'è un evidente pudore espresso nel nascondere la realtà quando si giustificano le difficoltà italiane ed europee come problemi solo o principalmente interni: un esempio per tutti, quello relativo alle motivazioni dei sacrifici da imporre ai cittadini europei, anche se in misura diversa a seconda della "regione" in cui hanno la ventura di risiedere, Italia o Grecia, Germania o Francia, ecc. Perché, invece, non si  dichiara apertamente la verità: che si tratta di sacrifici imposti dalla decadenza dell'Occidente a fronte dell'ascesa dell'Oriente?

Chi segue questo blog avrà forse avuto modo di leggere alcuni post, sotto l'etichetta "Storia e società della globalizzazione", che hanno cercato di spiegare come lo sviluppo asiatico, e cinese in particolare, abbia permesso l'acquisizione di grosse quote di shopping, sottratte agli Stati Uniti e agli Stati europei avanzati. In altre parole, l'Oriente vede crescere rapidamente la sua quota di shopper (il vecchio ceto medio), mentre l'Occidente lo vede decrescere.

lunedì 28 novembre 2011

I] Barabasi: teoria delle reti, una metafora informatica

A un passo dalla scoperta della legge del dispendio e della eccezione statistica, e smarrire la via (prima parte)

In agosto (2008) usciva, allegato a "Le Scienze", "La scienza delle reti" di Albert-Laszlo Barabasi. Il pregio di questo libro è costituito dal fatto che l'autore è arrivato molto vicino a comprendere sia le polarità caso-necessità e singolo-complesso sia la legge del dispendio e della eccezione statistica, ma ha smarrito la via ricadendo nel ricorrente errore epistemologico: assimilare la natura e i suoi prodotti all'ultimo ritrovato della tecnologia umana (oggi, il computer), subordinando la teoria della conoscenza all'ultima teoria sorta dalla tecnologia (oggi, la teoria delle reti).

Paradossalmente, nella presentazione del libro di Barabasi su "Le Scienze" di luglio (2008), è stato sottolineato positivamente questo errore, giudicandolo un progresso teorico: "Che cosa hanno in comune l'opera di evangelizzazione di Paolo Tarso, l'oscuro attacco via e-mail di un pirata informatico, il dilagare di una epidemia virale, l'altalena dei mercati azionari, la repentina diffusione di un blackout lungo la rete elettrica, la rete terroristica di Al Qaeda? Se siete tentati di rispondere "niente", Link. La scienza delle reti -in edicola con il numero di agosto di "Le Scienze"- è il libro che fa per voi. Perché tutti i sistemi complessi che abbiamo appena elencati sono governati da leggi comuni (!) che derivano dalla teoria della reti".

giovedì 24 novembre 2011

III] Hume: la causalità per consuetudine e il rifiuto del caso

(Continua)   La posizione di Hume nei confronti del rapporto caso-necessità e della relazione di causa- effetto può essere riassunta nei seguenti termini: il singolo evento è indeterminabile, ossia non presenta alcuna relazione di necessità; ciò non implica, però, la nozione oggettiva di caso; ma quando si considera un insieme di eventi o la loro ripetizione, la consuetudine ci permette di stabilire la necessaria connessione di causa ed effetto. In questo modo, non si è reso conto che la determinazione necessaria viene fuori come statistica nei complessi di numerosi eventi, singolarmente casuali. Eppure era vicino alla soluzione: doveva soltanto accettare che l'impossibilità di determinare il singolo evento significa che esso è oggettivamente casuale.

C'è, a questo punto, un altro aspetto rilevante da considerare: il rapporto tra libertà e necessità. In questo rapporto si danno due termini in connessione. Hume comincia dal secondo, la necessità: "Si ammette universalmente che la materia, in tutte le sue operazioni, è mossa da una forza necessaria e che ogni effetto naturale è così precisamente determinato dall'energia della sua causa che nessun altro effetto, in quelle determinate circostanze, potrebbe derivarne".

mercoledì 23 novembre 2011

II] Hume: la causalità per consuetudine e il rifiuto del caso

(Continuazione) Nella sez V "La soluzione scettica", Hume coglie finalmente il nocciolo della questione: non si può dire "soltanto perché a un avvenimento, in un caso, ne precede un altro, che perciò uno è la causa e l'altro è l'effetto. La loro congiunzione può essere arbitraria e casuale". E allora come uscirne fuori? La soluzione di Hume sarebbe oggettivamente statistica se non fosse soggettivistica: infatti, dice: "noi traiamo da un centinaio di casi un'inferenza che non riusciamo a trarre da un solo caso". Ma, concludendo che "tutte le inferenze dell'esperienza, dunque, sono effetti di consuetudine non di ragionamento", egli sostituisce a un dato oggettivo statistico, un concetto soggettivo, psicologico: l'abitudine.

Insomma, il filosofo scozzese, illuminista scettico, dice giustamente che ciò che appare una relazione di causa ed effetto può essere una connessione puramente casuale. Ma se il "caso" si ripete "cento volte", allora si tratta di abitudine (e non di statistica!), grazie alla quale inferiamo la relazione di causa-effetto. Si può confrontare questa soluzione con le osservazioni critiche di Leibniz a riguardo delle "inferenze empiriche": Leibniz ricorda i cani addestrati, che si attendono qualcosa "per esperienza", ad esempio, di ricevere cibo; mentre nella realtà la previsione può essere affatto sbagliata. Quindi, osserva: "Ma poiché spesso accade che tali cose siano compiute solo accidentalmente, gli empirici spesso s'ingannano, proprio come le bestie, nel senso che ciò che si attendono non accade" (Lettera sulla necessità e sulla contingenza, 19 dicembre 1707).

I] Hume: la causalità per consuetudine e il rifiuto del caso

In questo paragrafo prendiamo in considerazione il pensiero di Hume (1711-1776) in relazione ai concetti di caso e necessità e di causa ed effetto, utilizzando le sue "Ricerche sull'intelletto". Nella sezione II, "L'origine delle idee", egli riconduce le idee alle impressioni, secondo il metodo della riduzione di Cartesio, ossia considerando le idee complesse riconducibili alle idee semplici, le quali, a loro volta, considera copie di precedenti sensazioni o sentimenti; però non esclude che esistano anche idee che non sono trasmesse dai sensi.

Ciò che conta per Hume è distinguere le idee dalle impressioni così da eliminare ogni confusione; perciò, precisa: "Tutte le idee, specialmente quelle astratte, sono naturalmente deboli e oscure (...). Al contrario, tutte le impressioni, cioè tutte le sensazioni, sia esterne che interne, sono forti e vivide; i limiti fra di esse sono esattamente determinati, né è facile cadere in qualche errore ed equivoco nei loro riguardi".

martedì 22 novembre 2011

Studi e riflessioni di un autodidatta: un bilancio di questo blog

In questo blog si possono trovare diverse cose. La principale, quella per cui è stato creato, è far conoscere  una nuova teoria della conoscenza fondata sulla dialettica caso-necessità, con i suoi princìpi specifici e la sua continua evoluzione nello studio delle varie discipline scientifiche. A questo scopo sono stati postati paragrafi tratti da volumi scritti nel periodo 1993-2002, dove la nuova teoria è stata verificata e sviluppata in teoria della conoscenza, fisica e  biologia, o, più precisamente, in molti aspetti rilevanti di queste scienze. Lo stesso vale per la storia in generale, e per la storia della globalizzazione in particolare, come indagine dello specifico periodo storico del capitalismo, iniziato negli anni ottanta e ancora in atto: argomento quest'ultimo, studiato e sviluppato dall'autore a partire dal 2003 fino al 2008.

lunedì 21 novembre 2011

Le metafore nella scienza fisica: veli pietosi stesi sull'ignoranza umana

Nel libro di Silvio Bergia, "Dal cosmo immutabile all'universo in evoluzione" (1993), si può trovare una lista di metafore fondamentali della fisica, a cominciare dalla più antica: il meccanicismo, ossia "la tendenza a concepire il cosmo" "come una gigantesca macchina, che di volta in volta ripropone una delle macchine archetipe della fase particolare di sviluppo tecnico e produttivo".

Come abbiamo già avuto modo di sottolineare, in ogni epoca l'uomo ha concepito l'universo (e la natura) alla stregua di una macchina, ma ha potuto farlo solo assimilandolo a un qualche meccanismo da lui stesso, nel frattempo, prodotto. Cosi, se oggi è l'era del computer, meccanismo molto complesso e raffinato, nelle epoche passate, come vedremo, ci si dovette accontentare di molto meno. In questo modo, comunque, l'universo ha dovuto cambiare varie fogge durante il periodo millenario dello sviluppo della tecnologia umana. Ma queste diverse fogge non hanno mai potuto riflettere forme reali, essendo soltanto delle metafore stese, come veli pietosi, sull'ignoranza umana.

venerdì 18 novembre 2011

Lo scadimento degli intellettuali nella decadenza dell'Occidente democratico

L'intervista di Leopoldo Fabiani ("La Repubblica", 12 maggio 2006) a Umberto Eco e Giuliano Amato, in occasione della presentazione del libro di quest'ultimo, "Un altro mondo è possibile?", è un significativo esempio dello scadimento degli intellettuali nella decadenza dell'Occidente democratico.

Fabiani presenta così l'inconsistente contrapposizione tra questi due personaggi: "Il "pessimismo tettonico" di Umberto Eco che dice: "Terrorismo, degrado ambientale, corsa alle armi di distruzione di massa, globalizzazione. Sono fenomeni che non possiamo impedire. Sono come i terremoti e le valanghe, possiamo solo attrezzarci per il dopo". Dall'altra parte l'"ottimismo realista" di Giuliano Amato che sostiene invece: "Ognuno di noi può mobilitarsi e agire in molte forme, come opinione pubblica, nelle lobbies o nel volontariato per costringere a mettere al primo posto nell'agenda dei governanti i grandi problemi che abbiamo di fronte"."

mercoledì 16 novembre 2011

Il metodo di Cartesio, fondato su una semplice tautologia

Cartesio (1596-1650) è l'iniziatore del metodo riduzionistico (deterministico e meccanicistico) della scienza moderna: è perciò da lui che partiamo per scoprire le ragioni del successo che questo metodo ha riscosso per tanti secoli, e continua ancora a riscuotere, pur non contribuendo affatto alla conoscenza dei reali processi naturali.

Nel saggio scritto nel 1628, "Regole per la guida dell'intelligenza", egli stabilisce alcune regole e distinzioni concettuali che definiscono sia il suo metodo che il suo obiettivo. Con la prima distinzione tra intuizione e deduzione, egli considera due modi di pensare, diversi nella forma ma eguali nel loro contenuto certo: l) l'intuizione, che non è "l'incostante attestazione dei sensi o l'ingannevole giudizio dell'immaginazione malamente combinatrice", "ma un concetto privo di dubbio", immediatamente evidente; 2) la deduzione, ossia "tutto ciò che viene concluso necessariamente da certe altre cose conosciute con certezza".

Se la certezza è l'obiettivo che egli crede di raggiungere con l'intuizione evidente e la deduzione necessaria, con la quinta regola stabilisce il nuovo metodo della riduzione dal complesso al semplice: "Tutto il metodo consiste nell'ordine e nella disposizione di quelle cose a cui deve essere rivolta la forma della mente, affinché si scopra qualche verità. E tale metodo osserveremo con esattezza, se ridurremo gradatamente le proposizione involute ed oscure ad altre più semplici, e poi dall'intuito di tutte le più semplici tenteremo di salire per i medesimi gradi alla conoscenza di tutte le altre".

martedì 15 novembre 2011

Mario Monti, il futuro dell'Italia e della UE

Il primo giorno del suo mandato esplorativo, Monti ha dovuto fare i conti con le pretestuosità della politica parlamentare italiana che caratterizza i partiti come serbatoi di interessi vitali. Dunque, ha dovuto sorbirsi le rispettive reticenze, dettate da interessi di partito, da interessi elettorali.

E' come se il cervello della politica italiana fosse dominato da schizofrenia. Una parte vede il pericolo del default: la rovina dell'Italia che non distinguerebbe tra destra, sinistra e corredo di partitini amici o avversari. L'altra parte vede solo le elezioni, arrivare alle quali in vantaggio è un imperativo assoluto: così il Pdl le pensa tutte pur di recuperare il "default" del suo presidente, il Pd le pensa tutte pur di non perdere l'immaginario vantaggio della resa di un presidente del consiglio, privato della carica e di ogni prestigio; la lega torna semplicemente all'opposizione per riacquistare le simpatie dei suoi, perdute come partito di governo; e tutti gli altri partitini si aggirano nei rami del parlamento con il bilancino in mano per misurare piccoli spostamenti dei pesi elettorali.

domenica 13 novembre 2011

4) Globalizzazione e crisi

Conclusioni sull'era della turbolenza

(Continuazione) Le motivazione che spinsero il presidente della Fed ad alzare i tassi, a suo dire, sono varie e non manca neppure quella dell'"atterraggio morbido". Ma, ancora una volta, l'inatteso risultato non voluto confermò l'anarchia del capitalismo e l'imprevedibilità delle politiche monetarie: ad essere penalizzati furono i titoli NASDAQ che, da marzo a dicembre, persero il 50% del loro valore. La rivoluzione informatica tradiva così le aspettative americane di un vantaggio tecnologico fondamentale per la perpetuazione dell'egemonia USA.

Ma per comprendere le successive mosse di Washington, dopo la crisi del 2000, che prevalsero sull'interventismo monetario della Fed assoggettandolo all'interventismo petrolifero e militare, occorre considerare un altro aspetto: la previsione della scomparsa del debito pubblico e dell'accumulo di troppi anni di elevato surplus di bilancio. Questa eventualità disorientò i membri del FOMC perché, scrive Greenspan, "La nostra principale leva di politica monetaria era la compravendita di buoni del Tesoro, le cambiali dello zio Sem. Se il debito fosse diminuito, i titoli sarebbero scarseggiati, per cui avremmo dovuto cercare nuovi strumenti per agire. Per quasi un anno, i più esperti economisti e operatori della Fed avevano cercato di individuare quali altri titoli avremmo potuto comprare e vendere".

sabato 12 novembre 2011

3) Globalizzazione e crisi

L'imprevisto boom delle dot-com

(Continuazione) Riassumiamo la ricostruzione dello studio di Grenspan sul "cambiamento tecnologico epocale", come ebbe a definirlo. Dopo aver esaminato i cicli economici a partire dalla fine degli anni '40, egli si rese conto che non c'era mai stato nulla del genere: il rapido boom della tecnologia informatica stava provocando una rapida obsolescenza tecnologica, senza risparmiare colossi come AT&T, IBM. ecc., e, come conseguenza, un rinnovamento continuo delle aziende della Silicon Valley. Molti furono i fallimenti. "Bill Gates, presidente della Microsoft, distribuì un bollettino ai suoi dipendenti intitolato "Tsunami Internet", paragonando Internet all'avvento del personal computer".

Fu questo nuovo fenomeno tecnologico a diffondere la teoria della "distruzione creativa" di Schumpeter, che divenne lo slogan delle dot-com. Il confronto tra Google e General Motors è significativo: la G.M. annunciò nel 2005 di dover licenziare 30.000 dipendenti e nel contempo trasferì miliardi di dollari verso fondi per finanziare pensioni e assicurazioni dei suoi dipendenti. Questi fondi, a loro volta, investirono il capitale nei titoli più promettenti, tra cui Google, che nel frattempo stava crescendo rapidamente.

venerdì 11 novembre 2011

Nel gioco triangolare delle superpotenze continentali Mario Monti al governo dell'italia, per l'adeguamento alla nuova tendenza secolare

Quando la Ue era ancora in fieri e il marco era la moneta forte dell'Europa (stante una Germania dell'Ovest in via di unificazione, con l'acquisizione di nuova forza lavoro e nuovo mercato dalla Germania dell'Est), la Mitteleuropa faceva da potente calamita che esercitava una attrazione tale da disgregare e avvicinare a sé regioni limitrofe, appartenenti ad altri Stati: tra queste, non solo le regioni appartenenti all'Unione Sovietica, ma anche regioni come la Padania di Bossi, il quale non a caso ha rappresentato politicamente questa tendenza del Nord Italia. Era, per così dire, una tendenza decentratrice, in controtendenza rispetto alla tendenza progettata da tempo verso una Europa unita.

Non c'è quindi da stupirsi se la Lega oggi perda colpi. Non è solo una questione di politica interna che mostra un brutto momento per la coalizione berlusconiana. E' qualcosa che sovrasta i nostri confini e persino quelli della UE a 25, qualcosa per spiegare la quale l'autore di questo blog deve prima fare un passo indietro nel tempo, tornando all'epoca delle tendenze centrifughe, all'epoca della strategia USA per l'Europa, dopo il crollo dell'URSS: quella denominata "alla carte", che mostrava sufficienza verso la UE in formazione sostenendo alleanze, a seconda della propria convenienza del momento, con i neonati paesi dell'Est e con altri paesi europei.

2) Globalizzazione e crisi

Crisi del 1987 e crollo dell'URSS

(Continuazione) Ora, non solo la Fed intervenne aumentando il costo del denaro, ma di fronte allo sbandamento della borsa dovette intervenire per convincere le banche a non cessare di operare prestiti, promettendo il proprio sostegno, con la seguente dichiarazione di Greenspan: "La Federal Reserve, conformemente alle sue responsabilità di Banca centrale della nazione, afferma oggi di essere pronta a servire da fonte di liquidità per sostenere il sistema economico finanziario".

Il suo intervento si concretizzò in acquisto di titoli di Stato sul libero mercato, che ebbe l'effetto di mettere in circolazione miliardi di dollari provocando il calo dei tassi d'interesse. Con finta ingenuità, il liberista Greenspan scrive: "Prima del crollo avevamo operato una stretta sui tassi d'interesse, ma in questo momento li allentammo per tenere l'economia in movimento". Insomma, se l'economia si muove troppo in fretta viene frenata dalla Fed con un rialzo dei tassi d'interesse, e se ciò la rallenta troppo, viene tenuta in movimento con un ribasso.

giovedì 10 novembre 2011

1) Globalizzazione e crisi

Il liberismo interventista di Greenspan

E' soltanto un apparente paradosso che un liberista possa presiedere una istituzione necessariamente interventista come la Federal Reserve Bord (Fed)? Come vedremo, nella globalizzazione, tanto il liberismo riguarda il mercato dei capitali, delle merci e soprattutto della forza lavoro, quanto l'interventismo riguarda la politica monetaria, petrolifera e militare. Entrambi possono convivere in simbiosi nella globalizzazione, fase economica resa possibile dallo sviluppo accelerato dell'Asia in generale e della Cina in particolare.

Il liberista Alan Greenspan ha presieduto la Fed dal 1987 al 2006, un ventennio nel quale si è affermata la globalizzazione del mercato mondiale, alla quale egli ha dedicato le sue memorie in "L'era della turbolenza", 2006. L'apparente paradosso lo riguarda personalmente, essendo un seguace del liberismo di Friedman (e di Adam Smith), costretto, come presidente della Fed, a intervenire continuamente sui tassi d'interesse, per "proteggere" il ciclo economico dalle crisi secondo i dettami di Keynes.

martedì 8 novembre 2011

Lezione 9° L'impossibile "scienza del caso" di Didier Dacunha-Castelle

L'inconsapevolezza delle polarità dialettiche caso-necessità, singolo-complesso, probabilità-statistica ha prodotto, a partire dalla seconda metà del Novecento, una congérie senza fine di falsi nessi tra termini e locuzioni della teoria della probabilità, della teoria dell'informazione e delle più recenti teorie del caos e della complessità. Evidentemente non bastava la confusione sul ruolo che il caso riveste nell'ambito della natura e della società umana, non bastava la confusione che la teoria della probabilità si porta dietro fin dalle sue origini tra il termine di probabilità e il termine di frequenza: occorreva mischiare tra loro "probabilità", "frequenza", "informazione", "entropia", "caos", "complessità", ecc. per rendere ancor più confuso il rapporto caso-necessità, così da creare l'impossibile scienza del caso.

Per farci un'idea di quanto farraginoso sia il fondamento teorico di questa pretesa scienza, è sufficiente rivolgerci a "La scienza del caso" (1996) di Didier Dacunha-Castelle (D.D.-C.). L'autore parte dal concetto di probabilità: "Che cosa rende tanto interessante il ragionamento probabilistico? A partire da che cosa si può fare il calcolo "sul" caso? Il XIX secolo è stato segnato dalla questione del "perché statistico". Perché il numero di suicidi e di crimini in ogni regione del mondo resta più o meno costante di anno in anno? Rispondere a questa domanda richiede un attento esame della legge dei grandi numeri, delle regolarità che si esprimono all'interno di popolazioni numerose. Vi sono eccezioni a tale comportamento regolare che costituiscono avvenimenti rari e importanti. La nozione di rarità è difficile, anche nelle scienze matematiche. Se non si può universalmente definire ciò che è raro, si può chiarire la dialettica tempo-rarità. Chiarire cioè quanto tempo bisogna attendere perché si verifichi ciò che è raro e se il sopraggiungere di un avvenimento raro segue sempre strade privilegiate".

domenica 6 novembre 2011

L'evoluzione dispendiosa della vita

L'incomprensione di Gould e le due leggi di Engels

Uno dei motivi conduttori del pensiero teorico della biologia contemporanea è il ritenere l'evoluzione della vita una questione di efficienza e di economia. Di conseguenza, l'evoluzione dovrebbe dare come risultato il massimo del prodotto vitale. Per questo modo di pensare, un'evoluzione dispendiosa è un controsenso. Perciò la natura appare molto stravagante quando ci mostra distruzioni, estinzioni e mostruosità.

Può sembrare paradossale, ma ogni argomento è buono per rifiutare il carattere dispendioso della evoluzione. Potremmo anche dire che ogni scuola, e persino ogni autore, si distingue per l'argomento prescelto. La conseguenza è che, nei vari rami della biologia contemporanea, c'è molta confusione sull'oggetto stesso della evoluzione.

venerdì 4 novembre 2011

Serendipity, ovvero l'illusione di interrogare il caso

La pagina culturale del Corriere della sera del 7 novembre 2002 riportava un ampio brano tratto da "Viaggi e avventure della Serendipity" di Robert K. Merton ed Elinor G. Barber, accompagnato da un commento di Alessandro Cavalli sull'idea base del sociologo Merton. Secondo Cavalli "Il 'caso' gioca un ruolo fondamentale, non solo nella scienza, ma in genere nelle vicende umane. La serendipity è appunto la scoperta inattesa, casuale, il dato anomalo dissonante, che mette in crisi quella che Kuhn avrebbe chiamato la scienza normale e che costringe al ripensamento e alla revisione di ciò che era dato per acquisito". Come vedremo, l'idea fondamentale di Merton non va oltre il riconoscimento del ruolo del caso e delle "conseguenze inattese", senza riuscire a trovare una soluzione che non sia il ritorno indietro all'etica e alla responsabilità individuale.

Il brano inizia così: "I problemi morali e intellettuali suscitati dalle felici scoperte accidentali sono simili e per certi aspetti importanti collegati alla spiegazione e giustificazione della buona e cattiva sorte in generale, in quanto tali felici scoperte accidentali sollevano il problema delle speranze e dei meriti legittimi". Come si vede, Merton non concepisce la serendipity come una questione di teoria della conoscenza, ma come una questione etica, relativa ai singoli individui, che egli affronta in maniera manichea: "E' destino dell'uomo riconoscere il bene e il male quando si presentano nel suo cammino, ed è suo destino, quale creatura in grado di valutare, cercare di stabilire la misura della sua responsabilità verso l'uno e l'altro".

mercoledì 2 novembre 2011

Lezione 8° Marquard: un'apologia scettica del caso

Lo scettico Odo Marquard, in "Apologia del caso" (1991), scrive: "Uno dei peggiori nemici della libertà e della dignità dell'uomo sembra essere il caso. Ciò malgrado, vorrei quasi interporre una buona parola in favore del caso, in favore dell'accidentale. Parlerò forse, allora, contro la libertà e la dignità dell'uomo? Nient'affatto. Voglio solo dire che sarebbe segno di una mancanza di libertà se l'uomo, indegnamente, vivesse al di sopra dei propri mezzi: al di sopra della sua condizione di finitudine. L'uomo, lo voglia o no, dovrà riconoscere l'accidentale facendone l'apologia. Ecco la mia tesi".

L'apologia dell'accidentale e il "riconoscimento" del ruolo fondamentale del caso appartengono a un lontano passato, appartengono alla teoria di Epicuro, come abbiamo già visto. Marquard non fa che riproporre una concezione epicurea, perciò la sua tesi può essere considerata anarchica. Eppure, diversamente da Epicuro che considerava il caso come propizio per la libertà, Marquard parte dalla considerazione opposta del caso come uno dei peggiori nemici della libertà; ma poi capovolge la realtà perché, come vedremo, non è in grado di interpretarla come dialettica di caso e necessità.

Riguardo al rapporto caso-necessità, Marquard cerca lumi presso Aristotele, il quale "riconobbe l'accidentale come ciò che non è né impossibile, né necessario e dunque come ciò che potrebbe anche non essere o essere altrimenti. Questo accidentale-contingente- si costituì in problema sotto almeno tre aspetti: a) in quanto contrario del necessario, ovvero b) in quanto fondamento del necessario, ovvero c) in altri modi ancora".

lunedì 31 ottobre 2011

Origine della vita: tra concezioni opposte, una sola verità dialettica

Steven J. Dick in "Vita nel cosmo" (2008), all'inizio del sesto capitolo, cita quattro concezioni diverse sulla comparsa della vita. Vediamole:

l) "Abbiamo tutte le ragioni per ritenere che la comparsa della vita non sia un "fortunato incidente", ma un fenomeno del tutto normale, una componente intrinseca allo sviluppo evolutivo globale del nostro pianeta. La ricerca della vita fuori della Terra è quindi solo una parte di un problema più generale che la scienza si trova ad affrontare, l'origine della vita nell'Universo" (A.I. Oparin, 1975).

2) "Il rendersi conto appieno della quasi impossibilità della comparsa della vita ci riporta all'estrema improbabilità di quanto è avvenuto. E' per questo motivo che molti biologi ritengono che la comparsa del vivente sia stata un evento imprevedibile. La probabilità che questo evento quasi impossibile abbia avuto luogo più di una volta è incredibilmente bassa, anche se nell'Universo ci fossero milioni di pianeti" (Ernst Mayr, 1982).

venerdì 28 ottobre 2011

La società dello shopping: la figura sociale dello shopper

Uno degli equivoci della sociologia attuale è considerare una novità recente la società della "globalizzazione" e nel contempo mantenere la vetusta espressione di "società del consumismo". L'era del consumismo ha avuto inizio quando, prima negli Stati Uniti e poi in Europa, una massa consistente di salariati ha cominciato ad acquistare utilitarie, frigoriferi, lavatrici, televisori per consumarli il più a lungo possibile.

E, sebbene oggi la situazione sia cambiata, come abbiamo visto nei precedenti paragrafi, un sociologo tra i più ragguardevoli, Zigmunt Bauman, continua a sostenere che "La nostra è una società dei consumi"; che, nell'attuale stadio "tardomoderno" (Giddens), "secondo moderno" (Beck), "surmoderno" (Balandieu), la società ha bisogno "di impegnare i suoi membri al fine primario che essi svolgano il ruolo di consumatori. Ai propri membri la nostra società impone una norma: saper e voler consumare".

Abbiamo visto che questa "norma" era già diventata parola d'ordine del nascente marketing, negli anni '20, in America. In Europa divenne attuale soltanto dagli anni '60; quindi la cosiddetta globalizzazione sembra non aver cambiato nulla nella "società del consumismo". E invece, è lo stesso Bauman che, contraddicendo la sua precedente affermazione, scopre che il "consumo" non è propriamente ciò che questa società pretende. Infatti scrive: "Il fatto che consumare prenda del tempo è in realtà la rovina della società dei consumi (sic!), ed è una grossa preoccupazione per i distributori dei beni di consumo".

La contraddizione del relativismo etico: uno scambio delle parti

Nella contrapposizione tra il relativismo etico e l'assolutismo del dogma cattolico, può anche accadere uno scambio delle parti che vede il secondo relativizzare il giudizio morale e il primo assolutizzarlo. Ma, mentre la religione cattolica usa il relativismo per attenuare le proprie colpe, il relativismo etico utilizza l'assolutismo per aggravare le colpe altrui.

Su "La Repubblica" di venerdì 2 giugno 2006, Umberto Galimberti valuta un'apertura, di fatto, al relativismo dell'"ermeneutica", la recente posizione espressa da Benedetto XVI per attenuare le colpe della Chiesa denunciate dal suo predecessore, Giovanni Paolo II. "Dice il Papa: "Conviene guardarsi dalla pretesa di impalcarsi con arroganza a giudici delle generazioni precedenti, vissute in altri tempi, in altre circostanze. Occorre umiltà nel negare i peccati del passato, e tuttavia non indulgere a facili accuse in assenza di prove reali o ignorando le differenti pre-comprensioni di allora"."

La novità "relativistica" della posizione del Pontefice sta tutta in questo termine, "pre-comprensione", che appartiene al padre fondatore dell'ermeneutica, Hans Georg Gadamer ("Verità e metodo" 1960). Secondo Gadamer la "pre-comprensione" è quel pre-giudizio che condiziona ogni giudizio, perché dipende dai condizionamenti storico-culturali dell'epoca. Essendo condizionamenti inevitabili, così interpreta Galimberti, "ogni giudizio è inevitabilmente pre-giudicato, con la conseguenza che non si dà una verità assoluta, ma solo interpretazioni, all'interno delle quali è possibile aprire un onesto e sincero dialogo".

mercoledì 26 ottobre 2011

Lezione 7° Ekeland: un esempio stravagante di confusione anarchica

Il matematico Ivar Ekeland, nel suo stravagante libello dal titolo molto significativo: "A CASO - la sorte, la scienza e il mondo" (1992), che, a detta dello stesso autore, può essere letto a caso, senza alcuna preoccupazione per la successione dei capitoli, si diverte a giocare con il calcolo delle probabilità, con l'incertezza della scienza, con leggende medioevali e con altro ancora. La stravaganza, che qui fa il paio con la superficialità teorica, e che appare come puro svago per il lettore, in realtà serve all'autore soltanto per portare acqua al mulino della concezione anarchica della conoscenza, fondata sull'incertezza. Dal guazzabuglio confuso degli argomenti "trattati", emerge, infatti, una concezione della contingenza che val la pena di mostrare.

Secondo Ekeland: "L'edificio della scienza, e così la storia umana comprendono molto arbìtrio, cosicché ci si sorprende a sognare ciò che avrebbe potuto essere ma non è stato. Noi siamo i superstiti di uno spietato processo di selezione che sceglie, nell'infinita varietà dei futuri possibili, quello che infine si realizzerà". E ancora: "Che cosa è questo mondo così contingente?" "Dinanzi all'assalto di questa contingenza multiforme, l'umanità si sforza di identificare i determinismi sottostanti, ossia di dare un senso al mondo. Come abbiamo visto, può trattarsi di concatenazioni necessarie come di regolarità statistiche: si tratta solo di svelarle".

lunedì 24 ottobre 2011

Energia repulsiva e massa attrattiva: i due opposti polari della materia in movimento

Ciò che i fisici teorici, con tutta la loro raffinatissima matematica pura, non hanno ancora compreso è che 1) l'esistenza della materia si manifesta unicamente come movimento, 2) il movimento è il fondamento della evoluzione della materia, 3) il movimento materiale evolutivo è garantito dalla polarità dialettica repulsione-attrazione, 4) la polarità repulsione-attrazione si manifesta nella forma di polarità energia - massa gravitazionale, 5) infine, il movimento repulsivo, dissipando energia, rovescia dialetticamente la repulsione in attrazione, l'energia in massa gravitazionale, e viceversa. Perciò la cosiddetta forza gravitazionale è semplicemente attrazione gravitazionale, conseguenza di una privazione, di una perdita: la dissipazione di energia repulsiva.

Che qualcosa di materialmente inesistente, come la "causa" della gravitazione, sia stata chiamata forza, e, anzi, che la forza sia stata moltiplicata in (fittizie) quattro forze fondamentali, è il lascito della fisica teorica del Novecento, che, metafisicamente, ha concepito la realtà materiale capovolta. Come conseguenza sorgono problemi insolubili: ad esempio, secondo Smolin ("L'universo senza stringhe", 2009), il problema della repulsione elettrica fra due protoni, che è molto più forte della loro attrazione gravitazionale di un fattore enorme, circa 10^38; oppure, quello della differenza cospicua delle masse delle particelle. "Per esempio l'elettrone ha un 1/1800 della massa del protone. E il bosone di Higgs, se esiste, ha una massa pari ad almeno 120 volte quella del protone".

venerdì 21 ottobre 2011

L'etica postmoderna e la malìa della postmodernità di Bauman

In "Una teoria sociologica della postmodernità" (1991), Bauman scrive: "La problematica etica specificamente postmoderna sorge principalmente da due caratteristiche fondamentali della condizione postmoderna: il pluralismo dell'autorità e la centralità della scelta nell'autocostituirsi degli agenti [i singoli individui che agiscono] postmoderni". "Il pluralismo dell'autorità, o piuttosto l'assenza di un'autorità con ambizioni globalizzanti, ha un duplice effetto. Innanzi tutto, esso esclude l'imposizione di norme costrittive alle quali ogni agenzia [il luogo dell'azione] debba obbedire".

Allora sorge "il problema delle regole". Ma, non si sa bene perché, le regole dovrebbero essere negoziate e il "negoziato di regole" dovrebbe assumere "un significato specificamente etico". Ancora, non si sa bene perché, il pluralismo delle autorità dovrebbe favorire "la riassunzione della responsabilità morale". L'unico perché addotto da Bauman è che gli scopi non possono essere dimostrati mediante il "monologo", ragion per cui dovrebbero essere soggetti a un "dialogo" e dovrebbero avere "un'autorità del tipo che appartiene unicamente ai valori etici".

giovedì 20 ottobre 2011

Per gli indignati una cattiva notizia e una peggiore

Da tempo è entrata, prepotentemente, in campo economico e politico, la questione etica, riproposta, sia nel versante religioso che in quello laico, proprio dai detrattori delle strutture economiche e sociali le quali si riflettono nelle sovrastrutture politiche, a tutti livelli, nazionali, regionali, globali. Lo abbiamo già considerato  nel dibattito attorno alle ragioni del Venerdì nero 2008.

La questione etica pone al suo centro l'individuo, attribuendogli responsabilità che non sono sue: ad esempio lo squallore morale dello shopper nella società occidentale dell'opulenza (in declino) è solo un derivato della sua pratica sociale, lo shopping, imposto con tecniche di marketing molto studiate (anche con il contributo della psicologia sociale, della sociologia, ecc, campi nei quali l'individuo è sì protagonista, ma solo in quanto malleabile e persuadibile). Lo si vede anche dalla frequenza e dall'urgenza degli spot televisivi che interrompono chiunque e su qualsiasi argomento di dibattito.

mercoledì 19 ottobre 2011

Lezione 6° Il pensiero debole di Morin. La filosofia dell'incertezza

Uno dei sociologi contemporanei, che ha notevolmente contribuito all'attuale stato confusionale della teoria della conoscenza, è Edgar Morin, teorico dell'incertezza del pensiero complesso. Vale la pena di prendere in considerazione le sue principali tesi perché ci permettono di mostrare a quali conseguenze nefaste possa giungere un pensiero che rifiuta la soluzione statistica del rapporto caso-necessità.

Morin ("Introduzione al pensiero complesso", 1993) parte dalla denuncia della cecità dell'incontrollato progresso della conoscenza che egli attribuisce al principio di disgiunzione, reo di aver separato tra loro i principali rami della scienza: la fisica, la biologia e la scienza dell'uomo. Il suo "pensiero complesso" ha quindi il compito di ricongiungere le scienze che il "pensiero semplice" ha separato. Ma, dopo essersi privato della semplicità, il pensiero di Morin entra subito in difficoltà, proprio in riferimento al rapporto caso-necessità.

lunedì 17 ottobre 2011

Megaverso o multiverso di Susskind: soluzione statistica solo sfiorata

Susskind ("Il paesaggio  cosmico", 2009) osserva: "Normalmente nessuno applicherebbe le leggi della statistica a un singolo lancio di moneta o di dado. L'interpretazione a molti mondi fa proprio questo, tratta gli eventi singoli in modo che, applicato al lancio della moneta suonerebbe un pò ridicolo. L'idea che ogni qual volta si lanci una moneta il mondo si divida in due copie parallele, il mondo-testa e il mondo-croce, non sembra un'idea molto utile".

In "Teoria della conoscenza" avevamo mostrato che la verifica della probabilità è un'assurdità, perché il singolo lancio di una moneta non può verificare p = 1/2, puo solo verificare che per caso avremo o testa o croce (per convenzione matematica, 1 per la faccia che esce e O per quella che non esce). Immaginare che una moneta si possa dividere in due copie parallele è qualcosa che poteva spuntare solo dalla mente dei fisici quantistici. Ma dicevamo anche che, su un gran numero di lanci, si può verificare la frequenza f = 1/2, e questa è l'inferenza statistica necessaria, la soluzione reale.

venerdì 14 ottobre 2011

L'individuo, protagonista morale della postmodernità secondo Bauman

Per il sociologo piccolo borghese, anche nel periodo della indefinibile "postmodernità", l'individuo rimane protagonista morale, sebbene con un'accentuazione della responsabilità personale, a causa della mancanza di un codice morale collettivo. Così Bauman può affermare: "L'autorità di chiese, partiti politici, istituzioni accademiche ecc. sono chiaramente in declino. La responsabilità sottratta agli individui sta tornando: tu e io siamo lasciati pressoché soli con le nostre decisioni. Non abbiamo un codice morale che sia assoluto e universale in tutta la sua visibilità. Ci troviamo nuovamente di fronte a problemi morali come se la modernità non sia un fatto accaduto: siamo spinti indietro sulla responsabilità individuale".*

Come abbiamo osservato in altro luogo, la responsabilità morale non è mai stata sottratta agli individui, tutt'altro: ciò che è avvenuto, grazie al determinismo riduzionistico, è che caratteri e qualità inerenti i complessi sono stati attribuiti agli individui, e viceversa. Il moralismo impotente ha sempre compiuto l'errore di attribuire ai singoli individui qualità del loro complesso (classe, ceto, ecc.) di appartenenza, considerandole alla stregua di responsabilità personali, e, viceversa, di attribuire una qualità specifica del singolo individuo, il capriccioso caso, alla collettività.

Per Bauman, la responsabilità morale significa che l'individuo, privato del potere del "grande codice", deve negoziare i suoi rapporti con il "partner sessuale", il coniuge, ecc.; e, in generale, nella postmodernità "non ci sono norme rigide per separare il modo corretto da quello errato di procedere, la cultura giusta da quella erronea, ecc." Non si passa più "dall'errore alla verità, ma da un'interpretazione ad un'altra, e proprio questo è ciò che preoccupa, proprio questo è il motivo della obiezione a questo moderno scetticismo". Insomma, non si è mai sicuri della scelta giusta: "tutto ciò che possiamo fare è riflettere su varie possibilità".

mercoledì 12 ottobre 2011

Lezione 5° Il pluralismo anarchico, allegro e spensierato, di Feyerabend

Tra le numerose varietà di pluralismo democratico, va annoverato il pluralismo anarchico di Feyerabend, che rappresenta la protesta libertaria contro l'autoritaria logica formale. Feyerabend si dichiara "Contro il metodo"* e, sebbene abbia in mente soprattutto il neopositivismo e il neoempirismo logico, di fatto egli è contro ogni metodo scientifico, e dimostra questa sua opposizione anche con un'esposizione volutamente disordinata e caotica. Così le affermazioni e le citazioni si susseguono senza alcun ordine, se non quello dettato dalla volontà di apparire a tutti i costi anarchico, come se potesse esistere una forma anarchica di esposizione.

Nella prefazione al suo libro, Feyerabend scrive: "Il presente saggio è scritto nella convinzione che l'anarchia, benché forse non costituisca la filosofia politica più attraente, sia però un'ottima base su cui fondare la epistemologia e la filosofia della scienza. Non è difficile scoprirne il perché". Egli è convinto che si possa fondare una teoria della conoscenza sull'anarchia, ma poi mette le mani avanti: "Non dobbiamo temere che la minore preoccupazione per la legge e l'ordine, implicita nell'adozione dell'anarchia, possa portare al caos". Qui, però, non è in discussione un sentimento come il timore, qui si tratta di stabilire come possa l'anarchia fondare una epistemologia.

lunedì 10 ottobre 2011

Stranezze della matematica-fisica giustificate da analogie con il senso comune

La fisica quantistica e la fisica relativistica, pur nella loro sostanziale differenza, hanno in comune un segno distintivo che il Nipote di Rameau di Diderot avrebbe chiamato "idiotismo di mestiere": e cioè l'oggetto delle loro indagini deve essere perlomeno strano e bizzarro, se non straordinario. Di conseguenza, il modello matematico, con il quale assicurano di fornire l'unica descrizione e spiegazione possibili, deve essere insolito e incredibile. Ma, nonostante ciò, esse si appellano costantemente al senso comune per giustificare e rendere comprensibile il loro modello. Per questa ragione, fanno un uso continuo e ostinato del metodo dell'analogia. E, se riescono a trovare una analogia tra il loro modello e il modo di pensare comune, credono in tal modo di averlo reso plausibile.

Soprattutto Einstein ha utilizzato il metodo induttivo come punto di partenza di ogni sua elaborazione e il metodo dell'analogia con il senso comune come spiegazione dei suoi modelli matematici. Egli non ha mai preso in considerazione i risultati della filosofia del passato (Leibniz, Spinoza, Hume, Kant, Hegel), per la quale il senso comune fondato sulla induzione è sempre stato considerato soggetto all'apparenza fallace.

venerdì 7 ottobre 2011

Il vero problema strategico per la perpetuazione dell'egemonia USA: lo sviluppo della Cina

Tratto da"Scritti sulla globalizzazione" (2005-2007)

Nell'editoriale di Limes (4.2005, "Cindia La sfida del secolo"), si può leggere: "Dopo quattro anni di una "guerra al terrorismo" di dubbia efficacia, gli strateghi di Washington tornano a concentrarsi sulla partita del secolo. Inforcando gli occhiali del determinismo geopolitico, i think tank paragovernativi vedono nella Cina di oggi -e a maggior ragione nel fantasma di Cindia, o peggio, nel "triangolo strategico" Pechino-Delhi-Mosca evocato dai Russi- l'Unione sovietica di ieri. Come nella guerra fredda si trattava di tagliare le unghie all'orso sovietico, così per i prossimi decenni l'imperativo è stroncare le velleità di Pechino".

Il paragone tra l'Unione sovietica di ieri e la Cina di oggi non ha alcun senso, perché significherebbe attribuire a Pechino il ruolo assunto da Mosca nella guerra fredda, che fu quello di indebolire, con la sua arretratezza, il principale mercato di ieri: il mercato europeo; ma nella attuale globalizzazione Pechino, con il suo sviluppo, rafforza il principale mercato di oggi, quello asiatico. Inoltre non c'è paragone tra la passata arretratezza sovietica e l'attuale sviluppo cinese.

mercoledì 5 ottobre 2011

Lezione 4°. La concezione anarchica (pessimistica) di teoria della conoscenza di Popper

Per comprendere questa versione anarchica (pessimistica) di teoria della conoscenza è sufficiente leggere le ultime quattro pagine del libro che stiamo considerando, "Logica della scoperta scientifica", 1934. "La scienza -scrive Popper- non è un sistema di asserzioni certe, o stabilite una volta per tutte, e non è neppure un sistema che avanzi costantemente verso uno stato definitivo. La nostra scienza non è conoscenza (episteme): non può mai pretendere di aver raggiunto la verità, e neppure un sostituto della verità, come la probabilità". Insomma, la scienza non è conoscenza: questa è la sua pessimistica conclusione!

Allora che cosa è la scienza? "E tuttavia la scienza ha qualcosa di più di un semplice valore di sopravvivenza biologica. Non è solo uno strumento utile. Sebbene non possa mai raggiungere né la verità né la probabilità, lo sforzo per ottenere la conoscenza e la ricerca della verità sono ancora i motivi più forti della scoperta scientifica". Ma se la conoscenza non può essere scienza, che cosa sarà mai la "scoperta scientifica"?

lunedì 3 ottobre 2011

Il big bang e l'universo ciclico

La dispendiosa evoluzione della materia

Partendo da punti di vista spesso diametralmente opposti, la maggior parte dei fisici che si occupano del big bang riescono a rifletterlo soltanto come singolarità, o punto infinitamente piccolo di densità infinita: ciò che, dal punto di vista fisico, non ha alcun senso. Che l'universo rappresenti, invece, energia-materia, o materia in movimento nel vuoto cosmo, è un'idea che viene completamente snobbata. Eppure, per poter pensare fisicamente l'espansione dell'energia-materia prodotta dal big bang, occorre necessariamente presupporre: 1) uno spazio cosmico vuoto e freddo, che permetta il movimento repulsivo della "palla di fuoco" nella direzione dal caldo al freddo, 2) un luogo nel quale tutta la materia dell'universo  partecipi al "grande scoppio".

Escludendo che il big bang sia un evento di creazione della materia e dello spazio dal nulla, possiamo solo pensare che sia un evento immanente al movimento reale della materia, perciò dobbiamo concepirlo considerando le reali condizioni fisiche della sua realizzazione. Se il big bang è l'inizio dell'attuale universo, bisogna prendere in considerazione il fatto che esso abbia un'esistenza limitata, e perciò una fine. Poiché tutto ciò che nasce è degno di perire, la logica vuole che un universo sorto dal big bang, prima o poi, termini il suo ciclo. La ciclicità dell'universo può rendere ragione dell'automovimento della materia come dialettica di repulsione-attrazione. La materia primordiale riceve una spinta repulsiva dal big bang e a questa si oppone l'attrazione gravitazionale. La gravitazione assume, quindi, un ruolo fondamentale nel determinare la fine di un ciclo universale.

sabato 1 ottobre 2011

Quasi d'accordo con Boncinelli

Nell'ultimo numero di "Le Scienze", ottobre 2011, uscito in questi giorni, Boncinelli dichiara, come sottotitolo del suo articolo, "le reti artificiali sono più facili da controllare rispetto alle reti naturali". Potremmo essere completamente d'accordo se egli aggiungesse: i prodotti artificiali sono più controllabili perché sono meccanismi creati da noi (secondo il rapporto di causa ed effetto), mentre i prodotti naturali non sono controllabili perché sono fenomeni e processi soggetti alla dialettica di caso e necessità. Ma sarebbe pretendere troppo. Per ora accontentiamoci dell'ammissione del sottotitolo, conseguenza logica di un'altra affermazione che presto vedremo.

venerdì 30 settembre 2011

L'evoluzione della strategia egemonica USA e il sistema di Stati nella Globalizzazione

Dal secondo dopoguerra ad oggi, il mondo economico-politico soggetto alla egemonia USA è stato definito con due formule, facenti riferimento semplicemente ai punti cardinali: "Est-Ovest", "Nord-Sud". La prima formula ha rappresentato il contrassegno della "guerra fredda", della contrapposizione  apparente tra il Primo mondo democratico e il Secondo mondo del "socialismo reale" (1948-1989); la seconda formula ha rappresentato il contrassegno della contrapposizione reale tra il Primo mondo dell'opulenza e dello shopping e il Terzo mondo della penuria (1989-2001): lo potremmo chiamare il "logo" della "globalizzazione".

Riguardo al primo periodo, della contrapposizione apparente tra le due superpotenze ineguali USA e URSS, la formula "Est-Ovest" rappresentò realmente il gioco di sponda tra due sistemi politici che dovevano attrarre nella loro orbita i nuovi Stati sorti dalla decolonizzazione, considerati nel loro insieme come appartenenti al Terzo mondo. Sebbene il Terzo mondo fosse in parte confluito nella associazione dei "Paesi non allineati", la maggior parte dei nuovi Stati sorti dalla decolonizzazione si trovò collocata o nella sponda degli Stati Uniti o nella sponda dell'URSS, partecipando alle molteplici pantomime della "guerra fredda".

mercoledì 28 settembre 2011

Lezione 3° Il ragionamento per falsificazione di Popper

Una concezione pessimistica e negativistica della scienza

Come abbiamo già visto, Hume e Kant hanno lasciato in eredità alla teoria della conoscenza due falsi problemi, rispettivamente, quello della induzione e quello della demarcazione tra il campo dell'intelletto e il campo della esperienza.

Secondo Popper ("Logica della scoperta scientifica", 1934), il tentativo di Hume "di basare il principio d'induzione sull'esperienza fallisce, perché conduce necessariamente a un regresso all'infinito". Popper non accetta neppure la soluzione kantiana, ossia il tentativo di giustificare i giudizi sintetici a priori, ma non è neppure d'accordo con l'attuale moda dell'inferenza induttiva, della quale si dice che, pur non essendo "rigorosamente valida", può raggiungere qualche grado di "credibilità" o di "probabilità".

Popper ammette come scientifico solo "un sistema che possa essere controllato dall'esperienza". Ma, come criterio di demarcazione, propone di sostituire la verificabilità con la "falsificazione" di un sistema. Poiché verificare una teoria non significa soltanto verificarne la verità, ma anche la falsità, cambiare il nome a questo procedimento non dovrebbe cambiare la sostanza del metodo, a meno che non si ritenga che la scienza, come conoscenza della verità, sia assolutamente impossibile. E questo è appunto il caso di Popper che, nel pretendere il metodo della falsificazione, mostra, per così dire a priori, la sua sfiducia nelle teorie scientifiche.

lunedì 26 settembre 2011

La pretesa velocità dei neutrini superiore a quella della luce?

Esperimento OPERA e velocità dei neutrini

Sul fermento prodotto dalla scoperta sperimentale del probabile superamento della velocità della luce da parte dei neutrini, è apprezzabile l'atteggiamento serio, pacato, paziente e mestamente ironico  manifestato da Carlo Bernardini nell'editoriale odierno (26/09/2011) di "Scienza in rete". Il fatto è che non esiste una misura assoluta che garantisca il calcolo di una velocità appena appena superiore a quella della luce. Come dubita Bernardini, ad esempio, "la distanza dal Cern è proprio 730 km con 10 cm di errore?"

Rottura spontanea della simmetria: un capovolgimento della realtà naturale

Uno dei problemi della fisica attuale è il seguente: "perché non sono ancora state trovate le compagne supersimmetriche delle particelle note?" Questo si chiede Lee Smolin ("L'universo senza stringhe", 2006), che aggiunge: nella sua formulazione iniziale "si postulava che per ciascun fermione esistesse un bosone con la stessa massa e carica. Ciò implicava l'esistenza di un bosone di massa e carica uguali a quelle dell'elettrone. Questa particella, se esistesse, si chiamerebbe selettrone, ovvero superelettrone. Se esistesse, però, l'avremmo già osservata".

In altri tempi una simile conclusione avrebbe fatto abbandonare l'ipotesi. Invece, la moda, inaugurata nel Novecento, degli aggiustamenti ad hoc, ha permesso di "risolvere" tutto, anche al costo di capovolgere completamente la realtà naturale. E' cosi che la mancata verifica della supersimmetria non ha inficiato l'ipotesi della sua esistenza, per il semplice motivo che è stata giustificata dal concetto di "rottura spontanea" della simmetria. "Il risultato è immediato -scrive Smolin-: il selettrone arriva ad avere una massa notevole e quindi diventa molto più pesante dell'elettrone. Regolando i parametri liberi della teoria (che risultano essere numerosi) si può rendere il selettrone grande quanto si vuole".

sabato 24 settembre 2011

Il reale rapporto opulenza-penuria nel mondo globale

Uno dei problemi da risolvere per poter comprendere l'attuale fase storica della specie umana è la sua distribuzione nelle aree geografiche, distribuzione che deve riflettere sia le tendenze demografiche sia quelle economiche, in quanto economia e demografia contribuiscono a determinare essenziali differenze all'interno della stessa specie.

Come abbiamo visto, riguardo alle tendenze demografiche, non esiste alcuna difficoltà di indagine, perché la peculiarità della distribuzione demografica emerge chiaramente: la maggioranza della specie umana è localizzata nel Sud del mondo, in Asia, in America Latina e in Africa, dove si riscontrano da parecchi decenni i più alti tassi di natalità e la più elevata crescita demografica, tendenze destinate a protrarsi nei prossimi decenni sia pure in misura decrescente e differenziata.

venerdì 23 settembre 2011

Le contraddizioni della transizione demografica

La preoccupazione per la crescita demografica della popolazione mondiale che, come abbiamo visto, dipende dalle aree sottosviluppate e in via si sviluppo, dove si concentra la maggioranza dei poveri, diede luogo, negli anni Settanta, a teorizzazioni e sperimentazioni fallimentari sul contenimento demografico. L'esempio più noto fu la posizione espressa da Lester R. Brown, che nel 1974 pubblicò "I limiti della popolazione mondiale", indicando nel sottotitolo, "Una strategia per contenere la crescita demografica", l'illusoria possibilità di intervento sui paesi poveri con politiche di controllo demografico.

L'autore partì dalle stime delle Nazioni Unite, che per il 2000 prevedevano tre ipotesi sulla popolazione mondiale: 1) minima, di 6 miliardi di individui; 2) media, di 6,5 miliardi; 3) massima, di 7 miliardi. E sostenne che persino l'ipotesi minima (ipotesi che si è poi realizzata) doveva essere considerata irrealistica a causa delle tensioni ecologiche, economiche, sociali e politiche che avrebbe prodotto.

Brown si diceva preoccupato soprattutto per la scarsità delle risorse energetiche, alimentari e delle materie prime. Il consistente aumento dei prezzi dei cereali e del petrolio nei primi anni Settanta fu immediatisticamente ed erroneamente attribuito alla scarsità naturale delle risorse. Ad esempio, nel 1972, le riserve petrolifere mondiali nel sottosuolo erano state valutate in 670 miliardi di barili. Se consideriamo che oggi, dopo oltre 30 anni di forte consumo di petrolio nel mondo, si calcolano riserve superiori a 1.000 miliardi di barili, si può facilmente comprendere quanto fosse allora infondata, o per lo meno molto prematura, la preoccupazione sulla scarsità delle risorse petrolifere.

mercoledì 21 settembre 2011

Lezione 2° sviluppo e conclusioni sulla teoria della conoscenza di Kuhn

Che cosa si deve intendere per scienza

Kuhn* nega l'"accumulazione" nella scienza, ossia che "una nuova conoscenza verrebbe a sostituire l'ignoranza piuttosto che una conoscenza già presente, ma di tipo diverso e incompatibile". L'idea di una conoscenza "diversa e incompatibile" è solo una frase senza senso, perché, se si trattasse di conoscenze soltanto diverse, non si comprende in base a quale criterio alcune dovrebbero essere incompatibili. Bisogna quindi ammettere che una "nuova conoscenza" sostituisce una "vecchia conoscenza" la quale ignorava questo o quel fatto, quindi rappresentava o una conoscenza parziale, limitata, approssimativa, oppure anche una falsa conoscenza, un  errore.

Riguardo alla "accumulazione" nella scienza, se si intendesse accumulazione di tutte le teorie, anche di quelle superate o completamente erronee, significherebbe concepirla come semplice accumulo, aumento indiscriminato. Ma se una nuova conoscenza  toglie di mezzo una vecchia conoscenza (il che significa, di fatto, che "verrebbe a sostituire l'ignoranza" di questa vecchia conoscenza e tutte le sue numerose "diverse versioni" accumulate nei periodi di "crisi"), ciò rappresenta nel contempo un'accumulazione e una diminuzione: accumulazione, nel senso che aggiunge la conoscenza di ciò che in precedenza si ignorava; diminuzione, nel senso che in un colpo ci sbarazza della precedente produzione di false conoscenze, di falsi problemi e di tutta una serie di aggiustamenti ormai superflui.

lunedì 19 settembre 2011

Il principio antropico: la riscossa di Pangloss

Punto di partenza, per Susskind ("Il paesaggio cosmico", 2009) è il contrasto "tra due opposte fazioni scientifiche: tra coloro che credono che la natura sia determinata da relazioni matematiche che, per puro caso, permettono la vita e coloro che credono che le leggi della fisica siano state in qualche modo determinate dalla condizione di rendere possibile lo sviluppo della vita intelligente". Da questa opposizione diametrale sarebbe nato il concetto di "principio antropico", che recita: "il mondo è finemente regolato in modo da permetterci di essere qui a osservarlo".

Come si vede, è una forma di predeterminismo alla Pangloss (il naso serve a reggere gli occhiali). Ma com'è possibile che la fisica contemporanea si sia ridotta fino a questo punto? Susskind ci indirizza verso la risposta, quando cita alcune posizioni teoriche di fisici che si fondano sull'intelligenza divina o si richiamano ad essa: "Nel suo libro Il cosmo intelligente l'astronomo Paul Davies conclude che le prove di un'intelligenza superiore sono schiaccianti". "Secondo il professor Fred Hoyle, di certo non simpatizzante cristiano, è come se un intelletto superiore avesse giocato con la fisica, oltre che con la chimica e la biologia". Insomma, anche in fisica incontriamo, come già in biologia,  il determinismo creazionista garantito dall'intelligenza divina.

sabato 17 settembre 2011

La questione demografica nella globalizzazione

La tabella che segue (tratta dalla "Storia minima della popolazione mondiale", 1998, di Massimo Livi Bacci) evidenzia di per sé un fatto davvero sorprendente:

In milioni
Anno       Ricchi     Poveri      Mondo      Ricchi: poveri
1900        563         1.071        1.636             1:1,9
1950        809         1.711        2.520             1:2,1
2000     1.186         4.972        6.158             1:4,2

iniziare l'Ottocento con 1 miliardo di esseri umani e terminarlo con poco più di 1 miliardo e mezzo, è una cosa. Iniziare il Novecento con poco più di 1 miliardo e mezzo e terminarlo con oltre 6 miliardi è cosa completamente diversa, già di per sé esagerata. Se a ciò si aggiunge che la povertà è quintuplicata, passando da poco più di 1 miliardo del 1900 a quasi 5 miliardi del 2000, quale aggettivo superlativo dovremmo scomodare per qualificare un simile risultato, ottenuto per giunta nel secolo del miracolo economico?

venerdì 16 settembre 2011

Globalizzazione: fase senescente del capitalismo

La pretesa di fermare il tempo del capitalismo

Il capitalismo analizzato da Marx è il processo economico che sta a fondamento della società moderna: mai uguale a se stesso, in quanto processo di tipo naturale, ha attraversato tutte le fasi della sua evoluzione, dalla nascita alla giovinezza, dalla maturità alla senilità, infine all'attuale fase senescente, chiamata globalizzazione. Termine questo che, dal punto di vista scientifico, vale quanto l'impostazione teorica che lo ha coniato: ossia nulla.

Potremmo affermare in estrema sintesi, e come anticipazione, che è stata la concezione della "fine della scienza" e della "fine della storia" a inventare la "globalizzazione" come termine campato in aria, bloccato in un eterno presente, ovviamente, impossibile. E' il terrore della fine del capitalismo che ha paralizzato i teorici contemporanei, i quali si comportano come quei vecchi che negassero la propria fine naturale, ostinandosi a voler "fermare il Sole", a voler fermare il tempo.

Insomma, non si vuole accettare l'idea che il capitalismo abbia ormai raggiunto la sua fase finale: la senescenza. A decretare questa fase finale c'è una sola ma fondamentale entità: la caduta inarrestabile del saggio generale (medio) del profitto. E la lotta contro il tempo della fine del capitalismo è la lotta disperata contro la definitiva caduta del saggio generale del profitto, lotta condotta con strumenti che riportano la società umana indietro di secoli.

mercoledì 14 settembre 2011

Lezione 1° Paradigmi e rompicapi di Kuhn. Sulla crisi dei paradigmi.

Come premessa a questa prima lezione, si consiglia di leggere il post uscito il 25 luglio 2010: "Paradigmi per risolvere rompicapi: la concezione di piccolo cabotaggio della scienza", nel quale avevamo stabilito che la concezione dei paradigmi di Kuhn teorizzava e giustificava la situazione attuale della teoria della conoscenza, dominata da uno specialismo esasperato, legittimando una scienza di piccolo cabotaggio, per la quale, dato un paradigma e dati dei rompicapi, non si trattava d'altro che di bravura, perchè lo scienziato veramente abile sarebbe riuscito a trovare la soluzione.

Concludevamo così: "Con questa piatta e banale concezione, che si avvale di due soli striminziti concetti: il paradigma e il rompicapo da risovere, Kuhn chiude l'epoca delle concezioni teoriche e apre quella del piccolo cabotaggio della scienza, funzionale al pluralismo democratico delle teorie scientifiche. E la faccenda potrebbe anche essere chiusa qui, se non fosse che l'alta considerazione con la quale la comunità scientifica ha accolto la concezione di Kuhn ci sconsiglia di liquidarla in due sole paginette. Perciò accingiamoci ad approfondirla nei suoi aspetti essenziali".

martedì 13 settembre 2011

Ubi maior, minor cessat: la depressione economica chiama

Il recente progetto, preannuciato e già iniziato, prevedeva una serie di post storici sulla "decadenza degli intellettuali nella globalizzazione", ma la Depressione economica, con le pressanti domande attorno al futuro dell'Occidente e dello stesso capitalismo, apre un nuovo fronte d'indagine che potremmo definire, in forma di domanda: "dov'è finita la globalizzazione"? o, meglio ancora, in forma di risposta:  "crisi terminale della fase senescente del capitalismo, chiamata globalizzazione".

Il capitalismo è un processo di lunga durata, che ha avuto bisogno di secoli per nascere e raggiungere l'adolescenza, e altri secoli per arrivare alla maturità, alla senilità e alla senescenza. Perciò, i fatti sono due: o si estinguerà per via rivoluzionaria entro questo secolo, oppure avrà una lunga e penosa vecchiaia come fu quella dell'antico impero romano o quella del feudalesimo. Poiché nessuno potrà mai prevedere l'esito particolare di un processo storico-naturale, sottoposto alla dialettica caso-necessità, dobbiamo accontentarci di conoscerne le reali condizioni. Si tratta, perciò, di guardare l'oggetto di indagine nel suo vasto complesso, tralasciando i particolari ininfluenti, per individuare le tendenze fondamentali sia in campo economico che in quello sociale e politico. E' ciò che faremo, entro i limiti di un blog, con alcuni post fondamentali tratti principalmente dagli scritti sulla globalizzazione del periodo 2005-2007.*

lunedì 12 settembre 2011

Ipotesi della materia oscura al centro dei contenitori del cosmo

Nella nostra ipotesi, il raffreddamento della prima fase termica del cosmo produce incommensurabili nubi d'idrogeno, progenitrici degli attuali superammassi. Con queste nubi inizia la seconda fase, quella gravitazionale, che restituisce, a livello locale, una parte dell'energia termica convertita precedentemente in energia potenziale gravitazionale. La restituzione avviene mediante collassi gravitazionali successivi, con frantumazioni di giganteschi oggetti cosmici e la conseguente formazione, nel lungo periodo, di una lunga serie di contenitori di contenitori -che la classificazione in superammassi, ammassi, gruppi locali e galassie di stelle rappresenta, forse, solo parzialmente.

Il secondo punto fondamentale della nostra ipotesi è che ogni contenitore deve avere al suo centro, come conseguenza del collasso gravitazionale, uno spinar, o massa oscura di materia degenerata, della massima densità, chiamata impropriamente "buco nero", attorno al quale ruotano i corpi contenuti, ad esempio le stelle di una galassia, le galassie di un ammasso, ecc. E' in questa forma che avviene la successiva rarefazione dei grandi complessi di materia nel cosmo. Si tratta a questo punto di andare a vedere se esiste qualche prova della esistenza di centri di massa consistente ma invisibili, attorno ai quali ruotino galassie o ammassi di galassie, ecc., e del fatto che questa massa possa essere considerata materia "oscura".

domenica 11 settembre 2011

11 settembre: un argomento che ne facilita la comprensione

Occorre partire dall'anno 1998, quando l'amministrazione Clinton spinse per ottenere il consenso internazionale all'intervento militare americano in Iraq, secondo le norme del "multilateralismo", ma con una precisazione, quella espressa nella formula dell'allora segretario di Stato M. Galbraith: "Multilateralmente quando possiamo, e unilateralmente quando dobbiamo". Clinton, però, non ottenne "multilateralmente" né l'approvazione dei paesi arabi né quella del resto del mondo, e molte furono le critiche alla "arroganza del potere di Washington".

Per capire la situazione di allora, occorre riflettere su questo argomento addotto da Noam Chomsky: "Supponiamo che il Consiglio di Sicurezza avesse autorizzato l'uso della forza per punire l'Iraq, colpevole di aver violato la risoluzione 687 dell'ONU sul cessate il fuoco. Tale autorizzazione avrebbe avuto valore per tutti gli Stati: per esempio l'Iran, che avrebbe dunque acquistato il diritto di invadere l'Iraq meridionale e organizzare una ribellione"*. In altre parole, essendo un paese confinante, l'Iran avrebbe potuto reclamare un diritto all'intervento militare superiore a quello preteso dagli Stati Uniti e dall'Inghilterra.

sabato 10 settembre 2011

9 lezioni di teoria della conoscenza

Chi non mastica continuamente il termine "paradigma" di Kuhn per indicare qualsiasi teoria scientifica? E chi non ha mai sentito parlare della "falsificazione" di Popper, o del "pensiero debole" di Morin, o del "contrometodo" anarchico di Feyerabend?

L'autore di questo blog ritiene che sia venuto il momento di presentare la sua indagine critica su alcune correnti del pensiero teorico della seconda metà del Novecento, tratte da "Il caso e la necessità - L'enigma svelato ..." (1993-2002).

Questo è il calendario:

Mercoledì 14 settembre: 1) Paradigmi e rompicapi di Kuhn. Sulla crisi dei paradigmi.

Mercoledì 21 settembre: 2) Sviluppo e conclusioni della teoria della conoscenza di Kuhn.

Mercoledì 28 settembre: 3) Il ragionamento per falsificazione di Popper: una concezione pessimistica e negativistica della scienza.

Mercoledì 5 ottobre: 4) La versione anarchica di teoria della conoscenza di Popper.

Mercoledi 12 ottobre: 5) Il pluralismo anarchico, allegro e spensierato del contrometodo di Feyerabend.

Mercoledì 19 ottobre: 6) Il pensiero debole di Morin: la filosofia dell'incertezza.

Mercoledì 26 ottobre: 7) Ekeland. un esempio stravagante di confusione anarchica.

Mercoledì 2 Novembre: 8) Marquard: un'apologia scettica del caso.

Mercoledì 9 Novembre: 9) L'impossibile "scienza del caso", di Didier Dacunha-Castelle.

venerdì 9 settembre 2011

C'era proprio bisogno di un dibattito sul "nuovo realismo"!?

Quando Proudhon pubblicò la "Filosofia della miseria", Marx gli rispose con la "Miseria della filosofia"; quando Duhring uscì con le sue "sublimi sciocchezze", Engels gli rispose con "L'Antiduhring": in entrambi i casi, quello che oggi chiameremmo "dibattito" si svolse con i tempi lunghi della conoscenza. Era qualcosa di serio, sulla cui qualità si poteva fare affidamento, indipendentemente dalla parte alla quale ciascuno poteva decidere di accordare il proprio favore.

Oggi, i dibattiti non solo riguardano ogni genere di argomento, dal più rilevante al più futile, ma si svolgono nei tempi brevi dell'ignoranza: tempi buoni per i quotidiani e per le trasmissioni televisive,  non per la conoscenza. Dov'è finito il tempo dello studio su argomenti fondamentali? Dov'è finito il tempo della riflessione che non si appaga della prima ideuzza che passa per la mente?

Questi tempi sono finiti nello spazio-tempo unidimensionale della società dello shopping, la quale, come insegnano i sociologi innamorati del postmoderno, ha una gran fretta di metter fretta: quella fretta irritante che i conduttori televisivi impongono agli ospiti, quella fretta che banalizza ogni domanda e ogni risposta nei dibattiti alla Gad Lerner, solo per indicare uno dei più noti. La stessa fretta che, del resto, si trova nei quotidiani più letti, ad esempio in Italia: Il Corriere della Sera e La Repubblica. Anche qui dibattiti frettolosi, tipo usa e getta, che, se pretendi partecipare, ti senti un ritardatario anche al solo pensiero che il dibattito del momento presto finirà col lasciar posto al successivo.

"Decadenza degli intellettuali" nella globalizzazione

Tratto da "Scritti sulla globalizzazione" (2005-2007)

Con gli anni '80 il moralismo piccolo borghese individualista è tornato alla ribalta e si è preso la sua rivincita sostenendo il fallimento delle teorie che attribuivano all'interesse economico complessivo e al modo di produzione capitalistico la reale responsabilità dei mali del mondo. Questo moralismo è tornato ad attribuire all'individuo la responsabilità morale per quei mali che in realtà lo sovrastano come cieca necessità complessiva. L'intellettuale contemporaneo, che ha fatto sua questa idea di fondo, ha perduto ogni interesse per i complessi umani, per dedicarsi soltanto all'individuo: l'individuo diventa così il protagonista dell'agire umano, e, proprio in quanto agisce, diventa responsabile della condizione umana; in questo modo è sì protagonista, ma solo in senso morale.

Il modo in cui Zigmunt Bauman espone questa concezione in "La decadenza degli intellettuali" (1987) è paradossale: infatti, come si sarebbe  manifestata la decadenza degli intellettuali, secondo Bauman? Se essi avevano preteso guidare il capitalismo "come legislatori", ma poi, fallito il tentativo della "ricerca di un particolare regime di ordine", non è loro rimasta altra strada che "vivere al di fuori di esso o di tornare ai loro ruoli ermeneutici come interpreti", non è questo ripiego a denunciare la loro reale decadenza? La decadenza degli intellettuali è allora lo scadimento di sociologi come Bauman che hanno creduto di cavarsela come interpreti del modo di operare dell'umanità, ponendo in primo piano il comportamento morale dell'individuo

giovedì 8 settembre 2011

La decadenza degli intellettuali nell'Occidente globale e "postmoderno"

Per orientare la comprensione della fase attuale della società moderna chiamata "globalizzazione", occorre prima di tutto fare i conti con l'intellettuale "globale", ossia con l'intellettuale democratico, che non perde occasione per aggiornare la sua "visione" ad ogni mutamento del tempo in cui ha la sorte di vivere.

A questo scopo uscirà, ogni venerdì,  salvo impreviste contingenze, una serie di post sulla decadenza degli intellettuali nella globalizzazione. Questi i titoli, in sequenza:

1) "Decadenza degli intellettuali" nella globalizzazione

2) L'individuo, protagonista morale della "postmodernità" 

3) L'etica "postmoderna" e la malìa della "postmodernità"

4) La contraddizione del relativismo etico: uno scambio delle parti.

5) Serendipity: ovvero, l'illusione di  interrogare il caso

6) Lo scadimento dell'intelletto nella decadenza dell'Occidente democratico.

mercoledì 7 settembre 2011

Il niente e il caso di Severino: l'annullamento della conoscenza

Il filosofo Emanuele Severino, nel suo saggio, "La legge e il caso", pubblicato nel 1979, dopo aver precisato di considerare la verità nel significato greco di "epistéme", cioè come qualcosa che riesce a stare ferma e immutabile, sostiene che "il sogno della verità è finito, allora la parola "verità" non può significare altro che capacità di dominio, potenza, e la parola "errore" impotenza. La "verità" di una teoria è decisa dallo scontro pratico con l'avversario. Questo è anche il significato della seconda tesi su Feuerbach di Marx".

Sembra quasi che l'autore abbia bisogno di concludere che la verità scientifica è un sogno, un'illusione, per poter liquidare l'intera concezione di Marx come esempio di volontà di potenza. Ma per far questo deve trasformare la tesi di Marx, secondo la quale la vera prova della verità teorica è la pratica, nella tesi che la verità è provata soltanto nello scontro con l'avversario.

lunedì 5 settembre 2011

L'energia oscura non è la soluzione del problema della materia oscura mancante

"La gravità, che si pensava fosse l'entità dominante alla scala dell'universo -scrive Evalyn Gates ("Il telescopio di Einstein" 2009)- sta cedendo il controllo del cosmo a questa sostanza sconosciuta e invisibile": l'energia oscura. Ma se è invisibile e sconosciuta, da dove salta fuori l'idea stessa della sua esistenza? Punto di partenza l'anno 1998, quando si pensò di aver rilevato una accelerazione dell'allontanemento delle galassie, invece del previsto rallentamento dovuto alla presenza della gravitazione universale. L'unica spiegazione che i cosmologi hanno saputo dare finora, partendo da un universo "relativistico" ma anche newtoniano, sostiene la Gates, è che ci doveva essere qualcosa di opposto e di più grande della gravità: ossia, un'enorme energia oscura, invisibile.

Per comprendere questa stranezza, occorre fare una digressione: tra i cosmologi è prevalsa da tempo l'ipotesi dell'universo a salire (botton-up), ovvero di un universo che si è andato via via aggregando, partendo da piccole masse di materia ed estendendosi a masse sempre più grandi così da formare galassie, gruppi locali, ammassi, ecc. Perciò, presupposta una sola spinta iniziale, quella prodotta dal big bang, col tempo la gravitazione avrebbe dovuto rallentare la velocità di allontanamento delle galassie, decelerandola. Poiché, invece, l'osservazione mostra un'accelerazione, l'unica spiegazione plausibile per i cosmologi può essere solo una spinta repulsiva prodotta da una misteriosa energia oscura.
Related Posts Plugin for WordPress, Blogger...