mercoledì 25 dicembre 2013

L'intelligenza umana da applicare alle macchine? Non montiamoci troppo la testa!

Il determinismo meccanicistico e riduzionistico, mai pago dei propri insuccessi nelle scienze biologiche, dopo la delusione del fallimento della genomica si è lanciato senza freni sulla connettomica: la nuova moda della neurologia sperimentale. Basta leggere il titolo di copertina del numero di Le Scienze di dicembre 2013: "Il linguaggio del cervello" (e il sottotitolo: "Come elabora e trasmette l'informazione la macchina più complessa del mondo"), per avere un quadro eccellente delle indomite illusioni delle scienze biologiche sottomesse alla metafora meccanicistica informatica.  
Nell'articolo, scritto a due mani, da Terrence Sejnowski e Tobi Delbruck, il cervello umano appare subito un raffinato sistema di comunicazione, mediante la conoscenza del quale ottenere macchine intelligenti. Ci possiamo, allora, stupire se escono film futuristici nei quali le macchine "chiacchierano" alla pari con gli umani su molti argomenti complessi, intendendosi molto bene, soprattutto, in faccende di truculenta violenza militare?

"CONNETTOMA" (2012) di Sebastian Seung -Seconda parte

(Continuazione) Prendiamo in considerazione il seguente brano con il quale l'autore, Seung, involontariamente ma sostanzialmente, ridicolizza lo stato attuale della scienza neurologica, allo scopo di offrire una nuova soluzione legata al connettoma: la connettopatia: "In sintesi, gli esperti credono che l'autismo e la schizofrenia siano causati (!) da una neuropatologia, causata (!) a sua volta dallo sviluppo anormale del cervello, causato (!) a sua volta da una combinazione di influssi (sic!) genetici e ambientali anormali. I neuroscienziati stanno muovendo i primi passi verso la scoperta dei geni che potrebbero aiutarli a stringere il cerchio sui processi dello sviluppo, e ciò sembra incoraggiante; ma ammetto con disagio che la domanda più importante è ancora senza risposta: cos'è la neuropatologia? E, visto che mancano i dati, le teorie fioccano".

Come si può osservare, sottolineate dai miei punti esclamativi, per la scienza neurologica le teorie dovrebbero riguardare le cause: dovrebbero essere tutte teorie deterministiche che pretendono scovare rapporti di causa-effetto. E ancora, la stranezza, sottolineata dall'autore, è che si producono teorie deterministiche per sopperire alla mancanza di dati, ossia proprio quando mancano i dati sperimentali! Ed egli, a sua volta, notando che fioccano le teorie in mancanza di dati, si concentra -sono le sue parole- "solo su quella che a mio parere è la più sensata, l'autismo e la schizofrenia sono connettopatie".

"CONNETTOMA" (2012) di Sebastian Seung -Prima parte

Vale la pena di dedicare due post all'autore di "CONNETTOMA", che affronta il tema dell'apprendimento e il tema della memoria. Riguardo al primo, egli osserva "come l'ispessimento della corteccia, così l'aumento del numero di sinapsi è correlato con l'apprendimento, ma la relazione di causa ed effetto non è chiara". La realtà è, infatti, che il determinismo fallisce in neurologia perché, alla prova dei fatti sperimentali, si può solo osservare che si tratta di aumento di singoli, numerosi eventi, i quali si rovesciano dialetticamente nella cieca necessità complessiva, come l'apprendimento, maggiore o minore, di nuove conoscenze e la loro memorizzazione.

L'autore parla di due processi di archiviazione dei ricordi: "Per trovare la soluzione al problema della memoria dobbiamo scoprire se sono coinvolte la ripesatura e la riconnessione e, in caso affermativo, in che modo. In precedenza ho spiegato la teoria secondo cui le associazioni e le catene sinaptiche sono i pattern di connessione relativi alla memoria. Ora farò un passo ulteriore, avanzerò la tesi che i pattern siano creati dalla ripesatura e dalla riconnessione, e affronterò le molte domande conseguenti. Per esempio, i due processi sono indipendenti o funzionano insieme? E per quale ragione il cervello dovrebbe usare entrambi, e non uno solo? E poi, possiamo spiegare alcuni limiti della memoria come deficit di questi due processi di archiviazione?"

L'indeterminismo dei coniugi Rose e la trascurata dialettica caso-necessità

I coniugi Hilary e Steven Rose hanno scritto a due mani il libro "GENI, CELLULE e CERVELLO" (pubblicato nel 2012), nel quale, per evitare la dialettica caso-necessità, contrappongono al determinismo riduzionistico la soluzione indeterministica, soluzione che  attribuiscono persino a Marx e Darwin: "Entrambi questi giganti delle teorie sociali e biologiche del diciannovesimo secolo erano radicalmente indeterministi (fatte salve la stranezza dell'idea degli stadi del progresso storico di Marx e alcune delle speranze progressistiche di Darwin). Noi condividiamo questo indeterminismo: gli uomini possono costruirsi la propria storia, ma la fanno in circostanze che comprendono sia la loro esistenza sociale corporea sia la loro esistenza biologica incorporata nella società".

Nel precedente libro, come abbiamo visto, Steven Rose aveva attribuito alla società e alla tecnica la capacità di plasmare ogni uomo. Nel contempo, egli aveva lasciato irrisolta la vecchia contrapposizione tra il determinismo democriteo e l'indeterminismo epicureo. Ma, in questo libro, assieme alla moglie Hilary, egli sceglie (a torto) l'indeterminismo di Epicuro, per poter respingere (a ragione) il determinismo riduzionistico  di Democrito. La scelta non deve stupire: l'indeterminismo è un prodotto degli anni Sessanta che ha plasmato la "contestazione" e, con essa, i coniugi Rose.

martedì 24 dicembre 2013

Steven Rose sui singoli individui plasmati da cultura, società e tecnologia

Steven Rose, "Il cervello del XXI secolo" (2005), compie la seguente osservazione conclusiva: "Nel corso di questi sette capitoli ho argomentato che possiamo comprendere il presente solo nel contesto del passato. La storia evolutiva spiega come siamo arrivati ad avere i cervelli che possediamo oggi. La storia di sviluppo spiega come emergono le persone individuali; la storia sociale e culturale fornisce il contesto che vincola e modella quello sviluppo; una storia di vita individuale plasmata dalla cultura, dalla società e dalla tecnologia si conclude con l'invecchiamento e alla fine con la morte".

Siamo nell'anno 2005, e ancora al primo posto continuano ad essere collocati i singoli individui culturalmente, socialmente e tecnologicamente plasmati. Come abbiamo già visto e vedremo ancora, altre questioni si porranno dopo il primo decennio del 2000, in parte suscitate dagli studi e riflessioni di un autodidatta (che nessuno peraltro nomina: non sia mai che i professionisti della scienza si lascino perturbare da un autodidatta!).

lunedì 23 dicembre 2013

Il concetto di emergenza in neurologia

Anche Gazzaniga, in "CHI COMANDA?" (2011), sottolinea il concetto di "emergenza" "come fenomeno comune accettato in fisica, biologia, chimica, sociologia, e persino nell'arte". "Tuttavia -egli aggiunge- l'idea di emergenza viene rigettata da molti neuroscienziati i quali siedono seriosi in disparte e continuano ancora a scuotere la testa. Stavano festeggiando il fatto di aver finalmente rimosso l'omuncolo dal cervello, sconfitto il dualismo, scacciato tutti i fantasmi dalla macchina (!): erano certi che dentro non fosse rimasto nulla. Temono, però, che inserire l'emergenza nella equazione possa implicare che il lavoro sia svolto da qualcosa di diverso rispetto a quella macchina deterministica che è il cervello, e che così si permetta al fantasma di rientrarvi".

E' il timore di dover abbandonare la "precisione" della metafora meccanicistica, sostenuta dal pensiero determinista, che fa scuotere la testa di molti scienziati di tutte le discipline di fronte all'idea dell'emergenza e, peggio ancora, di fronte all'idea della dialettica caso-necessità. Ma che il problema di fondo sia quello di evitare l'abbandono della metafora meccanicista lo conferma persino la posizione di Gazzaniga, pur benevolo, contraddittoriamente, nei confronti dell'emergenza.

domenica 22 dicembre 2013

Le metafore della causalità meccanicistica, dell'informazione e dell'emergenza deterministica

Da "NATURA INCOMPLETA" (2013) di Terrence W. Deacon.

Dopo aver considerato brevemente, sulla questione della causalità, la posizione di pensatori e studiosi delle origini della scienza moderna (come Francis Bacon, René Descartes, Baruch Spinoza) l'autore, Deacon, conclude: "Ciascuno alla sua maniera, questi pensatori riconoscevano che fare appello a contenuti mentali come cause fisiche serve poco più che a indicare una scatola nera senza aprirla".

Ed è qui che egli si scontra con una questione che solo chi scrive ha finora sollevato, riguardo alla concezione degli organismi intesi come macchine: e cioè che si tratta di una pura e semplice metafora. Infatti scrive: "La metafora della macchina è una semplificazione eccessiva e fuorviante. La tacita impostazione di una visione modellata sugli artifici umani, con la sua implicita logica del progetto, nel quadro di una metafisica materialistica che restringe l'introduzione di ogni cosa che somigli a una relazione di causa finale, genera la necessità logica di un universo caratterizzato dal telos ex machina, ove cioè disegno e finalità possono essere soltanto imposti dall'esterno. In un mondo simile noi sembriamo accidentali robot in cui girano ciecamente programmi generati dal caso".

sabato 21 dicembre 2013

Splendori e miserie della neurologia

Balzac per ben 13 anni (1835-1847) ha elaborato la sua opera principale, il cui titolo "Splendori e miserie delle cortigiane" ha acquistato una fama imperitura. Si può, allora, immaginare la sorpresa dell'autore di questo blog, lettore di molte opere di Balzac, nel leggere il seguente titolo del libro di Semir Zeki, uscito con "le Scienze" nel 2011: "Splendori e miserie del cervello": sottotitolo "L'amore, la creatività e la ricerca della felicità". Se queste sono le qualità del cervello umano, perché Zeki le ha paragonate alle cortigiane di Balzac, che vivevano nel vizio, nella prostituzione, nella delinquenza e nell'ipocrisia?

Nell'introduzione, l'autore svela le motivazioni del titolo balzachiano, ma lo fa con due considerazioni che si contraddicono: prima afferma che il cervello è "una macchina neurologica di complessità immensa",  "uno splendido trionfo evolutivo di ingegneria neurale, che consente al cervello non solo di ricavare conoscenza ma anche di generalizzarla". Poi sostiene che "Tale splendida facoltà implica sovente un prezzo da pagare, l'infelicità (!). Prezzo che, come vedremo, in quanto strettamente connesso alla creatività, può a sua volta tramutarsi in un vantaggio (sic!). Di qui il titolo del libro, che ho tratto dal grande romanzo di Balzac". Capisca chi può!

venerdì 20 dicembre 2013

Conferme parziali sulla critica dialettica alla genomica

Le idee di questo blog sembrano iniziare a girare, anche se parzialmente e non del tutto correttamente. E' ciò che intendiamo mostrare affrontando alcuni libri pubblicati di recente*. Possiamo cominciare dalle considerazioni tratte da "L'ULTIMO MISTERO DELLA EREDITARIETA'" (2011) di Richard C. Francis. L'autore sostiene che "La mente umana sembra essere predisposta verso il preformismo", soprattutto "quando si tratta di spiegare fenomeni complessi come lo sviluppo (o l'evoluzione)". Insomma, ci si richiama al preformismo, e di conseguenza al "creazionismo" e alla "mente di dio", perché tutto appare troppo complicato: questo sostiene Francis. Possiamo aggiungere questa personale riflessione: che la complessità naturale è troppo ostica per il determinismo umano; perciò il determinismo doveva necessariamente essere attribuito a una entità superiore, onnipotente: una divinità, appunto.

Ma rilevante è il fatto che Francis neghi il determinismo genomico come processo reale, per considerarlo semplicemente una metafora. Non è più il genoma che dirige: "L'idea del ruolo direttivo del genoma è piuttosto una interpretazione metaforica di questo processo..." Peccato, però, che, subito dopo, introduca egli stesso un'altra metafora: "la prospettiva del ruolo direttivo della cellula".

lunedì 10 giugno 2013

3] La scienza delle (impossibili) previsioni: terremoti

Continuazione) Come è già stato illustrato in questo blog, i terremoti sono imprevedibili non nel loro complesso, bensì nella loro singola manifestazione sismica. E purtroppo è proprio l'imprevedibile singolo evento sismico di forte intensità che interessa la specie umana, in quanto costituisce un grave pericolo. Ne consegue che, sebbene lo studio dell'attività sismica del nostro pianeta proceda di pari passo con lo sviluppo della geologia, ciò che più interessa l'umanità, la previsione del singolo sisma, non è attuabile.

Per la dialettica caso-necessità la spiegazione dell'impossibile previsione dei terremoti è semplice: l'evento sismico di varia intensità è frequente e continuo, ma quando diventa di intensità così elevata da produrre morte e distruzione, altro non rappresenta che un caso raro e imprevedibile (ossia, un singolo sisma eccezionalmente intenso, o terremoto). E la cieca necessità di un sisma gravemente distruttivo  non rappresenta altro che il rovesciamento dialettico di casuali scosse sismiche della sfera della probabilità singolare nella eccezionale e rara scossa distruttiva della sfera della statistica complessiva.

domenica 9 giugno 2013

2] La scienza delle (impossibili) previsioni: malattie

(Continuazione) Riguardo ai processi naturali interni, come le malattie, ed esterni, come i terremoti, in ordine di importanza, chi preoccupa di più l'uomo? Molto dipende dalla regione della terra in cui vive e dalle sue abitudini, soprattutto alimentari. Ma, poiché delle seconde la maggioranza degli uomini è inconsapevole per propria ignoranza, mentre dalle prime è impressionata per le conseguenze catastrofiche che i mass media non le risparmiano, potremmo essere tentati di attribuire a queste ultime la principale responsabilità dell'apprensività umana. Ma, se poi consideriamo l'aumento dell'età media della nostra specie e altre cosette come il cibo spazzatura, il consumo di tabacchi, droghe, alcolici, ecc., si può concludere che entrambi i processi naturali esterni e interni presentano equivalenti motivi di timore per l'umanità.

Quindi, non faremo torto alla coerenza se, del dossier che stiamo considerando, pubblicato su "Le Scienze" di questo Giugno 2013, riprendiamo l'articolo di Vineis sulla medicina, rinviando al prossimo post l'articolo di Claudio Chiarabba, dedicato alla previsione dell'evento sismico: argomento quest'ultimo che, comunque, su questo blog abbiamo già trattato in due post: 1) "Tra il "procurato allarme" e il "mancato allarme", la reale imprevedibilità del singolo evento-terremoto", 2) "Caso probabilistico e necessità statistica III".

venerdì 7 giugno 2013

1] La scienza delle (impossibili) previsioni: abbandonare ogni speranza?

Il contributo di A.Vulpiani, fisico teorico dell'Università di Roma, si conferma come un ennesimo esempio di dappocaggine (concettuale) della fisica teorica. Dopo aver sottolineato la differenza tra la facilità di previsione delle eclissi e l'estrema difficoltà in meteorologia e in borsa, e altre amenità sulle "leggi di evoluzione", egli stabilisce la differenza tra leggi deterministiche e leggi probabilistiche, senza distinguere tra 1) i processi della natura, 2) i processi umani simili a quelli naturali, 3) i processi umani di tipo artificiale, tecnologico.

L'estratto che segue mette in evidenza gli equivoci di teoria della conoscenza che agitano i fisici teorici: "In prima approssimazione possiamo classificare le leggi di evoluzione in due grandi classi: deterministiche e probabilistiche. Per determinismo si intende che lo stato del sistema a un certo tempo determina univocamente lo stato a ogni tempo successivo. E' ancora aperto il problema concettuale di come interpretare le leggi, se realmente esistenti o con una mera valenza descrittiva. Anche sulla dicotomia determinismo-probabilismo ci sarebbe molto da dire: descriviamo il lancio di un dado in termini probabilistici, ma si potrebbe obiettare che un dado segue le leggi di Newton che sono deterministiche, in questo caso un approccio probabilistico sarebbe solo un artificio pratico. Al di là degli aspetti filosofici è importante sottolineare che anche in ambito probabilistico ci sono casi in cui le previsioni sono praticamente certe".

mercoledì 5 giugno 2013

Si può prevedere il futuro? (Seconda parte)

(Continuazione) Riprendiamo il discorso partendo dall'articolo introduttivo scritto da Fabio Cecconi, Massimo Cencini e Francesco Sylos Labini. Il punto di partenza del dossier, sulla previsione del futuro, è rappresentato dalle seguenti domande: "In che modo sono declinati i metodi e i concetti usati per capire come si svilupperà un certo fenomeno in diversi contesti scientifici, quali meteorologia, fisica, geologia ed epidemologia? In che modo le conoscenze scientifiche si traducono in previsioni utili alle politiche di intervento? Quali sono i limiti di queste previsioni?" E' proprio per rispondere a queste domande che è stato organizzato un convegno, dal quale sono stati tratti i vari contributi per il dossier pubblicato su "Le Scienze".

Fin dall'inizio ciò che non appare chiara è la consapevolezza che le previsioni per essere "utili alle politiche di intervento" devono riguardare singoli eventi, che sono, invece, sotto la giurisdizione del caso. Al posto di questa premessa certa, che non viene mai affermata una volta per tutte, compare ogni tanto la considerazione dell'aleatorietà o stocasticità che rende imprevedibile il futuro, ma compare, soprattutto, il continuo appello all'incertezza, alla caoticità, ecc. della previsione.

martedì 4 giugno 2013

Si può prevedere il futuro? (Prima parte)

Questo è il titolo di uno studio pubblicato su "Le Scienze" di giugno 2013. Già in copertina troviamo i seguenti titoli: "Dossier -La scienza delle previsioni- Dall'economia ai terremoti, dagli uragani alle epidemie, prospettive e limiti delle nostre capacità di prevedere scenari futuri". [Errata corrige: il dossier è intitolato "La scienza delle previsioni", mentre è il primo studio del dossier a essere intitolato "Si può prevedere il futuro?". Nella fretta e nella selva dei titoli e sottotitoli l'autore di questo blog si è un pò perso. Ed è un vero peccato perché così si è perso anche quello che poteva essere un efficace controtitolo ad effetto per questo post e cioè L'impossibile scienza delle previsioni].

A dire il vero, la difficoltà reale consiste nella previsione deterministica di eventi singoli in momenti precisi e determinabili, non tanto la previsione statistica di eventi complessivi in momenti imprecisabili. Chi segue questo blog sa che l'autore attribuisce i singoli eventi alla sfera del caso e gli eventi complessivi (collettivi) alla sfera della necessità: i primi soggetti alla incerta probabilità, i secondi soggetti alla certa frequenza statistica.

sabato 18 maggio 2013

Me me me generation, l'individualismo al cubo

In piena globalizzazione, a trionfare era il Truman show, ossia la massa di shopper attratti dai molteplici stili di vita, dai molteplici gusti e dalla iper creatività. Ma l'economia globale è entrata in crisi...

Facciamo un passo indietro: ogni epoca, a partire dalla società del consumismo per arrivare alla società dello spettacolo o del Truman show, ha avuto il problema di creare masse di acquirenti della produzione capitalistica, problema affidato al marketing. Abbiamo già pubblicato diversi post su questo argomento. Se il mondo non resta fermo, anche il capitalismo cambia, ed oggi, che è vecchio e senescente, ha bisogno sempre più del marketing per essere alimentato e curato. Perciò, si pone il problema di individuare nuovi mercati da sfruttare, cercando, soprattutto, i nuovi clienti nelle nuove generazioni.

Negli ultimi anni, di crisi economica, gli esperti del marketing si stanno rendendo conto, a malincuore, che la nuova tecnologia prodotta, una volta che viene acquistata, non solo raggiunge un suo limite, oltre il quale la produzione comincia a ristagnare divenendo solo produzione di sostituzione (anche se sempre più sofisticata), ma è il consumo stesso del prodotto che crea un pericoloso limite.

lunedì 13 maggio 2013

Il determinismo probabilistico del logico neopositivista Hans Reichenbach

La concezione probabilistica ha riproposto la vecchia antinomia determinismo-indeterminismo in una forma nuova che può essere semplificata nel modo seguente: mentre gli indeterministi (o probabilisti soggettivi) considerano degna d'interesse scientifico anche la minima probabilità, i deterministi (o probabilisti oggettivi) pretendono per l'indagine scientifica un'alta probabilità.

In questo paragrafo prenderemo in considerazione Hans Reichenbach, uno dei più illustri rappresentanti della logica formale determinista-probabilista, fondata sul probabilismo oggettivo. A questo scopo esaminiamo un suo saggio degli anni'30, "Causalità e probabilità", nel quale l'autore pretese riconciliare le leggi statistiche con le leggi causali. La tesi è, infatti, la seguente:

"La riduzione di una metrica probabilistica a funzioni di probabilità costituisce un grande progresso nell'analisi epistemologica del problema della probabilità. Mentre si è soliti considerare le leggi probabilistiche come rappresentanti di un tipo particolare di regolarità, distinta dalle regolarità causali della natura, si può dimostrare, sulla base della teoria delle funzioni di probabilità, che questa distinzione è solo superficiale, e che le leggi probabilistiche e le leggi causali sono variazioni logiche dello stesso tipo di regolarità".

sabato 11 maggio 2013

2d) La logica dell'incertezza, il pensiero debole di Bruno de Finetti

Il  probabilismo soggettivista di De Finetti

(Continuazione) Se l'identità matematica tra probabilità del caso singolo e frequenza del complesso di casi analoghi favorisce in apparenza l'identità tra probabilità e frequenza, dal punto di vista della interpretazione teorica le cose si complicano. De Finetti, prendendo in considerazione esempi di frequenze che si conservano, come ad esempio quella dei nati vivi maschi e femmine, che si aggira sempre attorno, rispettivamente, al 51,7% e al 48,3%, è costretto ad ammettere se non proprio la loro oggettività, almeno una notevole stabilità.

A questo proposito, egli scrive: "Sta di fatto però che, anche senza risalire al perché dei perché, appare abbastanza naturale a tutti l'idea che la frequenza con cui si verificano eventi che si sogliono raggruppare come "analoghi" sia piuttosto stabile. Forse oggi lo sembra anche eccessivamente causa formulazioni troppo semplicistiche e apodittiche che sono in voga tra molti cultori di statistica; ma un fondo genuino esiste, perché lo si riscontra anche nei profani incontaminati (che, ad es., si stupiscono se certi fenomeni si ripetono in un certo periodo con frequenza inusitata). Accettiamola così".

giovedì 9 maggio 2013

1d) La logica dell'incertezza, il pensiero debole di Bruno de Finetti

Il probabilismo soggettivista di de Finetti

Non avendo compreso la dialettica probabilità-frequenza statistica, riflesso matematico della più generale dialettica  caso-necessità, ossia non avendo compreso che il rapporto probabilità-frequenza è un concetto polare, il pensiero metafisico ha prodotto due opposte teorie sulla probabilità: quella soggettivista e quella oggettivista.

Non avendo compreso la differenza qualitativa esistente tra la probabilità che riguarda la sfera dei singoli eventi casuali e la frequenza che riguarda la sfera degli eventi collettivi necessari, e che il caso relativo alla prima sfera si rovescia nella necessità relativa alla seconda sfera, il pensiero metafisico ha scisso questa dialettica in modo da produrre una opposizione inconciliabile tra chi ha considerato degno di attenzione soltanto l'evento singolo, ovvero la probabilità, e chi, all'opposto, ha considerato degno di interesse scientifico soltanto l'evento collettivo, ovvero la frequenza.

Come spesso accade ai metafisici, anche questa volta ognuna delle due opposte concezioni possiede la sua mezza verità e può criticare la mezza falsità della concezione che le si oppone. Infatti, i soggettivisti hanno ragione ad affermare che la probabilità riguarda soltanto l'evento singolo e, quindi, hanno buon gioco a criticare l'attribuzione di probabilità all'evento collettivo. A loro volta, gli oggettivisti hanno ragione ad affermare che ciò che conta, dal punto di vista della regolarità, è l'evento collettivo e, quindi, hanno buon gioco a criticare la probabilità dell'evento singolo riguardo alla conoscenza scientifica.

martedì 7 maggio 2013

Il tempo a disposizione dello studio per la conoscenza

Umberto Eco e Claudio Magris: un'intuizione felice con ulteriori sviluppi

Con una certa sorpresa e soddisfazione l'autore di questo blog ha potuto felicitarsi con se stesso, ma implicitamente anche con Claudio Magris e Umberto Eco, per una osservazione che, se non nella forma, è analoga nel suo contenuto: si tratta del fatto che il tempo a disposizione per attività serie e fondamentali come lo studio, l'attività politica, ecc. si riduce a un'inezia perchè occupato sempre più da attività sociali di contorno. Questo all'incirca. Ma nel proseguo specificheremo le analogie e le differenze, non prima di aver preso l'occasione per un riferimento biografico:

siamo nell'anno 1983, periodo nel quale iniza l'isolamento sociale e politico di chi scrive: isolamento che verrà indirizzato interamente verso lo studio. Svolte le incombenze della vita personale e familiare, restavano molte ore di studio e di riflessione, nelle sue varie forme: lettura libri, documenti ecc.; estratti, riassunti, riflessioni e commenti battuti a macchina. In questo lavoro di studio, a quei tempi ancora solo storico-politico, compresa la lettura di romanzi classici, Balzac, Diderot, ecc. l'autore, nonostante il tempo a sua disposizione, si stupì di quanto limitate fossero le ore del giorno dedicabili allo studio approfondito.

sabato 4 maggio 2013

2c) Popper. Una versione anarchica di teoria della probabilità

(Continuazione) Come punto di partenza della "nuova teoria", Popper riprende il famoso teorema di Bernouille, il quale "asserisce che i segmenti brevi di sequenze assolutamente libere o casuali presenteranno spesso deviazioni relativamente grandi, e quindi fluttuazioni relativamente grandi da p [probabilità], mentre i segmenti più lunghi presenteranno, nella maggior parte dei casi, deviazioni da p sempre più piccole a misura che cresce la loro lunghezza. Di conseguenza, la maggior parte delle deviazioni nei segmenti sufficientemente lunghi diventeranno piccole a piacere o, in altre parole, le grandi deviazioni diventeranno rare, a nostro piacere".

Il ragionamento di Bernouille non fa una piega, se però si mette in chiaro che questa p sta per f (frequenza). In se stessa, la probabilità è solo un numero che indica la possibilità di un evento singolo casuale. Ma quando si considera una sequenza reale di eventi, la probabilità è solo quel dato matematico che ci fornisce la frequenza reale della sequenza stessa, mentre le reali deviazioni o fluttuazioni sono relative alla frequenza reale, e non al valore di probabilità.

mercoledì 1 maggio 2013

1c) Popper. Una versione anarchica di teoria della probabilità

"In questo capitolo tratterò unicamente della probabilità degli eventi e dei problemi a cui essa dà luogo. Questi problemi sorgono in relazione alla teoria dei giochi d'azzardo e con le leggi probabilistiche della fisica". Così K. Popper inizia l'ottavo capitolo della sua "Logica della scoperta scientifica", e aggiunge: "Le idee che implicano la teoria della probabilità svolgono una parte decisiva nella fisica moderna. Tuttavia non siamo ancora in possesso di una definizione soddisfacente e non contraddittoria di probabilità, o, il che è esattemente lo stesso, non abbiamo ancora un sistema assiomatico soddisfacente per il calcolo delle probabilità. Anche le relazioni tra probabilità ed esperienza non hanno ancora trovato una chiarificazione".

Per ovviare a questa mancanza, Popper si pone due compiti: "Il primo è quello di fornire nuovi fondamenti per il calcolo delle probabilità. Nel tentativo di assolvere a questo compito svilupperò la teoria della probabilità come teoria frequenziale, battendo la strada seguita da Richard von Mises, ma senza far uso di quello che egli chiama l'"assioma di convergenza" (o "assioma limite") e adattando un assioma del disordine (randomness) un pò indebolito. Il secondo compito che mi propongo è quello di delucidare le relazioni esistenti tra probabilità ed esperienza. Questo significa risolvere quello che io chiamo il problema della decidibilità delle asserzioni probabilistiche".

domenica 28 aprile 2013

Il gioco a nascondino dell'astuzia e la rissa verbale. Povero Aristotele e povero Schopenhauer!

L'astuzia è ancora più timida e vergognosa dell'invidia, ma solo perché, per essere efficace, non deve farsi scoprire. Ed è forse per questo motivo che non si riescono a trovare molti argomenti e autori sulla materia, persino tra gli aforisti.

Nel dizionario troviamo la seguente definizione: ASTUTO, dal latino astutum, da "astu" 'con astuzia', da accorgimento, strattagemma. Esempio: l'astuzia di Ulisse.

Aggiungiamo anche FURBIZIA: da furbo, da fourbir = nettare (le tasche) e anche "furberia", sinonimo "astuto": chi sa mettere in pratica accorgimenti sottili ed abili, atti a procurargli vantaggi e utilità.

Come si vede, l'unica differenza tra astuzia e furbizia è una questione di forma: la prima sembra essere più nobile, elitaria; la seconda sembra appartenere soprattutto ai furfantelli. Ma, come vedremo, i due termini spesso sono confusi tra loro.  Andiamo alla ricerca...

sabato 27 aprile 2013

2b) La statistica nella scienza dell'Ottocento

(Continuazione) III) Il logico formale A. De Morgan ripropone la distinzione tra conoscenza certa e conoscenza probabile: "All'ambito della conoscenza certa appartengono le verità evidenti della tradizione cartesiana, all'ambito della conoscenza probabile tutti i casi nei quali non si può arrivare a una conoscenza certa". (Dessì)

Per De Morgan, la probabilità è il grado di credenza razionale, non l'atteggiamento psicologico soggettivo di fronte a qualsiasi assunzione. Insomma, ed è sempre Dessì che riassume: "La credenza nei confronti di una proposizione contingente potrà assumere tutti i valori compresi tra gli estremi, dati dalla necessità che si traduce in certezza a favore e dell'impossibilità che si traduce in certezza contro. I gradi di credenza sono sempre suscettibili di misura...". La credenza è come il calore o la febbre, "si tratta di costruire una sorta di termometro per la credenza avendo a disposizione il punto di ebollizione costituito dalla certezza a favore e il punto di congelamento costituito dalla certezza contro".

Per questa via si arriva alla "definizione classica di probabilità come rapporto tra casi favorevoli e casi possibili, quando tutti i casi sono ugualmente possibili". Definizione dalla quale scompare ogni riferimento al caso, perché la probabilità diventa effettiva conoscenza, persino quantificabile come misura del grado di credenza. E questa probabilità assumerebbe un ruolo importante nella scienza, quello di guidare lo scienziato nella scelta delle ipotesi. Strumento principale, in questo senso, è per De Morgan, il teorema della probabilità inversa di Bayes, che egli riassume nella seguente formulazione: "vi siano due eventi successivi; la probabilità del secondo sia b/N e la probabilità di entrambi insieme sia p/N; se dall'essersi appreso che il secondo evento è accaduto io ipotizzo che il primo evento è anch'esso accaduto, la probabilità che io sia nel giusto è p/b".

martedì 23 aprile 2013

Pietro Greco: altro che "battito d'ali di una farfalla"!

Questo viene da esclamare leggendo la storia breve di Pietro Greco su Scienzainrete (24/4/13), riguardo alla complessità e al caos. Per chi, come l'autore di questo blog, ha dedicato quasi un trentennio al rapporto caso-necessità che risolve concettualmente rapporti matematici come probabilità-statistica, sistemi non lineari, sistemi complessi, ecc., è penoso sentire per l'ennesima volta la storiella del battito d'ali di una farfalla, come metafora esplicativa, in relazione alla imprevedibilità di questo o quel fenomeno naturale o artificiale.

Per la seconda volta suggerisco di leggere uno scritto di Greco, per confrontarlo con le tesi sostenute in questo blog.* Qui mi limito solo a citarne le conclusioni. Dopo un lungo excursus storico, egli scrive: "Quello che, dunque, i sistemi dinamici caotici mettono in discussione non è il determinismo, ma la predicibilità del mondo. Il caos sancisce la nostra incapacità di fare previsioni esatte sulla evoluzione dell'universo macroscopico e delle sue singole parti, che sia valida o no la causalità rigorosa. Constatata questa nostra incapacità, scegliamo di analizzare il mondo con una razionalità probabilistica. Proprio come suggeriva Laplace".

lunedì 22 aprile 2013

1b) La statistica nella scienza dell'Ottocento

L'incomprensione dei concetti di probabilità e di frequenza da parte del determinismo ottocentesco

Nel suo saggio "L'ORDINE E IL CASO" (1989), che abbiamo già considerato, l'autrice, Paola Dessì, scrive: "Nel 1830 la British Association For The Advancement Of Science aveva costituito un comitato, sotto la presidenza di Malthus, allo scopo di stabilire se la statistica potesse essere considerata una scienza e perciò fosse opportuno accogliere la proposta di formare una sezione di Statistica all'interno dell'associazione. La risposta del comitato, fatta propria nel 1834 dalla Statistica Society of London (la futura Royal Statistical Society), fu che la statistica poteva essere considerata una scienza soltanto in quanto si limitava a raccogliere e ordinare dati; ogni interpretazione di questi dati non poteva essere considerata opera scientifica".

Questa sottovalutazione della statistica da parte della scienza, manifestata ufficialmente nel 1830, testimonia l'incomprensione della comunità scientifica, dominata dal determinismo, nei confronti del principale strumento d'indagine empirica della conoscenza. In quegli stessi anni, diverse furono le posizioni che si confrontarono sui concetti di probabilità e di frequenza, tutte però rimanendo entro l'ambito dell'impostazione deterministica dominante. Per questo motivo, nessuna di esse poté chiarire il rapporto tra il calcolo delle probabilità e la statistica, e se qualcuna lo intuì e qualcun altra lo sfiorò, la maggior parte lo complicò rendendolo inestricabile. Lo scopo di questo paragrafo è esaminare le diverse posizioni, e, per fare questo, utilizzeremo ancora il saggio di Dessì.

I] Esaminiamo la posizione di Herschel sul calcolo delle probabilità. L'autrice la sintetizza nei seguenti termini: "Come per Laplace anche per Herschel la probabilità ha significato in rapporto alla nostra ignoranza del vero succedersi dei fenomeni e delle loro cause e costituisce ancora il miglior modo di avvicinarsi da parte dell'uomo a una realtà supposta completamente determinata nella sua struttura". Herschel, riferendosi a Laplace, scrive infatti: "ciò che si chiama caso è ammesso nei suoi ragionamenti come espressione dell'ignoranza in cui ci troviamo relativamente agli agenti, alle disposizioni e ai motivi, ma con l'intento espresso di escluderlo dai risultati".

Egli coglie, quindi, perfettamente la motivazione di fondo del calcolo delle probabilità: l'esclusione del caso; ma non precisa, e neppure Dessì precisa, che esistono due livelli distinti di determinazione: quello che riguarda il singolo evento, per il quale è sorto il calcolo delle probabilità, e quello che riguarda un gran numero di eventi, che è sempre stato oggetto della frequenza statistica. Ora, il fatto che Dessì ci assicuri che per Herschel, così come per Laplace, il valore vero è la frequenza non contribuisce a chiarire il rapporto probabilità-frequenza.

Scrive l'autrice che per Herschel "Il calcolo probabilistico deve essere guardato principalmente come ausiliario pratico della filosofia induttiva. Esso permette di fare previsioni laddove la concomitanza di un numero molto alto di cause dà luogo ad avvenimenti che presi singolarmente appaiono irregolari e incerti." Infatti, egli afferma: "Non vi è nessuno che, nei casi in cui ciò che chiamiamo contingenza entra largamente, non sia sorpreso di trovare non solamente che i risultati medi di differenti serie di prove si accordano tra loro in maniera veramente straordinaria, ma che gli stessi errori di prove individuali si raggruppano intorno alla media con una regolarità che si direbbe l'effetto di una intenzione deliberata".

In parole povere, per un determinista come Herschel è sorprendente e straordinario che là dove domina il caso si possa trovare una regolarità, una necessità, che sembra l'effetto di una intenzione deliberata. Insomma, ciò che sorprende il determinista è il rovesciamento del caso in necessità. La sorpresa è però accompagnata dal rifiuto: infatti, egli pone come centrale il concetto di frequenza in quanto determinato, ma solo in quanto esso permette di ipotizzare connessioni su possibili cause che sono ignote. Insomma, poiché la frequenza è un dato regolare, costante, determinato, si può affermare, in senso deterministico, che essa è un effetto della causalità.

Scrive Dessì: "Herschel si chiede: "perché alla lunga gli avvenimenti si conformano alle leggi di probabilità (sic!)? Qual è la causa di questo fenomeno considerato come un fatto?" Sotto al fatto degli avvenimenti che si conformano alla legge della frequenza ci deve essere una causa, e questa è la solita pretesa deterministica, che soltanto la necessità possa determinare un'altra necessità, che soltanto una causa necessaria possa determinare un effetto necessario.

Ma Herschel compie un altro errore di un tipo nuovo, non strettamente deterministico, errore che deriva dalla confusione tra un concetto "deterministico" come la frequenza e un concetto "indeterministico" come la probabilità, errore reso possibile però soltanto dal fatto di non voler riconoscere il caso come base del calcolo delle probabilità. E così egli non si rende conto che soltanto il singolo avvenimento si conforma alle leggi di probabilità, le quali stabiliscono, per ogni singolo evento, il suo ambito di casualità, ma non possono determinarlo in alcun modo. Mentre "alla lunga", (ossia, ogni serie di numerosi eventi nelle stesse condizioni) si conforma a una legge statistica, quella della frequenza.

Già, esaminando questa prima posizione sul rapporto probabilità-frequenza, possiamo giungere alla conclusione che il rifiuto del caso precluderà al determinismo ogni comprensione del concetto di probabilità, come concetto che, per così dire, non può far altro che inquadrare l'ambito della casualità singolare. Ma, non essendo in grado di comprendere la relazione esistente tra il concetto logico di caso e il concetto matematico di probabilità, il determinismo non avrebbe potuto comprendere la relazione esistente tra il concetto logico di necessità e il concetto statistico di frequenza.

La probabilità e la frequenza si sarebbero, perciò, confuse, scambiandosi le parti, esattamente come è sempre avvenuto tra il caso e la necessità, per cui il determinismo ha finito sempre con l'elevare il caso a necessità e l'indeterminismo con l'abbassare la necessità a casualità. Così la frequenza viene abbassata a probabilità e la probabilità viene elevata a frequenza. L'indagine delle prossime posizioni espresse da vari autori ce ne darà una precisa conferma.

II] Prendiamo in esame la posizione espressa da Mill nel "Sistem of logic" del 1843. "Nel lancio di un dado -scrive Mill- la probabilità dell'uscita di un asso è 1/6 non, come direbbe Laplace, perché vi sono sei tiri possibili di cui l'asso è uno, e noi non conosciamo alcuna ragione per la quale dovrebbe uscire l'uno piuttosto che l'altro, ma piuttosto perché sappiamo che in un centinaio o in un milione di lanci, l'asso uscirà circa 1/6 di quel numero o una volta su sei".

Come si vede, Mill eleva la probabilità a livello della frequenza, sbarazzandosi così del concetto aprioristico, matematico, di probabilità e di ogni connessione con il caso. Il suo errore è duplice: in primo luogo, perché nega che possa essere concepito un rapporto P=1/n, ossia una possibilità su n possibilità, definito probabilità; in secondo luogo, perché afferma che la probabilità può essere definita soltanto mediante il valore che l'esperienza determina come valore certo: la frequenza. Ma se noi sappiamo che in un gran numero di lanci di un dado un numero uscirà una volta su sei, il dato 1/6 rappresenta una certezza e non più una probabilità. Dunque che cosa può significare il concetto di probabilità se non un concetto matematico a priori? E a che cosa può servire determinare sperimentalmente una frequenza per poi considerarla alla stregua di una probabilità?

Secondo Mill, se noi sappiamo che in una foresta la metà degli alberi sono querce, la probabilità che un albero preso a caso sia una quercia è 1/2. Ma che bisogno abbiamo di utilizzare un dato determinato per rovesciarlo in un dato indeterminato? Che senso ha negare a qualcuno una conoscenza certa: ad esempio che la metà degli alberi di una determinata foresta sono querce, e costringerlo a prendere un albero a caso? La conoscenza serve all'uomo come guida all'azione, e quindi per eliminare il caso, non per trastullarsi con esso in senso probabilistico.

Dice Dessì che Mill cambiò parere dopo le critiche rivoltegli da Herschel, quindi fornì un'altra definizione di probabilità che l'autrice così riassume: "La probabilità non è una proprietà dell'evento, ma semplicemente la misura del grado di fondamento che abbiamo per aspettarci che l'evento si verifichi; è una grandezza soggettiva che può mutare da individuo a individuo e da momento a momento a seconda delle informazioni a disposizione di chi giudica, ed è suscettibile di misura anche nel caso di totale assenza di informazioni".

Questa nuova definizione di tipo soggettivistico è utilizzata da Mill per mettere in ombra la probabilità e lasciare campo libero alla sola frequenza. Secondo Dessì: "Mill si rende conto che ammettere la frequenza come unico fondamento del calcolo significa dare alla probabilità una valenza oggettiva che egli non è disposto a riconoscere", perché anche per lui in natura vige il più completo determinismo. infatti scrive: "Ogni evento è in se stesso certo, non probabile, se noi fossimo a conoscenza di tutto sapremmo positivamente che si verificherà o sapremmo positivamente che non si verificherà".

Si potrebbe dire che, con Mill, il determinismo oscilla tra il riconoscimento oggettivo della probabilità, identificata con la frequenza, per poter eliminare ogni considerazione sul caso, e il riconoscimento della oggettiva frequenza come il dato fondamentale collegabile deterministicamente ad una causalità ammessa, anche se sconosciuta, nel qual caso la probabilità viene messa in ombra, e considerata come terzo incomodo.

Mill cambierà parere sulla probabilità, nel senso che non la identificherà più con la frequenza, e imiterà Herschel, collegando la frequenza alla causalità. La connessione tra frequenza e causalità è però soltanto una questione di ragionamento formale di nessun valore teorico, come si può vedere dall'esempio da lui prodotto: l'assicuratore fa affidamento sulle tavole della mortalità dalle quali risulta ad esempio che il 5% degli individui raggiunge il settantesimo anno di età. Per Mill questo rapporto indica "la proporzione relativa a quel luogo e a quel tempo, che esiste tra le cause che prolungano la vita sino a settanta anni e quelle che tendono a farla finire prima". Ma questa è soltanto una semplice dichiarazione di fede determinista che si commenta da sola. (Continua)

--------

Tratto da "Il caso e la necessità - L'enigma svelato - Volume primo  Teoria della conoscenza" (1993-2002)

sabato 20 aprile 2013

Che tristezza! Non se lo meritava! Chi? L'uomo o il partito?

Questa mattina su Repubblica.it si poteva leggere: "Poco prima, nella riunione con lo stato maggiore, (Bersani) era stato tranchant: "Mi sono rotto i coglioni". Sulle ceneri della candidatura bruciata di Romano Prodi, si chiude la parabola dell'uomo di Bettola alla guida del Partito democratico dall'ottobre del 2009. Anche Rosy Bindi si è dimessa dalla carica di presidente, battendolo sul tempo di pochi minuti. Finisce la corsa di un gruppo dirigente mentre rimane in altissimo mare la scelta sul nuovo capo dello Stato. "È l'esplosione del Pd", commenta impietrito Ricky Levi, il braccio destro di Romano Prodi che ha presidiato ieri il Transatlantico. Muove appena le labbra. "Che tristezza per Romano. Non se lo meritava". "

Perché riportiamo questo brano? Perché vi è sintetizzato un metodo della politica che non vuole rinunciare a cedere le armi, nonostante i tempi nuovi. E' il metodo del primato dell'individuo sul collettivo politico, sul partito, metodo sopra espresso con un'ingenuità che fa cadere le braccia. Pensate un pò, di fronte all'esplosione di un intero partito, Levi si preoccupa della tristezza del proprio capo: "Non se lo meritava": che cosa non si meritava? Di aver perso il  partito (collettivo)? O di aver perso la sua occasione (individuale): diventare Presidente della Repubblica, coronando una lunga carriera istituzionale a livello italiano ed europeo?

Il parlamento italiano non comprende Grillo ma neppure Francesco, figurarsi Renzi!

Ciò che sta accadendo in parlamento ha più del drammatico o del tragicomico? Del resto, questa è o non è la tanta decantata (in passato) società dello spettacolo?  Si potrebbe anche dire: era ora che a gestire un pò di società dello spettacolo ci fosse un capo comico, dopo che a fallire è stato un "padrone delle ferriere" del momento, ossia un padrone delle televisioni, produttrici di spettacoli, alias spot, alias Truman show, alias shopper da avviare ai grandi magazzini, alias credito (usurario) al consumo, ecc. ecc. Ma oggi tutto questo sta franando, a cominciare dalla fine: dal credito al consumo nei grandi magazzini, per continuare con i Truman, orfani della società del benessere.

La frana della società dello spettacolo o del "truman show per lo shopping" si porta via tutta la ricchezza del passato. Ciò che simbolicamente è stato ben rappresentato e rapidamente risolto dalla più antica (e più rapida ad adeguarsi) istituzione umana: la Chiesa cattolica, che ha subito trovato non solo la soluzione ma anche la sua più precisa e sintetica rappresentazione in un piccolo nome: Francesco. C'era un modo più chiaro e più semplice  per dire che si stavano avvicinando tempi grami?

venerdì 19 aprile 2013

2a) Caso probabilistico e necessità statistica

(Continuazione) Il fatto "sconvolgente", nel senso che "sconvolse" la probabilistica rovesciandola in statistica, si verificò quando si prese in considerazione non più il singolo lancio della moneta, non più la singola possibilità sul totale delle possibilità, ma un gran numero di lanci della stessa moneta nelle stesse condizioni. Se consideriamo con T il numero di uscite Testa, con C il numero di uscite Croce e con n il numero di lanci, si verifica sperimentalmente che T/n e C/n tendono, in un gran numero di lanci, ad un unico valore costante: la frequenza relativa f. Questo valore coincide con la misura della probabilità p: 1/2.

In altre parole, la sorte del singolo lancio, originaria preoccupazione deterministica dei matematici che impostarono il calcolo delle probabilità, rimane indeterminata, ossia soggetta al caso, nonostante si affermi che esso può avere una probabilità su due di dare testa o croce. Al contrario, per un gran numero di lanci, ossia per un insieme di casi, che sono un tipico oggetto di studio statistico, si perviene ad un dato certo e necessario: la frequenza 1/2. E la circostanza per cui lo stesso indice vale per la frequenza e per la probabilità, non modifica l'incertezza e l'indeterminazione del concetto di probabilità, il quale non fa che esprimere l'ambito della casualità inerente al singolo evento.

giovedì 18 aprile 2013

Pietro Greco: "Alla ricerca della complessità"

Pietro Greco:  "Alla ricerca della complessità"

Ciò che viene chiamata complessità è la via confusa e multiforme che molti studiosi e scienziati hanno intrapreso da molti decenni per cercare di risolvere le annose contrapposizioni tra riduzionisti e olisti, tra deterministi e indeterministi, ecc. Tutto poi si è ridotto alla concezione dei livelli di complessità che troviamo nei processi naturali o di tipo naturale, che vengono chiamati livelli di organizzazione diversi. Un esempio facile per tutti: la specie (complesso) è costituito di molteplici organismi (individui singoli). Poi a salire: le specie sono molteplici singoli appartenenti al genere... ecc. ecc. Poi a scendere: l'individuo singolo è costituito di organi e tessuti, a loro volta costituiti di molteplici singole cellule, ecc. ecc.

Volendo semplificare al massimo, come fa Pietro Greco in "Scienzainrete" nella sua conclusione alla presentazione di un progetto italiano su questo tema, che ha come oggetto i "processi decisionali e le dinamiche socio-economiche" alla ricerca della complessità, si tratta, usando le sue parole di "districare i rapporti tra comportamenti individuali e comportamenti collettivi nelle decisioni economiche".

mercoledì 17 aprile 2013

1a) Caso probabilistico e necessità statistica

La statistica, in senso lato, come quantificazione di capi di bestiame, di nascite, di popolazione, ecc., è molto antica e risale ad alcuni millenni prima della nostra era. Basti pensare alla divisione per classi di censo dell'antica Atene o dell'antica Roma. Dopo la fase di stagnazione feudale, la statistica risorse, come ogni altro ramo della scienza moderna, nel secolo XVI, e si sviluppò in due direzioni che presero il nome di indirizzo investigativo (in Inghilterra) e descrittivo (in Germania). Essa rappresentò, in entrambi i casi, uno strumento di indagine empirica che ebbe come oggetto di studio i fenomeni collettivi -composti di numerose unità- propri delle cosiddette scienze sociali.

Nello stesso periodo sorgeva, nell'ambito delle scienze naturali, per opera di scienziati matematici, il calcolo delle probabilità il cui oggetto di studio era costituito dai singoli eventi. Punto di partenza del calcolo probabilistico fu l'analisi matematica dei giochi d'azzardo e precisamente il tentativo di determinare i singoli eventi casuali, come ad esempio il lancio di un dado. Si trattò, quindi, più di un gioco matematico che di una seria operazione scientifica.

lunedì 15 aprile 2013

La questione del rapporto probabilità-frequenza statistica

E' già capitato, in questo blog, di trattare l'argomento statistica, sottolineando la confusione dei teorici di questa disciplina riguardo ai concetti di probabilità e frequenza. Abbiamo anche osservato che, certe volte, sembra che si facciano le indagini statistiche avendo per obiettivo l'incertezza probabilistica piuttosto che la certezza della frequenza statistica. La prossima serie di post ha lo scopo di approfondire la questione e mostrare la soluzione nella maniera più ampia.

domenica 14 aprile 2013

L'incoscienza di Truman (Seconda parte)

(Continuazione) Scrive Rifkin: "Lo psicologo Robert J. Lipton ha definito questa nuova generazione "proteiforme": uomini e donne cresciuti nei common-interest development, la cui salute è gestita dal servizio sanitario, che utilizzano automobili in leasing, acquistano online, si aspettano di ottenere software gratuitamente, ma sono disposti a pagare per servizi aggiuntivi e aggiornamenti. Vivono in un mondo di stimoli sonori che durano sette secondi, sono abituati all'accesso rapido alle informazioni, hanno una soglia di attenzione labile, sono più spontanei che riflessivi. Pensano a se stessi più come a giocatori che a lavoratori e preferiscono essere considerati creativi più che industriosi. Sono cresciuti in un mondo di occupazioni Just-in-time e sono abituati a incarichi temporanei. Anzi, le loro vite, in generale, sono segnate da un grado di mobilità e di precarietà maggiore, sono meno radicate di quelle dei loro genitori. Sono più "terapeutici" che ideologici e pensano più in termini di immagini che di parole: sono meno abili nella composizione di frasi, ma superiori nella elaborazione dei dati elettronici. Sono più emotivi che analitici".

sabato 13 aprile 2013

L'incoscienza di "Truman" (Prima parte)

Indagando la società del Truman show ci imbattiamo in una contraddizione paradossale: mentre ogni individuo parte da se stesso pretendendo di vivere un'esistenza personalizzata -piena di beni materiali e immateriali fatti su misura, dominato da un immediatistico individualismo egogentrico, orientato verso i più diversi stili di vita che lo distinguano dagli altri-, tutti gli individui si trovano accomunati dalla medesima esigenza dello shopping senza limiti, che li trasforma in un unico shopper collettivo, rinchiuso dal marketing spettacolarizzato in un mondo fittizio e immaginario, dal quale nessuno può sfuggire.*

Così, il reale "comunismo dello shopping", funzionale alla sopravvivenza del capitalismo senescente, si concretizza contraddittoriamente nella esistenza di centinaia di milioni di individui che, pur vivendo nella finzione del Truman show, vengono accuditi dal marketing come da una madre che cerca di andare incontro alle diverse esigenze dei propri figli, ognuno differente dall'altro.

Truman show: la società dello spettacolo senza limiti

Il creatore della fortunata formula "Società dello spettacolo", che è anche il titolo di un suo breve saggio zeppo di aforismi, è un intellettuale francese, regista cinematografico. Guy Debord, questo il suo nome, era giunto alla paradossale conclusione che "Lo spettacolo è la principale produzione della società attuale", e che di conseguenza: "Tutta la vita delle società nelle quali predominano le condizioni moderne di produzione si presenta come un'enorme accumulazione di spettacoli". In questo modo, scimmiottando Marx, egli ha sostituìto gli "spettacoli" alle merci, anticipando di un trentennio l'attuale rilevanza della produzione immateriale, denominata "industria culturale".

In particolare, Debord sottolineò la rilevanza dell'apparire nella società dello spettacolo: "La prima fase del dominio dell'economia sulla vita sociale aveva determinato nella definizione di ogni realizzazione umana una evidente degradazione dell'essere in avere. La fase presente dell'occupazione totale della vita sociale da parte dei risultati accumulati dall'economia conduce a uno slittamento generalizzato dell'avere nell'apparire, da cui ogni "avere" effettivo deve trovare il suo prestigio immediato e la sua funzione ultima".

venerdì 12 aprile 2013

La società del Truman show per lo shopping

Il valore d'uso della merce e la funzione del marketing

La logica che guida la nostra indagine parte dalla teoria scientifica di Marx che concepisce il modo capitalistico di produzione come processo naturale indipendente dalla volontà e dalla coscienza umana. Questo processo, che domina gli uomini mediante cieche leggi statistiche, è concepito come anarchia del capitalismo. Riguardo a questa concezione, abbiamo apportato una modifica introducendo un concetto polare dialettico che nella logica di Marx era implicito o talvolta espresso ma non generalizzato. Si tratta del concetto polare caso-necessità.
   
Poiché la dialettica caso-necessità è ampiamente sviluppata nel primo volume di Teoria della conoscenza, qui ci limitiamo a ricordare che il processo naturale capitalistico, come qualsiasi altro processo naturale, è guidato da questa dialettica che si manifesta in maniera ciecamente necessaria, mediante leggi statistiche che valgono soltanto per i complessi. La cieca necessità che ne deriva è completamente indipendente dagli uomini e li domina, appunto come, cieca necessità naturale.

Lo scopo reale della scienza

La conoscenza della cieca necessità dei processi naturali e sociali

Affermando che la cieca necessità è la necessità non conosciuta, Hegel ha identificato due concetti affatto distinti: infatti, la "necessità non conosciuta" è la non conoscenza della necessità dei processi naturali e sociali, mentre la "cieca necessità" è proprio la necessità dei processi naturali e sociali che la scienza deve conoscere. Pertanto la "necessità non conosciuta" è la cecità che riguarda l'uomo, mentre la "cieca necessità" riguarda la natura e quei processi sociali che si svolgono in maniera naturale.

La "cieca necessità" appartiene quindi al mondo oggettivo, esterno alla coscienza umana, mentre la "necessità non conosciuta" appartiene all'uomo come soggetto cosciente. La conoscenza della "cieca necessità" significa, perciò, eliminare la "necessità non conosciuta", o non conoscenza della reale necessità che si manifesta nei fenomeni e nei processi naturali e sociali.

In relazione al mondo esterno naturale, conoscere la "cieca necessità", significa conoscere come la dialettica caso-necessità si manifesta nei fenomeni e nei processi naturali; ma la conoscenza umana non muta l'oggettiva cecità del modo di operare della natura, non ha il potere di dare la vista alla natura, la quale procede in maniera del tutto cieca senza alcuna "visione" deterministica e finalistica. Così la conoscenza della gravità non muta la cieca necessità della reciproca attrazione dei corpi cosmici e della conseguente evoluzione dell'universo.

giovedì 11 aprile 2013

La difficile questione caso-necessità nella storia

Come vedremo, Marx ed Engels avevano compreso il ruolo del caso, opposto dialettico della necessità; ma, come abbiamo appurato nel primo volume sulla teoria della conoscenza, essi non arrivarono a definire e risolvere una volta per tutte la dialettica caso-necessità. I tempi non erano ancora maturi: la loro opera teorica appartiene al centro dell'Ottocento, secolo dominato totalmente dal determinismo riduzionistico.

Come ha giustamente osservato Lenin, Marx non ci ha lasciato una logica che chiarisse il suo metodo. La ragione, a nostro avviso, va cercata nel mancato riconoscimento definitivo del rovesciamento dialettico del caso (relativo alle singole cose) nella necessità (relativa ai loro complessi). Anche per questo motivo Marx non si è mai deciso a scrivere il capitolo sulle classi sociali, non avendo del tutto chiarito, dal punto di vista della necessità, il rapporto esistente tra i singoli individui e la loro classe di appartenenza. L'ostacolo principale a una nuova logica è sempre stato in Marx il suo punto di partenza riduzionistico, imposto dal determinismo ottocentesco. E' ciò che possiamo appurare riprendendo il primo capitolo dell'Ideologia tedesca.

mercoledì 10 aprile 2013

VII] La libertà della specie umana e la libertà dell'individuo

La soluzione scoperta da Marx

A conclusione del primo libro del Capitale, Marx scrive il famoso passo sul "regno della libertà": "L'effettiva ricchezza della società e la possibilità di un continuo allargamento del processo di riproduzione dipende quindi non dalla durata del pluslavoro, ma dalla sua produttività, e dalle condizioni di produzione più o meno ampie nelle quali è eseguito. Di fatto, il regno della libertà comincia soltanto là dove cessa il lavoro determinato dalla necessità e dalla finalità esterna; si ritrova quindi per sua natura oltre la sfera della produzione materiale vera e propria".

Marx afferma chiaramente che il regno della libertà comincia dove finisce il regno della necessità. Il regno della libertà si ritrova per sua natura oltre la sfera della necessità. Ma, subito dopo, aggiunge: "Come il selvaggio deve lottare con la natura per soddisfare i suoi bisogni, per conservare e riprodurre la sua vita, cosi deve fare anche l'uomo civile, e lo deve fare in tutte le forme della società e sotto tutti i possibili modi di produzione. A mano a mano che si sviluppa, il regno delle necessità naturali si espande, perché si espandono i suoi bisogni; ma al tempo stesso si espandono le forze produttive che soddisfano questi bisogni".

martedì 9 aprile 2013

VI] Delle due, l'una: o un'elevata origine per un'umile esistenza o un'umile origine per un'elevata esistenza

Come conseguenza dei risultati del nostro studio, si può ricavare che soltanto due grandi concezioni possono contendersi, nella reciproca opposizione, la supremazia nella teoria della conoscenza, senza possibilità di alternativa: o è vera l'una o è vera l'altra. Profondamente asimmetriche dal punto di vista della loro affermazione storica, l'una riguarda il passato e il presente di una specie umana divisa, dipendente e sottomessa, l'altra riguarda il futuro di una specie umana finalmente indivisa, libera e padrona di se stessa.

Se non consideriamo rilevanti le molteplici concezioni di piccolo cabotaggio che sono sorte sul terreno economico, politico, sociale e culturale dell'epoca capitalistica, quindi anche le recenti concezioni scientifiche, denominate paradigmi, è solo perché queste riflettono semplicemente quel pluralismo relativistico senza fine che il modo capitalistico di produzione ha creato per le proprie esigenze particolari e contingenti.

Le due grandi concezioni della natura e della società sono I) la concezione teologica metafisica, II) la concezione  materialistica dialettica. 

lunedì 8 aprile 2013

V] La religione un prodotto storico

La condizioni di dipendenza della specie umana è il fondamento del successo della prima grande concezione della natura: quella religiosa, che dura da millenni e che continuerà a durare fino a quando dureranno le condizioni naturali e sociali della specie umana divisa. La prima conseguenza è che nessuna critica puramente ideologica dei dogmi religiosi e nessuna pretesa abolizione della religione possono essere avanzate senza finire nel ridicolo o nel risultato opposto a quello voluto. Come la storia insegna, chi ha perseguitato una religione ha ottenuto come risultato di creare martiri e con essi la crescita dei suoi adepti.

Le religioni sono un prodotto storico, e dunque hanno una origine, uno sviluppo, una involuzione e una inevitabile fine. Ma per comprendere come possa avere termine la religione in generale, e come sia inutile pretendere di affrettarne la fine, ad esempio con leggi persecutorie o per decreto, non dobbiamo fare altro che prendere in mano l'Antiduhring di Engels.

domenica 7 aprile 2013

IV] Ateismo e comunismo: due forme di negazione della negazione

La creazione è non solo il principale fondamento della religione, ma è anche il suo punto di forza perché la coscienza umana non riesce a concepire che l'uomo possa esistere per opera propria. La ragione di questa difficoltà è espressa chiaramente da Marx in un'opera giovanile. Nei "Manoscritti" egli compie la seguente ammirevole riflessione: "Un essere si considera indipendente soltanto quando è padrone di sé, ed è padrone di sé soltanto se è debitore verso sé stesso della propria esistenza. Un uomo, che vive della grazia altrui, si considera come un essere dipendente. Ma io vivo completamente della grazia altrui quando sono debitore verso l'altro non soltanto del sostentamento della mia vita, ma anche quando questi ha oltre a ciò creato la mia vita, è la fonte della mia vita; e la mia vita ha necessariamente un tale fondamento fuori di sé, quando non è la mia creazione. La creazione è quindi una rappresentazione assai difficile da sradicare dalla coscienza del popolo; questi infatti non riesce a concepire che la natura e l'uomo possano esistere per opera propria, posto che ciò contraddice a tutti i dati evidenti della vita pratica".

Alla coscienza umana riesce inconcepibile l'autocreazione della natura e dell'uomo, perché i "dati evidenti della vita pratica" mostrano che l'uomo esiste per opera altrui, e perciò non è padrone di se stesso. "Ma siccome per l'uomo socialista tutta la cosiddetta storia del mondo non è altro che la generazione dell'uomo mediante il lavoro umano, null'altro che il divenire della natura per l'uomo, egli ha la prova evidente, irresistibile, della sua nascita mediante se stesso, del processo della sua origine".

sabato 6 aprile 2013

III] La missione storica della specie umana

Il passaggio dal dominio della cieca necessità fondata sul caso alla libertà fondata sulla necessità conosciuta

Nell'Antiduhring Engels scrive: "Hegel fu il primo a rappresentare in modo giusto il rapporto di libertà e necessità. Per lui la libertà è il riconoscimento della necessità. "Cieca è la necessità solo nella misura in cui non viene compresa"."

Abbiamo già considerato questa affermazione nel volume sulla teoria della conoscenza.* Qui ci limitiamo a ribadire che la "cieca necessità" è intrinseca alla natura e alla società umana fino ad oggi, e quindi è indipendente dalla "necessità non conosciuta". Occorre sottolinearlo: la "necessità non conosciuta"  significa semplicemente che l'uomo non conosce la necessità naturale e sociale, mentre la "cieca necessità" significa che i processi naturali e sociali sono ciecamente necessari.

Dunque, se questi processi fossero guidati dalla connessione deterministica di causa ed effetto, allora sì che la conoscenza della loro necessità equivarrebbe per l'uomo alla libertà, perché egli saprebbe dove mettere le mani, ma essi sono guidati dalla dialettica caso-necessità, ossia dalla cieca necessità fondata sul caso. La conoscenza di questa cieca necessità non è quindi, di per sé, sufficiente per la libertà.

venerdì 5 aprile 2013

II] Ancora sulla valutazione dell'azione umana e il ruolo della coscienza

Nel paragrafo precedente* abbiamo definito il criterio scientifico che permette di valutare l'azione umana come azione complessiva nella forma di organizzazione che moltiplica i risultati, a differenza della somma algebrica dei risultati delle azioni dei singoli individui. L'analisi della necessità è dunque possibile per l'organizzazione. Riguardo al singolo individuo la necessità complessiva si rovescia in casualità. A sua volta il caso, relativo alle azioni dei singoli individui, si rovescia nella necessità complessiva. Com'è possibile che l'uomo cosciente non sia in grado di fare altro che ricalcare le orme del solito processo di tipo naturale soggetto alla dialettica caso-necessità?

I singoli individui partono da se stessi, ma nell'ambito della propria specie, divisa in classi, popoli, nazioni, religioni, etnie, ecc. Anche le azioni collettive dipendono da queste divisioni; così anche il concetto di organizzazione è un'astrazione che concretamente si configura in molteplici forme dipendenti dalle divisioni della specie umana: ad esempio le Chiese rappresentano organizzazioni delle più diverse religioni; gli Eserciti sono organizzazioni militari dei più diversi Stati; gli Stati, a loro volta, sono organizzazioni sorte per guidare le più diverse Nazioni, ecc. ecc.

giovedì 4 aprile 2013

I] Analisi del rapporto caso-necessità per la valutazione dell'azione umana nella storia

Ogni volta che consideriamo la nostra storia millenaria, affrontandone anche solo un piccolo segmento, ci accorgiamo che, per quanto l'operare umano porti a risultati necessari, questi non erano, se non raramente, risultati attesi o voluti; ci accorgiamo con rammarico che il caso è molto più influente di quanto siamo disposti ad ammettere; e parliamo del caso nella sua accezione più generale, escludendo soltanto ciò che la scienza è ancora incapace di determinare come necessità.

Studiando la storia e i suoi risultati, non possiamo dire che essa non avrebbe potuto manifestarsi altrimenti da come si è manifestata. La storia non si fa con il senno di poi; ma, come l'evoluzione di una specie animale quando prende una via si preclude tutte le altre e non sempre in un modo che rappresenta un progresso, così la storia della specie umana ha preso delle strade che nessuno poteva dire fossero le uniche possibili e tanto meno necessarie. La necessità ineluttabile porta al fatalismo. La dialettica del rapporto caso-necessità svela l'arcano della fatalità e propizia l'idea della possibilità per l'uomo di superare questo rapporto naturale con la riduzione del caso, con l'aumento dei risultati voluti e, di conseguenza, con il raggiungimento della libertà.

mercoledì 3 aprile 2013

Prossima pubblicazione: una dozzina di post fondamentali per la storia umana

Si tratta di post impegnativi, nel senso della loro importanza storica generale, riguardante l'intera specie umana. Saranno divisi in due serie, la prima relativa al passato remoto, la seconda relativa al passato prossimo

I) In riferimento alla prima serie, affronteremo il discorso della missione storica della specie umana, intendendo per missione non qualcosa di mistico o religioso, ma nel senso dello sviluppo concreto della mente e della coscienza umana complessiva che il periodo storico dello sviluppo capitalistico della scienza teorica e della tecnologia avrebbe potuto permettere.

II) In riferimento alla seconda serie, ci occuperemo delle deludenti prestazioni della scienza teorica e della coscienza umana nella fase senescente del capitalismo giunto al suo stadio finale, fase che si trascina da decenni sulle stampelle della "società dello spettacolo" o del "Truman show".

martedì 2 aprile 2013

Un equivoco storico plurimillenario nel rapporto tra scienza e religione

L'autore di questo blog deve ammetterlo: ignorava che Ratzinger, nel 1987, avesse scritto: "Molto in generale si può dire che se l'inizio del mondo è dovuto a uno scoppio primordiale, allora non è più la ragione il criterio e il fondamento della realtà, bensì l'irrazionale; anche la ragione è, in questo caso, un prodotto collaterale dell'irrazionale verificatosi solo per caso e per necessità, anzi per errore ed in quanto tale da ultimo è essa stessa irrazionale".

Apprendo questo da un recente articolo pubblicato in "scienzainrete" a firma di Cristian Fuschetto, il quale allude anche alla "insofferenza per la teoria del Big Bang e per quella evoluzionistica, divulgatrice di una visione "irrazionalistica" della Natura in cui ogni apparente ordine altro non sarebbe se non il frutto di uno "scoppio primordiale" e di "caso e necessità"": insofferenza che non poteva mancare alla teologia ratzingeriana e, più in generale, alla religione.

Il fondamento reale della inconciliabilità tra la scienza umana e la scienza divina e veneranda

Occorre partire dalle seguenti due premesse.

 1) Sia i credenti che i non credenti sono sempre stati accomunati dal medesimo interesse verso lo studio filosofico, matematico, scientifico, economico e storico. Anzi, nella relativamente breve esistenza dell'uomo cosciente, sono stati i credenti ad essere i primi depositari della conoscenza: originariamente, i funzionari di qualsiasi religione, i suoi sacerdoti, si sono elevati al di sopra dei loro popoli coltivando la conoscenza. E anche la scienza moderna è sorta dalla scienza di Dio, dalla teologia.

2) Ma la scienza moderna, a partire da Copernico, Galileo, Keplero, ecc. (scienziati pur sempre credenti) ha introdotto un elemento oggettivo di contraddizione tra la scienza di Dio e la scienza dell'uomo. Questa contraddizione riguarda il principale presupposto: come accostarsi alla conoscenza, come fare scienza? La risposta a questa domanda ha prodotto l'oggettiva inconciliabilità tra la (libera) scienza e la religione.

lunedì 1 aprile 2013

Giù il cappello e più rispetto per l'intelligenza umana!

Per usare un linguaggio chiaro e immediato, le grandi forze della natura, della società e della storia non possono essere giudicate secondo i criteri delle piccole cose, tanto cari agli individui egocentrici. Così, quando si tratta di processi ciclopici che sconquassano natura, società e storia, occorrerebbe dimenticare il proprio ego e quelle piccolezze individuali che si trovano, oggi, tanto a loro agio nei cinguettii dei twitter e nei commenti sui blog.

Di fronte ai grandiosi movimenti economici, politici e religiosi dei continenti, giù il cappello e più rispetto per l'intelligenza umana! Se è vero che nessuno può prevedere le singole mosse, nel grande scacchiere del mondo della specie umana, è anche vero che tutti possono comprendere quanto si è andati e si continua ad andare oltre l'incoscienza.

Possibilità e realtà: Ferraris e Veca

Su "la Repubblica" del 21 marzo 2013, i due filosofi, Ferraris e Veca, "dibattono" astrattamente su "realtà" e "possibilità", senza chiarire né l'uno né l'altro concetto e neppure il loro reciproco rapporto: ad esempio, che mentre la sfera del possibile è ampia, la sfera del reale è ristretta

I filosofi che si dilettano a parlare genericamente di possibilità e di realtà compiono delle astrazioni pure, vuote, le quali, poi, devono essere reincarnate in qualche modo: ad esempio, per Ferraris, può essere il detto di Bismark: la politica è "l'arte del possibile", mentre subito dopo Veca può pretendere da Musil "una risposta alla faccenda complicata della contrapposizione o della semplice distinzione fra realtà e possibilità".

Chi ha scritto il titolo dell'articolo, del resto, ha dimostrato di non aver affatto compreso su che cosa i due filosofi discutessero. Infatti, il titolo recita "Dialogo filosofico sui migliori dei mondi impossibili", rovesciamento in negativo del "migliore dei mondi possibili" di Leibniz. Ma tra Ferraris e Veca poco si parla di mondi, e neppure di dialogo si tratta. Assistiamo, invece, a due monologhi che s'incrociano, senza chiarire nulla, attorno all'astratta "possibilità" e all'astratta "realtà".

domenica 31 marzo 2013

Nell'epoca degli stati continentali le doppie elezioni italiane non cambieranno certo le sorti del mondo

In Italia, due continuano ad essere gli "argomenti del giorno" dall'inizio del 2013: le elezioni parlamentari italiane, compresi i successivi risultati, e, quasi in concomitanza, le elezioni di un nuovo Pontefice per sostituire il precedente, dimissionario. Eppure, gli argomenti avrebbero dovuto e dovrebbero essere almeno tre, con il terzo che, per importanza mondiale, sovrasta gli altri due: si tratta della recente volontà espressa dal presidente americano, il democratico Obama, di puntare sul "libero scambio USA-UE".

Come abbiamo spesso ripetuto in precedenti post, nell'era della globalizzazione, ossia nell'era del capitalismo senescente, gli Stati nazionali contano poco, a meno che non abbiano confini "continentali": contano, infatti, soltanto gli Stati di dimensioni continentali. Perciò di fronte alla crescente potenza economica dell'Asia e dei due giganti demografici Cina e India, gli USA, per correre ai ripari, si  rivolgono a una Europa che da tempo cerca di forgiare, con molte difficoltà, un'unione continentale, ovvero, una UE consolidata in una sovrastruttura statale che sia nella sostanza, anche se non nella forma, una specie di Stati Uniti d'Europa.

Perché il grottesco si è impossessato dell'Italia elettorale?

L'aspetto più grottesco della attuale tornata elettorale italiana è stato l'ansimare scomposto di "poteri forti" che sono realmente deboli perché non riescono a ottenere ciò che vogliono, mentre cercano impossibili spiegazioni alla propria impotenza che neppure i loro principali strumenti di riferimento, stampa, televisione e social network, riescono a fornire.

La vera nota dolente è che non riescono a determinare risultati voluti, e molto se ne dispiaciono, ma, non potendo farci nulla, continuano a fare quello che hanno sempre fatto sotto l'occhio indiscreto degli strumenti mediatici.

sabato 30 marzo 2013

Venti anni sono trascorsi...

durante i quali l'autore di questo blog ha vissuto studiando un migliaio di libri, riflettendo e creando una nuova teoria elaborata in 10 volumi per complessive 3000 pagine.

Nel frattempo, dopo la ventennale fatica, spesa in condizioni mai socialmente ed economicamente facilitate, l'autore sta entrando nel suo settantesimo anno, un'età che rende estranei alla paziente sopportazione della stupidità del mondo.

domenica 24 marzo 2013

"La materia oscura che rallenta l'Universo"

"E' il 20% in più di quanto si credeva: rappresenta la parte ignota del cosmo"

E' così che il "Corriere della Sera" del 23/3/13 presenta i risultati prodotti dal nuovo satellite "Planck" dell'agenzia spaziale europea Esa, dopo 15 mesi di osservazioni. Secondo Nazzareno Mandolesi dell'Università di Ferrara e dell'Istituto Nazionale di astrofisica, l'aver misurato più materia oscura significa che l'energia oscura concepita fino adesso diminuisce, e quindi "che la velocità di espansione dell'universo è meno accelerata di quanto si ritenesse. Perché essendoci meno energia oscura l'universo è più lento, l'effetto attrattore che gli imprime velocità è dunque più ridotto".

venerdì 22 marzo 2013

VI) Il fallimento della teoria relativistica dei buchi neri si manifesta nella proliferazione di continui aggiustamenti

Seguendo l'articolo "Un modello astrofisico dei buchi neri",*di R.H. Price e K.S Thorne, possiamo, per così dire, mettere in fila  le contraddizioni irrisolte della teoria relativistica dei buchi neri, inadeguata a rendere ragione dei fenomeni astrofisici, ragion per cui molti fisici, tra i quali gli stessi autori dell'articolo, sono tentati da nuovi aggiustamenti della teoria fondamentale relativistica, senza per altro avere il coraggio e neppure la possibilità di abbandonarla.

Se una teoria non funziona, è giusto cercare un'altra teoria, ma se non funziona perché smentita empiricamente, occorre cercarne un'altra che non venga invalidata dall'esperienza. Così pensano Price e Thorne, che si rifanno al concetto di paradigma di Kuhn. Come abbiamo già esaminato nella sezione dedicata alla Teoria della conoscenza, i paradigmi di Kuhn sono quegli insiemi di regole, diagrammi, leggi e formule matematiche, che dovrebbero permettere di risolvere i problemi specifici di una data scienza (i cosiddetti "rompicapi").

martedì 19 marzo 2013

V) La pretesa estrazione di energia dai "buchi neri"

L'"energia stimolata" dal collasso gravitazionale e la formazione  di materia oscura

Una delle tante assurdità della teoria relativistica dei buchi neri è la "scoperta" della possibilità di "estrazione" di energia da un buco nero rotante. Grazie al solito metodo dell'esperimento di pensiero, i fisici sviluppano il seguente ragionamento: immaginiano un buco nero rotante di massa M e una particella di energia E0. Immaginiamo poi di far spaccare questa particella in due, in modo che il primo frammento abbia energia negativa (sic!) E1 e cada nel buco nero, mentre il secondo frammento si allontani. Essendo E0 = E1 + E2, poiché E1 è negativa, E2>E0. Di conseguenza avremo: dentro il buco nero Mc2 - E1, e, fuori dal buco nero E0 + E1. "In altre parole -conclude Wald- abbiamo estratto energia di valore assoluto E1 (positiva) dal buco nero. L'espediente con cui abbiamo ottenuto questo risultato è stato quello di costringere (sic!) il buco nero ad assorbire energia negativa"

A noi pare, invece, che il vero espediente sia stato quello di prendere una particella, immaginando di spaccarla in due paradossali frammenti, di cui uno risulti maggiore della particella intera, e l'altro, di conseguenza, risulti negativo (sic!). Ma riguardo all'espediente di costringere il buco nero ad assorbire energia negativa, una cosa è immaginarlo, altra cosa non solo realizzarlo, ma persino immaginarne il modo. Nonostante l'ottimismo espresso nelle seguenti parole: "Questi processi portano alla creazione spontanea di particelle in prossimità di un buco nero, e, in linea di principio, portano alla "evaporazione" del buco nero"", quando poi si tratta di immaginare un modo realistico, occorre rivolgersi a processi fisici molto più  semplici e noti, ma con i quali, come vedremo, i buchi neri non hanno niente a che vedere.

sabato 16 marzo 2013

IV) Il collasso totale gravitazionale e l'insussistente simmetria sferica del "buco nero"

Scrive Wald, nel testo già citato*: "Che cosa succede, invece, quando la massa del nucleo supera il doppio della massa solare, oppure quando la velocità di implosione è troppo grande per potersi fermare, anche se la massa è inferiore a due masse solari, oppure quando altra massa cade su una stella di neutroni -o su una nana bianca- e porta la massa totale a superare il valore critico che permette la stabilità?"

Si tratta del collasso totale gravitazionale, su cui è fondamentale avere un'esatta comprensione, anche per l'importanza che questo fenomeno assume in relazione al big bang. Ne abbiamo già anticipato una conseguenza logica: se si ipotizza, come fanno i relativisti, che possa esistere un collasso estremo che annienta la materia, allora anche il big bang non potrebbe fare a meno di annientare la materia, il che è assurdo.

La teoria della relatività si trova in grave imbarazzo, di fronte al fenomeno del collasso gravitazionale estremo. "Purtroppo -scrive Wald- nella relatività generale, l'analisi teorica di ciò che avviene in situazioni generiche durante il collasso gravitazionale -anche tralasciando le complicazioni dovute al comportamento della materia- è assai difficile. E' assai difficile trarre soluzioni esatte dall'equazione di Einstein che descrivono il collasso gravitazionale; gli stessi tentativi di trovare soluzioni approssimate, mediante integrazioni numeriche eseguite con il computer, non hanno avuto esiti brillanti, anche se si tratta di un campo in rapida espansione".

mercoledì 13 marzo 2013

III) Lo strano modello di "buco nero"

Abbiamo già considerato, a proposito del "buco nero", che l'unica questione seria è la comprensione dello stato della materia alla massima densità, questione già posta dai newtoniani che avevano ipotizzato l'impossibilità, per qualsiasi forma materiale, compresa la luce, di sfuggire all'enorme attrazione gravitazionale di un corpo estremamente denso.

Vedremo ora, seguendo uno dei maggior fisici del momento, Roger Penrose, che la teoria della relatività, nonostante affermi l'inadeguatezza della teoria gravitazionale newtoniana, è costretta a ribadire più volte asserzioni "newtoniane", mentre, in senso relativistico, riesce solo a concepire caratteristiche strane -poste sempre tra virgolette, come ad esempio la "caduta" dentro il "buco nero" -che non hanno alcun reale significato.

Secondo Roger Penrose*, per densità ancora più grandi di quelle relative alle stelle di neutroni, non è possibile ottenere uno stato di equilibrio stabile. "La teoria gravitazionale newtoniana è allora del tutto inadeguata a trattare il problema e dobbiamo rivolgerci alla teoria della relatività generale di Einstein. Nel far ciò siamo portati a un modello così strano che in confronto persino una stella di neutroni sembra una banalità". Ma vediamo, punto per punto, la descrizione e la specificazione del modello strano di "buco nero" di Penrose. Cominciamo con la prima definizione.

domenica 10 marzo 2013

II) Il fittizio modello di "buco nero" e la reale massima densità della materia

Potremmo dire che lo strano modello del "buco nero" elude l'esigenza di spiegare la materia reale al limite massimo di densità. Secondo i coniugi Melchiorri,* lo sviluppo dell'idea di "buco nero" può essere divisa in tre fasi. La prima, quando alcuni seguaci della teoria corpuscolare di Newton pensarono ad un corpo tanto massiccio da richiedere una velocità di fuga superiore alla velocità della luce. Questo corpo era, perciò, pensato invisibile e con una enorme attrazione gravitazionale.

La seconda fase, che i Melchiorri chiamano "geometrica", riguardò lo studio delle proprietà dello spazio-tempo in prossimità di un oggetto di grande massa. Questa fase relativistica non fece che adattare la precedente congettura alle nuove esigenze della teoria della relatività generale di Einstein. "Punto culminante di questa fase è stato il lavoro di Karl Schwarzschild del 1916 e le successive interpretazioni dei suoi risultati. Tra queste l'idea di Eddington del "cerchio magico entro il quale noi non possiamo penetrare con alcun strumento"."

giovedì 7 marzo 2013

I) "Buco nero", l'irreale maschera della reale materia oscura

Il fisico Kip S. Thorne, in "La ricerca dei buchi neri", così definisce il "buco nero": "un buco con un campo gravitazionale così forte che anche la luce catturata è trattenuta nella sua massa; un buco che curva lo spazio e piega il tempo (sic!)".

Indicare con il termine di "buco" qualcosa che produce la massima intensità gravitazionale, raggiungibile nel cosmo, non solo rappresenta il principale controsenso di questo concetto relativistico, considerato da tutti i fisici prodigiosamente strano, ma significa anche eludere la principale, difficile, questione della fisica: quella della massima densità raggiungibile della materia.

Come vedremo ricostruendo la storia delle idee che hanno prodotto la strana locuzione di "buco nero", tutto nacque dalla considerazione puramente newtoniana della "velocità di fuga" della materia da un grave, in rapporto all'attrazione gravitazionale da esso prodotta. Per farla breve, se, ad esempio, tutta la massa della Terra fosse compressa fino a raggiungere 5,58 cm di diametro, l'incredibile aumento di densità produrrebbe un'attrazione gravitazionale talmente intensa da portare la "velocità di fuga" ad eguagliare la velocità della luce, così da non permettere a nessun oggetto materiale di sfuggire a quel campo gravitazionale; e una ulteriore compressione di questa sfera avrebbe come conseguenza teorica l'intrappolamento della luce stessa.

mercoledì 6 marzo 2013

Materia oscura, la massima densità della materia cosmica

Sotto il titolo "Caccia ai buchi neri XL, sono i mostri del cosmo" dell'articolo pubblicato Su la Repubblica.it (6/3/2013), si può leggere "Nuove osservazioni astronomiche suggeriscono la presenza di buchi neri ultramassivi al centro di remote galassie. Con masse di decine di miliardi di volte quelle del Sole". E' grazie a telescopi sempre più potenti che possono essere individuati "buchi neri" sempre più massicci. Col tempo, sarà quindi possibile verificare se la teoria dell'autore di questo blog abbia un fondamento. (A questo riguardo vedere anche gli scritti già postati). 

Riassumendo in maniera molto sintetica: questa teoria sostiene che i cosiddetti "buchi neri" rappresentano il risultato dell'evoluzione cosmica, la quale si manifesta mediante collassi gravitazionali estremi, responsabili della massima densità della materia nella forma di spinar o disco di materia oscura. Poiché ciò avviene a tutti i livelli, dal big bang ai superammassi, agli ammassi, ai gruppi locali e alle galassie, ci dobbiamo aspettare che la maggior parte della materia nel cosmo si trovi in forma di spinar presenti al centro dei complessi cosmici sopra nominati.

domenica 3 marzo 2013

E' un clown il vincitore della politica spettacolo, ma...

Per decenni la "società dello spettacolo" ha spettacolarizzato la politica: non si contano gli spettacoli che, nel frattempo, ogni rete televisiva ha creato per la politica, senza che i politici stessi si rendessero conto di essere ridotti al ruolo di servitori dello shopping, schiavi degli spot che letteralmente li ammutolivano.

E adesso ci si stupisce che non solo un uomo di spettacolo, ma persino un clown, abbia letteralmente vinto togliendo ogni potere alla politica parlamentare? Ma potevano i politici, assoggettati allo spettacolarismo della politica, mantenere quella dignità che, ad esempio, ostinatamente un capo di partito pretendeva per sé, pur afferrando metaforicamente spazzole per non pettinare i capelli delle bambole o per non smacchiare i giaguari?

Costretti a giocare con le regole dello spettacolo televisivo, i politici parlamentari hanno maldestramente maneggiato i suoi caustici strumenti corrodendo la propria immagine, mentre un clown del mestiere poteva maneggiare continuamente i carboni ardenti anche della più corrosiva delle satire, fino all'insulto più impietoso, senza scottarsi neppure un pò, anzi "riscaldando" i suoi futuri elettori (stando però fuori dalla politica spettacolo televisiva). 

sabato 2 marzo 2013

L'emulazione è un vocabolo scomparso

Scomparso a tal punto che Wikipedia ne ignora persino l'esistenza, limitandosi a indicare soltanto il termine "emulatore" in relazione all'informatica.

Un vocabolo scompare dal lessico di una società quando socialmente non esiste più il contenuto che esso rappresentava. Nel caso della "emulazione", si tratta dell'aspirazione a eguagliare e a superare una persona di valore: ad esempio, affermare "Giotto emulo di Cimabue", significava indicare un allievo in grado di eguagliare ma anche superare il maestro.

La sfera della emulazione è sempre stata, nella società umana, quella in cui agivano individui capaci in qualche abilità, mestiere, arte o professione, cultura, filosofia e scienza. Così, nella vita sociale gli individui incontravano altri individui con determinate qualità suscettibili di emulazione. In ogni attività, e in special modo nella sfera intellettuale e artistica, l'emulazione ha sempre avuto un ruolo fondamentale, giustificando la spinta individuale a farsi notare, a emergere, a compiere imprese degne di nota e di plauso.

venerdì 1 marzo 2013

Abbagnano: sul solipsismo egocentrico

Secondo Abbagnano ("Dizionario di Filosofia" (1964)) solipsismo "è la tesi che esisto solo io e che tutti gli altri (uomini e cose) sono soltanto mie idee. Il termine più antico per indicare questa tesi è egoismo o egoismo metafisico o egoismo teorico".

L'accettazione più o meno esplicita che gli atti o le operazioni del soggetto (dell'io) sono conosciuti in modo immediato e privilegiato ed hanno pertanto una certezza assoluta, dice Abbagnano, ha fatto assumere talvolta il solipsismo o come punto obbligato della teoria della conoscenza o come procedimento metodologico. Quest'ultimo punto di vista apparterrebbe al positivismo logico, soprattutto di Wittegenstein e Carnap. Per il primo: "I limiti del mio linguaggio costituiscono i limiti del mio mondo", ossia, "ciò che il Solipsismo vuol dire è affatto giusto, soltanto non può essere detto, ma si manifesta. Che il mondo sia il mio mondo si rivela nel fatto che i limiti del linguaggio (del linguaggio che io solo capisco) costituiscono i limiti del mio mondo", e che pertanto "io sono il mio mondo".

Abbagnano osserva: "In realtà il presupposto del positivismo da cui nasce il S[olipsismo] è il riflesso nella teoria del linguaggio della tesi idealistica: gli elementi del linguaggio sono segni d'esperienza immediata, perché le esperienze immediate sono la sola realtà".

Premessa alle osservazioni critiche sul "Dizionario di filosofia" di Abbagnano

Per comprendere le "voci" del "Dizionario" di Abbagnano, occorre considerare che il suo autore divide il pensiero filosofico in tre filoni.

1) il primo, fondato sul concetto di sostanza o essenza necessaria, fondamentalmente deterministico, inizia con Aristotele e prosegue con Cartesio, Spinoza, ecc.; e giunge fino a lambire il tempo attuale, sebbene venga, per così dire, bloccato dalla operazione criticista di Kant che Abbagnano pone nel primo filone, ma che appare preparare la strada al secondo e persino al terzo.

martedì 26 febbraio 2013

Risultati elettorali 2013: e adesso chi dirige o comanda?

Se per un momento facciamo mente locale sul fatto che Bruno Vespa, commentando i risultati elettorali con i direttori delle varie testate editoriali, nella trasmissione "Porta a porta", dove si era appena stabilito che questi risultati rappresentavano lo scenario peggiore che ci si poteva aspettare per l'Italia (parole di Antonio Polito, approvate da tutti), abbia dovuto interrompere tutti per dire: "adesso due minuti di pubblicità e poi riprendiamo", come dovremmo rispondere alla domanda espressa nel titolo?

Il fatto è che, apparente paradosso, sulla democratica politica parlamentare comanda il commercio, lo shopping, perché, in realtà, lo "scenario peggiore" dell'Italia e dell'Europa è il crollo dello shopping e la drastica riduzione del ceto medio, degli shopper. Questo crollo risolve, permettendo di comprenderlo, un risultato elettorale, mentre il risultato elettorale, di per sé, non può risolvere il crollo del ceto medio e degli shopper dell'Italia e dell'Occidente.

giovedì 7 febbraio 2013

"Serendipico", un nuovo neologismo al posto di "caso"

Occorre ammettere che tutti i neologismi che usurpano il caso, a cominciare dalla "stocasticità" per finire con la "serendipity", appaiono essere, nei confronti della causalità, meno offensivi del puro caso. Caso che, nella storia umana, ha acquistato anche la cattiva fama di immeritata fortuna in relazione all'operare dei singoli individui.

Come possiamo leggere qui di seguito, in riferimento a certi risultati sperimentali imprevedibili, che, pur non essendo cercati a proposito, vengono scoperti e premiati con i Nobel, Tommaso Maccaro ci tiene a sottolineare che, in tali casi, si deve parlare di attività serendipica, perché non sarebbe "stata premiata la casualità della scoperta (sarebbe stato un Nobel alla fortuna) bensì la sagacia degli scopritori che hanno saputo capirne ragione, implicazioni e sviluppi". ("Scienziati senza scarpe (ma guidati dalla curiosità)" in "Scienzainrete").
Related Posts Plugin for WordPress, Blogger...