sabato 18 maggio 2013

Me me me generation, l'individualismo al cubo

In piena globalizzazione, a trionfare era il Truman show, ossia la massa di shopper attratti dai molteplici stili di vita, dai molteplici gusti e dalla iper creatività. Ma l'economia globale è entrata in crisi...

Facciamo un passo indietro: ogni epoca, a partire dalla società del consumismo per arrivare alla società dello spettacolo o del Truman show, ha avuto il problema di creare masse di acquirenti della produzione capitalistica, problema affidato al marketing. Abbiamo già pubblicato diversi post su questo argomento. Se il mondo non resta fermo, anche il capitalismo cambia, ed oggi, che è vecchio e senescente, ha bisogno sempre più del marketing per essere alimentato e curato. Perciò, si pone il problema di individuare nuovi mercati da sfruttare, cercando, soprattutto, i nuovi clienti nelle nuove generazioni.

Negli ultimi anni, di crisi economica, gli esperti del marketing si stanno rendendo conto, a malincuore, che la nuova tecnologia prodotta, una volta che viene acquistata, non solo raggiunge un suo limite, oltre il quale la produzione comincia a ristagnare divenendo solo produzione di sostituzione (anche se sempre più sofisticata), ma è il consumo stesso del prodotto che crea un pericoloso limite.

lunedì 13 maggio 2013

Il determinismo probabilistico del logico neopositivista Hans Reichenbach

La concezione probabilistica ha riproposto la vecchia antinomia determinismo-indeterminismo in una forma nuova che può essere semplificata nel modo seguente: mentre gli indeterministi (o probabilisti soggettivi) considerano degna d'interesse scientifico anche la minima probabilità, i deterministi (o probabilisti oggettivi) pretendono per l'indagine scientifica un'alta probabilità.

In questo paragrafo prenderemo in considerazione Hans Reichenbach, uno dei più illustri rappresentanti della logica formale determinista-probabilista, fondata sul probabilismo oggettivo. A questo scopo esaminiamo un suo saggio degli anni'30, "Causalità e probabilità", nel quale l'autore pretese riconciliare le leggi statistiche con le leggi causali. La tesi è, infatti, la seguente:

"La riduzione di una metrica probabilistica a funzioni di probabilità costituisce un grande progresso nell'analisi epistemologica del problema della probabilità. Mentre si è soliti considerare le leggi probabilistiche come rappresentanti di un tipo particolare di regolarità, distinta dalle regolarità causali della natura, si può dimostrare, sulla base della teoria delle funzioni di probabilità, che questa distinzione è solo superficiale, e che le leggi probabilistiche e le leggi causali sono variazioni logiche dello stesso tipo di regolarità".

sabato 11 maggio 2013

2d) La logica dell'incertezza, il pensiero debole di Bruno de Finetti

Il  probabilismo soggettivista di De Finetti

(Continuazione) Se l'identità matematica tra probabilità del caso singolo e frequenza del complesso di casi analoghi favorisce in apparenza l'identità tra probabilità e frequenza, dal punto di vista della interpretazione teorica le cose si complicano. De Finetti, prendendo in considerazione esempi di frequenze che si conservano, come ad esempio quella dei nati vivi maschi e femmine, che si aggira sempre attorno, rispettivamente, al 51,7% e al 48,3%, è costretto ad ammettere se non proprio la loro oggettività, almeno una notevole stabilità.

A questo proposito, egli scrive: "Sta di fatto però che, anche senza risalire al perché dei perché, appare abbastanza naturale a tutti l'idea che la frequenza con cui si verificano eventi che si sogliono raggruppare come "analoghi" sia piuttosto stabile. Forse oggi lo sembra anche eccessivamente causa formulazioni troppo semplicistiche e apodittiche che sono in voga tra molti cultori di statistica; ma un fondo genuino esiste, perché lo si riscontra anche nei profani incontaminati (che, ad es., si stupiscono se certi fenomeni si ripetono in un certo periodo con frequenza inusitata). Accettiamola così".

giovedì 9 maggio 2013

1d) La logica dell'incertezza, il pensiero debole di Bruno de Finetti

Il probabilismo soggettivista di de Finetti

Non avendo compreso la dialettica probabilità-frequenza statistica, riflesso matematico della più generale dialettica  caso-necessità, ossia non avendo compreso che il rapporto probabilità-frequenza è un concetto polare, il pensiero metafisico ha prodotto due opposte teorie sulla probabilità: quella soggettivista e quella oggettivista.

Non avendo compreso la differenza qualitativa esistente tra la probabilità che riguarda la sfera dei singoli eventi casuali e la frequenza che riguarda la sfera degli eventi collettivi necessari, e che il caso relativo alla prima sfera si rovescia nella necessità relativa alla seconda sfera, il pensiero metafisico ha scisso questa dialettica in modo da produrre una opposizione inconciliabile tra chi ha considerato degno di attenzione soltanto l'evento singolo, ovvero la probabilità, e chi, all'opposto, ha considerato degno di interesse scientifico soltanto l'evento collettivo, ovvero la frequenza.

Come spesso accade ai metafisici, anche questa volta ognuna delle due opposte concezioni possiede la sua mezza verità e può criticare la mezza falsità della concezione che le si oppone. Infatti, i soggettivisti hanno ragione ad affermare che la probabilità riguarda soltanto l'evento singolo e, quindi, hanno buon gioco a criticare l'attribuzione di probabilità all'evento collettivo. A loro volta, gli oggettivisti hanno ragione ad affermare che ciò che conta, dal punto di vista della regolarità, è l'evento collettivo e, quindi, hanno buon gioco a criticare la probabilità dell'evento singolo riguardo alla conoscenza scientifica.

martedì 7 maggio 2013

Il tempo a disposizione dello studio per la conoscenza

Umberto Eco e Claudio Magris: un'intuizione felice con ulteriori sviluppi

Con una certa sorpresa e soddisfazione l'autore di questo blog ha potuto felicitarsi con se stesso, ma implicitamente anche con Claudio Magris e Umberto Eco, per una osservazione che, se non nella forma, è analoga nel suo contenuto: si tratta del fatto che il tempo a disposizione per attività serie e fondamentali come lo studio, l'attività politica, ecc. si riduce a un'inezia perchè occupato sempre più da attività sociali di contorno. Questo all'incirca. Ma nel proseguo specificheremo le analogie e le differenze, non prima di aver preso l'occasione per un riferimento biografico:

siamo nell'anno 1983, periodo nel quale iniza l'isolamento sociale e politico di chi scrive: isolamento che verrà indirizzato interamente verso lo studio. Svolte le incombenze della vita personale e familiare, restavano molte ore di studio e di riflessione, nelle sue varie forme: lettura libri, documenti ecc.; estratti, riassunti, riflessioni e commenti battuti a macchina. In questo lavoro di studio, a quei tempi ancora solo storico-politico, compresa la lettura di romanzi classici, Balzac, Diderot, ecc. l'autore, nonostante il tempo a sua disposizione, si stupì di quanto limitate fossero le ore del giorno dedicabili allo studio approfondito.

sabato 4 maggio 2013

2c) Popper. Una versione anarchica di teoria della probabilità

(Continuazione) Come punto di partenza della "nuova teoria", Popper riprende il famoso teorema di Bernouille, il quale "asserisce che i segmenti brevi di sequenze assolutamente libere o casuali presenteranno spesso deviazioni relativamente grandi, e quindi fluttuazioni relativamente grandi da p [probabilità], mentre i segmenti più lunghi presenteranno, nella maggior parte dei casi, deviazioni da p sempre più piccole a misura che cresce la loro lunghezza. Di conseguenza, la maggior parte delle deviazioni nei segmenti sufficientemente lunghi diventeranno piccole a piacere o, in altre parole, le grandi deviazioni diventeranno rare, a nostro piacere".

Il ragionamento di Bernouille non fa una piega, se però si mette in chiaro che questa p sta per f (frequenza). In se stessa, la probabilità è solo un numero che indica la possibilità di un evento singolo casuale. Ma quando si considera una sequenza reale di eventi, la probabilità è solo quel dato matematico che ci fornisce la frequenza reale della sequenza stessa, mentre le reali deviazioni o fluttuazioni sono relative alla frequenza reale, e non al valore di probabilità.

mercoledì 1 maggio 2013

1c) Popper. Una versione anarchica di teoria della probabilità

"In questo capitolo tratterò unicamente della probabilità degli eventi e dei problemi a cui essa dà luogo. Questi problemi sorgono in relazione alla teoria dei giochi d'azzardo e con le leggi probabilistiche della fisica". Così K. Popper inizia l'ottavo capitolo della sua "Logica della scoperta scientifica", e aggiunge: "Le idee che implicano la teoria della probabilità svolgono una parte decisiva nella fisica moderna. Tuttavia non siamo ancora in possesso di una definizione soddisfacente e non contraddittoria di probabilità, o, il che è esattemente lo stesso, non abbiamo ancora un sistema assiomatico soddisfacente per il calcolo delle probabilità. Anche le relazioni tra probabilità ed esperienza non hanno ancora trovato una chiarificazione".

Per ovviare a questa mancanza, Popper si pone due compiti: "Il primo è quello di fornire nuovi fondamenti per il calcolo delle probabilità. Nel tentativo di assolvere a questo compito svilupperò la teoria della probabilità come teoria frequenziale, battendo la strada seguita da Richard von Mises, ma senza far uso di quello che egli chiama l'"assioma di convergenza" (o "assioma limite") e adattando un assioma del disordine (randomness) un pò indebolito. Il secondo compito che mi propongo è quello di delucidare le relazioni esistenti tra probabilità ed esperienza. Questo significa risolvere quello che io chiamo il problema della decidibilità delle asserzioni probabilistiche".
Related Posts Plugin for WordPress, Blogger...