mercoledì 20 luglio 2011

Gli eventi

Entriamo quindi a definire gli eventi e le loro relazioni.

Un evento è sottoinsieme di un altro se esso implica l'altro. Ad esempio l'uscita del tre sul lancio di un dado implica anche l'evento che sia uscito un numero dispari.

L'intersezione di due eventi è data quando si verificano entrambi. 

L'unione è quando si verifica uno o l'altro o entrambi.

In pratica per l'intersezione si deve verificare l'evento A e l'evento B, per l'unione l'evento A o l'evento B.

Due eventi sono incompatibili se la loro intersezione è nulla, cioé se non possono mai verificarsi entrambi. Questo è importante nel caso dell'unione perché due eventi incompatibili hanno l'unione delle loro probabilità che è formata dalla somma delle due probabilità.

Definire concetti primitivi

Con Andrej Nikolaevič Kolmogorov (1903-1987) vengono definiti i concetti base della probabilità.

Facciamo un excursus perché aiuta molto a chiarire come trattare un esperimento.

Immaginiamo di definire un esperimento e di rappresentare ogni risultato come un punto. Il singolo punto è un evento elementare, l'insieme di tutti i punti sono i casi possibili di un esperimento. Fate attenzione che un evento elementare non è il punto, ma il significato che il punto ha, quindi è un singolo caso possibile, il punto serve solo a rappresentare graficamente il caso per una facilità di trattamento dell'esperimento.

Ad esempio nel lancio di un dado i casi possibili sono i numeri da 1 a 6, il singolo numero è l'evento elementare. Fin qui credo che la cosa è semplice, tuttavia non sono semplici gli eventi perché un esperimento può avere eventi composti,  cioé esperimenti il cui risultato è dato da più di un evento elementare.

Ad esempio se nel lancio dello stesso dado si sceglie l'estrazione di un numero dispari, allora si hanno più eventi elementari.

Il concetto importante è che l'evento è un sottoinsieme di questi punti. Sembra strano chiamare al singolare una collezione, ma è così. Nel caso dell'uscita su un dado di un numero dispari, l'evento è dato dai 3 numeri dispari (1, 3, 5).

L'evento, quindi, è un concetto base e va compreso bene, senza di esso mancherà uno dei fondamenti.

L'insieme di tutti i punti si chiama spazio campionario e si indica formalmente con la lettera greca maiuscola omega. Un esperimento che abbia come risultato lo spazio campionario è un evento certo. Se invece l'esito dell'esperimento è dato da un insieme vuoto di punti, allora l'evento è impossibile.

Tutte le combinazioni possibili degli eventi elementari di uno spazio campionario si chiama spazio degli eventi. In linguaggio formale si dice che lo spazio degli eventi è formato da tutti gli eventi elementari di uno spazio campionario e da tutti i sottoinsiemi che si possono formare con questi eventi elementari assicurandosi che l'unione di tutti questi insiemi formi lo spazio campionario.

Non fate confusione tra spazio campionario e spazio degli eventi. Il primo è l'insieme di tutti gli eventi elementari, il secondo è l'insieme di tutti i sottoinsiemi che si possono formare con questi punti.

Il sogno di uno statistico

Il fascino della statistica si scopre quando si legge Isaac Asimov e si legge di Hari Seldon e della psicostoria. Affascinante l'idea che lo studio della società unito alla statistica possa aiutare a prevedere l'evoluzione futura della società ma anche a poter intervenire sull'evoluzione di questa. Un'idea straordinaria che non penso abbia riscontri nella realtà, ma chissà, può darsi che un giorno questa fantasia potrebbe concretizzarsi.

martedì 19 luglio 2011

Von Mises e il frequentismo

La definizione di von Mises si avvicina molto alle visioni economiche della statistica. Per chi studia informatica forse è bene richiamare i data warehouse per cui si conservano tutti i dati storici e si fa un'analisi su questi dati, anzi più essi sono estesi nel tempo e più le analisi vengono considerate precise.

Tuttavia, a volte, si dà troppo peso a questi dati e non si cerca di utilizzarli con metodi critici, spesso, devo dire, l'analisi diventa fine a se stessa e si cerca un numero o un valore senza analizzare le cause. In questo de Finetti ci vede lontano e ci ricorda che alla fine, dietro un numero, c'è sempre qualcosa di indefinito e difficilmente prevedibile come la natura umana.

Lucas Cranach, Adamo ed Eva

Ecco, alla domanda: "Quante probabilità avrebbe Adamo per mangiare la mela" Laplace avrebbe detto 1 su 2, von Mises avrebbe detto di non potersi esprimere, mentre i de Finetti avrebbe detto: "Dipende da quanto sia convincente Eva affinché Adamo sia disposto a prendersi il rischio". Considerando che Eva era l'unica donna e che Adamo aveva scoperto da poco cosa farci con Eva, diciamo che la probabilità si avvicinava pericolosamente all'1. Chi ha letto la Bibbia comprenderà anche chi aveva ragione e su cosa conveniva scommettere.

Cosa è la statistica?

In qualche testo di probabilità si trova spesso un capitolo iniziale molto confuso, a volte difficile da capire che parla di diverse probabilità. Ecco, chi chiede "Cosa sia la probabilità" non ha una sola risposta, ma ne ha tre o quattro, perfettamente valide, e si ritrova quasi a dover scegliere.

La cosa induce in errore perché non ha un vero e proprio valore storico, non ha un vero e proprio valore descrittivo, al che chi legge si chiede se si stia descrivendo qualcosa che è stato, qualcosa che è o qualcosa che potrebbe essere. Diciamo che si enumerano certe teorie, alcune a volte strane e difficili da capire, ma nessuno dirà mai che sono sbagliate per il semplice motivo che la probabilità è così, non è ben definita, e molte teorie continuano a "coesistere" con altre.

Sarà detto, quindi, che esiste la teoria della probabilità classica, dovuta a Pierre-Simon Laplace (1749-1827), che dopo quasi 250 anni resta ancora valida e spesso insegnata nelle scuole, forse è la più semplice da capire e dice che la probabilità è uguale al rapporto tra il numero dei casi favorevoli all'evento e il numero dei casi possibili[1]. Fino a qui niente di complesso, in pratica basta calcolare quante volte un fenomeno o un numero o un qualsiasi evento (quest'ultima è la definizione giusta) potrebbe presentarsi e quante volte, tra questi casi, il fenomeno o il numero o l'evento che noi desideriamo o vogliamo indovinare si presenta. Quindi lanciamo un dado a sei facce una sola volta e sappiamo che su sei numeri possibili il numero che vogliamo è solo su una faccia del dado, quindi abbiamo solo una possibilità su sei che il numero che noi vogliamo si presenti.

Niente di complesso e una formulina facile facile P = A/B.

Ma qualcuno potrebbe dire... e se il dado è truccato? Ma ancora di più potrebbe constatare che non non sempre si possono misurare tutti i casi possibili per cui la definizione classica non è applicabile sempre. Un esempio può essere dato dal calcolo della probabilità di un incidente stradale. Come si fa a dire quanti sono i casi favorevoli? Allora qui interviene un signore austriaco: Richard von Mises (1883-193), nato a Leopoli, in Ucraina, quando quella città era sotto il dominio degli Asburgo d'Austria. Suo fratello non gli era da meno visto che è il padre del libertarismo.

Richard von Mises
Von Mises arrivò ad enunciare la definizione frequentista della probabilità per cui la probabilità è la frequenza relativa di un evento. So che sto usando un termine complicato, ma proviamo a comprenderlo. La frequenza relativa è la misura di quante volte un evento capita (si parla di frequenza assoluta) sul totale degli eventi esaminati. La formula è P=A/B quindi la frequenza assoluta diviso il totale degli eventi.

Uno sveglio dirà che siamo allo stesso punto di arrivo della probabilità classica. Bene, devo dire che è così... tanto scrivere per arrivare alla stessa formula, ma qui si cela l'infima mano di quello che si chiama probabilità dove non esiste una formuletta da applicare, ma occorre capire cosa si cela dietro questa formula.

In questo caso lo stesso termine usato "frequenza" lascia intendere che P (la nostra probabilità) è dato solo dalla misura di casi reali e più i casi sono numerosi e più la probabilità è precisa. Qualcuno dirà che la definizione frequentista contiene la definizione classica, io direi che piuttosto la definizione frequentista è una diversa interpretazione e una diversa "specificazione" della definizione classica.

A complicare le cose, arriva poi l'altra definizione: la definizione soggettiva. Qui l'italiano Bruno de Finetti (1906-1985) introdusse un concetto più moderno e, devo dire, più incomprensibile di probabilità. De Finetti affermava che la probabilità dipende dall'individuo e dalla sua "coerenza" che le sue scelte dipendano da eventi aleatori.

Bruno de Finetti

Cosa vuol dire di preciso? Secondo me è come se de Finetti dicesse che è inutile fare P=A/B perché tanto per ogni individuo la probabilità varia. Discorso molto adeguato a quello di un'assicurazione (dove de Finetti ha lavorato per anni) per cui un uomo A non è uguale ad un uomo B per cui A può avere più rischi di un'altro. Di preciso non so quanto fatalismo ci sia in questa interpretazione, ma mi sembra che la definizione di probabilità perda genericità a scapito di una posizione relativa all'individuo.

Ecco le tre definizioni. Quale di queste sia quella definitiva? Da come ho capito io nessuna di questa, ma sembrano tutte valide. Prendiamo un esempio e immaginiamo qualcuno che vada a giocare a dadi.

Nel caso della prima definizione una persona che voglia dare credito a Laplace scommetterebbe pensando di avere una possibilità su sei di vincere. Von Mises gli direbbe però di stare attento perché il dado potrebbe essere truccato e, quindi, di rimanere un po' a guardare e a prendere nota dei risultati. Appena comprende che i risultati si concentrano attorno ad una probabilità, allora potrà prendere una decisione ed evitare le soprese dei dadi truccati. Naturalmente scommetterà in base a questa probabilità ricavata da tutti i casi storici che ha a disposizione. De Finetti, invece, gli chiederebbe fino a che punto sarebbe disposto a scommettere o, meglio ancora, quanto sarebbe disposto a scommettere.

Da un lato de Finetti mi sembra interpreti molto quel fenomeno per cui le persone scommettono di più quando un numero non esce o meglio quando un montepremi non viene assegnato e sale alle stelle. Per Laplace e per von Mises non avrebbe senso scommettere di più se il montepremi sale perché la probabilità è la stessa per l'intepretazione classica, per quella frequentista bisognerebbe andare a prendere delle situazioni simili, ma non ci allontaneremo dal primo caso, mentre de Finetti afferma che più il montepremi sale e più le persone sono disposte a prendere dei rischi o a tentare la fortuna, perché il premio in palio diventa "interessante".

[1] http://it.wikipedia.org/wiki/Probabilità

Alea iacta est

La studio della probabilità sarebbe bello se fosse più semplice e meno contorto, non riesco a trovare il bandolo della matassa, sembra tutto così strano, tutto così "aleatorio". La matematica ci mette poi il suo zampino a rendere più complicato il significato. Se non si comprende la simbologia e il linguaggio, si fa fatica, ma si perde anche la comprensione di uno degli studi più interessanti.

Immagine dal "Libro dei giochi" (1283)

Ma cosa vuole fare la probabilità e la statistica in genere? Credo che voglia essere la magia di oggi, la fattucchiera del nuovo millenio: svelare il futuro. Considerando la scarsa precisione, dovrebbe essere uno studio poco praticato, ma credo che il suo fascino sia così forte da dimenticare che può sbagliare e che non è propriamente una scienza esatta.