Assiomi della Probabilità

Slides:



Advertisements
Presentazioni simili
Elementi di calcolo delle probabilità
Advertisements

La probabilità nei giochi
La Matematica tra Gioco e Realtà
8) GLI INTERVALLI DI CONFIDENZA
Definizione di probabilità, calcolo combinatorio,
A partire da determinate condizioni iniziali, un esperimento e losservazione del verificarsi di qualche accadimento che, se si ripete lesperimento nelle.
Intervalli di confidenza
La probabilità.
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
Bruno Mario Cesana Stefano Calza
Natura della scienza & Competenze scientifiche. Una ricerca inizia con una … Domanda di ricerca –Ciò che gli scienziati vogliono sapere.
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Definizioni di probabilità
Definizioni Chiamiamo esperimento aleatorio ogni fenomeno del mondo reale alle cui manifestazioni può essere associata una situazione di incertezza. Esempi:
Elementi di statistica Elementi di statistica M. Dreucci Masterclasses LNF Elementi di statistica M. Dreucci.
Analisi delle Decisioni Funzioni di utilita’ e lotterie
Chiara Mocenni - Sistemi di Supporto alle Decisioni I – aa Sistemi di Supporto alle Decisioni I Lezione 2 Chiara Mocenni Corso di laurea L1.
Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo Metodi Probailistici, Statistici e Processi Stocastici.
Analisi dei Dati Università Carlo Cattaneo Emanuele Borgonovo
Calcolo delle Probabilità
Torna alla prima pagina Sergio Console Calcolo Combinatorio e cenni di calcolo delle Probabilità Istituzioni di Matematiche Scienze Naturali.
Esempio Ritorniamo al caso illustrato con i diagrammi di Venn e
Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.
Appunti di inferenza per farmacisti
Progettare una ricerca: approcci e metodologie
Corso di biomatematica Lezione 2: Probabilità e distribuzioni di probabilità Davide Grandi.
CAPITOLO 20 Lutilità attesa come strumento decisionale normativo Una giustificazione della procedura del modello dellutilità attesa Quale tipo di comportamento.
LA PROBABILITA’.
Corso di Probabilità e Inferenza 1
Analisi bivariata Passiamo allo studio delle relazioni tra variabili
Impostazione Assiomatica del Calcolo della Probabilità
Parte I (introduzione) Taratura degli strumenti (cfr: UNI 4546) Si parla di taratura in regime statico se lo strumento verrà utilizzato soltanto per misurare.
Istituto Comprensivo “F. Jovine” - Scuola Secondaria di I grado
PROBABILITÀ La probabilità è un giudizio che si assegna ad un evento e che si esprime mediante un numero compreso tra 0 e 1 1 Evento con molta probabilità.
La probabilità Schema classico.
Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013.
Calcolo delle Probabilità
Statistica economica (6 CFU) Corso di Laurea in Economia e Commercio a.a Docente: Lucia Buzzigoli Lezione 5 1.
Le distribuzioni campionarie
Teorie e Tecniche di Psicometria
1.PROBABILITÀ A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
Torna alla prima pagina Sergio Console Calcolo delle Probabilità seconda parte Istituzioni di Matematiche Scienze Naturali.
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
Impostazione Assiomatica del Calcolo della Probabilità
Cap. 15 Caso, probabilità e variabili casuali Cioè gli ingredienti matematici per fare buona inferenza statistica.
Gioco-evento a cura di Andrea Capotorti
è … lo studio delle caratteristiche di regolarità dei fenomeni casuali
Rischio e Probabilità. Probabilità di un Evento P(E)  P(E)=1 o 100% => evento certo;  P(E) molto piccolo => evento improbabile;  P(E)=0 o 0% => evento.
Calcolo combinatorio e probabilità
Probabilità e Variabili Casuali
La verifica d’ipotesi Docente Dott. Nappo Daniela
Continua. Il problema dell’induzione Il problema dell'induzione può essere riassunto nella domanda: "siamo giustificati razionalmente a passare dai ripetuti.
Probabilità. Un percorso didattico esperimenti e simulazioni L. Cappello 9 Maggio Didattica probabilità e statistica PAS 2014.
1 Lezione 2 Probabilità Riferimenti bibliografici: Insegnamento: Statistica Corso di Laurea Magistrale in Matematica Facoltà di Scienze, Università di.
2) PROBABILITA’ La quantificazione della ‘possibilità’ del verificarsi di un evento casuale E è detta probabilità P(E) Definizione classica: P(E) è il.
Spiegazione di alcuni concetti
PROBABILITÀ Corsi Abilitanti Speciali Classe 59A III semestre - 2.
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
1 Lezione XV-b Avviare la presentazione col tasto “Invio”
La covarianza.
La probabilità matematica
4. Controllo Giulio Vidotto Raffaele Cioffi. Indice: 4.1 Strategie generali 4.2 Strategie specifiche 4.3 Ripetizione 4.4 Metodi per aumentare la validità.
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
METODI E TECNOLOGIE PER L’INSEGNAMENTO DELLA MATEMATICA Lezione n°17.
LA PROBABILITA’. CHE COS’E’? La probabilità di un evento è il quoziente tra il numero dei casi favorevoli a quell’evento e quello dei casi possibili quando.
ELEMENTI DI CALCOLO DELLE PROBABILITA’. Evento Aleatorio Un evento si dice aleatorio se può o non può verificarsi (Alea in greco vuol dire dado)
1 TEORIA DELLA PROBABILITÁ. 2 Cenni storici i primi approcci alla teoria della probabilità sono della metà del XVII secolo (Pascal, Fermat, Bernoulli)
Probabilità Definizione di probabilità La definizione di probabilità si basa sul concetto di evento, ovvero sul fatto che un determinato esperimento può.
Un evento è un fatto che può accadere o non accadere. Se esso avviene con certezza si dice evento certo, mentre se non può mai accadere si dice evento.
Transcript della presentazione:

Assiomi della Probabilità La probabilità di una qualunque ipotesi A è un numero reale non-negativo, i.e. P (A) ≥ 0 La probabilità di una qualunque verità necessaria T è 1, i.e. P (T) = 1 Se A e B sono mutuamente esclusive (A ∩ B = ∅ ) allora la somma delle loro probabilità eguaglia la probabilità della loro unione, i.e P (A ∪ B) = P (A) + P (B) se A ∩ B = ∅ P (A) = 1 - P (Ā) P (∅ ) = 0 A ⊆ B ⇒ P (A) ≤ P (B) P (A ∪ B) = P (A) + P (B) - P (A ∩ B)

Assiomi della Probabilità La probabilità della congiunzione di A e B è data dal prodotto della probabilità condizionata P (A | B) e della probabilità di B, i.e. P (A ∩ B) = P (A | B) P (B)

Probabilità Condizionata P (A | B) ≡ probabilità di A dato B; P (A ∩ B) ≡ probabilità che A e B si verifichino P (A ∩ B) ≠ P (A | B) Esempio: A = B P (A) = P (A ∩ A) ≤ P (A | A) = 1 i.e. “A dato A” è un evento certo indipendentemente dal valore di P (A) (anche se P (A) = 0) L’evento A | B può avere 3 valori: VERO (A = vero e B = falso) FALSO (A = falso e B = vero) INDETERMINATO (B = falso)

Probabilità Condizionata Eventi indipendenti: P (A ∩ B) = P (A) P (B) ⇒ P (A | B) = P (A) P (B | A) = P (B) i.e., sapere che un evento si è verificato non altera la probabilità dell’altro. Invece, se P(A | B) ≠ P(A) gli eventi A e B sono correlati: positivamente se P (A | B) > P (A) negativamente se P (A | B) < P (A) Scambiando A e B nell’assioma 4, si ha: P (B ∩ A) = P (B | A) P (A) A ∩ B ≡ B ∩ A ⇒ P (A | B) P (B) = P (B | A) P (A)

Teorema di Bayes Consideriamo tutte le possibili (mutuamente esclusive) ipotesi Hi che potrebbero influenzare un dato evento E → qual’è la probabilità di Hi sotto l’ipotesi dell’occorrenza di E ? i.e., avendo osservato un effetto, assegnare la probabilità di ciascuna delle cause che potrebbero averlo prodotto (= inferenza) Ipotesi Hi mutuamente esclusive, i.e. Hi ∩ Hj = ∅ , ∀ (i, j) esaustive, i.e. ∪i Hi =   Hi E = ∪i E ∩ Hi E Hn H1 H2

Teorema di Bayes ∑i P (E | Hi) P (Hi) P (E) = P (∪i E ∩ Hi ) = ∑i P (E ∩ Hi ) = ∑i P (E | Hi) P (Hi) P (Hi | E) P (E) = P (E | Hi) P (Hi) teorema di Bayes P(Hi | E) = P (E | Hi) P (Hi) ∑i P (E | Hi) P (Hi) Phil. Trans. R. Soc. 53, 370 (1763); Biometrika 45, 293 (1958)

Teorema di Bayes = ∑i P (Hi | E) = 1 Espressioni alternative per il teorema di Bayes ripristinando P (E) P (Hi | E) P (Hi) = P (E | Hi) P (E) i.e. P (Hi) è alterato dalla condizione E con lo stesso rapporto con cui P (E) lo è dalla condizione Hi poiché il denominatore nell’espressione del teorema di Bayes è solo un fattore di normalizzazione che fa si che risulti ∑i P (Hi | E) = 1 è possibile riscrivere il teorema nella forma seguente:

P(Hi | E) ∝ P (E | Hi) P (Hi) Teorema di Bayes P(Hi | E) ∝ P (E | Hi) P (Hi) questa forma del teorema mostra esplicitamente come la probabilità di una certa ipotesi è aggiornata a seguito del cambiamento dello stato di informazione P (Hi) = probabilità iniziale (a priori), i.e. la probabilità di Hi “prima” di sapere che si è verificato E P (Hi | E) = probabilità finale (a posteriori), i.e. la probabilità Hi “dopo” la nuova informazione P (E | Hi) = likelihood N.B. - nessun ordinamento temporale: prima e dopo si riferiscono alla considerazione o meno della nuova informazione

Teorema di Bayes Causa = qualunque sorgente fisica in grado di produrre un dato osservabile, i.e. un effetto Likelihood indica la verosimiglianza che una causa produrrà un certo effetto Esempio: particella carica che attraversa materiale in cui rilascia una certa quantità d’energia Causa: tutte le possibili particelle che attraversano il rivelatore Effetto: quantità di energia persa Likelihood: probabilità che ciascuna delle particelle rilasci quella quantità d’energia

Applicazioni del teorema di Bayes Esempio 1: test per un certo virus influenzale P (virus) = 0.001 P (no virus) = 0.999 probabilità a priori, i.e. prima di aver sostenuto il test → Il test prevede 2 soli risultati: + / − P (+ | virus) = 0.98 P (− | virus) = 0.02 probabilità dei 2 possibili risultati nel caso di persona infetta → P (+ | no virus) = 0.03 P (− | no virus) = 0.97 probabilità dei 2 possibili risultati nel caso di persona sana → Il risultato del test è + → devo preoccuparmi ?

Applicazioni del teorema di Bayes La probabilità di essere infetto dato un risultato + del test è: P (virus | +) = P (+ | virus) P (virus) P (+ | virus) P (virus) + P (+ | no virus) P (no virus) = 0.98 x 0.001 0.98 x 0.001 + 0.03 x 0.999 = 0.032 probabilità a posteriori la probabilità di essere infetto dato un risultato + del test è soltanto il 3.2 %, i.e. sono OK ! Risultato sorprendente ? NO, la probabilità a priori è molto piccola (0.1 %)

Applicazioni del teorema di Bayes … e la probabilità di essere infetto dato un risultato − ? P (virus | −) = P (− | virus) P (virus) P (− | virus) P (virus) + P (− | no virus) P (no virus) = 0.02 x 0.001 0.02 x 0.001 + 0.97 x 0.999 ≅ 2.1 x 10-5 … il test è affidabile

Applicazioni del teorema di Bayes Esempio 2: 3 scatole con 2 anelli ciascuna, ma una contiene 2 anelli d’oro, in un’altra gli anelli sono entrambi di ferro e nell’ultima ci sono un anello d’oro e uno di ferro Si estrae un primo anello da una scatola il cui contenuto è incognito → supponiamo che l’anello sia d’oro Se voglio che anche il secondo anello sia d’oro è preferibile estrarlo dalla stessa scatola o da una scatola diversa ??

Applicazioni del teorema di Bayes scatola A: Au-Au ⇒ P ( E | A) = 1 scatola B: Au-Fe ⇒ P ( E | B) = 1/2 scatola C: Fe-Fe ⇒ P ( E | C) = 0 E = anello di Au Le probabilità iniziali, i.e. prima di aver estratto l’anello d’oro, per la scelta delle 3 scatole è (per simmetria): P (A) = P (B) = P (C) = 1/3 per cui (K = A, B, C) P (E) = ∑K P (E | K) P(K) = 1 x 1 3 + 2 x 0 x =

Applicazioni del teorema di Bayes P (A | E) = P (E | A) P (A) P (E) 1 x 1/3 1/2 = 2 3 P (B | E) = P (E | B) P (B) 1/2 x 1/3 1 P (C | E) = P (E | C) P (C) 0 x 1/3 = 0 S = anello successivo sarà d’oro se lo estraggo dalla stessa scatola P (S | E) = P (S | A,E) P (A | E) + P (S | B,E) P (B | E) + P (S | C,E) P (C | E) = 1 x 2 3 + 0 1 x + 0 x 0 =

Applicazioni del teorema di Bayes osservazioni sui 2 esempi Esempio 1 - probabilità utilizzate desunte da frequenze relative osservate studiando un campione di pazienti sotto osservazione → problema: cosa dire nel caso di un singolo paziente ? Inevitabile trasformazione (inconscia) frequenze → probabilità d’ipotesi, nel senso di quanto confidente sono nelle 2 ipotesi (sano o infetto ?) Esempio 2 - significato di P (A | E) = 2/3 e P (B | E) = 1/3 ? esistono solo 2 eventi: Au e Fe ! quali sono gli equiprobabili favorevoli e possibili casi ? se la probabilità è il rapporto tra questi numeri, in qualunque momento potrebbe esserci richiesto di elencare questi casi equiprobabili che servono per calcolarlo. Anche in questo, almeno intuitivamente, tutti interpretano 2/3 e 1/3 come quanto essere confidenti in ciascuna ipotesi analisi del concetto di probabilità

Concetto di Probabilità 2 definizioni “standard” (da libro di testo): definizione combinatoria - rapporto tra il numeri di casi favorevoli e il numero totale dei casi … se tutti i casi sono equiprobabili → definizione circolare spesso si trova scritto: “se tutti i casi sono egualmente possibili” → soluzione ? NO, in tale contesto “possibile” ≡ “probabile” Questa definizione è, al più, una regola per calcolare la probabilità definizione frequentista - rapporto tra il numero di volte che l’evento si presenta nelle ripetizioni di un certo esperimento e il numero totale di prove

Concetto di Probabilità Insoddisfacente per 2 motivi: non è detto che il numero di ripetizioni deve essere molto grande (→ ∞) definisce la frequenza relativa con cui l’evento è occorso nel passato che per essere usata come misura della probabilità richiede l’ipotesi che l’evento è occorso nel passato e occorrerà nel futuro con la stessa probabilità. N.B. - il punto a) è secondario, ma il punto b) è cruciale: chi può assicurarci che l’ipotesi sia valida? nessuno, siamo costretti a fare congetture in ogni singolo caso … in definitiva, che cos’è la probabilità ?

Probabilità Soggettiva Dizionario Zingarelli probabilità - condizione, carattere di ciò che è probabile; probabile - credibile, verosimile, ammissibile in base a motivi e argomenti abbastanza sicuri probabile si contrappone a certo: se non possiamo affermare con sicurezza che un evento è vero/falso, diciamo che è possibile o probabile eventi diversi possono avere gradi di probabilità differenti a seconda se pensiamo che per essi è più verosimile essere veri o falsi, e.g dati due eventi E1 e E2 considero E2 più probabile di E1 sono più confidente in E2 dovendo scommettere scelgo senza dubbio E1

Probabilità Soggettiva probabilità come misura della fiducia, del grado di confidenza, che riponiamo nel fatto che un certo evento si verificherà N.B. - l’uso del futuro non implica ordinamento temporale, ma sta ad indicare che l’affermazione sarà provata essere vera anche se si riferisce al passato (e.g. probabilità che il giorno della vostra laurea fosse soleggiato) La probabilità come atto di fede ?? … È una definizione utile ?? … Se riflette il nostro personale grado di fiducia, come è possibile basare su essa una logica oggettiva d’inferenza induttiva ?? … Le definizioni combinatoria e frequentista, se non altro, forniscono regola per calcolare qualcosa. E quella soggettiva ?? La definizione necessita indubbiamente di alcune spiegazioni … ma già così presenta indubbi vantaggi

Probabilità Soggettiva naturale, (molto) generale e applicabile a qualunque evento indipendentemente dalla possibilità di: costruire un elenco di tutti i casi possibili e favorevoli ripetere gli esperimenti sotto condizioni di equiprobabilità non richiede distinzione tra la probabilità “scientifica” e quella “non-scientifica” (i.e. quella usata nella vita di tutti i giorni) nel caso di misure, consente di parlare della probabilità del valore vero di una quantità (teoria) fisica N.B. - nell’approccio frequentista si può parlare solo della probabilità di un risultato sperimentale: il valore vero è una costante Consente teoria generale dell’incertezza che tiene conto di qualunque sorgente d’errore statistico e sistematico

Gioco di de Finetti Un vostro studente afferma di essere sicuro al 100 % di aver superato con successo il test di Matematica Come fare per stabilire quanto lo studente sia veramente sicuro di essere andato bene ? gioco di de Finetti: serie di domande volte a valutare il grado di fiducia p che lo studente ripone nell’affermazione “test perfetto” (= probabilità soggettiva) Strumenti (virtuali) del gioco: scatola con R palle rosse e B palle blu (R + B = 100) una posta S in denaro, e.g. 1 M€

Gioco di de Finetti Si propongono allo studente 2 alternative: A = aspettare il risultato del test, se prende il massimo vince S E = estrarre una palla dalla scatola, se prende una palla R vince S 1. E (R = 98) A ⇒ p ≤ 0.98 E (R = 80) A 2. ⇒ 0.8 < p ≤ 0.98 E (R = 90) A 3. ⇒ 0.8 < p ≤ 0.9 E (R = 85) A 4. ⇒ 0.8 < p ≤ 0.85 5. p = 0.83 E (R = 83) A (i.e. scelta indifferente)

Teorema Ramsey-de Finetti Scommessa che prevede che una parte (A) sia disposta a scambiare con l’altra (B) una certa somma pS con l’opportunità di ricevere: una somma S (≠ 0) se una certa ipotesi H è vera 0 se l’ipotesi H è falsa somme incassate dai due contraenti: H A B vera S - pS pS - S falsa -pS pS Ipotesi: p è tale che la scommessa è leale, i.e. non c’è alcun vantaggio a scegliere uno o l’altro lato della scommessa → p = grado di confidenza in H N.B.- p < 1 (scommessa coerente): chi scommetterebbe con p > 1 ??

Teorema Ramsey-de Finetti Insieme finito di ipotesi arbitrarie Hi con gradi di confidenza pi → Strategia di gioco rispetto alle Hi è un insieme di decisioni della forma: scommetti a favore (o contro) ciascuna Hi Teorema: se le pi non soddisfano gli assiomi della probabilità, allora esistono poste Si e una strategia di gioco per le Hi che necessariamente comportano una perdita certa per chiunque segua questa strategia, i.e. le scommesse non sono tutte leali Esempio: assioma 2 (i.e. P (T) = 1) p = P (T) > 1 → poiché T è necessariamente vera chi scommette su T ha una perdita garantita pari a pS - S p = P (T) < 1 → chi scommette contro T ha una perdita garantita pari a S - pS i.e. in entrambi i casi una o l’altra parte perdono con certezza → nessun valore p ≠ 1 può essere leale

Teorema Ramsey-de Finetti … i gradi di confidenza possono essere personali ma non sono infondati o anarchici: devono soddisfare gli assiomi della probabilità … gioco d’azzardo e fisica: quale legame ?? La definizione della probabilità tramite le puntate delle scommesse è operativa, sebbene non ci sia alcun bisogno di fare una scommessa (con chi ?) ogni volta che viene presentato un risultato. Lo scopo della scommessa è di costringere a un’assegnazione onesta della probabilità. Il fatto che la procedura operativa non sia da prendere alla lettera non deve suscitare scandalo, basti pensare alla definizione di sostanza chimica velenosa: qualcosa che è letale se ingerita … anche se rappresenta la migliore definizione possibile del concetto, è meglio mantenere questa definizione operativa a livello ipotetico.

probabilità a priori che la teoria sia vera Statistica Bayesiana probabilità soggettiva + teorema di Bayes = statistica Bayesiana A = ipotesi che una certa teoria sia vera B = ipotesi che un esperimento darà un certo risultato, i.e. dei dati teorema di Bayes assume la forma: P (teoria | dati) ∝ P(dati | teoria) P (teoria) probabilità a posteriori che la teoria è corretta dopo aver osservato il risultato dell’esperimento probabilità, sotto l’assunzione della teoria, di osservare i dati effettivamente ottenuti probabilità a priori che la teoria sia vera

Statistica Bayesiana … ancora l’esempio del test influenzale punto di vista del virologo, i.e. di chi studia un gran numero di potenziali portatori del virus → probabilità come frequenze relative (frequentista): P (virus) = frazione f di persone infette; P (virus | +) = frazione di persone che sono infette tra quelle per le quali il test è + punto di vista del paziente, i.e. del singolo che si sottopone al test → se nessun altra info è disponibile si assume: P (virus) = f, i.e. come nel caso frequentista, ma interpretandola come grado di confidenza dell’ipotesi ‘infetto’ prima di eseguire il test. se altre info a disposizione probabilità a priori differenti potrebbero essere assegnate (aspetto soggettivo della statistica bayesiana) Una volta assegnata P (virus), però, il teorema di Bayes ci dice come la probabilità di avere il virus, i.e. il grado di confidenza in questa ipotesi, cambia alla luce del risultato + del test

Statistica Bayesiana Esempio 3 - C’è da lavare i piatti dopo cena. Il vostro partner propone di lasciar decidere alla sorte: lava i piatti chi estrae dal mazzo la carta più bassa. Voi accettate e perdete … La cosa si ripete nei giorni successivi: tocca sempre a voi lavare i piatti … Qual è la probabilità che il vostro partner cominci a barare al crescere del numero n di vittorie consecutive ? Le ipotesi sono 2: B = il partner è un baro O = il partner è onesto P (B) è bassa (è pur sempre dell’uomo/donna della vostra vita …) ma ≠ 0: assumiamo P (B) = 0.05 assumiamo (per semplificare) che un baro vince sempre: P (Sn | B) = 1 assumiamo che la chance di vittoria ad ogni prova è 1/2 → probabilità di vittoria se onesto è: P (Sn | O) = 1/2n

Statistica Bayesiana P (B | Sn) = P (Sn | B) P (B) P (Sn | B) P (B) + P (Sn | O) P (O) = 1 x 0.05 1 x 0.05 + 0.95 x 2-n n P (B | Sn) (%) P (O | Sn) (%) 1 9.5 90.5 2 17.4 82.6 3 29.4 70.6 4 45.7 54.3 5 62.7 37.3

Statistica Bayesiana La risposta è sempre probabilistica: non potete mai essere completamente certi che il vostro partner sia un baro … Ciò è coerente con il fatto che stiamo trattando eventi casuali e con il fatto che qualunque sequenza di risultati ha la stessa probabilità (sebbene ci sia solo 1 possibilità su 2n che il vostro partner sia sempre il più fortunato). In base al valore di P (B | Sn), voi potete decidere come agire: continuare il gioco, con probabilità P (B | Sn) di perdere certamente alla prossima estrazione smettere di giocare, con probabilità P (O | Sn) di offendere il vostro innocente partner P (B) = 0 → la probabilità finale rimane sempre = 0, i.e. se voi credete ciecamente nell’onesta del vostro partner, allora dovete solo registrare il verificarsidi un evento raro al crescere di n.

P (B | Sn) (%) Statistica Bayesiana dipendenza della probabilità finale da quella iniziale per un dato numero n di vittorie P (B) (%) P (B | Sn) (%) n = 5 n = 10 n = 15 n = 20 1 24 91.1 99.7 99.99 5 63 98.2 99.94 99.998 10 78 99.1 99.97 99.999 50 97 99.9 99.997 99.9999 al crescere del numero di osservazioni sperimentali la conclusione (i.e. la probabilità a posteriori) diviene indipendente da quella a priori i risultati sono stabili rispetto a variazioni ragionevoli della probabilità a priori (cfr. i casi P (B) = 5 %, 10 %)

Referenze www.roma1.infn.it/˜dagos Tutti gli argomenti sono trattati con maggiore ampiezza e profondità nel libro di Giulio D’Agostini, “Bayesian Reasoning in Data Analysis”, World Scientific (2003) Il libro è il culmine del lavoro decennale dell’autore nell’ambito della analisi dei dati nella Fisica delle Particelle Elementari. Traccia di tutta questa attività è reperibile sul sito web www.roma1.infn.it/˜dagos