La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Concetti legati allincertezza statistica Modello deterministico: ogni risposta è una funzione dellinput che inserisco. Ossia ad un determinato input corrisponde.

Presentazioni simili


Presentazione sul tema: "Concetti legati allincertezza statistica Modello deterministico: ogni risposta è una funzione dellinput che inserisco. Ossia ad un determinato input corrisponde."— Transcript della presentazione:

1 Concetti legati allincertezza statistica Modello deterministico: ogni risposta è una funzione dellinput che inserisco. Ossia ad un determinato input corrisponde un preciso output, secondo una funzione del tipo y = f(x). Modello astratto non presente in natura. Modello stocastico: ad un determinato input corrisponde un qualche output. Esempio: Se gioco allenalotto ho una probabilità su un milione di vincere. Con questo sistema valuto la probabilità che il mio modello funzioni, ossia dato x quale probabilità per f(x)? Modello più vicino alla realtà.

2 Concetti legati allincertezza statistica Variabile aleatoria: una variabile w assume un insieme di valori w i. In un modello stocastico noi possiamo conoscere la probabilità di avere un determinato valore di w. Gli indici di dispersione (range, scarto medio assoluto, varianza, deviazione standard) ci danno unidea dellincertezza di come si distribuisce una certa variabile aleatoria.

3 La probabilità La probabilità è un modo per valutare il grado di incertezza di un determinato risultato La probabilità si esprime su una scala da 0 a 1 p = 0 (il risultato è impossibile) p=0,5 (il risultato si avverrà nel 50% dei casi) p=1 (il risultato è sicuro)

4 Quale definizione per probabilità? Il calcolo delle probabilità nasce dallo studio dei giochi di sorte. In questo caso il numero di casi possibili è comunque finito e i casi in condizioni regolari (senza trucchi) sono equiprobabili (condizione di simmetria). Da questo tipo di approccio nasce la definizione matematica o a priori e di probabilità Condizioni: 1) Casi in numero finito o comunque ridotto - limitato 2) Casi equiprobabili (implica la conoscenza a priori della probabilità di un determinato evento) Ossia la definizione classica di probabilità:P(E) = n°casi favorevoli / n°dei casi possibili Esempi: a) Probabilità Testa o Croce b) Probabilità Dado c) Probabilità di estrarre una determinata carta d) il 13 nella ruota di Venezia Vale la regola: 0 P(E) 1 P(E) = 0 Evento impossibile P(E) = 1 Evento certo

5 Però se, ad esempio, il 13 non esce sulla ruota di Venezia da un po di tempo, si tende ad affermare che la probabilità della sua uscita è più elevata. Su cosa si basa questa nostra affermazione? Definizione delle probabilità a posteriori o frequentista Nel caso in cui si parli di probabilità frequentista, vengono meno le condizioni della definizione a priori della probabilità, ossia il numero dei casi non è più finito e non esistono più le condizioni di equiprobabilità! Si passa dallo studio delle probabilità nei giochi a sorte in quello demografico, sociale, biologico… Frequenza relativa di un fenomeno:f r (E) = k/n Ossia un evento E si presenta k volte in n prove (nelle stesse condizioni). La sua frequenza relativa varia tra 0 e 1. Si parla anche della Stabilità della frequenza relativa ossia per un insieme molto numeroso di osservazioni empiriche di prove effettuate in modo indipendente, sotto condizioni identiche la frequenza relativa presenta una sorta di quasi stabilità. Esempio: Avere i capelli neri è equiprobabile ad avere i capelli rossi? Le mie informazioni si basano sulla mia esperienza passata e attuale. Quale definizione per probabilità?

6 Evidentemente con un numero basso di prove la frequenza relativa mal si adegua, variando in modo molto sensibile. Definizione frequentista di probabilità o di probabilità a posteriori: Il limite della frequenza relativa quando n (n prove), tende ad infinito (o comunque è molto grande) si chiama probabilità a posteriori dellevento considerato. Esempio: Lancio moneta volte e la testa si presenta volte. P*(E) = / = P(E) =1/2 =0.5 Quale definizione per probabilità? PROBABILITA N° EVENTI

7 1.Definizione classica (Bernoulli, 1713): la probabilità, P(E), di un evento E è il rapporto tra il numero di casi favorevoli (al manifestarsi di E) e il numero di casi possibili, giudicati ugualmente possibili. 2.Definizione frequentista (Von Mises, 1928): la probabilità di une evento è il limite cui tende la frequenza relativa di successo, su un numero di prove giudicato sufficientemente elevato. 3.Definizione soggettiva (De Finetti, inizio 1900): la probabilità di un evento E, secondo lopinione di un dato individuo, è il prezzo p che egli stima equo attribuire ad un importo unitario esigibile al verificarsi di E. Quale definizione per probabilità?

8 Definizione soggettiva: la quota di scommessa che un individuo, in base alle sue informazioni e opinioni, giudica equo pagare (farsi pagare) per riscuotere (pagare) limporto unitario se si verifica E e nulla se si verifica non E. Esempio: Scommesse sui cavalli. Statistica Bayesana e limplementazione delle informazioni personali! Quale definizione per probabilità?

9 Statistica inferenziale PopolazioneCampione Statistica inferenziale Probabilità

10 Campionamento La generazione di inferenze valide richiede lutilizzo di un campione casuale: –Dove ogni individuo appartenente alla popolazione ha la stessa probabilità di selezione –La probabilità di selezionare un determinato individuo è uguale per ogni fase del campionamento Campionamento con sostituzione Irrilevante per popolazioni grandi

11 Probabilità e distribuzioni di frequenza La distribuzione di frequenza di una popolazione descrive tutti i possibili esiti di un processo di campionamento casuale. Dalla distribuzione di frequenza è possibile calcolare la probabilità di selezionare un individuo caratterizzato da un determinato valore. p(X=95) = 2/11

12 Campionamento

13 Probabilità e distribuzioni di frequenza Con lo stesso metodo è possibile calcolare la probabilità di selezionare un individuo con X superiore (o inferiore) ad un valore soglia p(X>125)

14 Principali distribuzioni di probabilità –Distribuzione binomiale (cenni) –Distribuzione di Poisson –Distribuzione uniforme –Distribuzione geometrica –Distribuzione ipergeometrica –Distribuzione normale –Distribuzione normale standardizzata –Distribuzione rettangolare –Distribuzione esponenziale –Distribuzione F di Scenedecor –Distribuzione t di Student –Distribuzione di chi-quadro

15 Distribuzioni di probabilità Poiché la somma delle probabilità di tutti gli eventi alternativi (e possibili) è (e deve essere) pari a 1 e poiché la probabilità di ciascun evento è maggiore di zero [P(E) > 0, escluso levento nullo che ha P(E)=0], possiamo considerare queste probabilità come valori di una distribuzione di dati e costruire la distribuzione di probabilità di quel fenomeno.

16 La distribuzione normale La distribuzione normale o distribuzione Gaussiana è la distribuzione di probabilità più importante. Ha un andamento campanulare simmetrico. M = media σ = Deviazione St. PROBABILITA VALORI ASSUNTI DALLA VARIABILE ALEATORIA - σ+ σ

17 La distribuzione normale (misurazione delle altezze)

18 La distribuzione normale 1.Molti fenomeni naturali/sociali sono caratterizzati da una distribuzione normale 2.Fenomeni determinati da gran numero di concause 3.Ogni concausa contribuisce (in modo diverso e indipendente) ai valori osservati 4.Altamente improbabile che tutte le concause diano il massimo possibile contributo 5.Altamente improbabile che tutte le concause diano il minimo possibile contributo 6.Di conseguenza i valori si concentrano lontani dagli estremi

19 La Distribuzione Normale Standardizzata Il fatto che la distribuzione normale contenga le due variabile m e 2 rendono scomoda e praticamente impossibile la sua tabulazione. Per questo si ricorre alla distribuzione normale o standardizzata che non contiene nessun parametro. Concetto di variabile standardizzata: sostituiamo alle nostre variabili x 1, x 2, x 3, x 4,…, x n, delle nuove variabili che chiameremo standardizzate u 1, u 2, u 3, u 4,…, u n che avranno la caratteristica di avere la media pari a zero e la Varianza unitaria.

20 La curva normale standardizzata è unica ossia è rappresentata da una sola curva, mentre la funzione normale generale descrive una famiglia infinita di curve (in funzione del valore medio e della varianza). Proprio per questo la normale non è tabulabile, mentre la normale standardizzata si. La Distribuzione Normale Standardizzata

21 Tavola della Distribuzione Normale Standardizzata: ci fornisce linformazione areale della probabilità totale compresa tra due limiti qualunque u 1 e u 2. In generale vista la simmetria della distribuzione la tavola contiene solamente i valori delle probabilità comprese tra lo zero e lascissa +u. Tavola della Distribuzione Normale Standardizzata

22

23 Avendo a disposizione una tavola relativa alla probabilità totale compresa tra due limiti qualunque u 1 e u 2 (corrispondente alla aree) ed essendo la curva simmetrica, posso calcolare agevolmente la probabilità che una misura cada tra due valori qualunque. Tavola della Distribuzione Normale Standardizzata

24

25 z e la distribuzione normale In una distribuzione normale esiste un rapporto ben determinato fra il valore di z e il numero di osservazioni con X entro una determinata distanza dalla media Tabella dei valori Utilizzando la distribuzione normale è possibile calcolare la probabilità che unosservazione abbia un valore superiore (o inferiore) ad una determinata soglia ,13% 13,59% 2,28%

26 INFERENZA STATISTICA Linferenza statistica: dal campione quali considerazioni posso fare sulla popolazione di provenienza? Si chiama inferenza statistica quel processo che sulla base di informazioni contenute in un campione, permette di giungere a conclusioni relative alla popolazione dalla quale proviene il campione.

27 Campioni e Popolazione

28 Il Teorema del Limite Centrale afferma che: 1.La distribuzione di MC (Medie Campionarie) sarà approssimabile alla Distribuzione Normale. 2.La Media di MC è uguale alla media della popolazione dorigine: MCm = 3.La Deviazione Standard di MC è lErrore Standard calcolato sulla popolazione (funzione sia della Deviazione Standard della popolazione sia della numerosità del campione): TEOREMA DEL LIMITE CENTRALE

29 Il teorema del limite centrale Lerrore di campionamento diminuisce in rapporto alla radice quadrata di n. Esempio: Una certa popolazione finita ha come σ(x)=100. La distribuzione delle medie dei campioni costituita da n unità ha allora come σ (x) (deviazione standard della media; x segnato) i seguenti valori: n:4916…100… σ (x): …10….1. Quando n è molto grande σ (x) è molto piccolo e al limite, per: n che tende ad infinito, σ (x) tende a zero

30 Lerrore standard come misura di affidabilità Nella maggior parte degli studi si utilizza un solo campione La dove lerrore standard è elevato è probabile che diversi campioni produrranno risultati diversi –Simulazione: ripetizione degli esperimenti Lo studio dellerrore standard consente di determinare laffidabilità del campione

31 L ERRORE STANDARD Lerrore standard ci offre da una parte la possibilità di STIMARE la media della popolazione, dallaltra ci consente di determinare lAFFIDABILITA del campione.

32 Inferenza statistica e Teoria della Stima Alla base della Statistica cè la stima. Sulla base dei risultati tratti da un campione, si effettua una stima della variabile oggetto di studio o meglio una stima della statistica che rappresenta quella variabile (ad esempio media). La stima fatta sulla base di un campione viene validata con i metodi di Statistica inferenziale.

33 Stima puntuale VS Stima intervallare Stima puntuale Estraiamo un campione casuale di n osservazioni x 1, x 2,..., x n e stimiamo m con la media aritmetica delle n osservazioni. Stima dellintervallo (Neyman, 1935) Determinare lintervallo entro il quale ricade un valore e con quale probabilità. Ad esempio: laltezza dei residenti nella regione Friuli- Venezia Giulia è compresa tra 1,70 e 1,85 con una probabilità del 75%.

34 Si deve determinare un intervallo di x c che contenga con una certa probabilità il valore incognito. Proprio per questo si introduce il concetto di limiti di confidenza o limiti fiduciari: la probabilità che un valore cada dentro un certo intervallo deve essere molto grande (per essere sicuri che il valore vi ricada), per cui si definisce il coefficiente di confidenza: Teoria della Stima intervallare Coefficiente di confidenza = 1 - Dove sia molto piccolo. Gli statistici usano per convenzione quasi universale 1 = 0.05 = 5% ( 2 = 0.01 = 1%) per cui i limiti di confidenza = 95% (1- 2 = 99%)

35 Alcune considerazioni sullintervallo che contiene u (la media standardizzata) con una probabilità pari al 95%. Pr [-u(α/2) < u < +u(α/2)] = 95% Area compresa sotto la curva deve essere 95% ossia 0,95. Per individuare il valore di u devo dividerla a metà (0,95/2= 0,475) e trovare sulla tabella il valore di u corrispondente, che è 1,96. Pr [-1,96 < u < +1,96] = 95% Stima dellintervallo di confidenza per la media in popolazioni normali

36 Se vogliamo stimare lintervallo di confidenza per la media in popolazioni normali, il problema può essere posto nei seguenti termini: 1.Da una popolazione distribuita in modo normale avente come deviazione standard (noto) si estrae un campione casuale, costituito da n unità la cui media è MC (media campionaria). 2.Si vuole determinare un intervallo attorno ad MC il quale contenga, con una certa probabilità, la media ignota della popolazione,.

37 ESERCIZIO Un campione casuale di n=100 osservazioni ha come media M = 50 e proviene da una popolazione normalmente distribuita con deviazione standard = 10. Calcolare i limiti entro i quali è contenuta la media della popolazione al livello del 95%. Al livello del 99%.


Scaricare ppt "Concetti legati allincertezza statistica Modello deterministico: ogni risposta è una funzione dellinput che inserisco. Ossia ad un determinato input corrisponde."

Presentazioni simili


Annunci Google