Elementi di teoria della probabilità e distribuzioni di probabilità

Slides:



Advertisements
Presentazioni simili
Dr. Marta Giorgetti Esercizi Calcolo combinatorio, spazio degli eventi, probabilità, indipendenza, teorema di Bayes.
Advertisements

Elementi di calcolo delle probabilità
La Matematica tra Gioco e Realtà
2. Introduzione alla probabilità
Variabili aleatorie discrete e continue
STATISTICA DESCRITTIVA
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
Corsi Abilitanti Speciali Classe 59A III semestre - 3
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
5) IL CAMPIONE CASUALE SEMPLICE CON RIPETIZIONE
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Definizioni di probabilità
Definizioni Chiamiamo esperimento aleatorio ogni fenomeno del mondo reale alle cui manifestazioni può essere associata una situazione di incertezza. Esempi:
3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di.
Calcolo delle Probabilità terza parte
Elementi di Calcolo delle Probabilità
Dizionario Zingarelli
Corso di biomatematica Lezione 2: Probabilità e distribuzioni di probabilità Davide Grandi.
METODO SPERIMENTALE Galileo è considerato l’inventore del metodo sperimentale. Lo studioso deve prima di tutto osservare i fenomeni naturali considerando.
LA PROBABILITA’.
Corso di Probabilità e Inferenza 1
DEFINIZIONE CLASSICA DI PROBABILITA’
Analisi Statistica dei Dati
Lezione 4 Probabilità.
Essa, per ottenere i dati da utilizzare, si avvale di una RILEVAZIONE
REGOLE DEL CALCOLO DELLE PROBABILITA’
La probabilità Schema classico.
Evento Def: E’ il risultato di un esperimento o di un’osservazione oppure una proposizione che può essere vera o falsa e di cui non è noto il valore logico.
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
Calcolo delle Probabilità
Statistica economica (6 CFU) Corso di Laurea in Economia e Commercio a.a Docente: Lucia Buzzigoli Lezione 5 1.
QUALCHE LUCIDO DI RIPASSO… 1. Esperimento casuale ( e. aleatorio) risultato Esperimento condotto sotto leffetto del caso: non è possibile prevederne il.
Teorie e Tecniche di Psicometria
Esercizio 1 Da un mazzo di carte da 40 estraggo casualmente e senza reimmissione 3 carte: quante sono le possibili terne? considerate i seguenti eventi:
Probabilità ed eventi casuali (Prof. Daniele Baldissin)
Torna alla prima pagina Sergio Console Calcolo delle Probabilità seconda parte Istituzioni di Matematiche Scienze Naturali.
Cap. 15 Caso, probabilità e variabili casuali Cioè gli ingredienti matematici per fare buona inferenza statistica.
è … lo studio delle caratteristiche di regolarità dei fenomeni casuali
Calcolo combinatorio e probabilità
Introduzione al metodo Monte Carlo
PROBABILITA’ Scienza che studia i fenomeni retti dal caso EVENTO (E): avvenimento che può accadere oppure no 1.certo: se si verifica sempre (es. nel lancio.
INTRODUZIONE ALLA TEORIA DELLA PROBABILITÀ. INTRODUZIONE ALLA TEORIA DELLA PROBABILITÀ.
Probabilità e Variabili Casuali
Evento: “Fatto o avvenimento che già si è verificato o che può verificarsi ….” Gli eventi di cui ci occuperemo saranno soltanto gli eventi casuali, il.
Esercizi Determinare la probabilità che, lanciando due dadi da gioco, si abbia: A: somma dei risultati maggiore di 10 B: differenza dei punteggi in valore.
Appunti conclusioni simulazione lancio dadi
Probabilità. Un percorso didattico esperimenti e simulazioni L. Cappello 9 Maggio Didattica probabilità e statistica PAS 2014.
Cenni di calcolo delle probabilità
Master in Neuropsicologia ClinicaElementi di Statistica I 17 maggio / 23 Analisi bivariata Per ogni unità statistica si considerano congiuntamente.
2) PROBABILITA’ La quantificazione della ‘possibilità’ del verificarsi di un evento casuale E è detta probabilità P(E) Definizione classica: P(E) è il.
Distribuzioni di probabilità di uso frequente
3 ALS - ASA 7 Aprile 2014.
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
Probabilità e Genetica
ELEMENTI DI CALCOLO DELLE PROBABILITA’
Probabilità Esercitazioni numeriche del corso di GENETICA AA 2010/2011 LEZIONE N°1.
Studio fenomeni collettivi
LA PROBABILITA’.
Elementi di teoria della probabilità e distribuzioni di probabilità.
La probabilità matematica
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
METODI E TECNOLOGIE PER L’INSEGNAMENTO DELLA MATEMATICA Lezione n°17.
1 VARIABILI CASUALI. 2 definizione Una variabile casuale è una variabile che assume determinati valori in modo casuale (non deterministico). Esempi l’esito.
LA PROBABILITA’. CHE COS’E’? La probabilità di un evento è il quoziente tra il numero dei casi favorevoli a quell’evento e quello dei casi possibili quando.
ELEMENTI DI CALCOLO DELLE PROBABILITA’. Evento Aleatorio Un evento si dice aleatorio se può o non può verificarsi (Alea in greco vuol dire dado)
1 TEORIA DELLA PROBABILITÁ. 2 Cenni storici i primi approcci alla teoria della probabilità sono della metà del XVII secolo (Pascal, Fermat, Bernoulli)
Probabilità Definizione di probabilità La definizione di probabilità si basa sul concetto di evento, ovvero sul fatto che un determinato esperimento può.
Un evento è un fatto che può accadere o non accadere. Se esso avviene con certezza si dice evento certo, mentre se non può mai accadere si dice evento.
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
LA LA PROBABILITA'.
Transcript della presentazione:

Elementi di teoria della probabilità e distribuzioni di probabilità

Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati attraverso la teoria della probabilità Probabilità di un evento semplice Un evento può risultare: Certo (si verifica sempre) -estrazione di una pallina nera da un’urna contenente solo palline nere Impossibile(non si verifica mai) -estrazione di una pallina bianca da un’urna contenente solo palline nere Probabile(può verificarsi o no) -estrazione di una pallina bianca da un’una contenente sia palline nere che bianche

La prova genera l’evento con una certa probabilità Eventi e probabilità impossibile certo probabile P=0 0<P<1 P=1 Se E indica un evento l’evento corrispondente al non verificarsi di E rappresenta l’evento complementare E con la relazione P(E) = 1 – P(E) La prova genera l’evento con una certa probabilità

Eventi aleatori Evento semplice Evento composto singola manifestazione di un fenomeno (misura,osservazione, risultato) che esclude altri eventi (eventi incompatibili: testa o croce nel lancio di una moneta) Evento composto è costituito da una combinazione di più eventi semplici. Possono verificarsi simultaneamente ovvero sono compatibili(l’evento testa di una moneta è compatibile con l’evento croce nel lancio di due monete)

Eventi aleatori L’insieme di tutti gli eventi di un fenomeno costituiscono l’universo o spazio campione (Ω) delle possibilità. Si usa il termine successo per segnalare che si è verificato l’evento considerato e insuccesso in caso contrario. Essi sono eventi incompatibili o mutuamente esclusivi

Eventi necessari ed eventi incompatibili Due eventi A e B si dicono incompatibili se non possono verificarsi entrambi nella stessa prova Se A è l’evento “carta di cuori” e B l’evento “carta di picche”, i due eventi sono incompatibili perché nessuna carta può essere contemporaneamente “cuori” e “picche” Due eventi si dicono necessari se almeno uno dei due si presenta in una prova Nel lancio di una moneta i due eventi T e C sono necessari perché almeno uno si presenta -necessari ed incompatibili:numero pari e numero dispari -necessari ma non incompatibili: un numero >3 e un numero <5 (il 4 è in comune) -incompatibili ma non necessari: l’uscita del numero 2 e del numero 6

Spazio campionario Lo spazio campionario associato al lancio di due monete comprende 4 punti che rappresentano i possibili risultati Si chiama evento ogni sottoinsieme dello spazio campionario TT TC CT CC

Cenni di insiemistica Un insieme (A,B,C,..) può essere definito come un gruppo di una qualsiasi specie di elementi (a,b,c,...) È ben definito quando è evidente che un elemento appartiene o no all’insieme stesso e in base al loro numero si fa riferimento a: insieme finito o infinito Quando tutti gli elementi di un insieme B fanno anche parte degli elementi di A, si definisce B sottoinsieme Ø Insieme vuoto a A l’elemento a appartiene a un insieme A B A B è contenuto in A Ogni insieme è sottoinsieme di un Insieme più generale detto universo o spazio campionario Ω

Rappresentazione grafica sottoinsieme Ω A B Es:risultati del lancio di un dato A = esce 2 A = esce pari A = 1/6 A = 3/6 = 1/2 B A Ω

Es: i risultati del lancio di un dado Evento complementare Es: i risultati del lancio di un dado A = esce 2 A = non esce 2 L’evento complementare di A è l’evento che comprende tutti i casi in cui A non si verifica p = (A) = 1- p(A) p(A) = 1/6 p(A) = 5/6 A A A

Intersezione Insiemi disgiunti A esce 2 B esce 3 A ∩ B = Φ insieme vuoto evento impossibile A ∩ B insiemi che si intersecano A esce numero pari B esce ≤ 3 A ∩ B = esce 2 l’intersezione di due eventi A e B comprende tutti i casi in cui si verificano sia A che B B A B A

A e B insiemi disgiunti Unione A esce 2 B esce 3 A U B esce 2 oppure 3 p(A U B) = p(A) + p(B) Es: i risultati del lancio del dado pari = 2 o 4 o 6 p(pari) = p(2)+p(4)+p(6) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2 A B

Unione A e B due insiemi che si intersecano l’unione di A e B comprende tutti i casi in cui si verifica A oppure B e tutti i casi in cui si verificano entrambi (intersezione) A esce pari B esce un numero ≤ 3 A∩B = esce 2 A U B = esce “1” oppure 2” oppure “3” oppure “4” oppure “6” p(A U B) = p(A) + p(B) – p(A ∩ B) A B

Teoria e calcolo della probabilità L’entità di successi in una serie di osservazioni (prove) può essere definita come frequenza relativa o (percentuale) calcolata come rapporto tra il numero di eventi favorevoli rispetto al numero di casi esaminati Il grado di aspettativa circa il verificarsi di un evento E, ovvero la probabilità dell’evento P(E) è

Concezione classica della probabilità La probabilità di un evento E è il rapporto tra il numero di casi favorevoli al verificarsi di E(n) e il numero di casi possibili (N), purché siano tutti equi - probabili Es: probabilità di estrarre un asso da un mazzo di 52 carte = 4/52 = 0.08 probabilità di ottenere testa nel lancio di una moneta =1/2 = 0.5

Applicazioni della concezione classica Probabilità uscita testa Probabilità faccia 6 dado Qual è la probabilità che lanciando due volte una moneta si presenti prima la faccia testa poi la faccia croce 1°- TT 2°- TC 3°- CT 4°- CC p = p=

Concezione frequentista della probabilità La probabilità di un evento è la frequenza relativa di successo in una serie di prove tendenti all’infinito, ripetute sotto identiche condizioni Nella concezione frequentista la probabilità è ricavata a posteriori dall’esame dei dati Frequenza relativa su un gran numero di prove Es: qual è la probabilità post-operatoria dopo l’intervento xyz ? I dati su un decennio in un territorio presentano 30 morti su 933 interventi Frequenza relativa = 30/933= 3.22% = Probabilità di mortalità post-operatoria

Legge dei grandi numeri P(E): ripetendo la prova un gran numero di volte si osserva che il rapporto f= m/n (frequenza relativa) dove m= numero di successi ed n= numero di prove tende ad avvicinarsi sempre più alla probabilità P(E) La frequenza relativa f al crescere del numero delle prove, tende, pur oscillando, verso un valore costante (regolarità statistica)

Concezione soggettivistica Critiche alla concezione frequentista: Non sempre è possibile ripetere lo stesso esperimento nelle medesime condizioni È impossibile l’analisi probabilistica di fenomeni non ancora osservati Concezione soggettivista: la probabilità P(E) di un evento è un valore che traduce numericamente un’opinione personale E’ la quantificazione della misura della fiducia che viene assegnata al manifestarsi dell’evento

Teorie della probabilità gravidanza 1 su 2 = 50% (definizione classica di probabilità) (probabilità a priori ) maschio femmina Nel mondo, in assenza di interventi dell’uomo nascono 1057 maschi ogni 1000 femmine 1000/(1000 + 1057) = 48.6% (definizione frequentista di probabilità) (probabilità a posteriori) L’ ecografista, alla decima settimana di gravidanza, dice ai genitori che 80 su 100 il neonato è femmina (definizione soggettivista di probabilità)

Assiomi della teoria della probabilità Ad ogni evento di uno spazio campione è associato un numero, da 0 a 1, detto probabilità dell’evento La probabilità 0 è associata all’evento impossibile, la probabilità 1 all’evento certo Dati due eventi mutuamente esclusivi E1 e E2 e le rispettive probabilità P1 e P2, la probabilità dell’evento unione E1 E2 sarà determinata da P(E1 E2 )= P1 + P2. La probabilità, principio della somma, può essere generalizzata a N eventi incompatibili ed esaustivi, nel caso P1 + P2 +....Pn=1

Teorema delle probabilità totali principio della somma La probabilità del verificarsi di due o più eventi tra loro incompatibili è la somma delle probabilità se il verificarsi di uno esclude il verificarsi dell’altro p(E1 o E2) = p(E1) + (E2)

Probabilità eventi incompatibili Esercizio Un urna contiene tre palline bianche, due nere e cinque rosse. Qual è la probabilità che estraendo una pallina a caso sia bianca o nera?

Principio della somma Qual è la probabilità che un italiano a caso presenti un gruppo sanguigno di tipo 0 oppure A? Calcolare la probabilità dell’insieme unione (0 A) Si attribuisce a ogni gruppo sanguigno una probabilità A = 0.40; B = 0.10; AB = 0.04;0 = 0.46 In base al principio della somma: P(A 0)= P(A) + P(0)= =0.40 + 0.46 = 0.86 86% La probabilità del verificarsi di due o più eventi tra loro incompatibili è la somma delle probabilità dei singoli eventi

Probabilità totali eventi incompatibili P(A B)= P(A)+ P(B)-P(A B) La probabilità della loro unione è tutta l’area compresa all’interno del contorno(diagramma Venn);la somma delle due aree include due volte la probabilità della loro intersezione che va sottratta Avendo gli eventi una parte in comune facendo la somma delle probabilità associate ai due singoli eventi si conterebbe due volte la parte comune Evento A= estrazione di un Re Evento= B estrazione carta di fiori P(A B)=P(KC KQ KF KP 1F 2F......KF) La probabilità del verificarsi Kappa di Fiori (KF) è considerata due volte per cui va sottratta: P(A B)=P(KC)+P(KQ)+P(KF)+P(KP)+P(1F)+P(2F)+....... ...P(KF)-P(KF)= 4/52+13/52-1/52

P(A o B)=P(A)+P(B) – (PA e B) Il principio della probabilità totale può essere espresso come segue P(A o B)=P(A)+P(B) – (PA e B) in cui P(A e B) rappresenta la probabilità di ottenere contemporaneamente sia A che B La probabilità di ottenere A o B può essere calcolata sommando prima la probabilità di ottenere A con la probabilità di ottenere B e sottraendo poi la probabilità di ottenere simultaneamente A e B Si deve sottrarre P(A e B) perché la probabilità che si verifichi questo evento congiunto è stata calcolata nella somma due volte in P(A) e una volta in P(B) Es: Probabilità di estrarre da un mazzo di carte una donna (A) e probabilità di estrarre dallo stesso mazzo una carta di picche(B) P(A o B)=P(A)+P(B)-P(A e B)=4/52+13/52-1/52=16/52=4/13

Probabilità condizionata La probabilità di un evento cambia in base informazioni che abbiamo Es: p( esce 2) = 1/6 Se conosco che “esce un numero pari” p = 1/3 Introduciamo quindi il concetto di probabilità condizionata: p(A|B) = probabilità di A condizionata a B Es: Nella popolazione generale, la probabilità di decesso per infarto è 5%;fra i fumatori è 10%. p(decesso per infarto) = 0.05 p(decesso per infarto|fumatore) = 0.10

Eventi dipendenti e indipendenti Quando la probabilità di un evento NON cambia in presenza di condizionamento ad un altro evento, essi si dicono indipendenti p(A|B) = p(A) Il condizionamento non agisce! L’aspettativa di A non si modifica sapendo che si verifica B A e B si dicono dipendenti se: p(A|B) ≠ p(A) L’aspettativa di A si modifica sapendo che si verifica B

Principio del prodotto eventi indipendenti La probabilità di due eventi indipendenti E1 E2 (cioè il verificarsi congiuntamente dell’uno e dell’altro) è uguale al prodotto delle rispettive probabilità. Se gli eventi indipendenti sono k si ha: P(E1) P(E2) ...... P(Ek) Un evento E2 è indipendente da un evento E1 se il verificarsi di E1 non altera la probabilità che E2 ha di manifestarsi

Principio del prodotto eventi indipendenti Evento : estrazione asso di spade Non sono eventi mutuamente esclusivi A∩C = asso di spade Il concetto di intersezione indica sia contemporaneità di eventi ma si riferisce anche al verificarsi di eventi in tempi diversi Calcolo della probabilità di una intersezione P(A∩C)= P(A) P(C)= Da un’urna contenente due palline nere(N) e una Bianca(B) si fanno due estrazioni di una pallina, con reimmissione. Qual è la probabilità di estrarre una pallina nera alla prima estrazione (N1) e una bianca alla seconda (B2)? P(N1∩ B2)= (P(N1) P(B2)= Probabilità indipendente

Distribuzioni di probabilità Una distribuzione di probabilità è formata dall’insieme di probabilità associate a tutti i possibili eventi casuali di uno spazio campione Si definisce variabile casuale (aleatoria) una variabile x che può assumere in un esperimento casuale, certi valori x1, x2,...,xn rispettivamente con probabilità p1, p2,...., pn L’insieme dei valori che la variabile può assumere e delle corrispondenti probabilità costituisce una distribuzione di probabilità

Variabile casuale e variabile statistica parallelismo e differenze La probabilità è un dato teorico determinato “a priori” La frequenza è un dato sperimentale derivante da prove o osservazioni fatte Una variabile casuale è originata da un esperimento casuale mentre la variabile statistica emerge dall’osservazione empirica dei fenomeni del reale Per le variabili casuali, in corrispondenza di ciascuna determinazione della variabile si considera la probabilità, mentre per le variabili statistiche si considera la frequenza relativa

Distribuzioni di probabilità variabili casuali continue

Distribuzioni di probabilità variabili casuali continue Le aree dei singoli rettangoli rappresentano le frequenze osservate delle modalità comprese tra gli estremi (X1, X2) degli intervalli di base Effettuata la rappresentazione analitica, all’area dei rettangoli si sostituisce l’area della superficie individuata dallo stesso intervallo di base e dal tratto di curva interpolata Questa area è la frequenza teorica delle modalità i cui valori sono compresi fra gli stessi estremi (X1, X2) A un rettangolo finito di base ΔX (ampiezza di classe) e di altezza Y(densità di frequenza relativa osservata), corrisponde un rettangolo infinitesimo di base dX e di altezza Y* (densità di frequenza relativa teorica) Frequenza area di un rettangolo relativa osservata = finito Frequenza area di un rettangolo relativa teorica = infinitesimo

Distribuzioni di probabilità variabili casuali continue La legge di probabilità di una v.c. è espressa da una funzione matematica p(x) detta funzione di densità di probabilità La probabilità in un evento casuale non è più un determinato valore della variabile casuale ma solo la probabilità che si abbia un valore della v.c. compreso in un intervallo x1 – x2 cioè Pr(x1 ≤ x ≥ x2) = area individuata dalla curva (px) in corrispondenza degli estremi x1 e x2 Per una v.c. continua x non è possibile elencare ed enumerare gli infiniti valori che essa può assumere

Variabili casuali continue distribuzione di Gauss Se viene rilevata infinite volte le misure di una grandezza μ l’insieme di misure saranno +/- scostate dal valore vero di μ Si ipotizza che gli scarti (positivi e negativi) dal valore vero (x - μ) abbiano la stessa probabilità di verificarsi e gli scarti maggiori saranno i meno frequenti Sono necessarie due informazioni Il valore vero della grandezza μ (la media del carattere)e la dispersione delle misure σ(deviazione standard)

Curva di Gauss Caratteristiche E’ simmetrica rispetto alla media:la probabilità di un valore superiore alla media di una quantità prefissata è uguale alla probabilità di un valore inferiore per la stessa quantità L’area compresa tra la funzione e l’area delle ascisse ( da + a - ) sia = 1 così da esaurire lo spazio campionario Esiste la probabilità al 100% che la misura sia inclusa nella distribuzione La frazione di area compresa tra due valori della variabile è assimilabile alla probabilità di riscontrare casualmente una misura entro tale intervallo

Le aree sottese alla curva normale Spesso è necessario determinare la probabilità di riscontrare casualmente una misura entro tale intervallo Proprietà della curva normale l’area sottesa alla porzione di curva che vi è tra le media e una ordinata posta a una distanza data, determinata in termini di una o più deviazione standard, è costante

Applicazione curva di Gauss Se una popolazione di unità classificate secondo un certo carattere X si distribuisce normalmente, la conoscenza di media e varianza (o loro stime) consente di calcolare (o di stimare) la frequenza relativa delle unità che presentano un valore di X compreso in un certo intervallo Calcolare la probabilità che, estraendo da tale popolazione un’unità questa abbia un valore di X compreso in un certo intervallo

Distribuzione gaussiana standardizzata Per agevolare il ricercatore la variabile x viene trasformata in una nuova variabile Z Mentre la distribuzione di X è normale con media X e DS s, quella della nuova variabile è normale con media 0 e DS 1 La distribuzione standardizzata presenta il vantaggio di consentire la predisposizione di tabelle che permettono di calcolare porzioni di area della distribuzione e di stabilire la probabilità statistica di riscontrate valori in relazione a determinati valori Z

Valori notevoli della distribuzione z z area compresa area esterna all’intervallo nell’intervallo (- z + z) (code della distribuzione) (-z + z) 1 (-1<z<+1) 0.683 (≈ 68%) 0.317 (≈ 32%) 1.96 (-1.96<z<+1.96) 0.95 (≈ 95%) 0.05 (≈ 5%) 2.58 (-2.58<z<+2.58) 0.99 (≈ 99%) 0.01 (≈ 1%)

Esempio di utilizzazione della distribuzione z Qual è la probabilità che un individuo estratto a caso da una popolazione con peso medio 72 Kg e deviazione standard 25 Kg pesi tra i 60 e 80 Kg:? Occorre calcolare la porzione di area compresa tra 60 e 80 Kg. ai cui valori corrispondono rispettivamente i valori

Esempio di utilizzazione della distribuzione Z Facendo riferimento alla tabella z per z=0.48 nelle due code è 0.631 L’area di interesse tra -0.48 e 0 è 0.5 - Con analogo procedimento si calcola la porzione di area tra 0 e 0.32 P(60kg<peso<80kg=P(z60<z<z80) = =P(-0.48<z<0) + (P(0<z<+0.32) = =1-0.3155 - 0.3745=0.310 31,0%

Ripartizione delle aree di probabilità della distribuzione z 0,5 Ripartizione delle aree di probabilità della distribuzione z

Esempio di utilizzazione della distribuzione z Una popolazione di bambini presenta valori di statura distribuiti in modo gaussiano con media = 120 cm. e deviazione standard = 16 cm. Quale è la probabilità che un bambino scelto a caso presenti una statura inferiore a 132 cm.? Quale è la probabilità che l’altezza sia maggiore di 116 cm., ma inferiore a 132 cm.? 1R

Esempio di utilizzazione della distribuzione z P(Z116<Z<Z132)0.7735-0.4015=0.3720 37.20%