Se A e B sono variabili random statisticamente indipendenti P (2) (B,A)=P(B)P(A) P(A)=probabilità che la variabile stocastica A assuma un certo valore.

Slides:



Advertisements
Presentazioni simili
Teoria e Tecniche del Riconoscimento
Advertisements

8) GLI INTERVALLI DI CONFIDENZA
2. Introduzione alla probabilità
Processi Aleatori : Introduzione – Parte II
Linguaggi Regolari e Linguaggi Liberi
Capitolo 8 Sistemi lineari.
Autovalori e autovettori
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
Laboratorio Processi Stocastici
Laboratorio Processi Stocastici
Relazione tra due insiemi:
FUNZIONI DI DUE VARIABILI
6. Catene di Markov a tempo continuo (CMTC)
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
Introduzione Cosa sono le reti di Petri?
Variabili casuali a più dimensioni
Chiara Mocenni - Sistemi di Supporto alle Decisioni I – aa Sistemi di Supporto alle Decisioni I Dynamic Programming Chiara Mocenni Corso di.
Chiara Mocenni - Sistemi di Supporto alle Decisioni I – aa Sistemi di Supporto alle Decisioni I Scelte di consumo Chiara Mocenni Corso di laurea.
LE FUNZIONI Definizione Campo di esistenza e codominio
6. Catene di Markov a tempo continuo (CMTC)
3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di.
4. Automi temporizzati Il comportamento dei sistemi ad eventi temporizzati non è definito semplicemente da una sequenza di eventi o di valori dello stato,
5. Catene di Markov a tempo discreto (CMTD)
RAGGIUNGIBILITA E RAGGIUNGIBILITA DEBOLE DEI SISTEMI POSITIVI A TEMPO DISCRETO Maria Elena Valcher Universita di Padova Bertinoro, Luglio 2006.
TEORIA RAPPRESENTAZIONALE DELLA MISURA
Processi Aleatori : Introduzione – Parte I
8. Reti di Code Nella maggior parte dei processi produttivi risulta troppo restrittivo considerare una sola risorsa. Esempio: linea tandem arrivi 1 v.
I numeri figurati Numeri quadrati: Numeri triangolari:
EQUAZIONI DI PRIMO GRADO AD UNA INCOGNITA
CORSO DI PROGRAMMAZIONE II Introduzione alla ricorsione
Corso di biomatematica lezione 6: la funzione c2
Ricerca della Legge di Controllo
INGEGNERIA CLINICA E BIOMEDICA
SOLUZIONE DELLO STRATO LIMITE SU UNA PARETE PIANA
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive
Studente Claudia Puzzo
Esperimentazioni di fisica 3 AA 2010 – 2011 M. De Vincenzi
Processi aleatori (stocastici o probabilistici)
Studio funzioni Premesse Campo esistenza Derivate Limiti Definizione di funzione Considerazioni preliminari Funzioni crescenti, decrescenti Massimi,
Main tools of the probabilistic method with applications in graph theory Attività formativa - Yuri Faenza Supervisore: Prof. B. Scoppola CdLS in Ingegneria.
Analisi dell’output di una simulazione
Metodo della moltiplicazione
“Analisi delle serie storiche e applicazioni”
Lezione 6 Strutture di controllo Il condizionale
Statistica economica (6 CFU)
Statistica economica (6 CFU) Corso di Laurea in Economia e Commercio a.a Docente: Lucia Buzzigoli Lezione 5 1.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
ND-partizione (A) n   A  somma  0 M  1/2 (  a i ) for i  1 to n do S[i]  choice ({true, false}) if S[i] then somma  somma + a i if somma > M then.
ESTENSIONI SEMPLICI e TEOREMA DELL’ELEMENTO PRIMITIVO
Metodi matematici per economia e finanza. Prof. F. Gozzi
La scomposizione col metodo di Ruffini
Valutare la difficoltà dei problemi
R. Soncini Sessa, MODSS, L 26 Stima degli effetti Calcolo degli obiettivi (Laplace) Rodolfo Soncini Sessa MODSS Copyright 2004 © Rodolfo Soncini.
Automi temporizzati.
Intervalli di confidenza
Algoritmi e Strutture Dati
Definizione Si dice che la variabile z è una funzione reale di due variabili x e y, nell’insieme piano D, quando esiste una legge di natura qualsiasi che.
Limitati,Illimitati Aperti,Chiusi a seconda che un estremo o tutti e due siano + o - infinito a seconda che comprendano o no gli estremi Premesse Intervalli.
Successioni Definizione: si chiama successione reale ogni funzione che abbia come dominio l’insieme N dei numeri naturali (o un suo sottoinsieme illimitato)
HMM in Image Analysis Francesco Finazzi Lezione /04/2008.
Forma normale delle equazioni di 2° grado Definizione. Un'equazione di secondo grado è in forma normale se si presenta nella forma Dove sono numeri.
DIPENDENZA STATISTICA TRA DUE CARATTERI Per una stessa collettività può essere interessante studiare più caratteri presenti contemporaneamente in ogni.
Proprietà macromolecolari Il calcolo delle proprietà macromolecolari implica l’utilizzo della statistica della catena polimerica in termini di distanze.
Sistemi di equazioni lineari. Sistemi di primo grado di due equazioni a due incognite Risolvere un sistema significa trovare la coppia di valori x e y.
Giochi Bayesiani 19/07/2011 Università degli studi di Napoli “Federico II” Emiliano Iuliano Francesco De Domenico Corso di teoria dei giochi Prof.ssa Lina.
STUDIO DI UNA DISEQUAZIONE DI SECONDO GRADO
FUNZIONI MATEMATICHE DANIELA MAIOLINO.
Il DEFF Il DEFF (Design EFFect) è l’Effetto del Piano di
Transcript della presentazione:

Se A e B sono variabili random statisticamente indipendenti P (2) (B,A)=P(B)P(A) P(A)=probabilità che la variabile stocastica A assuma un certo valore che chiamo ancora A per semplicità P (2) (B,A)=probabilità che la variabile stocastica A assuma un certo valore A e che simultaneamente la variabile B assuma un certo valore B. In caso contrario, P (2) (B,A)=K(B|A)P(A) K(B|A)=probabilità che B assuma un certo valore B condizionata al fatto che A assuma il valore A.

Consideriamo ora l’evoluzione di un sistema stocastico nello spazio delle configurazioni. Per definizione di sistema stocastico, non esiste una legge deterministica che fornisca x=x(t) Se il sistema visita in “successione temporale discretizzata” (o meglio, a step successivi) gli stati x 0,x 1,x 2,…, x n, x n+1,…, in generale P n+1 (x n+1 ) = probabilità di raggiungere lo stato x n+1 al passo n+1 dipenderà dagli stati visitati in precedenza. Se posso determinare la probabilità di raggiungere x n+1 dalla sola conoscenza di x n ->

Se -> K è detta “matrice statistica” (definita positiva e “column normalized”, una condizione abbastanza ovvia) -> siamo in presenza di un “processo markoviano” -> la successione delle configurazioni visitate è detta “catena di Markov”

Osservazione: dato che “Master equation”. Se conosco la probabilità P 0 che al tempo 0 il sistema sia in x 0 e conosco le “probabilità di transizione”, tramite la master equation construisco tutta la sequenza di probabilità al tempo successivo -> risolvo il problema statistico

Definizione: sia la probabilità di finire in x’ a partire da x in M passi. La catena di Markov si dice “ergodica” se per ogni coppia (x’,x) dello spazio delle configurazioni esiste un intero M tale per cui

Domande chiave: 1)La master equation ammette una soluzione stazionaria, e quindi tale per cui 2)Sotto quali condizioni, assegnata una P 0 al passo 0 la catena di Markov converge ad una distribuzione stazionaria, e quindi

Immaginiamo di chiedere che la soluzione stazionaria corrisponda alla distribuzione relativa ad un certo n … se

La condizione di “bilancio dettagliato”: e’ sufficiente a garantire che la master equation ammetta soluzione stazionaria. Si dimostra inoltre (non lo facciamo, non è immediato) che se è soddisfatta la condizione di bilancio dettagliato, e la catena di Markov è ergodica, allora partendo da una distribuzione al tempo 0, e utilizzando la master equation per generare la catena, ottengo una distribuzione stazionaria per n sufficientemente grandi.

Come si costruisce una catena di Markov che evolva, a grandi n, ad una distribuzione desiderata ? N.Metropolis (Los Alamos National Laboratory, primi anni ‘50) ha suggerito il seguente schema: definisco una “probabilità di transizione” T(x’|x) che ha il ruolo della K(x’|x) ma, in generale non soddisfa il bilancio dettagliato. A parte le ovvie proprietò: Richiedo “solo” che T assicuri l’ergodicità. Di fatto, spesso ci si limita a controllarlo “a naso”. Dopodiche’ costruisco ….

Soddisfa il detailed balance, ovvero

Il nostro MC è del tipo x-ax+a x X’ T(x’|x)

Non devo calcolare la funzione di partizione!!! Infatti, si costruiscono quasi sempre T simmetriche

Adesso sappiamo che la nostra costruzione, nel limite di infiniti passi, porta il sistema all’equilibrio, ovvero che le configurazioni visitate dopo molti passi hanno il peso statistico corretto. Quindi, se voglio fare una media di una osservabile all’equilibrio, parto da una configurazione, la porto all’equilibrio e poi medio sulle configurazioni generate da quel punto in poi. Occhio! Se rifiuto una mossa, devo considerare che la nuova configurazione (al passo n+1) è identica alla vecchia, se no do’ il peso statistico sbagliato!!!!!!