La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Monte Carlo. Metodi stocastici o metodi Monte Carlo Qualunque metodo che usa numeri casuali. Dal greco stochasticos: aleatorio, dovuto al caso. Il carattere.

Presentazioni simili


Presentazione sul tema: "Monte Carlo. Metodi stocastici o metodi Monte Carlo Qualunque metodo che usa numeri casuali. Dal greco stochasticos: aleatorio, dovuto al caso. Il carattere."— Transcript della presentazione:

1 Monte Carlo

2 Metodi stocastici o metodi Monte Carlo Qualunque metodo che usa numeri casuali. Dal greco stochasticos: aleatorio, dovuto al caso. Il carattere stocastico deriva dalluso di numeri casuali.

3 Origine del nome Metropolis coniò il nome Monte Carlo dal casinò Monte Carlo, Monaco Metropolis, Rosenbluth, Ulam, Fermi, Von Neumann (~1945)

4

5 Nicholas Metropolis ( ) Lalgoritmo di Metropolis (e A Rosenbluth, M Rosenbluth, A Teller e E Teller, 1953) è stato citato tra i primi 10 algoritmi che hanno avuto la più grande influenza sullo sviluppo e la pratica della scienza e dellingegneria nel ventesimo secolo."

6 Ago di Buffon Georges-Louis Leclerc Conte di Buffon ( ) Ago di lunghezza =1 Distanza linee = 1 Lancio casuale p incrocio = 2/ Stima di dalla proporzione di aghi che incrociano una linea.

7 Si ha incrocio se la distanza dal centro dellago ad una linea è < 0.5 sin

8 I metodi Monte Carlo forniscono soluzioni approssimate ad una gamma di problemi chimici, fisici e matematici mediante esperimenti di campionamento statistico su un calcolatore. I metodi si applicano a problemi con intrinseca struttura probabilistica (diffusione di neutroni allinterno di un materiale) a problemi intrinsecamente deterministici, ma che si possono formulare in termini di distribuzioni di probabilità. Fra tutti i metodi numerici che dipendono dalla valutazione di N-punti in uno spazio M-dimensionale per produrre una soluzione approssimata, il metodo Monte Carlo ha un errore assoluto della stima che decresce come N -1/2, mentre tutti gli altri hanno errori che decrescono al più come N -1/M.

9 Scienza Studio della conformazione di molecole complesse Simulazione dei liquidi ö Simulazione dellequazione di Schrödinger Disegno di reattori nucleari Applicazioni mediche: trasporto di elettroni, neutroni, fotoni attraverso il corpo Evoluzione delle stelle Prospezioni petrolifere Flusso del traffico Economia Previsioni Dow-Jones Sociologia

10 Numeri casuali Un singolo numero non è casuale, solo una sequenza infinita può essere descritta come casuale. Casuale significa assenza di ordine. Numeri veramente casuali: risultati di un processo fisico. Numeri pseudo-casuali: sequenza deterministica, appaiono casuali se non si conosce lalgoritmo con cui sono generati. Anyone who consider arithmetical methods of producing random digits is, of course, in a state of sin. John Von Neumann

11 Matematicamente, la sequenza di numeri casuali dovrebbe possedere le seguenti proprietà: Sequenze non correlate - Le sequenze di numeri casuali non dovrebbero essere correlate serialmente. Qualsiasi sequenza parziale di numeri casuali non dovrebbe essere correlata con qualsiasi altra sequenza parziale. Per esempio, se stiamo usando un generatore di numeri casuali per generare traiettorie di uscita di molecole da un foro per riempire lo spazio emisferico sovrastante, non dovremmo generare uno schema ordinato (anche solo parzialmente). Generatori di numeri casuali

12 Periodo lungo – Il generatore dovrebbe avere un periodo lungo (in teoria non dovrebbe ripetersi; in pratica, la ripetizione dovrebbe avvenire solo dopo la generazione di un numero molto grande di numeri casuali). Uniformità - La sequenza di numeri casuali dovrebbe essere uniforme. Cioè frazioni uguali di numeri casuali dovrebbero cadere in aree" uguali dello spazio. Per esempio volendo generare numeri casuali nellintervallo [0, 1], non vorremmo trovarne più di metà in [0, 0.5], preso un campione sufficientemente grande. Efficienza – Il generatore dovrebbe essere efficiente.

13 Generatori moltiplicativi, lineari, congruenziali I più comunemente usati per generare interi casuali

14 Esempio: calcolo di un integrale Ad ogni coppia di numeri casuali 1 2 con distribuzione uniforme nellintervallo 0-1 associamo un punto. Se 1 > 2 punto entro il triangolo. Punti dentro / punti totali = 1/2

15 Esempio: calcolo di r = 1 Area settore circolare = 1/4 r 2 Area quadrato = r 2 Rapporto aree = /4 Ad ogni coppia di numeri casuali 1 2 con distribuzione uniforme nellintervallo 0-1 associamo un punto. Se punto entro il cerchio. Punti dentro / punti totali = /4

16 Esempio: calcolo di un integrale Vogliamo integrare una funzione con un picco pronunciato usando numeri casuali con distribuzione uniforme. I punti nella coda della funzione danno contributi piccoli. Convergenza scarsa

17 Campionamento per importanza Possiamo riscrivere lintegrale come integrale pesato dove p(x) è una funzione peso. Il campionamento uniforme usa una p(x) costante. Data una generica p(x), campioniamo di più le regioni in cui p(x) è grande. Se siamo in grado di campionare secondo la distribuzione p(x)

18 DUE ALTERNATIVE 1.Integrando originale e punti distribuiti uniformemente efficienza molto scarsa. 2.Integrando modificato, ma punti distribuiti secondo una funzione densità di probabilità opportuna, legata al problema.

19 La chiave dei metodi MC è la nozione di CAMPIONAMENTO CASUALE di una distribuzione Data una densità di probabilità, f(x), produrre una sequenza casuale di x che siano distribuiti come f(x). x Luso del campionamento casuale distingue Monte Carlo da tutti gli altri metodi. Come si produce una sequenza casuale di x distribuiti come f(x) ?

20 Markov Una catena di Markov consiste di stati e di probabilità di transizione. Le catene di Markov (cammini casuali) permettono di campionare qualsiasi distribuzione basandosi sul bilancio dettagliato e sulle regole di transizione. Catene di Markov

21 Propriet à –Una sequenza di stati scelti casualmente. –La probabilità di transizione tra x t e x t-1 dipende solo da x t-1 (è indipendente dalla storia, non cè memoria). –Le probabilità di transizione sono le stesse per qualunque t. –Lintera catena rappresenta una distribuzione di probabilità stazionaria.

22 Scelta una probabilità di transizione P, la probabilità che il sistema sia nello stato 1 è data da p (1) = P p (0) p (2) = P p (1) = P P p (0) …………… p (m) = P m p (0) Dopo un numero elevato di passi p (m+1) – p (m) 0 cioè si raggiunge una distribuzione di probabilità di equilibrio p* tale che p* = P p* p* è una conseguenza di P

23 Bilancio dettagliato Che tipo di catena di Markov genera distribuzioni stazionarie? I processi allequilibrio hanno distribuzioni stazionarie Quando siamo in equilibrio ? Reversibilità Il bilancio dettagliato collega probabilità stazionarie alle transizioni: p(x) probabilità che il sistema si trovi nello stato x (x y) probabilità di transizione dallo stato x allo stato y

24 Metropolis Monte Carlo Come si realizza la condizione di bilancio dettagliato? L a probabilità di transizione viene decomposta in una probabilità di campionare la transizione per la probabilità di accettare la transizione

25 Non si definisce la probabilità di accettazione, ma solo un rapporto libertà di scelta. Metropolis propose: Verifichiamo che questa scelta soddisfa la condizione di reversibilità microscopica Se

26

27 Lalgoritmo di Metropolis muovi rifiutoaccetto RRiRRi R R prova R i+1 =R i R i+1 =R prova ? Calcola le medie

28 Calcolato p (la sua espressione dipende dal problema in esame) Se p > 1 accetta Se 0 < p < 1 accetta con probabilità p preso un numero casuale se p > accetta se p < rifiuta ?

29 Lalgoritmo di Metropolis 3 concetti chiave 1.Campionare mediante un cammino casuale 2.Determinare lo stato di equilibrio mediante il bilancio dettagliato 3.Ottenere il bilancio dettagliato mediante il meccanismo di accettazione/rifiuto

30 Il metodo MC fornisce un metodo robusto e versatile di integrazione su uno spazio a d dimensioni. Campionamento stocastico Errore 1 / N ½ Il campionamento per importanza riduce la varianza Il metodo di Metropolis è un metodo molto utilizzato di campionamento per importanza Soddisfa il criterio di bilancio dettagliato Si adatta facilmente a tanti problemi diversi

31 Analisi statistica dei risultati Accuratezza Precisione

32 DEFINIZIONI Varianza della popolazione stimata della popolazione Media vera stimata La varianza è una misura della dispersione statistica. Deviazione standard:

33 Accuratezza: misura di quanto il valore medio è vicino al VALORE VERO (alla quantità fisica) che si vuole stimare. Accuratezza : talora chiamata errore sistematico. Monte Carlo non può stimare direttamente laccuratezza. Spazio delle fasi Risultati delle simulazioni Valore Vero Valore medio - X n

34 Spazio delle fasi Risultati delle simulazioni Valore Vero Valore medio - X n Precisione : lincertezza in X n dovuta alle fluttuazioni statistiche dei valori x j campionati

35 alta accuratezza bassa precisione bassa accuratezza alta precisione Valore di riferimento accuratezza Precisione

36 Problemi con il campionamento Metropolis Le energie di questi punti sono correlate! La varianza non correlata è: La probabilità che una mossa sia accettata è legata alla probabilità di transizione T(A B) Le energie di punti successivi sono serialmente correlate. Mossa rifiutata Mossa accettata

37 Algoritmo di Decorrelazione x1x1 x2x2 x4x4 x3x3 x5x5 x6x6 x7x7 x9x9 x8x8 x n-3 x n-1 x n-2 xnxn Dati Originali x1x1 x2x2 x4x4 x3x3 x5x5 x6x6 x7x7 x9x9 x8x8 Dati a blocchi Medie su blocchi dei dati originali elementi dei nuovi dati. Se i blocchi di dati sono sufficientemente grandi, i punti dei dati a blocchi sono non correlati e si può usare lequazione standard:

38 PRINCIPI Teorema del Limite Centrale La distribuzione della somma di n variabili casuali indipendenti, identicamente distribuite, è gaussiana.

39 Distribuzione uniforme R 1 + R 2 R 1 + R 2 + R 3 R 1 + R 2 + R 3 + R 4

40 Intervalli di confidenza ~2/3 del tempo la risposta corretta è entro una dalla media

41 Funzioni distribuzioni di probabilità P(x) dx probabilità di osservare un valore nellintervallo (x, x+dx)

42 x può essere una variabile discreta o continua Funzione densità di probabilità discreta n eventi discreti n p2p2 p1p1 pnpn p i = probabilità per evento p(x) x p(x) = probabilità per unità di x Funzione densità di probabilità continua

43 Esempio: dimensioni multiple Quale è la media di una variabile per una distribuzione di probabilità N dimensionale? Integrazione numerica Discretizzare ciascuna dimensione con un insieme di n punti Per una funzione ragionevolmente liscia, lerrore decresce come n -N/2 Monte Carlo Campionare m punti dello spazio Se possibile pesare i punti campionati basandosi sulla funzione di riferimento Lerrore decresce come m -1/2

44 Parafrasando Churchill (1947) e la sua affermazione sulla democrazia. Il metodo Monte Carlo è il peggior metodo, eccetto tutti quegli altri che sono stati provati di tanto in tanto.

45 VMC: Monte Carlo Variazionale Riformuliamo il Principio Variazionale Riformuliamo il Principio Variazionale nel linguaggio Monte Carlo

46 E è la media statistica dellenergia locale E L P(R) è la probabilità associata alla configurazione R Se scegliamo i punti distribuiti secondo P(R) Ricetta: scelta una funzione donda di prova distribuire N punti secondo P(R) calcolare la media dellenergia locale

47 Come campionare Il calcolo dei pesi assoluti P(R) richiede il calcolo dellintegrale di normalizzazione. Lalgoritmo di Metropolis (M(RT) ) implica il calcolo del rapporto P(R)/P(R) e permette di evitare questo problema. ?

48 VMC: Monte Carlo Variazionale Non è necessario calcolare analiticamente integrali: completa libertà nella scelta della funzione donda di prova r1r1 r2r2 r 12 He Non occorre fare lapprossimazione orbitale Si possono usare funzioni donda esplicitamente correlate Si possono soddisfare le condizioni di cuspide E 19 termini = (2) a.u. E esatta = a.u.

49 Vantaggi del metodo VMC Si può andare al di là dellapprossimazione di Born- Oppenheimer, con qualsiasi potenziale, in qualsiasi numero di dimensioni. molecola Ps 2 (e + e + e - e - ) in 2D e 3D M + m + M - m - in funzione di M/m Si possono calcolare limiti inferiori

50 Ottimizzazione di parametri non lineari Ottimizzazione di parametri non lineari Stabile numericamente Il minimo è noto (0)

51 Primi calcoli VMC Calcolo VMC dello stato fondamentale di 4 He liquido (McMillan, 1964) Generalizzzato a sistemi di fermioni da Ceperley, Chester e Kalos, PRB 16, 3081 (1977).

52 Problemi del metodo VMC La barra dellerrore decresce come N -1/2. Il costo computazionale è elevato. Lottimizzazione di diventa difficile al crescere del numero di parametri non lineari. Dipende criticamente dalla qualità di. Esiste un altro metodo per ottenere migliori funzioni donda, al limite esatte.

53 E Equazione di Schrödinger dipendente dal tempo La soluzione è Monte Carlo diffusivo Cambio di variabile i t Nel tempo immaginario lequazione diventa La soluzione ora è

54 Se il potenziale è nullo equazione analoga alla seconda legge della diffusione di Fick Se il termine diffusivo è nullo equazione analoga alleq. cinetica del primo ordine Complessivamente leq. di Schrödinger dipendente dal tempo nel tempo immaginario è analoga alleq. generalizzata della diffusione in presenza di pozzi e sorgenti

55 Lequazione di Schrödinger dipendente dal tempo nel tempo immaginario è analoga allequazione generalizzata della diffusione. Evoluzione Diffusione Ramificazione temporale

56 CASO CLASSICO Dinamica di Newton Dinamica di Langevin Equazione della diffusione F = m a Molecole che diffondono + molecole del mezzo: forze reali Fluttuazioni Molecole che diffondono: forze casuali Fluttuazioni Mezzo continuo Comportamento medio delle molecole Nessuna fluttuazione CASO QUANTISTICO Monte Carlo diffusivo Equazione di Schrödinger Particelle fittizie che diffondono Modello continuo

57 Spazio dei camminatori X La popolazione dei camminatori è proporzionale alla soluzione (X).

58 come concentrazione è interpretata come una concentrazione di particelle fittizie, dette camminatori. L equazione di Schrödinger è simulata mediante un processo di diffusione, crescita e scomparsa di camminatori. L equazione di Schrödinger è simulata mediante un processo di diffusione, crescita e scomparsa di camminatori.

59 Lanalogia è solo formale. è una quantità complessa, mentre C è reale e positiva. Se il tempo t è immaginario, allora è reale Soluzione a Stato fondamentale Stati eccitati Al passare del tempo la funzione donda decade allo stato fondamentale

60 c0c0 c1c1 c2c2 I coefficienti degli stati eccitati decadono esponenzialmente rispetto al coefficiente dello stat fondamentale.

61 Approssimazione a tempi brevi Processo cinetico (ramificazione) Processo diffusivo Processo diffusivo Dividiamo il tempo in n intervalli = /n In un piccolo il potenziale ~ costante. In un piccolo il potenziale è ~ costante.

62 Separiamo il processo in un processo puramente diffusivo seguito da un processo cinetico ed alterniamo i due processi. Il processo diffusivo può essere simulato R' = R + dove è un numero casuale a distribuzione gaussiana. Il processo cinetico può essere simulato interpretando lesponenziale come un peso da assegnare al camminatore.

63 Si preferisce considerare l'esponenziale come la molteplicità da assegnare al camminatore ed utilizzare un meccanismo di copie, cioè camminatori che muovono verso zone a potenziale favorevole si moltiplicano, altrimenti vengono eliminati.

64 The DMC algorithm Vecchie Generazione MolteplicitàNuove configurazioni di nuoveconfigurazioni configurazioni

65

66 Algoritmo DMC 1.Inizializzare una popolazione di camminatori {X i } 2.Diffondere X = X + 3.Duplicare X in M copie M = int[ξ + exp(V(R)-E rif )] 4.Calcolare le statistiche 5.Modificare E rif per rendere la popolazione media constante

67 dove E è l'Energia esatta del sistema. (H è un operatore Hermitiano, operando a sinistra sulla funzione d'onda esatta dà l'Energia esatta) Se i camminatori sono distribuiti secondo 0 (R): CALCOLO DELL'ENERGIA 0 (R) = funzione d'onda esatta T (R) = funzione d'onda di prova stimatore misto

68 Problema con questo semplice algoritmo Il potenziale Coulombiano ha grandi variazioni e può andare a -. Si hanno ampie fluttuazioni della popolazione di camminatori. Algoritmo inefficiente ed instabile.

69 Per aumentare lefficienza, si introduce una nuova funzione f(R, ) è soluzione dell'equazione CAMPIONAMENTO PER IMPORTANZA Il termine di deriva muove i camminatori verso le zone in cui la T è grande. La propagazione viene simulata mediante lequazione di Langevin: R = R + DF Q (R) + è un numero casuale estratto da una distribuzione gaussiana. diffusione deriva moltiplicazione

70 Nel termine cinetico il potenziale è sostituito dall'Energia locale. Se la funzione di prova fosse esatta, l'Energia locale sarebbe costante ed il termine cinetico scomparirebbe. In generale comunque le variazioni dell'Energia locale sono ridotte rispetto alle variazioni del potenziale e quindi le fluttuazioni della popolazione di camminatori sono più ridotte. Forza quantica muove i camminatori verso le zone con grande.

71 CALCOLO DELL'ENERGIA Distribuendo i camminatori secondo f(R), E viene stimata mediante Se T (R) = (R) E L (R i ) = E varianza nulla. Tanto più accurata è la funzione di prova, tanto minore è la varianza.

72 CALCOLO DELLE PROPRIETA Il calcolo delle proprietà richiede il campionamento di (R) 2 Non abbiamo campionato (R) 2, ma f(R) = (R) T (R)

73

74 Il problema del segno Problema del segno Lanalogia con lequazione della diffusione è valida se la funzione donda è positiva, cioè per lo stato fondamentale di un insieme di bosoni. Per esempio un cluster di atomi di 4 He. Per gli stati eccitati di un insieme di bosoni e per sistemi di fermioni la funzione è in parte positiva ed in parte negativa. Lanalogia con lequazione della diffusione è persa.

75 Le funzioni donda hanno nodi. incoliamo il cammino casuale entro una regione positiva limitata dai nodi. Possiamo recuperare lanalogia con lequazione generalizzata della diffusione se vincoliamo il cammino casuale entro una regione positiva limitata dai nodi. Sfortunatamente i nodi esatti non sono noti. Sfortunatamente i nodi esatti non sono noti. In uno spazio a 3N dimensioni i nodi sono una superficie a 3N-1 dimensioni. In uno spazio a 3N dimensioni i nodi sono una superficie a 3N-1 dimensioni. La condizione di antisimmetria (1,2) = - (2,1) non definisce completamente il nodo, perché scambiamo simultaneamente x, y, z delle 2 particelle: definiamo un iperpunto di dimensione 3N-3. La condizione di antisimmetria (1,2) = - (2,1) non definisce completamente il nodo, perché scambiamo simultaneamente x, y, z delle 2 particelle: definiamo un iperpunto di dimensione 3N-3.

76 Otteniamo la soluzione esatta entro il volume nodale. Il metodo diventa variazionale, al tendere dei nodi della funzione di prova verso i nodi esatti lEnergia tende allEnergia esatta. E nodi fissi E esatta Usiamo i nodi approssimati di una di prova. Eliminiamo i camminatori che attraversano un nodo. + - Approssimazione a nodi fissi

77 Funzione di prova ed errore nodale

78 COSTO COMPUTAZIONALE Teoria del funzionale della densità ~ N 3 Metodi ab initio > N 6 Monte Carlo quantistico ~ N 3 N 4


Scaricare ppt "Monte Carlo. Metodi stocastici o metodi Monte Carlo Qualunque metodo che usa numeri casuali. Dal greco stochasticos: aleatorio, dovuto al caso. Il carattere."

Presentazioni simili


Annunci Google