Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoItalia Parisi Modificato 9 anni fa
1
R. Soncini Sessa, MODSS, 2004 1 L 26 Stima degli effetti Calcolo degli obiettivi (Laplace) Rodolfo Soncini Sessa MODSS Copyright 2004 © Rodolfo Soncini Sessa.
2
R. Soncini Sessa, MODSS, 2004 2 Portatori 0. Ricognizione e obiettivi 1. Definizione delle azioni 2. Definizione di criteri e indicatori 3. Identificazione del modello 4. Progetto delle alternative 6. Valutazione delle alternative 5. Stima degli effetti 7. Comparazione e negoziazione Alternative di compromesso 8. Mitigazione e compensazione Cercare ancora? si 9. Scelta politica no PIANIFICAZIONE Alternativa di miglior compromesso MODSS La PIP
3
R. Soncini Sessa, MODSS, 2004 3 Calcolo degli obiettivi Risolto il problema con obiettivo aggregato si dispone di : valore ottimo dell’obiettivo J * funzione di Bellman politica ottima p * La conoscenza del valore ottimo non consente di risalire ai valori ottimi dei singoli obiettivi che sono però necessari per tracciare la frontiera di Pareto. decisioni pianificatorie ottime u p*
4
R. Soncini Sessa, MODSS, 2004 4 Calcolo degli obiettivi J1J1 J2J2 Conosco la retta su cui si trova il punto (J 1*, J 2* ) ma non conosco i valori dei due obiettivi J 1* e J 2*.
5
R. Soncini Sessa, MODSS, 2004 5 tutti gli indicatori devono necessariamente essere definiti sul medesimo orizzonte. Determinazione degli obiettivi Ottenute le traiettorie dello stato e del controllo si calcolano i valori assunti dai diversi obiettivi. Poiché conosciamo l’alternativa ottima (u p*, p*), per calcolare il valore degli obiettivi è sufficiente simulare il sistema sull’orizzonte di progetto. Nota Bene :
6
R. Soncini Sessa, MODSS, 2004 6 Difficoltà Nella simulazione si incontrano due difficoltà: 1. Sappiamo effettuare la simulazione solo se è assegnata una traiettoria del disturbo; ma la definizione della funzione obiettivo richiede di considerare tutte le possibili traiettorie. 2. Se l’orizzonte di progetto è infinito la simulazione non può in pratica essere realizzata.
7
R. Soncini Sessa, MODSS, 2004 7 Che fare? Cambiare rappresentazione del sistema: Sistema deterministico affetto da disturbo stocastico Catena di Markov Stato : Distribuzione di probabilità dello stato all’istante t. Stato :
8
R. Soncini Sessa, MODSS, 2004 8 Lo stato stocastico Quando un modello meccanicistico o una BBN sono alimentati da un rumore stocastico bianco lo stato è una variabile stocastica Quindi distribuzione di probabilità dello stato all’istante t
9
R. Soncini Sessa, MODSS, 2004 9 Lo stato stocastico Quando un modello meccanicistico o una BBN sono alimentati da un rumore stocastico bianco lo stato è una variabile stocastica Quindi distribuzione di probabilità dello stato all’istante t Che senso ha uno stato stocastico? Un esempio: per valutare l’affidabilità di un intervento si deve stimare la frequenza degli eventi estremi: es. frequenza delle esondazioni Indice = probabilità di fallanza Invaso soglia di esondazione Probabilità di fallanza densità di probabilità tt
10
R. Soncini Sessa, MODSS, 2004 10 Metodo Monte Carlo: effettuare un numero elevato di simulazioni del modello in corrispondenza di traiettorie casuali del disturbo, generate con un modello del disturbo. Lo stato stocastico Quando un modello meccanicistico o una BBN sono alimentati da un rumore stocastico bianco lo stato è una variabile stocastica. Quindi Come determinare ? distribuzione di probabilità dello stato all’istante t
11
R. Soncini Sessa, MODSS, 2004 11 Metodo Monte Carlo: effettuare un numero elevato di simulazioni del modello in corrispondenza di traiettorie casuali del disturbo, generate con un modello del disturbo Lo stato stocastico Quando un modello meccanicistico o una BBN sono alimentati da un rumore stocastico bianco lo stato è una variabile stocastica Quindi Come determinare ? distribuzione di probabilità dello stato all’istante t Si generano N coppie casuali (x i,y i ) con x i equiprobabile in (a,b) con y i equiprobabile in (0,c) si ponga A i =1 se f(x i )>y i A i =0 altrimenti ab c f(x)f(x) x Metodo Monte Carlo Esempio: Calcolo di un integrale
12
R. Soncini Sessa, MODSS, 2004 12 Metodo Monte Carlo: effettuare un numero elevato di simulazioni del modello in corrispondenza di traiettorie casuali del disturbo, generate con un modello del disturbo. Lo stato stocastico Quando un modello meccanicistico o una BBN sono alimentati da un rumore stocastico bianco lo stato è una variabile stocastica. Quindi Come determinare ? computazionalmente costoso! distribuzione di probabilità dello stato all’istante t
13
R. Soncini Sessa, MODSS, 2004 13 Catene di Markov Se il sistema è discretizzato utilizzare come stato non ma IDEA (Markov,1887) semplice modello lineare: CATENA di MARKOV Matrice il cui elemento rappresenta la probabilità che lo stato passi dal suo i-esimo valore all’istante t al j-esimo all’istante t+1, quando sul sistema agisce il disturbo considerato e il sistema è controllato da una politica data.
14
R. Soncini Sessa, MODSS, 2004 14 Un esempio SE SESE S 10.50 E 01 1 SE SESE SESESESE S.910.1.80.2 E.101.9.21.8 SE PTPT S.9.2.1 E.8.9 SE B 10 A 01 probabilità che l’invaso sia Elevato all’istante t+1 probabilità che l’invaso sia Scarso all’istante t+1 Con la politica adottata l’invaso sarà scarso il 30% delle volte ed elevato il 70%. politica data Si assuma che siano entrambi disturbi casuali e bianchi, con distribuzione nota: es. valori equiprobabili
15
R. Soncini Sessa, MODSS, 2004 15 Osservazioni Per calcolare una catena di Markov servono: le stesse informazioni che occorrono per il metodo Monte Carlo!...... ma la catena è un modello più semplice da simulare perchè è autonomo, cioè non ha ingressi. - equazione di transizione di stato del modello (mecc. o BBN); - la politica di regolazione adottata. - i modelli dei disturbi; Lo svantaggio è che le dimensioni dello stato della catena sono molto elevate, pari al numero di valori che lo stato può assumere.
16
R. Soncini Sessa, MODSS, 2004 16 Osservazioni I valori di B t sono numerosi e difficili da stimare direttamente. Proposta: costruire prima un modello meccanicistico (o una BBN o un empirico), così che i Portatori d’interesse possano più facilmente partecipare alla sua realizzazione; ricavare poi da questo la matrice B t della catena di Markov.
17
R. Soncini Sessa, MODSS, 2004 17 Sistema deterministico e sistema stocastico Sistema senza disturbo (sistema deterministico) Sistema con disturbo (sistema stocastico) tt+1 1 2 3 1 2 3 D D D G GS S t 1 2 3 1 2 3 D 0.6 0.4 0 0 G 0.8 0.2
18
R. Soncini Sessa, MODSS, 2004 18 tt+1 1 2 3 1 2 3 D 0.6 0.4 0 0.7 0.3 0 S 0 0.5 D Fissata la politica Le probabilità di transizione x t+1 = 1x t+1 = 2x t+1 = 3 x t = 1ut = Dut = D0.60.40.0 u t = G0.00.80.2 x t = 2u t = S0.70.30.0 ut = Dut = D0.30.60.1 u t = G0.00.30.7 x t = 3u t = S0.10.90.0 ut = Dut = D 0.5 ut = Dut = D0.00.5 u t = S0.70.30.0 ut = Dut = D0.60.40.0
19
R. Soncini Sessa, MODSS, 2004 19 Fissata la politica rappresenta la probabilità che, avendo adottato il controllo, il sistema transiti dallo stato, al tempo t, allo stato, al tempo t+1. Le probabilità di transizione x t+1 = 1x t+1 = 2x t+1 = 3 x t = 1ut = Dut = D0.60.40.0 u t = G0.00.80.2 x t = 2u t = S0.70.30.0 ut = Dut = D0.30.60.1 u t = G0.00.30.7 x t = 3u t = S0.10.90.0 ut = Dut = D 0.5 ut = Dut = D0.00.5 u t = S0.70.30.0 ut = Dut = D0.60.40.0 è fissata la matrice il cui elemento
20
R. Soncini Sessa, MODSS, 2004 20 tt+1 1 2 3 1 2 3 La funzione di transizione
21
R. Soncini Sessa, MODSS, 2004 21 tt+1 1 2 3 1 2 3 La funzione di transizione
22
R. Soncini Sessa, MODSS, 2004 22 La catena Il sistema dove Fissata la politica la catena è un sistema lineare deterministico. La stocasticità svanisce considerando al posto di. ed è deterministico. è non lineare ( rispetto al controllo ): se cambia cambia ;
23
R. Soncini Sessa, MODSS, 2004 23 Simulazione su orizzonte finito Simulazione su orizzonte finito [0, h ] dallo stato iniziale La traiettoria sull’orizzonte temporale [0, h] può essere calcolata utilizzando ricorsivamente la catena La distribuzione iniziale esprime la certezza di trovarsi al tempo 0 in
24
R. Soncini Sessa, MODSS, 2004 24 Calcolo dell’obiettivo Ricordiamo che nella lez. S05 abbiamo visto che quando: - il disturbo è bianco - l’indicatore è separabile l’obiettivo è calcolabile con la seguente espressione
25
R. Soncini Sessa, MODSS, 2004 25 dove Una volta calcolata la traiettoria il valore del j-esimo obiettivo è allora dato da
26
R. Soncini Sessa, MODSS, 2004 26 Simulazione su orizzonte finito Valore atteso rispetto allo stato = * + * +…...+ * t =1 t =h t =0 [1,n] [n,1] [1,1]
27
R. Soncini Sessa, MODSS, 2004 27 Simulazione su orizzonte infinito Quando il sistema è periodico è possibile dimostrare che la traiettoria converge ad un ciclo L’ergodicità garantisce che la scelta della probabilità da cui inizia la simulazione della catena non è critica, giacché essa viene dimenticata con il progredire del tempo. Non è necessario simulare il sistema per un numero infinito di passi, ma solo sino a quando la distribuzione diviene periodica, poiché allora si è determinato il ciclo cui essa tende.
28
R. Soncini Sessa, MODSS, 2004 28 La π t nel tempo La dispersione cresce con t. π t+1 π t+2
29
R. Soncini Sessa, MODSS, 2004 29 Esempio Si consideri un serbatoio regolato : In condizioni “normali”, ad esempio invaso medio e controllo medio, R t (u t,s t,a t+1 ) = u t : stst s t+1 è della forma
30
R. Soncini Sessa, MODSS, 2004 30 Ciclo stocastico In un sistema periodico col passare del tempo la distribuzione di probabilità π t dello stato si allarga, ma non indefinitamente: tende ad un andamento ciclico detto t0 1 ……… T2 Inverno Estate
31
R. Soncini Sessa, MODSS, 2004 31 Ciclo stocastico Nel caso limite in cui l’afflusso è deterministico e periodico il ciclo stocastico corrisponde a una sequenza ciclica di impulsi. t Inverno EstateInverno In condizioni deterministiche la traiettoria dello stato è un ciclo deterministico; la presenza del disturbo fa sì che il ciclo deterministico venga sostituito da un ciclo stocastico.
32
R. Soncini Sessa, MODSS, 2004 32 Simulazione su orizzonte infinito Noto il ciclo cui il sistema tende, i valori degli obiettivi si calcolano con le seguenti formule: Costo totale attualizzato: Costo atteso per passo:
33
R. Soncini Sessa, MODSS, 2004 33 Il controllo ottimo Problema di Controllo Ottimo: scegliere la politica in modo che il valore atteso dell’obiettivo sia minimo. Il Problema di Controllo Ottimo su orizzonte infinito corrisponde dunque alla determinazione della distribuzione di probabilità ciclica che massimizza l’obiettivo. Tramite il controllo si modificano le distribuzioni di probabilità dello stato a regime e si influenza così il valore atteso dell’obiettivo.
34
R. Soncini Sessa, MODSS, 2004 34 Leggere MODSS Cap. 18 VERBANO Cap. 8
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.