Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
1
Laureando: Enrico Masini
Calcolo delle reti idrauliche in pressione mediante una tecnica mista algoritmi genetici / metodo di Gauss-Newton Relatore: Chiar.mo Prof. Ing. Michele Mastrorilli Correlatore: dott. Ing. Orazio Giustolisi Laureando: Enrico Masini
2
Una delle RETI in PRESSIONE verificata applicando la “tecnica mista”: algoritmi genetici/metodo di Gauss-Newton
3
Forma matriciale del sistema
Sistema di equazioni Scopo della tesi è la verifica delle reti idrauliche in pressione, ossia risolvere il seguente sistema di equazioni “misto” : i qi + j qj = nodo hj – hj+1 = (Li ki Di-n) qi2 = ri qi tronco Forma matriciale del sistema Per rendere il calcolo e la scrittura del codice più agevole, si è posto lo stesso sistema nella forma matriciale proposta da G.Curto e A.Tumbiolo: ANT q + Q = 0 R abs(q)q + (AN hN + AS hS) = 0
4
ESEMPIO: “RETE di CAO” SERBATOIO 100 m.s.l.m 6 5 1 3 1 2 3 2 7 4 3 4 8
I NODI 2,3,4,5,6 SONO A QUOTA 0 m.s.l.m
5
Sistema di equazioni 13 equazioni in 13 incognite:
6
Per una soluzione approssimata:
Il sistema diventa:
7
funzione obiettivo del problema
Per cui risolvere il sistema è equivalente a “minimizzare” la funzione: ossia risolvere il seguente problema di “ottimizzazione non vincolata”: min funzione obiettivo del problema X detto anche “problema dei minimi quadrati” dove:
8
La funzione da “minimizzare” è una funzione “non lineare”, del tipo:
9
Per esempio, nel caso unidimensionale, si ha una funzione del tipo:
x O Ci sono più minimi “locali” e un unico minimo “globale” >>
10
Algoritmi tradizionali di “ottimizzazione”: metodo di Newton, quasi-Newton, Gauss-Newton
Si tratta di metodi che per convergere al minimo usano il calcolo delle derivate fino al 2° ordine, ossia del: vettore gradiente matrice hessiana Dallo sviluppo in serie di Taylor arrestato ai termini del 2°ordine: Supposto che qk(x) abbia un minimo in x*, annullando il gradiente:
11
Da cui si ottiene, più genericamente:
Dove: è la direzione di ricerca è il passo di ricerca I metodi si differenziano per la determinazione della direzione di ricerca, ossia per la tecnica usata per calcolare la matrice “hessiana” Per la determinazione del passo di ricerca, si rifanno ad algoritmi esterni che risolvono essenzialmente un problema di minimizzazione unidimensionale detto “ricerca di linea”, ossia ricercano il minimo della funzione: lungo la direzione di ricerca stabilita
12
direzione di massima pendenza negativa
Tali metodi convergono se risulta: cioè se la matrice è definita positiva: In tal caso i vettori e sono concordi: direzione di ricerca direzione di massima pendenza negativa La direzione di ricerca è allora direzione di discesa, per cui risulta: che rappresenta la condizione di convergenza
13
I metodi di Newton, essendo algoritmi di discesa, convergono ad un minimo locale, funzione del punto iniziale di ricerca e punti iniziale di ricerca soluzioni percorsi di discesa O x <<
14
ALGORITMI GENETICI Algoritmi genetici:
Si tratta di una nuova metodologia che consente di determinare il minimo globale di funzioni spiccatamente non lineari oppure non continue o non derivabili POPOLAZIONE INIZIALE SELEZIONE FITNESS FUNCTION Algoritmi genetici: RIPRODUZIONE CROSSOVER OPERATORI GENETICI MUTAZIONE CONDIZIONE TERMINALE
15
Funzionamento degli Algoritmi genetici
16
ogni INDIVIDUO (o CROMOSOMA) = SOLUZIONE POSSIBILE, cioè:
POPOLAZIONE INIZIALE Si scelgono casualmente N individui (cromosomi) tra tutte le soluzioni possibili del problema di ottimizzazione non vincolata ogni INDIVIDUO (o CROMOSOMA) = SOLUZIONE POSSIBILE, cioè: OPERATORI GENETICI CROSSOVER PUNTUALE: si tratta della riproduzione sessuata di 2 individui
17
CROSSOVER UNIFORME : è un tipo di riproduzione sessuata più efficiente del precedente, in quanto prescinde dall’ordinamento dei bit MUTAZIONE: si tratta della variazione casuale di un gene (= 1 bit) di un individuo (o cromosoma) a caso della popolazione
18
La condizione terminale può essere di più tipi, ossia basata sul:
SELEZIONE La selezione determina quali individui (cromosomi) si riprodurranno e quali saranno scartati è grazie alla selezione che la popolazione si evolve di generazione in generazione Il cuore della selezione è la FITNESS FUNCTION (=funzione di “adattività”) con cui è possibile ordinare per FITNESS (adattività) gli individui della popolazione e quindi assegnare ad essi, in base alla posizione in graduatoria, una probabilità di selezione maggiore o minore La funzione di adattività coincide allora con la funzione obiettivo del problema di ottimizzazione CONDIZIONE TERMINALE La condizione terminale può essere di più tipi, ossia basata sul: numero di generazioni grado di uniformità della popolazione “adattività” dell’individuo migliore
19
PROBLEMA DELLO “SLOW-FINISH”
Si è sperimentato in fase di elaborazione (ma è un fenomeno riportato da diversi autori), un evidente rallentamento progressivo della convergenza Risultati ottenuti applicando gli Algoritmi genetici alla risoluzione della rete di TorreMaggiore(FG) composta di 165 tronchi e 107 nodi e Le generazioni sono state effettuate in circa 2 ore con un Pentium III 350 Mhz N° di generazioni
20
TECNICA MISTA: algoritmi genetici / metodo di Gauss-Newton
Il problema dello “slow-finish” è stato risolto utilizzando gli algoritmi genetici per determinare un punto iniziale “buono”, ossia interno alla concavità del minimo globale, e quindi proseguendo la ricerca del minimo con gli algoritmi tradizionali di “discesa”.
21
Come si è già visto, trovare un “buon” punto iniziale per gli algoritmi di “discesa”, significa:
“buon” punto iniziale di ricerca per gli algoritmi di “discesa” minimo globale percorso di discesa O x
22
Occorre stabilire un criterio per verificare che gli algoritmi genetici abbiano “trovato” la concavità del minimo globale: e popolazione iniziale degli algoritmi genetici O x
23
dopo N generazioni si esegue un controllo per verificare se tutti gli individui sono interni della concavità del minimo globale e popolazione degli algoritmi genetici dopo N generazioni algoritmi di discesa O x lanciando gli algoritmi di “discesa” a partire da ciascun individuo della popolazione e verificando che convergano allo stesso punto.
24
Un’altra possibilità più rapida consiste, sempre dopo N generazioni, nel lanciare gli algoritmi di discesa a partire dal solo individuo migliore della popolazione (“fittest individual”) e popolazione degli algoritmi genetici dopo N generazioni algoritmi di discesa O x verificando che il punto finale (minimo locale) coincida con lo 0, avvalendosi della conoscenza del valore del minimo globale
25
IN CONCLUSIONE: Testando l’implementazione della “tecnica mista” su 4 reti con diverse complessità, precedentemente risolte con altre metodologie , si è avuto risconto del corretto funzionamento del metodo Il software è inoltre piuttosto efficiente in termini di velocità, per cui si è potuto agevolmente implementare anche la ricerca iterativa dei coefficienti alfa di ripartizione delle portate uniformemente distribuite e l’uso della formula di Colebrook per la determinazione degli indici di resistenza lambda, ampliando il campo delle portate al regime di transizione
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.