Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoMarcellina Agostini Modificato 9 anni fa
1
1 Equazioni non lineari Data una funzione consideriamo il problema di determinare i valori x tali che Tali valori sono solitamente chiamati zeri o radici della funzione f. Esempi: Equazioni algebriche: In generale non sono disponibili formule esplicite per la determinazione delle radici di una funzione (per esempio equazioni algebriche) metodi iterativi Tecniche che consentono di approssimare le soluzioni con un prestabilito grado di precisione A partire da una approssimazione iniziale si costruisce una successione tale che, sotto opportune ipotesi, risulta convergere alla radice cercata.
2
2 Procedimenti iterativi Sia P un problema ed α una soluzione del problema P. Supponiamo di utilizzare un procedimento iterativo per la determinazione di α che genera una successione convergente ad α. E’ importante tener presente tre questioni fondamentali 1.Velocità di convergenza Definizione: data una successione convergente ad un limite α, si ponga se esistono due numeri reali tali che sia si dice che la successione ha ordine di convergenza p e fattore di convergenza C. Per p=1 e p=2 la convergenza si dice anche lineare e quadratica. Nel caso p=1 si ha necessariamente C<1. Un metodo iterativo è convergente di ordine p se tale è la successione da esso generata.
3
3 2.Scelta del valore di innesco. Supponiamo di considerare procedimenti iterativi ricorrenti ad un passo, è necessario, per poter innescare il procedimento, un punto di innesco Un metodo converge localmente ad α se la convergenza della successione dipende in modo critico dalla vicinanza di ad α. Il procedimento è globalmente convergente quando la convergenza non dipende da quanto è vicino ad α. Per i metodi a convergenza locale la scelta del punto di innesco è cruciale. 3.Criteri di arresto. Chiaramente non è possibile generare infinite iterate della successione. Il procedimento dovrebbe arrestarsi quando Non disponendo della soluzione è necessario procurarsi una stima di. Una possibile strategia è quella di approssimare con. Si ottiene il criterio di arresto assoluto Il criterio di arresto assoluto può fallire: se tolleranza troppo grande se tolleranza troppo piccola
4
4 conviene usare un criterio di arresto relativo dato da Osservazione: La tolleranza utilizzata nel criterio di arresto relativo non deve essere minore della precisione di macchina, ma (due numeri macchina non possono avere distanza relativa minore di ) Quando è molto piccolo tale criterio risulta troppo stringente ed è più opportuno usare un criterio di arresto misto, fondendo i due criteri precedenti Dove sono rispettivamente la tolleranza relativa ed assoluta, che per diventa Automaticamente il criterio sarà di tipo assoluto quando è molto piccolo e di tipo relativo nei restanti casi. Si può vedere che è asintoticamente una buona stima di nel caso di convergenza quadratica o superlineare, mentre nel caso di convergenza lineare l’approssimazione sarà tanto migliore quanto la costante C è vicina a zero.
5
5 Per equazioni non lineari si può anche utilizzare il controllo del residuo: è inaffidabile ( potrebbe essere molto grande) produce un indicazione soddisfacente troppo restrittivo Quando non si ha la certezza della bontà dei test (su e su f), conviene includerli entrambi, In pratica se il criterio di arresto funziona, non si ha la soluzione α, ma solo un’approssimazione
6
6 Metodo di bisezione Il metodo di bisezione è il metodo iterativo più semplice per approssimare gli zeri reali di una funzione. Ipotesi: 1) f(x) continua nell’intervallo [a,b] 2) f(a) f(b)<0 per il teorema degli zeri ammette almeno una soluzione α di f(x)=0, in (a,b). Si procede suddividendo ad ogni passo l’intervallo [a,b] a metà e determinando in quale dei due sottointervalli si trova la soluzione, dimezzando così l’ampiezza dell’intervallo che contiene α. 1.Si pone 2.Per i=1,2,…,nmax si calcolano 1.Se 2. Altrimenti se 3. altrimenti Il procedimento viene arrestato se per un indice i risulta
7
7 Ampiezza dell’intervallo ed errore Per costruzione ad ogni passo l’ampiezza dell’intervallo è dimezzata, dopo n passi arriviamo all’intervallo di ampiezza Se come stima di α prendiamo abbiamo Se poniamo otteniamo n da Il metodo di bisezione converge globalmente alla soluzione con la sola ipotesi che f sia continua nell’intervallo [a,b]. La convergenza è però lenta e questo costituisce il limite del metodo. Una spiegazione può essere ricercata nel fatto che non si tiene conto dei valori della funzione ma soltanto dei segni. Geometricamente il metodo costruisce ad ogni passo l’approssimazione della radice calcolando l’intersezione con le ascisse della retta passante per i punti
8
8 Metodo della regula falsi Un modo naturale per migliorare il metodo di bisezione è quello di considerare anche i valori che la funzione assume negli estremi dell’intervallo e prendere come nuova approssimazione della soluzione l’intersezione delle ascisse con la retta passante per Il metodo risultante è noto come metodo regula falsi o della falsa posizione 1.Dato 2.Finchè non sia verificato un criterio di arresto, poni 1.Se 2.Altrimenti 3.k=k+1 3. Il metodo genera una successione di intervalli decrescenti in cui è contenuta la radice è più veloce rispetto al metodi di bisezione, anche se in generale pertanto il criterio di arresto basato sull’ampiezza dell’intervallo non è applicabile. La scelta dell’intervallo in base al segno della funzione, comporta una convergenza globale Si può dimostrare che la velocità di convergenza è lineare.
9
9 Metodo delle secanti Una variante della regula falsi è il metodo delle secanti in cui sono richieste due approssimazioni iniziali senza alcun’altra condizione e senza la necessità di controllare il segno di f(x) Assegnati due valori iniziali si costruisce la successione La convergenza del metodo è garantita se le approssimazioni iniziali sono abbastanza vicine alla radice α: convergenza locale. Vale il seguente risultato: Teorema: Sia, essendo I un intorno opportuno della radice, e si assuma Allora se i dati iniziali sono scelti in I sufficientemente vicini ad α, la successione converge ad α in modo superlineare, con ordine
10
10 Metodo di Newton Se si vuole migliorare ancora di più la velocità di convergenza è necessario utilizzare più informazioni della funzione. Nel caso in cui essa sia derivabile si può considerare anche la sua derivata f’(x). Sviluppando f in serie di Taylor in un intorno di α ed arrestando lo sviluppo al prim’ordine si ottiene una versione linearizzata del problema f(x)=0. Assumendo quindi f’(α)≠0 (radice semplice) ed assegnato un valore iniziale si ottiene il metodo di Newton Geometricamente si prende come nuova approssimazione l’intersezione delle ascisse con la retta tangente in Alla k-esima iterazione questo metodo richiede due valutazioni funzionali. L’aumento del costo computazionale è compensato dal fatto che la convergenza (locale) è di ordine superiore al primo. In generale è quadratica
11
11 Metodi di iterazione funzionale La ricerca degli zeri di una funzione f è ricondotta allo studio dei punti fissi di un’opportuna funzione g: La successione delle approssimazioni sarà definita come La funzione di iterazione g non è unica e può essere costruita nei modi più diversi, ma non tutti daranno luogo a strumenti efficienti. Bisogna studiare sotto quali condizioni la successione delle iterate appartenga sempre al dominio di f e sia convergente ad α. Teorema: Data la successione Supponiamo che la funzione g soddisfi le seguenti condizioni (i) g: [a,b] →[a,b] (ii) (iii) Allora g ha un unico punto fisso α in [a,b] e la successione delle iterate da essa generate converge ad α, per ogni scelta del punto iniziale in [a,b]. Inoltre dim. L’ipotesi (i) e la continuità di g (implicita in (ii)) garantiscono che g abbia almeno un punto fisso in [a,b]. L’hp (iii) assicura che g è una contrazione per cui il punto fisso è unico (si dimostra per assurdo).
12
12 Per dimostrare che la successione converge si considera applicando il teorema della media Inoltre dalla continuità di g’ si ha
13
13 Convergenza Risultato importante teoricamente, ma nella pratica è difficile stabilire a priori l’intervallo [a,b] in cui sono soddisfatte le ipotesi. Teorema (Ostrowski): Sia α un punto fisso di Se allora la successione delle iterate generata da g è tale che (a) (b) La convergenza può esserci in insiemi molto più grandi di quelli in cui (condizione sufficiente, convergenza locale) Se localmente divergente
14
14 Ordine di convergenza Per i metodi di iterazione funzionale è possibile anche dare una relazione tra ordine del metodo e molteplicità di α rispetto a g’ Teorema: Sia (opportuno intervallo) punto fisso di Se per un punto la successione è convergente e se per i=1,....p-1 e allora il metodo ha ordine di convergenza p e risulta Dim. Dallo sviluppo di Taylor si ha in generale (tenuto conto che ) dove. Quindi se valgono le hp del teorema si ha la tesi. A parità di ordine di convergenza p, quanto più piccola risulterà la quantità tanto più veloce sarà la convergenza delle iterate ad α
15
15 Convergenza metodo di Newton Il metodo di Newton può essere visto come un metodo di iterazione funzionale con la funzione g data da Osservando che se il metodo è localmente sempre convergente La convergenza è quadratica per radici semplici e si riduce a lineare per radici multiple. Risultati di convergenza globale Teorema: Sia (i) (ii) la successione originata dal metodo di Newton DECRESCE monotonicamente ad α. Per gli intorni sinistri [α-ρ, α) si ottiene una successione che converge in modo monotono CRESCENTE ad α.
16
16 Sistemi non lineari La maggior parte dei metodi considerati per il caso monodimensionale possono venire generalizzati con successo al caso di sistemi. Tra essi non ci possono essere quei metodi che considerano, ad ogni iterazione, una scelta opportuna di un intervallo in cui era compresa la radice (bisezione, regula falsi). Problema: data Tra i metodi il più usato è l’estensione vettoriale del metodo di Newton dove indica la matrice Jacobiana Dal punto di vista implementativo il metodo può essere riscritto considerando, ad ogni iterazione, due sottopassi 1.Risolvere 2.Calcolare Ad ogni passo k si deve risolvere un sistema lineare con matrice
17
17 Per quanto riguarda la convergenza si può dimostrare (risultato dovuto a Kantorovich) che se la matrice Jacobiana è non singolare, partendo da una approssimazione iniziale sufficientemente buona, il processo iterativo genera una successione convergente alla radice L’ordine di convergenza è quadratico La sensibilità del metodo alla scelta del punto iniziale è molto più marcata che nel caso scalare Il costo richiesto ad ogni passo per la risoluzione del sistema lineare è molto elevato per n grande La matrice Jacobiana può essere malcondizionata dando luogo a soluzioni non necessariamente accurate. VARIANTI METODO DI NEWTON
18
18 Varianti metodo di Newton Valutazione ciclica della matrice Jacobiana: si mantiene la stessa matrice Jacobiana per un certo numero p>1 di iterazioni: metodo di Newton modificato,(metodo di Newton stazionario si mantiene sempre la stessa matrice, ). L’aumento di efficienza è pagato da una velocità di convergenza più bassa. Risoluzione inesatta dei sistemi lineari: si risolvono i sistemi lineari con un metodo iterativo (facendone solo alcuni passi); per esempio Jacobi, Gauss- Seidel o Gauss-Seidel con rilassamento: metodi di Newton inesatti. Approssimazione Jacobiana con rapporti incrementali: ad ogni passo si considera al posto della matrice Jacobiana una sua approssimazione mediante rapporti incrementali n-dimensionali (come vantaggio non si deve calcolare le derivate parziali costituenti J(x)
19
19 Metodi di iterazione funzionale Come nel caso monodimensionale il problema può essere riformulato in modo da trovare la soluzione come punto fisso di una opportuna funzione di iterazione Si considerano metodi iterativi della forma Teorema: Se è punto fisso di G, condizione sufficiente per la convergenza alla radice, del metodo iterativo è che esistano due numeri positivi M e ρ, con M<1, tali che si abbia purché sia scelto in ; in tal caso è l’unico punto fisso di G in
20
20 Per quanto riguarda l’ordine di convergenza, il teorema monodimensionale non può essere esteso direttamente, tuttavia se esistono continue le derivate seconde delle componenti di G, si può dimostrare che condizione sufficiente perché il metodo (se converge al punto fisso) converga linearmente è che sia Se la convergenza è almeno quadratica ed è esattamente quadratica se risulta non nulla almeno una delle matrici Hessiane
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.