La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

1 Equazioni e sistemi non lineari a.a. 2010/2011.

Presentazioni simili


Presentazione sul tema: "1 Equazioni e sistemi non lineari a.a. 2010/2011."— Transcript della presentazione:

1 1 Equazioni e sistemi non lineari a.a. 2010/2011

2 2 Equazioni non lineari Data una funzione consideriamo il problema di determinare i valori x tali che Tali valori sono solitamente chiamati zeri o radici della funzione f. Esempi: Equazioni algebriche: In generale non sono disponibili formule esplicite per la determinazione delle radici di una funzione (per esempio equazioni algebriche) metodi iterativi

3 3 Metodi iterativi  Tecniche che consentono di approssimare le soluzioni con un prestabilito grado di precisione  A partire da una approssimazione iniziale si costruisce una successione tale che, sotto opportune ipotesi, risulta convergere alla radice cercata.  E’ importante tener presente tre questioni fondamentali 1.Velocità di convergenza Definizione: data una successione convergente ad un limite α, si ponga se esistono due numeri reali tali che sia si dice che la successione ha ordine di convergenza p e fattore di convergenza C. Per p=1 e p=2 la convergenza si dice anche lineare e quadratica. Nel caso p=1 si ha necessariamente C<1.

4 4 2.Scelta del valore di innesco. Un metodo converge localmente ad α se la convergenza della successione dipende in modo critico dalla vicinanza di ad α. Il procedimento è globalmente convergente quando la convergenza non dipende da quanto è vicino ad α. Per i metodi a convergenza locale la scelta del punto di innesco è cruciale. 3.Criteri di arresto. Chiaramente non è possibile generare infinite iterate della successione. Il procedimento dovrebbe arrestarsi quando Non disponendo della soluzione è necessario procurarsi una stima di. Una possibile strategia è quella di approssimare con. Si ottiene il criterio relativo Quando è molto piccolo tale criterio risulta troppo stringente ed è più opportuno usare un criterio di arresto assoluto dato da Metodi iterativi 2

5 5  Fondendo i due criteri si ottiene il seguente Criterio di arresto misto Dove sono rispettivamente la tolleranza relativa ed assoluta.  Automaticamente il criterio sarà di tipo assoluto quando è molto piccolo e di tipo relativo nei restanti casi.  Si può vedere che è asintoticamente una buona stima di nel caso di convergenza quadratica o superlineare, mentre nel caso di convergenza lineare l’approssimazione sarà tanto migliore quanto la costante C è vicina a zero. Metodi iterativi 3

6 6 Metodo di bisezione Il metodo di bisezione è il metodo iterativo più semplice per approssimare gli zeri reali di una funzione. Ipotesi: 1) f(x) continua nell’intervallo [a,b] 2) f(a) f(b)<0 per il teorema degli zeri ammette almeno una soluzione α di f(x)=0, in (a,b).  Si procede suddividendo ad ogni passo l’intervallo [a,b] a metà e determinando in quale dei due sottointervalli si trova la soluzione, dimezzando cosi’ l’ampiezza dell’intervallo che contiene α. ALGORITMO: 1. Si pone 2. Per i=1,2,….,nmax si calcolano 1. Se 2. Altrimenti se 3. altrimenti 3. Il procedimento viene arrestato se per un indice i risulta

7 7 Ampiezza dell’intervallo ed errore Per costruzione ad ogni passo l’ampiezza dell’intervallo e’ dimezzata, dopo n passi arriviamo all’intervallo di ampiezza Se come stima di α prendiamo abbiamo Se poniamo otteniamo n da  Il metodo di bisezione converge sempre alla soluzione con la sola ipotesi che f sia continua nell’intervallo [a,b]  La convergenza è però lenta e questo costituisce il limite del metodo. Una spiegazione può essere ricercata nel fatto che non si tiene conto dei valori della funzione ma soltanto dei segni. Geometricamente il metodo costruisce ad ogni passo l’approssimazione della radice calcolando l’intersezione con le ascisse della retta passante per i punti

8 8 Metodo della regula falsi Un modo naturale per migliorare il metodo di bisezione è quello di considerare anche i valori che la funzione assume negli estremi dell’intervallo e prendere come nuova approssimazione della soluzione l’intersezione delle ascisse con la retta passante per Il metodo metodo risultante è noto come metodo regula falsi o della falsa posizione 1. Dato 2. Finchè non sia verificato un criterio di arresto, poni 1. Se 2. Altrimenti 3. k=k+1 3.  Il metodo genera una successione di intervalli decrescenti in cui è contenuta la radice  è più veloce rispetto al metodi di bisezione, anche se in generale pertanto il criterio di arresto basato sull’ampiezza dell’intervallo non è applicabile.  La scelta dell’intervallo comporta una convergenza globale  Si può dimostrare che la velocità di convergenza è lineare:

9 9 Metodo delle secanti Una variante della regula falsi è il metodo delle secanti in cui sono richieste due approssimazioni iniziali senza alcun’ altra condizione e senza la necessità di controllare il segno di f(x) Assegnati due valori iniziali si costruisce la successione La convergenza del metodo è garantita se le approssimazioni iniziali sono abbastanza vicine alla radice α: convergenza locale. Vale il seguente risultato: Teorema: Sia, essendo I un intorno opportuno della radice, e si assuma Allora se i dati iniziali sono scelti in I sufficientemente vicini ad α, la successione converge ad α in modo superlineare, con ordine

10 10 Metodo di Newton Se si vuole migliorare ancora di più la velocità di convergenza è necessario utilizzare più informazioni della funzione. Nel caso in cui essa sia derivabile si può considerare anche la sua derivata f’(x). Sviluppando f in serie di Taylor in un intorno di α ed arrestando lo sviluppo al prim’ordine si ottiene una versione linearizzata del problema f(x)=0. Assumendo quindi f’(α)≠0 (radice semplice) ed assegnato un valore iniziale si ottiene il metodo di Newton  Geometricamente si prende come nuova approssimazione l’intersezione delle ascisse con la retta tangente in  Alla k-esima iterazione questo metodo richiede due valutazioni funzionali. L’aumento del costo computazionale è compensato dal fatto che la convergenza (locale) è di ordine superiore al primo. In generale è quadratica

11 11 Metodi di iterazione funzionale  La ricerca degli zeri di una funzione f è ricondotta allo studio dei punti fissi di un’opportuna funzione g  La successione delle approssimazioni sarà definita come  La funzione di iterazione g non è unica e può essere costruita nei modi più diversi, ma non tutti daranno luogo a strumenti efficienti.  Bisogna studiare sotto quali condizioni la successione delle iterate appartenga sempre al dominio di f e sia convergente ad α. Teorema: Data la successione Supponiamo che la funzione g soddisfi le seguenti condizioni (i) g: [a,b] →[a,b] (ii) (iii) Allora g ha un unico punto fisso α in [a,b] e la successione delle iterate da essa generate converge ad α, per ogni scelta del punto iniziale in [a,b]. Inoltre dim. L’ipotesi (i) e la continuità di g (implicita in (ii)) garantiscono che g abbia almeno un punto fisso in [a,b]. L’hp (iii) assicura che g è una contrazione per cui il punto fisso è unico (si dimostra per assurdo).

12 12 Per dimostrare che la successione converge si considera applicando il teorema della media Inoltre dalla continuità di g’ si ha Metodi di iterazione funzionale 2

13 13 Convergenza Risultato importante teoricamente, ma nella pratica è difficile stabilire a priori l’intervallo [a,b] in cui sono soddisfatte le ipotesi. Teorema (Otrowski): Sia α un punto fisso di Se allora la successione delle iterate generata da g è tale che (a) (b)  La convergenza può esserci in insiemi molto più grandi di quelli in cui (condizione sufficiente, convergenza locale)

14 14 Ordine di convergenza Per i metodi di iterazione funzionale è possibile anche dare una relazione tra ordine del metodo e molteplicità di α rispetto a g’ Teorema: Sia (opportuno intervallo) punto fisso di Se per un punto la successione è convergente e se per i=1,....p-1 e allora il metodo ha ordine di convergenza p e risulta A parità di ordine di convergenza p, quanto più piccola risulterà la quantità tanto più veloce sarà la convergenza delle iterate ad α

15 15 Convergenza metodo di Newton  Il metodo di Newton può essere visto come un metodo di iterazione funzionale con la funzione g data da  Osservando che se il metodo è localmente sempre convergente  La convergenza è quadratica per radici semplici e si riduce a lineare per radici multiple.  Risultati di convergenza globale: Teorema: Sia (i) (ii) la successione originata dal metodo di Newton DECRESCE monotonicamente ad α.  Per gli intorni sinistri [α+ρ, α) si ottiene una successione che converge in modo monotono CRESCENTE ad α.

16 16 Sistemi non lineari  La maggior parte dei metodi considerati per il caso monodimensionale possono venire generalizzati con successo al caso di sistemi. Tra essi non ci possono essere quei metodi che considerano, ad ogni iterazione, una scelta opportuna di un intervallo in cui era compresa la radice (bisezione, regula falsi). Problema: data  Tra i metodi il più usato è l’estensione vettoriale del metodo di Newton dove indica la matrice Jacobiana  Dal punto di vista implementativo il metodo può essere riscritto considerando, ad ogni iterazione, due sottopassi  Risolvere  Calcolare  Ad ogni passo k si deve risolvere un sistema lineare con matrice

17 17  Per quanto riguarda la convergenza si può dimostrare (risultato dovuto a Kantorovich) che se la matrice Jacobiana è non singolare, partendo da una approssimazione iniziale sufficientemente buona, il processo iterativo genera una successione convergente alla radice  L’ordine di convergenza è quadratico  La sensibilità del metodo alla scelta del punto iniziale è molto più marcata che nel caso scalare  Il costo richiesto ad ogni passo per la risoluzione del sistema lineare è molto elevato per n grande  La matrice Jacobiana può essere malcondizionata dando luogo a soluzioni non necessariamente accurate. VARIANTI METODO DI NEWTON

18 18 Varianti metodo di Newton  Valutazione ciclica della matrice Jacobiana: si mantiene la stessa matrice Jacobiana per un certo numero p>1 di iterazioni: metodo di Newton modificato. L’aumento di efficienza è pagato da una velocità di convergenza più bassa.  Risoluzione inesatta dei sistemi lineari: si risolvono i sistemi lineari con un metodo iterativo (facendone solo alcuni passi); per esempio Jacobi, Gauss-Seidel o Gauss-Seidel con rilassamento: metodi di Newton inesatti.  Approssimazione Jacobiana con rapporti incrementali: ad ogni passo si considera al posto della matrice Jacobiana una sua approssimazione mediante rapporti incrementali n-dimensionali (come vantaggio non si deve calcolare le derivate parziali costituenti J(x)

19 19 Metodi di iterazione funzionale  Come nel caso monodimensionale il problema può essere riformulato in modo da trovale la soluzione come punto fisso di una opportuna funzione di iterazione  Si considerano metodi iterativi della forma Teorema: Se è punto fisso di G, condizione sufficiente per la convergenza alla radice, del metodo iterativo è che esistano due numeri positivi K e ρ, con K<1, tali che si abbia purché sia scelto in ; in tal caso è l’unico punto fisso di G in

20 20  Per quanto riguarda l’ordine di convergenza, il teorema monodimensionale non può essere esteso direttamente, tuttavia se esistono continue le derivate seconde delle componenti di G, si può dimostrare che condizione sufficiente perché il metodo (se converge al punto fisso) converga linearmente è che sia  Se la convergenza è almeno quadratica ed è esattamente quadratica se risulta non nulla almeno una delle matrici hessiane


Scaricare ppt "1 Equazioni e sistemi non lineari a.a. 2010/2011."

Presentazioni simili


Annunci Google