Marco Rolando Stochastic Chaotic Simulated Annealing A Noisy Chaotic Neural Network for Solving Combinatorial Optimization Problems.

Slides:



Advertisements
Presentazioni simili
Reti sociali Reti sociali.
Advertisements

Algoritmi e Strutture Dati
Metodi e Applicazioni numeriche nell’Ingegneria Chimica
Dalla macchina alla rete
Apprendimento Automatico Apprendimento supervisionato
Politecnico di Torino Tesi di Laurea
Caratteristiche del controllo a catena aperta: un esempio
I modelli di valutazione delle opzioni su tassi
AGENTI CHE RISOLVONO PROBLEMI Ottimizzazione euristica
E.Mumolo AGENTI CHE RAGIONANO LOGICAMENTE Logica fuzzy nella navigazione di robot autonomi E.Mumolo
6. Catene di Markov a tempo continuo (CMTC)
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
Modelli Modellistica e Gestione dei Sistemi Ambientali a.a
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
6. Catene di Markov a tempo continuo (CMTC)
Esercitazioni su circuiti combinatori
Sistemi basati su conoscenza Metodi di ricerca informata Prof. M.T. PAZIENZA a.a
Corso di Tecniche e Sistemi di trasmissione Fissi e Mobili
Apprendimento di funzioni algebriche
1 Esempi di consistenza sui limiti Non consistente sui limiti, considera Z=2, poi X-3Y=10 Ma il dominio qui sotto e consistente sui limiti: Confrontare.
Algoritmo di Ford-Fulkerson
Inversione differenziale della Cinematica
Ottimizzazione non lineare non vincolata: Metodi iterativi di eliminazione ed interpolazione per ottimizzazione di funzione di una variabile maggio '11.
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
Stima ed algoritmi di consensus distribuito: considerazioni su IKF
Ricerca della Legge di Controllo
Seminario su clustering dei dati – Parte II
BIOINGEGNERIA S. Salinari Lezione 4.
BIOINGEGNERIA S. Salinari Lezione 6.
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
CONTROLLO DI SUPPLY CHAIN MEDIANTE TECNICHE H-INFINITO E NEGOZIAZIONE
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Algoritmi e Strutture Dati
Lezione 5 Domande: Laverage path length di Chord con 2^b identificatori e N=2^b nodi è (giustificare la risposta) Laverage path length di Chord con 2^b.
Intelligenza Artificiale Algoritmi Genetici
Intelligenza Artificiale
In contrapposizione con i metodi convenzionali (hard computing), le tecniche di soft computing non si basano su procedimenti esprimibili in forma chiusa.
Università degli Studi di Padova Progetto Lauree scientifiche Buratto Alessandra Dipartimento Di Matematica Pura Ed Applicata Liceo Scientifico "L. da.
Introduzione di un nuovo Jet Finder basato sul Deterministic Annealing Davide Perrino Dipartimento di Fisica di Bari II Convegno Nazionale Fisica di ALICE.
Il Gruppo di Lavoro. Le 7 variabili del modello OBIETTIVO METODO RUOLI LEADERSHIP COMUNICAZIONE CLIMA SVILUPPO.
Corso di Sistemi Complessi Adattativi
Lezioni di Ricerca Operativa Corso di Laurea in Informatica
Seminario di Metodi Matematici per l’Ottimizzazione
Chaotic Behavior of Gastric Migrating Myoelectrical Complex POLITECNICO DI MILANO Facoltà di Ingegneria Aronne TELI Matr Anno accademico
THE DRIPPING FAUCET: TRANSIZIONE AL CAOS
PARTE PRIMA: Reti Cablate
Euristiche: algoritmi costruttivi e di ricerca locale
Dinamiche caotiche nei Laser a Semiconduttore
COMUNICAZIONE ONLINE, RETI E VIRTUALITA MATTEO CRISTANI.
Università degli Studi di Cagliari
Rete di Hopfield applicata al problema del TSP Federica Bazzano
R. Soncini Sessa, MODSS, L 26 Stima degli effetti Calcolo degli obiettivi (Laplace) Rodolfo Soncini Sessa MODSS Copyright 2004 © Rodolfo Soncini.
IL CAMPIONE.
Università degli studi di Parma Dipartimento di Ingegneria dell’Informazione Politecnico di Milano © 2001/02 - William Fornaciari Sintesi di reti a più.
Prof. Filippo D’Ippolito
Progettazione ottimizzata di dispositivi elettromagnetici Ing. Nunzio Salerno Modelli numerici per campi e circuiti.
Sistemi basati su conoscenza Metodi di ricerca informata Prof. M.T. PAZIENZA a.a
Dalla macchina alla rete: reti LLC. Dalla macchina alla rete Per realizzare una macchina sequenziale è necessario –Codificare gli insiemi I,S,O con variabili.
Intelligenza Artificiale
Il simulated annealing (SA)
Intelligenza Artificiale Reti Neurali
1 Il simulated annealing (SA) Analogia con il processo di solidificazione di un metallo fuso A partire dal metallo fuso, la temperatura viene abbassata.
Ricerca locale Maria Simi Assunzioni sui problemi  Gli algoritmi visti esplorano gli spazi di ricerca alla ricerca di un goal e restituiscono.
Metodi di minimizzazione Ricerca del minimo di dove è l’insieme delle variabili (coordinate)
Analisi ed Approfondimento dell’Equilibrio di Nash: Lo studio di situazioni critiche UNIVERSITA' DEGLI STUDI "G.d'ANNUNZIO" CHIETI-PESCARA LAUREANDA: Ileana.
ASD a.a.2010/2011- Lezione 12 Algoritmi e Strutture dati a.a.2010/2011 Prof.ssa Rossella Petreschi Backtracking/ Branch and Bound Lezione n°12.
Self-Organizing Map (SOM Kohonen, 1981) è una tecnica di visualizzazione dei dati multidimensionali SOM è una mappa mono- (bi-)dimensionale che rappresenta.
Scuola di Dottorato in Ingegneria Industriale Game Theory and analysis of competitive dynamics for industrial systems Corso di Dottorato di Ricerca in.
Lezione XIII Common-Mode feedback (CMFB). Introduzione  In tutte le applicazioni degli amplificatori operazionali un anello di retroazione differenziale.
Transcript della presentazione:

Marco Rolando Stochastic Chaotic Simulated Annealing A Noisy Chaotic Neural Network for Solving Combinatorial Optimization Problems

Marco Rolando Introduzione Ottimizzazione Combinatoria Modello: SCSA Applicazioni: TSP e CAP2 Conclusioni

Marco Rolando Ottimizzazione combinatoria(1) Il neurone ij ha uscita x ij =1 se e solo se la risorsa i è assegnata a j. Tutti neuroni sono completamente connessi in modo che luscita del neurone ij sia ingresso del neurone kl con peso w ijkl. Problema: assegnamento di M risorse a N utilizzatori Rispettando linsieme di vincoli V. Minimizzando la funzione obiettivo F(x). Il problema di ottimizzazione può essere ridotto allevoluzione di una rete neurale ricorrente NxM con queste caratteristiche:

Marco Rolando Ottimizzazione combinatoria(2) Si definisce una funzione di costo E che tenga conto sia della funzione obiettivo, sia dei vincoli Si determinano i pesi w ij delle rete neurale in modo che levoluzione della rete sia nella direzione in cui E si riduce.

Marco Rolando Rete di Hopfield Vantaggi: per w ijij =0 e w ijkl =w klji è garantita la stabilità asintotica. Le condizioni sono sufficienti per dimostrare che è una funzione di Liapunov per il sistema. Svantaggi: possono esserci molti minimi locali! La rete converge al primo che incontra. x ij uscita del neurone y ij stato del neurone I ij soglia di ingresso parametro di pendenza per la funzione di uscita E un modello dinamico che presenta diversi tipi di attrattori. Ai fini dellottimizzazione combinatoria si semplifica la sua dinamica in modo che presenti solo equilibri.

Marco Rolando Simulated Annealing Problema: la funzione E può avere molti minimi locali. Il simulated annealing consiste nellintrodurre rumore in modo controllato durante laggiornamento della soluzione. Il rumore viene gradualmente ridotto per permettere la convergenza. Consideriamo due tipi di annealing: Stocastico: SSA Caotico: CSA

Marco Rolando Stochastic Simulated Annealing A[n(t)]massima ampiezza del rumore stocastico n(t)rumore stocastico al tempo, uniformemente distribuito tra –A[n(t)] e A[n(t)] 1 parametro di smorzamento del rumore stocastico E la forma più semplice di annealing. Consiste nellaggiungere un segnale stocastico in ingresso ad ogni neurone: Vantaggi: per A[n(0)] sufficientemente grande e 1 piccolo la ricerca avviene in modo esaustivo in tutto lo spazio di ricerca. Svantaggi: se 1 è piccolo la convergenza può essere molto lenta.

Marco Rolando Chaotic Simulated Annealing (1) Sfrutta lautoaccoppiamento e porta la rete a funzionare su un attrattore caotico. z(t) ampiezza dellautoaccoppiamento negativo 2 parametro di smorzamento dellauto-accoppiammento ksmorzamento della membrana nervosa a, I 0 parametri positivi Note La rete esibisce un comportamento caotico per z(0) sufficientemente grande. Il comportamento caotico è limitato ad un transitorio iniziale, la cui durata dipende dal parametro 2.

Marco Rolando Si può dimostrare che lattrattore verso cui tende la rete è uno strano attrattore le cui dimensioni, sotto opportune ipotesi, sono sufficientemente grandi da includere tutti i minimi della funzione. Vantaggi: La ricerca della soluzione avviene in modo efficiente perché coinvolge solo una frazione dello spazio delle soluzioni. Svantaggi: La rete CSA ha una dinamica completamente deterministica. Quindi, a prescindere dalla lentezza con cui viene ridotto il parametro di annealing (lautoaccoppiamento), la rete potrebbe non raggiungere un minimo globale, e in generale, un buona soluzione. Chaotic Simulated Annealing (2)

Marco Rolando Stochastic Chaotic S.A. (SCSA) Combina gli approcci di SSA e CSA. Lobiettivo è duplice: Sfruttare lefficienza del modello caotico Garantire laffidabilità del modello stocastico

Marco Rolando Applicazione: TSP(1) Dato un grafo completo, trovare il percorso di lunghezza minima che attraversa tutti i nodi una sola volta. Consideriamo un grafo con n nodi e introduciamo le seguenti variabili x ij : uguale a 1 se la città i è in j-esima posizione, altrimenti 0 d ij : distanza fra la città i e la città j Il problema può essere mappato su una rete neurale con n x n neuroni che minimizzi una funziona energia composta dai seguenti termini Note: Questa non è la formulzione più efficace per affrontare il TSP.

Marco Rolando Applicazione: TSP(2) Minima lunghezza Lunghezza media Validi CSA ( 1 = 1) (2.5%) SCSA 1 = (0%) 1 = 5* (0%) 1 = 2* (20%) 1 = (35%) Berlin52: 200 iterazioni TS70: 20 iterazioni Minima lunghezza Lunghezza media Validi CSA ( 1 = 1) (2.5%) SCSA 1 = (7.5%) 1 = 5* (34.5%) 1 = 2* (34%) 1 = (32%)

Marco Rolando Applicazione: CAP2(1) In una rete radiomobile, determinare un assegnamento dei canali che minimizzi le interferenze e rispetti i vincoli di richiesta. Consideriamo una rete con N celle e M canali e introduciamo le seguenti variabili x jk : uguale a 1 se la cella j è assegnata al canale k, altrimenti 0 D j : numero di chiamate nella cella j P ji(m+1) : tensore di costo fra la cella i e la cella j per canali a distanza m Come per TSP, la funzione energia è costituita dalle seguenti componenti

Marco Rolando Applicazione: CAP2(2) SSACSASCSA AveMinAveMinAveMin Hex Hex Hex Hex Hex Hex iterazioni per ogni problema della famiglia HEX

Marco Rolando Conclusioni SCSA combina gli approcci di SSA e CSA e ne sorpassa i limiti. E più efficiente di SSA: restringe lo spazio di ricerca al sottospazio dellattrattore caotico, che è molto più piccolo dellintero spazio di ricerca sfruttato da SSA. E più affidabile di CSA: non ha una dinamica completamente deter- ministica e continua a cercare anche dopo la scomparsa del caos.

Marco Rolando Bibliografia Lipo Wang, Sa Li, Fuyu Tian, Xiuju Fu, A Noisy Chaotic Neural Network for Solving Combinatorial Optimization Problems: Stochastic Chaotic Simulated Annealing, IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICSPART B: CYBERNETICS, VOL. 34, NO. 5, OCTOBER 2004 Luonan Chen, Kazuyuki Aihara, Chaotic dynamics of neural networks and its application to combinatorial optimization, Journal of Dynamical Systems and Differential Equations, invited review paper, vol.9, no.3, pp , 2001.