FLOWCHART DELL’ALGORITMO DI APPRENDIMENTO DELLA RETE DI KOHONEN

Slides:



Advertisements
Presentazioni simili
Premessa: si assume di aver risolto (correttamente
Advertisements

Flusso Massimo Applicazione di algoritmi
SCOPO: Determinare condizioni locali di equilibrio al fine di ottenere quello globale del sistema Problema: Flussi uscenti dalla cella centrale verso le.
Il problema della ricerca Algoritmi e Strutture Dati.
Elementi di complessità
Problema dellordinamento Input: Sequenza di n numeri Output: Permutazione π = tale che: a 1 a 2 …… a n Subroutine in molti problemi E possibile effettuare.
UNIVERSITA DI MILANO-BICOCCA CdL IN INFORMATICA Corso di Algoritmi e Ricerca Operativa Prof. Giancarlo Mauri LEZIONE 2.
Esempio 1: Calcolo del M.C.D.
Sistemi di Supporto alle Decisioni
Sistemi di supporto alle decisioni 4. Clustering
Depth-first search Visita in profondità di un grafo Algoritmo Esempio
Algoritmo di MiniMax Questa presentazione è un chiaro esempio di come aggiungere i tagli Alfa-Beta per migliorare l’efficienza dell’algoritmo MiniMax.
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
RICONOSCIMENTO DI SEQUENZE DI EVENTI
Esercitazione su Distance Vector
Le reti neurali dagli esordi alle applicazioni
Heap Sort. L’algoritmo heap sort è il più lento di quelli di ordinamento O(n * log n) ma, a differenza degli altri (fusione e quick sort) non richiede.
Apprendimento di funzioni algebriche
Algoritmi Paralleli e Distribuiti a.a. 2008/09
Le Conversazioni: Nuove fonti di influenza Gianandrea Facchini.
Flusso Massimo Applicazione di algoritmi
Cammini minimi Algoritmo SPT.Acyclic
Flusso Massimo Applicazione Algoritmi Esercizio 1 Sia dato la seguente rete di flusso, in cui la sorgente è il nodo 1 e la destinazione è il nodo 6. I.
CORSO DI PROGRAMMAZIONE II
BIOINGEGNERIA S. Salinari Lezione 4.
BIOINGEGNERIA S. Salinari Lezione 6.
“Riconoscimento di Facce”
Modelli e Algoritmi per la Logistica
Esempi di possibili domande per il compito di esame 1.Indicare un esempio di caso peggiore per lalgoritmo di Quicksort. 2.Scrivere un metodo per il calcolo.
Modelli simulativi per le Scienze Cognitive
Apprendimento Automatico Apprendimento non supervisionato:
DIAGRAMMI DI FLUSSO Notazione grafica usata per descrivere in modo intuitivo le azioni di cui è fatto un algoritmo. Viene usata per descrivere i passi.
Algoritmi e diagrammi di flusso
RETI NEURALI ARTIFICIALI
Esempio di esecuzione dellalgoritmo di Prim 1 v1v1 v5v5 v2v2 v3v3 v4v U = {v 1 } X =Ø 1 v1v1 v5v5 v2v2 v3v3 v4v U = {v.
Massimo Vedovelli Un modello di unità didattica Il ruolo del testo
Prof. Cerulli – Dott.ssa Gentili
Prof. Cerulli – Dott.ssa Gentili
Il neurone e i suoi componenti Il nucleo I dendriti Lassone Le connessioni sinaptiche.
Marco Nanni Autori : Yufei Tao;Ling Ding Xuemin Lin Jian Pei.
28 ottobre Mergesort F. Bombi 28 ottobre 2003.
TECNICA DIVIDE ET IMPERA
Ordinamento in tempo lineare Il limite inferiore Ω(n log n) vale per tutti gli algoritmi di ordinamento generali, ossia per algoritmi che non fanno alcuna.
Calcolo veloce della DFT: la Fast Fourier Transform (FFT) Cosimo Stallo & Paolo Emiliozzi Modulo di Elaborazione Numerica dei Segnali, a.a. 2009/2010.
Array (visita e ricerca) CORDA – Informatica A. Ferrari.
L23 Politiche fuori linea senza apprendimento: progetto funzionale Rodolfo Soncini Sessa MODSS Copyright 2004 © Rodolfo Soncini Sessa.
PRIMI ELEMENTI DI PROGRAMMAZIONE
RETI NEURALI - 2.
Vincenza Ferrara Novembre 2007 Fondamenti di Matematica e Informatica Laboratorio Informatica I anno a.a
Flusso Massimo Applicazione di algoritmi
BIOINGEGNERIA S. Salinari Lezione 5. L’algoritmo di retropropagazione Premesse 1.Reti Duali Si definiscono reti duali reti per cui è verificata la seguente.
L’ELABORATORE ELETTRONICO uno strumento in grado di eseguire insiemi di azioni (“mosse”) elementari le azioni vengono eseguite su oggetti (dati) per produrre.
Prof. Cerulli – Dott. Carrabs
Algoritmi e Programmazione (in C) Stefano Cagnoni e Monica Mordonini
Flusso di Costo Minimo Applicazione di algoritmi: Cammini Minimi Successivi (SSP) Esercizio 1 Sia data la seguente rete di flusso, in cui i valori riportati.
Problemi, algoritmi e programmazione
Progettazione degli algoritmi
Sommario Analisi del dominio: i sistemi per la localizzazione
ALGORITMI Dal problema al programma Definizione di algoritmo
Algoritmi di FFT basati sulla decimazione in frequenza (Decimation in the Frequency domain: FFT-DF) Cosimo Stallo & Paolo Emiliozzi Modulo di Elaborazione.
Realizzazione di un algoritmo genetico distribuito per l’inversione di modelli di deformazione del suolo (rilevamenti GPS e immagini SAR) di un edificio.
Dal problema al programma
GLI ALGORITMI Appunti preparati dalla prof.ssa Maria D’Angelo.
Self-Organizing Map (SOM Kohonen, 1981) è una tecnica di visualizzazione dei dati multidimensionali SOM è una mappa mono- (bi-)dimensionale che rappresenta.
Unità di apprendimento 6 Dal problema al programma.
Lezioni di Ricerca Operativa Corso di Laurea in Informatica
Dal PROBLEMA all’ALGORITMO
Algoritmi Avanzati a.a.2013/2014 Prof.ssa Rossella Petreschi Albero ricoprente di costo minimo Lezione n°12.
Algoritmi Avanzati a.a.2014/2015 Prof.ssa Rossella Petreschi Lezione n°10.
Cammini di costo minimo su un grafo pesato
Transcript della presentazione:

FLOWCHART DELL’ALGORITMO DI APPRENDIMENTO DELLA RETE DI KOHONEN

ALGORITMO RETE DI KOHONEN L’algoritmo di apprendimento di questo tipo di rete è il seguente: Si definiscono con wij(t) (0<=i<=n-1 dove n è il numero di input) il peso tra il neurone i-esimo di input ed il neurone j-esimo della griglia al tempo t. Con ‘tempo’ si indica il passaggio del pattern di apprendimento. I valori dei pesi vengono inizialmente posti tra zero e uno. Si pone come valore di Ni(0) il maggiore possibile (Ni() dovrebbe essere il numero di neuroni vicini al j-esimo neurone). Si presenta un input: x0(t), x1(t), x2(t),…… xn(t) dove xi(t) è l’i-esimo input. Si calcolano le distanze di tra l’input e ciascun neurone di output j: d²j = Σ (xi (t) – wij(t)) ² sommatoria da i=o a n-1 Si seleziona il neurone a cui corrisponde la distanza minima. Indichiamo con j* tale neurone. Si modificano i pesi dal neurone di input ed il neurone j* e tutti i suoi vicini definiti all’interno della superficie definita da Ni*(t). I nuovi pesi sono: wij(t+1) = wij(t) +ŋ(t)[ xi(t) – wij(t)] i|_j*, 0<= i <= n Il termine h(t) è la funzione guadagno (o velocità di adattamento) (0<=h(t)<=1) che decresce nel tempo in modo da rallentare di volta in volta l’adattamento dei pesi. Anche le dimensioni di Ni*(t) decrescono nel tempo in modo da individuare una regione di neuroni sulla griglia. 6) Si ripete tutto a partire dal punto 2).

SI NO INIZIO Fisso Wijt con j [o,n-1] i >= n STOP Wij Peso tra il neurone i-esimo di input e il neurone j-esimo della griglia al tempo t INIZIO Fisso Wijt con j [o,n-1] 1° passo Ni(0) numero neuroni vicino al j-esimo neurone Definisco: Ni(0) =max Ni(0) <= i Wijt  [ 0,1 ] Xi(t) input i-esimo al tempo t 2° passo Presentazione input X0(t)......Xn-1(t) SI i >= n STOP NO Distanza tra i neuroni di input e il j-esimo neurone di output al tempo t Calcolo le distanze n-1 dj2=  (Xi(t)- Wij(t))2 i=0 3° passo Selez. il neurone di out j* tale che dj2 = min

h(t) funzione di guadagno Wij(t+1)= Wij(t)+h(t) [Xit-h(t) ] h(t) decresce Definisco: h(t)  [ 0,1 ] h(t) = (1/n+1)(t) + 1 Definisco i nuovi pesi Wij(t+1)= Wij(t)+h(t) [Xit-h(t) ] con i che va da 0 a n-1 4° passo Nuovi pesi