Esercitazione N°6 Apprendimento Non-Supervisionato.

Slides:



Advertisements
Presentazioni simili
Laboratorio di Matematica Applicata Parte 3
Advertisements

Apprendimento Automatico Apprendimento supervisionato
Sistemi di Classificazione usando NCD
MATLAB.
MATLAB. Outline Grafica 2D Esercizi Grafica 3D Esercizi.
MATLAB Stefano Gagliardo
Primo sguardo a metodi multivariati per l'analisi del ttH
Riconoscimento di forme
Sistemi di supporto alle decisioni 4. Clustering
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
Pattern Recognition con Reti Neurali MLP
Esercitazione N°1 Il tool di Matlab.
ALGORITMI DI OTTIMIZZAZIONE PER L'ADDESTRAMENTO DI RETI NEURALI
Reti Neurali: studi sull'intelligenza artificiale
Le reti neurali dagli esordi alle applicazioni
Apprendimento Automatico: Apprendimento Pigro (Lazy Learning)
Apprendimento di funzioni algebriche
Apprendimento Automatico: Apprendimento per Rinforzo
Support Vector Machines
Apprendimento per rinforzo
Apprendimento Automatico: Apprendimento per Rinforzo Roberto Navigli Apprendimento Automatico: Apprendimento per Rinforzo.
Tema 3: Teorema-Limite Centrale
Interpolazione polinomiale a tratti
Metodi numerici per equazioni lineari iperboliche Gabriella Puppo.
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
BIOINGEGNERIA S. Salinari Lezione 4.
BIOINGEGNERIA S. Salinari Lezione 8. RETI AD APPRENDIMENTO NON SUPERVISIONATO Le reti ad apprendimento non supervisionato debbono essere in grado di determinare.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
Sistema di supporto E-Learning
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Reti Neurali Ricorrenti
Esercitazione N°7 Filtri Lineari. Esercizio 1 La Funzione adapt >> net = newlin([0,10],1); >> net.inputWeights{1,1}.delays = [0 1 2]; >> net.IW{1,1} =
Mappa concettuale di sintesi
Instance Based Learning Mercoledì, 17 novembre 2004 Giuseppe Manco Readings: Chapter 8, Mitchell Chapter 7, Han & Kamber Instance-Based Learning (IBL):
Reti Neurali Mercoledì, 10 Novembre 2004 Giuseppe Manco References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop Reti Neurali Lezione.
Intelligenza Artificiale
Apprendimento Automatico Apprendimento non supervisionato:
In contrapposizione con i metodi convenzionali (hard computing), le tecniche di soft computing non si basano su procedimenti esprimibili in forma chiusa.
1 Packet Manager Sistema di gestione di pacchetti software per il progetto dell'esame di Reti di Calcolatori LS Progetto realizzato da Fabio Parisini.
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA
UN SISTEMA DI SUPPORTO ALLA DETERMINAZIONE DI ANOMALIE NEL TRAFFICO DI RETE Tesi di Laurea di: Luca VESCOVI Correlatori: Ing. Aldo Franco DRAGONI Ing.
Lezione del 6 giugno A) Planning con SMODELS (vedere programma di esempio) B) Struttura di un robot.
Analisi dati sperimentali e principi di modellazione tramite identificazione Carlo Alberto Avizzano – Corso di Simulink L2 - A.A. 2008/2009.
PoliICR Riconoscimento dei Caratteri Daniele Gasperini – William Spinelli Riconoscimento dei Segnali: un approccio unitario prof. Sergio Brofferio.
Struttura di un neurone
Il neurone e i suoi componenti Il nucleo I dendriti Lassone Le connessioni sinaptiche.
IL CERVELLO UMANO Il cervello umano è sicuramente la struttura più complessa dell‘universo e può essere considerato come una enorme rete neurale. Circa.
Esercitazione 1 - Introduzione Matlab. MATrix LABoratory Command window Current Directory Comandi recenti Variabili correnti Contenuto cartella corrente.
Metaclassificazione Giovedì, 18 novembre 2004 Francesco Folino ( Combinare Classificatori Lecture 8.
Rete di Hopfield applicata al problema del TSP Federica Bazzano
Esercitazione 2 Reti Neurali Backpropagation. 2 Esercizio 1  Scompattare bp  Compilare i 4 programmi (con make, v.file readme )  Utilizzare i dati.
Università degli studi di Parma Dipartimento di Ingegneria dell’Informazione Politecnico di Milano © 2001/02 - William Fornaciari Sintesi di reti a più.
RETI NEURALI - 2.
Intelligenza Artificiale
Intelligenza Artificiale Reti Neurali
APPROSSIMAZIONE DI FUNZIONI
TEORIE E TECNICHE DEL RICONOSCIMENTO
Learning Non Supervisionato
Fanelli Claudio - Grosso Silvio E-Learning: metodi, modelli e ambienti per l'apprendimento a distanza E-LEARNING : METODI, MODELLI E AMBIENTI PER L’APPRENDIMENTO.
CURE: AN EFFICIENT CLUSTERING ALGORITHM FOR LARGE DATABASES GRUPPO 12 Filippo Bindi Massimiliano Ceccarini Andrea Giuliodori PRESENTAZIONE Sistemi Informativi.
REALIZZAZIONE DI UN SISTEMA DI CLASSIFICAZIONE Prof. Roberto Tagliaferri Studente: Ragognetti Gianmarco Corso di Reti Neurali e Knowledge Discovery A.A.
Esercitazione N°5 Approssimazione di Funzioni. Esercizio 1 Costruzione di una rete RBF Il metodo più semplice per approssimare una funzione mediante reti.
Le reti neurali Simona Balbi. Cosa sono le reti neurali Una rete neurale artificiale (A)NN è un paradigma di elaborazione dell’informazione ispirato al.
Self-Organizing Map (SOM Kohonen, 1981) è una tecnica di visualizzazione dei dati multidimensionali SOM è una mappa mono- (bi-)dimensionale che rappresenta.
Introduzione a Weka Di Fabio Cassano
Esercitazione N°2 Data Fitting con Modelli Lineari.
#sqlsatTorino #sqlsat400 May 23, 2015 AzureML - Creating and Using Machine Learning Solutions Davide
Esercizi.
Transcript della presentazione:

Esercitazione N°6 Apprendimento Non-Supervisionato

Esercizio 1 Learning Competitivo >> P = rand(2,20); % insieme random in R2 >> plot(P(1,:),P(2,:),'+r') % training set >> net = newc([0 1;0 1], 8 , 0.1); % rete >> w = net.IW{1}; >> hold on; >> plot(w(:,1),w(:,2),'ob'); % plot dei pesi >> net.trainParam.epochs = 7; >> net = train(net,P); % addestramento TRAINR, Epoch 0/7 TRAINR, Epoch 7/7 TRAINR, Maximum epoch reached. >> plot(w(:,1),w(:,2),'og'); % nuovo plot >> sim(net,[0;0.2]) % richiamo della rete ans = (4,1) 1 I pesi degli 8 neuroni assumono inizialmente una posiizone baricentrica rispetto all'insieme di addestramento, poi si distribuiscono, determinando i clusters

Mappe Auto-Organizzanti 1-D Esercizio 2 Mappe Auto-Organizzanti 1-D >> angles = 0:0.5*pi/99:0.5*pi; >> P=[sin(angles); cos(angles)]; >> plot(P(1,:),P(2,:),'+r'); >> net = newsom([0 1;0 1],[10]); >> net.trainParam.epochs = 10; >> net = train(net,P); TRAINR, Epoch 0/10 TRAINR, Epoch 10/10 TRAINR, Maximum epoch reached. >> plotsom(net.IW{1,1},net.layers{1}.distances); >> sim(net,[1;0]) ans = (1,1) 1 >> Rispetto alle reti competitive, le SOM definiscono una relazione di vicinato. Nella fase di addestramento, non vengono modificati solo i pesi del vincitore, ma anche dei suoi vicini. In fase di richiamo c'è un insieme di uscite che risponde, sulla base della relazione di vicinato.

Mappe Auto-Organizzanti 2-D Esercizio 3 Mappe Auto-Organizzanti 2-D In questo caso la mappa è organizzata in una griglia bi-dimensionale >> P = rand(2,1000); >> plot(P(1,:),P(2,:),'+g'); >> hold on; >> net = newsom([0 1; 0 1],[5 6]); >> plotsom(net.IW{1,1},net.layers{1}.distances); >> net.trainParam.epochs = 1; >> net = train(net,P); TRAINR, Epoch 0/1 TRAINR, Epoch 1/1 TRAINR, Maximum epoch reached. >> sim(net,[0.5;0.3]) ans = (19,1) 1

Learning Vector Quantization Esercizio 4 Learning Vector Quantization Le reti LVQ operano una classificazione supervisionata, tramite un primo stadio non supervisionato seguito da un secondo strato supervisionato. Il vantaggio consiste nel fatto che la classificazione viene eseguita sulla base dei cluster dei punti di addestramento, anziché sui punti stessi, quindi in un certo modo si ottimizza la partizione dello spazio degli ingressi in base a come i punti di addestramento sono distribuiti in tale spazio. >> P = [ -3 -2 -2 0 0 0 0 2 2 3 0 1 -1 2 1 -1 -2 1 -1 0]; >> C = [1 1 1 2 2 2 2 1 1 1]; >> T = ind2vec(C); >> plotvec(P,C) >> net = newlvq(minmax(P),4,[.6 .4],0.1); >> hold on >> w = net.IW{1}; >> plot(w(1,1),w(1,2),'ow'); >> net.trainParam.epochs = 150; >> net = train(net,P,T); TRAINR, Epoch 0/150 TRAINR, Epoch 1/150 TRAINR, Performance goal met. >> plotvec(net.IW{1},vec2ind(net.LW{2}),'*')