Selezione delle caratteristiche - Principal Component Analysis

Slides:



Advertisements
Presentazioni simili
Montanari Maria Giulia
Advertisements

Calcolo vettoriale E.F. Orsega – Università Ca’ Foscari di Venezia
Macchine di Percezione
ANALISI DEI CLUSTER (metodo kmeans)
FUNZIONI REALI DI DUE VARIABILI REALI
I SISTEMI LINEARI.
Funzioni di due variabili
Titolo Insiemi di livello e vettori. titolo Insiemi di livello e vettori.
Sistema di riferimento sulla retta
Capitolo 8 Sistemi lineari.
Autovalori e autovettori
MATLAB.
MATLAB.
MATLAB.
Geometria analitica dello spazio
COORDINATE POLARI Sia P ha coordinate cartesiane
LE MATRICI.
Cinematica diretta Un manipolatore è costituito da un insieme di corpi rigidi (bracci) connessi in cascata tramite coppie cinematiche (giunti). Si assume.
Cinematica del braccio di un robot
6. Catene di Markov a tempo continuo (CMTC)
Analisi Numerica: AutoValori e Autovettori
Implementazione del problema della approssimazione ai minimi quadrati Camillo Bosco Corso di Analisi Numerica A.A
Algebra delle Matrici.
6. Catene di Markov a tempo continuo (CMTC)
Ipotesi e proprietà dello stimatore Ordinary Least Squares (OLS)
Algebra lineare.
Teoria e Tecniche del Riconoscimento
MODELLO DI REGRESSIONE LINEARE MULTIPLA
Esempio – Manipolatore Antropomorfo
Costruzione di Interfacce Lezione 4 Nozioni di geometria per la grafica
MATLAB.
LANCIAMO UNA FUNZIONE! lanciare equazioni funzionali e costruirne il grafico descrivere variazioni in modo sistematico stabilire una corrispondenza tra.
1 Querying - Parte II Modelli per la ricerca. 2 Rappresentazione e Vector Space (VS) Ogni doc. j è un vettore di valori tf idf Si può normalizzare a lunghezza.
Sistemi di equazioni lineari
Teoria e Tecniche del Riconoscimento
Teoria e Tecniche del Riconoscimento
Strumentazione per bioimmagini
BIOINGEGNERIA S. Salinari Lezione 8. RETI AD APPRENDIMENTO NON SUPERVISIONATO Le reti ad apprendimento non supervisionato debbono essere in grado di determinare.
Teoria e Tecniche del Riconoscimento
Corso di Chimica Fisica II 2013 Marina Brustolon
UNIVERSITÀ DEGLI STUDI DI PERUGIA Dipartimento di Ingegneria Industriale Prof. Francesco Castellani Corso di Meccanica Applicata.
UNIVERSITÀ DEGLI STUDI DI PERUGIA Dipartimento di Ingegneria Industriale Prof. Francesco Castellani Corso di Meccanica Applicata A.A.
Lezione 13 Equazione di Klein-Gordon Equazione di Dirac (prima parte)
Spazi vettoriali astratti Somma e prodotto di n-ple Struttura di R n.
Esiste uno strumento che permetta, dall’ equazione della retta, di stabilirne la posizione rispetto al semiasse positivo delle ascisse?
Come possono essere due rette r ed r’di un piano?
La Retta.
Equazioni lineari in due incognite
ANALISI FATTORIALE. Cosè lanalisi fattoriale? Statistica descrittiva Rappresentazione delle variabili in studio. Statistica confermativa vs Confermare,
Vettori Finche’ il moto si svolge in una sola dimensione – moto unidimensionale, moto rettilineo – non abbiamo bisogno di vettori La posizione e’ individuata.
UNIVERSITÀ DI PISA FACOLTÀ DI INGEGNERIA CORSO DI LAUREA SPECIALISTICA IN INGEGNERIA INFORMATICA PER LA GESTIONE D’AZIENDA Tesi di laurea: Progettazione.
Corso di Programmazione Grafica e Laboratorio Daniele Marini
Trasformazioni Daniele Marini.
Stabilità per E.D.O. (I): STABILITÀ LINEARIZZATA
Vettori dello spazio bidimensionale (R 2)
Sottospazi vettoriali
La geometria analitica
Vettori A B VETTORE è un segmento orientato caratterizzato da: C D
Corso di Laurea in Scienze e Tecniche psicologiche
Learning Non Supervisionato
LA RETTA Assi cartesiani e rette ad essi parallele
MATEMATICA PER L’ECONOMIA e METODI QUANTITATIVI PER LA FINANZA a. a
LA RETTA NEL PIANO CARTESIANO
APPUNTI DI GEOMETRIA ANALITICA DELLA RETTA
Sistemi di equazioni lineari. Sistemi di primo grado di due equazioni a due incognite Risolvere un sistema significa trovare la coppia di valori x e y.
1. Le coordinate di un punto su un piano Le coordinate di un punto su un piano 2. La lunghezza e il punto medio di un segmento La lunghezza e il punto.
Riduzione dei Dati. Nelle scienze sociali ci si trova molto spesso di fronte a ricerche in cui vi è una sovrabbondanza di misurazioni nel tentativo di.
Transcript della presentazione:

Selezione delle caratteristiche - Principal Component Analysis Sia Cl,k la covarianza delle caratteristiche xl ed xk per tutte le M possibili osservazioni. La covarianza di due caratteristiche xl ed xk calcolata per gli M esempi è data da: dove l e k sono le medie delle caratteristiche xl ed xk, rispettivamente. Per M oggetti con N caratteristiche (x1,x2,..........xN) è definita una matrice simmetrica di covarianza C realizzata con i valori di covarianza Cl,k:

Principal Component Analysis Il valore di covarianza Cl,k è nullo se le caratteristiche xl ed xk sono non correlate: Gli elementi Cii diagonali della matrice simmetrica di covarianza rappresentano la varianza delle N caratteristiche. La direzione di massima varianza è parallela all’autovettore corrispondente all’autovalore massimo della matrice di covarianza C. Gli autovettori di C sono ortogonali tra loro e le loro direzioni sono parallele ai corrispondenti autovalori.

Principal Component Analysis La matrice di covarianza può essere diagonalizzata con la procedura di trasformazione agli assi principali (oppure alle componenti principali PCA o trasformata di Karhunen-Loeve) Le caratteristiche degli oggetti in questo nuovo sistema di riferimento risultano non correlate. L’idea principale è che maggiore informazione corrisponde a maggiore varianza. Algoritmi PCA: Covarianza/Correlazione Singular value decomposition (SVD)

Principal Component Analysis Le nuove caratteristiche (componenti) y=eX sono espresse come combinazione lineare delle xi caratteristiche di input e corrispondono agli autovettori della matrice di covarianza C. Gli autovalori corrispondenti sono la varianza. Per trovare la prima componente principale, che denoteremo con y1, è necessario trovare il vettore di coefficienti e1=(e11,…,e1N) tale che la varianza di e1X sia massima rispetto alla classe di tutte le combinazioni lineari di X soggette al vincolo (la norma di e1 è unitaria) y1= e1X Dalla definizione di autovettore/autovalore: Cy=yλ  Ce1X=e1X λ1  e1’Ce1X= e1’ e1X λ1  e1’Ce1X = X λ1  e1’Ce1 = λ1  e1’Ce1 – λ1 I= 0  (C- λ1 I) e1 = 0

Principal Component Analysis La seconda componente si ottiene trovando il secondo vettore normalizzato e2 ortogonale a e1 y2= e2X che avrà la seconda varianza massima Le N componenti principali estratte soddisfano la proprietà Tutte le correlazioni e covarianze del campione tra coppie delle componenti derivate sono zero.

Y1 Y2 Y3 Con e1 = [0.248300612 0.9394863248 0.2360347807] e2 = [0.1869712323 -0.2519829869 0.9494979382] e3 = [-0.4889375567 -0.03550023213 0.8715960383]

Principal Component Analysis Gli autovettori della matrice di covarianza C sono orientati nella direzione di massima varianza e, conseguentemente, le caratteristiche associate si presentano con grande varianza (caratteristiche più significative). Le caratteristiche con varianza piccola possono essere trascurate in quanto non efficaci al fine della separabilità delle classi. Gli assi coordinati delle nuove caratteristiche yl ed yk risultano ruotati rispetto a quelli di input xl ed xk di un angolo  e la loro relazione è definita dall’equazione:

Principal Component Analysis Considerando i nuovi assi coordinati yl ed yk allineati con gli autovettori el ed ek della matrice di covarianza C, la trasformata agli assi principali è data dalla equazione:   oppure y = Ax dove è la matrice di trasformazione delle nuove caratteristiche dove ciascuna riga rappresenta le proiezioni degli autovettori el ed ek sui rispettivi assi xl ed xk.  

Principal Component Analysis Le nuove caratteristiche possono essere definite con l’origine dei nuovi assi coordinati yl ed yk coincidente con il centroide del cluster (l, k):  

Principal Component Analysis Gli elementi della matrice di covarianza delle nuove caratteristiche y, sono dati da:   dove ml ed mk sono le medie delle nuove caratteristiche yl ed yk, che sono uguali a zero come si può dimostrare: Si dimostra che la matrice di covarianza C` delle nuove caratteristiche y e` data da: dove si evidenzia la proprietà che le nuove caratteristiche yi non sono correlate, infatti tutti i termini hanno valore 0 ad esclusione di quelli sulla diagonale principale i che esprimono la varianza della caratteristica yi nella direzione dell’autovettore ei.

Principal Component Analysis In conclusione, con la trasformazione agli assi principali si ha una riduzione anche consistente del numero delle caratteristiche. Le caratteristiche in questo nuovo spazio, anche se risultano le più significative, non implicano però una migliore separazione dei cluster. Se i cluster nello spazio di origine sono molto vicini tra loro ed è difficile separarli, anche nello spazio delle nuove caratteristiche si avranno le stesse difficoltà di separazione. Le componenti principali conducono soltanto alla selezione del miglior sottoinsieme di caratteristiche più significative per semplificare il processo di classificazione avendo eliminato le caratteristiche ridondanti e non necessarie.

PCA - Data Reduction con W<N matrice troncata di [e1,…,eN] Esempio: da un array di 5 sensori di gas vengono acquisite risposte relative a: Pentanone, Acetone ed Esanale (dimensione input N=5). Primo metodo: proporzione di varianza catturata

PCA - Data Reduction Secondo metodo: Screen test

PCA - Data Reduction Score plot