Teoria e Tecniche del Riconoscimento

Slides:



Advertisements
Presentazioni simili
Montanari Maria Giulia
Advertisements

Calcolo vettoriale E.F. Orsega – Università Ca’ Foscari di Venezia
Selezione delle caratteristiche - Principal Component Analysis
I SISTEMI LINEARI.
Meccanica 7 28 marzo 2011 Corpi estesi. Forze interne al sistema
MATEMATICA PER L’ECONOMIA
Capitolo 8 Sistemi lineari.
Vettori e matrici algebrici
Autovalori e autovettori
MATLAB.
MATLAB.
Geometria analitica dello spazio
Geometria analitica dello spazio
METODI EQUAZIONI DIFFERENZIALI Funzioni che mettono in relazione una variabile indipendente ( es. x), una sua funzione ( es. y = f(x) ) e la.
COORDINATE POLARI Sia P ha coordinate cartesiane
LE MATRICI.
Implementazione del problema della approssimazione ai minimi quadrati Camillo Bosco Corso di Analisi Numerica A.A
Algebra delle Matrici.
Algebra lineare.
Elementi di Matematica
TEORIA RAPPRESENTAZIONALE DELLA MISURA
RICHIAMI ELEMENTARI DI ALGEBRA MATRICIALE
MODELLO DI REGRESSIONE LINEARE MULTIPLA
Statistica per le decisioni aziendali ed analisi dei costi Modulo II - Statistica per le decisioni Aziendali Richiami di Algebra Matriciale.
VETTORI.
Retta passante per un punto P di direzione u
Argomenti della lezione
SISTEMI D’EQUAZIONI ED EQUAZIONI DIFFERENZIALI LINEARI.
Costruzione di Interfacce Lezione 4 Nozioni di geometria per la grafica
MATLAB.
Sistemi di equazioni lineari
Teoria e Tecniche del Riconoscimento
INGEGNERIA CLINICA E BIOMEDICA
BIOINGEGNERIA S. Salinari Lezione 8. RETI AD APPRENDIMENTO NON SUPERVISIONATO Le reti ad apprendimento non supervisionato debbono essere in grado di determinare.
STATISTICA a.a METODO DEI MINIMI QUADRATI REGRESSIONE
Teoria e Tecniche del Riconoscimento
Metodi statistici per l'analisi del cambiamento 5/3/ Notazione (simboli) Obbiettivo: occorre che si mantengano le tracce, in merito al punteggio,
Introduzione all’algebra lineare
Corso di Chimica Fisica II 2013 Marina Brustolon
Studente Claudia Puzzo
1 Esempio : Utile per considerare limportanza delle ALTE FREQUENZE nella ricostruzione del segnale, in particolare dei FRONTI di SALITA e di DISCESA (trailing.
Le matrici e I Sistemi lineari.
Spazi vettoriali astratti Somma e prodotto di n-ple Struttura di R n.
MATRICI classe 3 A inf (a.s ).
Definizione di determinante
Metodo dei minimi quadrati
Corso Di Programmazione Grafica
Rotazioni e quaternioni
Vettori dello spazio bidimensionale (R 2)
Sottospazi vettoriali
Scomposizione della devianza
Corso di Matematica (6 CFU) (4 CFU Lezioni +2 CFU Esercitazioni)
Vettori A B VETTORE è un segmento orientato caratterizzato da: C D
IL CAMPIONE.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°5.
ANALISI DEI GRUPPI I. La Cluster analysis è uno strumento di classificazione capace di scomporre una realtà complessa di osservazioni plurime in tipologie.
LA RETTA Assi cartesiani e rette ad essi parallele
MATEMATICA PER L’ECONOMIA e METODI QUANTITATIVI PER LA FINANZA a. a
Definizione Si dice che la variabile z è una funzione reale di due variabili x e y, nell’insieme piano D, quando esiste una legge di natura qualsiasi che.
Prof. Giovanni Ianne I vettori.
Le funzioni goniometriche
Le funzioni matematiche e il piano cartesiano
DATA MINING PER IL MARKETING (63 ore) Marco Riani Sito web del corso
L’analisi di regressione e correlazione Prof. Luigi Piemontese.
Sistemi di equazioni lineari. Sistemi di primo grado di due equazioni a due incognite Risolvere un sistema significa trovare la coppia di valori x e y.
Lezione n° 8 - Matrice di base. - Soluzioni di base ammissibili. - Relazione tra vertici di un poliedro e soluzioni basiche. - Teorema fondamentale della.
Vettori in R n. I vettori I vettori sono gli oggetti matematici che costituiscono la base di tutte le teorie fisiche. Le grandezze fisiche si distinguono.
Lezione n° 10 Algoritmo del Simplesso: - Coefficienti di costo ridotto - Condizioni di ottimalità - Test dei minimi rapporti - Cambio di base Lezioni di.
Prof. Cerulli – Dott. Carrabs
Transcript della presentazione:

Teoria e Tecniche del Riconoscimento Fondamenti di Matematica Cosimo Distante cosimo.distante@imm.cnr.it

Uno spazio vettoriale lineare X è costituito da un insieme di elementi (vettori) definito su un campo scalare R che soddisfa le seguenti condizioni: Siano

Richiami di Algebra lineare Un vettore a d dimensioni x ed il suo trasposto xt è definito da Dove tutte le componenti possono essere a valori reali.

Matrici Una matrice d×d è chiamata Simmetrica se mij=mji Denotiamo con M una matrice n×d (rettangolare) e la sua trasposta Mt di dimensioni d×n Una matrice d×d è chiamata Simmetrica se mij=mji Anti-simmetrica se mij=-mji In generale una matrice è chiamata non-negativa se mij ≥ 0  i,j

Matrici Matrice Identità: La funzione (oppure il simbolo) delta di Kronecker è definito come

Matrici Rango: Il rango di una matrice è il numero massimo di righe linearmente indipendenti (o colonne) di A. Si denota con r(A) il rango della matrice A Proprietà di base: Sia Xp1 e bn1 allora l’equazione AX=b definisce un sistema di n equazioni lineari. Se n=p e det(A)0 allora l’unica soluzione In generale, il sistema di equazioni ammetterà almeno una soluzione se il rango di A è uguale al rango della matrice aumentata (A,b) Se A è una matrice quadrata (n=p) allora

Autovalori - Autovettori Sia A=[ajk] una matrice quadrata (nn). Consideriamo Se  è soluzione per qualche x0 allora:  è denominato autovalore di A x è denominato autovettore di A Possiamo riscrivere Cioè n equazioni algebriche in n incognite x1,…,xn Per n = 2

Autovalori - Autovettori Si noti che è il determinate caratteristico di A che se nullo allora A è una matrice singolare Soluzione di A

Autovalori - Autovettori Esempio: Trovare gli autovettori e corrispondenti autovalori della matrice quadrata Soluzione I corrispondenti autovettori sono dati da Otteniamo per 1= -2

Possiamo moltiplicare una matrice per un vettore come segue Mx=y dove

Vettori linearmente indipendenti Siano un insieme di vettori di uno spazio vettoriale X Siano scalari Se sussiste la seguente relazione

Spanning a Space Sia X uno spazio vettoriale lineare, e sia un sottoinsieme di X. Possiamo dire che il sottoinsieme , “spanna” cioè genera lo spazio X se e solo se N.B. La dimensione di uno spazio è costituito dal numero minimo di vettori che generano lo spazio

Prodotto Interno (dot-Product) x y  Il prodotto interno è uno SCALARE! Diremo che un vettore x è normalizzato se

Prodotto Interno (dot-Product) x y  Perciò il prodotto interno è una misura di collinearità di due vettori (concetto di similarità) Dalla diseguaglianza di Cauchy-Schwartz ricordiamo che

Ortogonalizzazione di Gram-Schmidt Ortogonalità Due vettori x,y sono ortogonali tra loro se (x,y)=0 (x  y) Possiamo estenderlo anche a spazi. Un vettore x di X è ortogonale ad un sottospazio X1 se esso è ortogonale ad ogni vettore di X1 (x  X1) Due spazi X1 e X2 sono ortogonali se ogni vettore di X1 è ortogonale ad ogni vettore di X2 (X1  X2) Dati alcuni vettori linearmente indipendenti come possiamo convertirli in un insieme di vettori ortogonali che spannano lo stesso spazio? Ortogonalizzazione di Gram-Schmidt

Sottospazi lineari Se sono n vettori linearmente indipendenti di Allora ogni sottoinsieme di essi con k≤n genera un sottospazio lineare di Esempi di sottospazi di sono piani e rette passanti per l’origine

Proiezione Ortogonale Se Π è sottospazio di n allora qualsiasi vettore arbitrario può essere decomposto nella somma di due vettori: Proiezione ortogonale Teorema della Proiezione Di tutte le decomposizioni della forma con quella che corrisponde alla proiezione ortogonale soddisfa la seguente:

Gram-Schmidt Supponiamo di avere n vettori indipendenti e da essi si vogliono ottenere n vettori ortogonali Scegliamo il primo vettore ortogonale come primo vettore lin. ind. Per ottenere il secondo vettore ortogonale v2 scegliamo y2 ma gli sottraiamo la parte che è in direzione di v1 Dove a viene scelto in modo che v1v2. Ossia

Gram-Schmidt cont’d Pertanto continuando il processo si ottiente alla k-esima compoenente nnd5gs

Misure di distanza di patterns Vettori osservabili devono essere rappresentati in uno spazio che possiede una metrica Introduciamo il concetto di distanza d(x,y) tra coppie di elementi dello spazio

Distanza Euclidea Definita per vettori binari, indica il numero di posizioni (elementi) in cui due vettori differiscono. Le regole C1, C2 e C3 sono valide Distanza di Hamming

Correlazione Usata per confrontare pattern di segnali, misurandone la loro similarità. Siano La loro correlazione non-normalizzata è data da Oss. Se x e y sono vettori dello spazio Euclideo, allora la correlazione coincide col prodotto interno Metodi di correlazione sono adatti a rilevare segnali quasi periodici contaminati da rumore Gaussiano

Direzione di coseni Se l’informazione rilevante dei pattern o dei segnali da analizzare è contenuta solo nei moduli delle loro componenti, allora la similarità può essere misurata in termini di direzione di coseni Siano Si noti che se i vettori sono normalizzati ad 1, allora il coseno coincide con la correlazione

Misura di similarità nella metrica di Minkowsky Rappresenta una generalizzazione della distanza Euclidea. Usata per esperimenti di psicologia Definita come segue La distanza “city-block” è ottenuta per =1

Misura di similarità di Tanimoto Alcuni risultati hanno mostrato che questa distanza è stata efficiente in alcuni contesti rispetto ad altri. Definita come segue Originariamente introdotta per il confronto di insiemi. Siano A e B due insiemi non ordinati distinti (non-numerici) di elementi (per. Es. identificatori o descrittori di documenti, o feature discrete) La similarità tra A e B può essere definita come la variazione del numero di elementi in comune rispetto al numero totale di elementi. Sia n(X) il numero di elementi in X allora

Misura di similarità di Tanimoto Usata con successo per valutare la similarità tra documenti Ciascun singolo descrittore può essere fornito di un proprio peso. Per esempio, supponiamo che ik sia il peso del k-esimo descrittore per l’i-esimo documento. Allora la similarità di due documenti denotati xi e xj è ottenuta definendo

Distanza di Mahalonobis Le componenti di x e y possono essere generate da un processo stocastico che definisce una dipendenza statistica tra esse. Si definisce un prodotto interno come segue La distanza è data da Con ψ è l’inverso della matrice di covarianza di x e y. Svantaggi Il calcolo di ψ per pattern a n dimensioni necessita l’acquisizione di un numero di campioni »n2 Il calcolo di prodotti matrice-vettore è di gran lunga più complesso del prodotto scalare.