Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
1
Teoria e Tecniche del Riconoscimento
Fondamenti di Matematica Cosimo Distante
2
Uno spazio vettoriale lineare X è costituito da un insieme di elementi (vettori) definito su un campo scalare R che soddisfa le seguenti condizioni: Siano
3
Richiami di Algebra lineare
Un vettore a d dimensioni x ed il suo trasposto xt è definito da Dove tutte le componenti possono essere a valori reali.
4
Matrici Una matrice d×d è chiamata Simmetrica se mij=mji
Denotiamo con M una matrice n×d (rettangolare) e la sua trasposta Mt di dimensioni d×n Una matrice d×d è chiamata Simmetrica se mij=mji Anti-simmetrica se mij=-mji In generale una matrice è chiamata non-negativa se mij ≥ 0 i,j
5
Matrici Matrice Identità:
La funzione (oppure il simbolo) delta di Kronecker è definito come
6
Matrici Rango: Il rango di una matrice è il numero massimo di righe linearmente indipendenti (o colonne) di A. Si denota con r(A) il rango della matrice A Proprietà di base: Sia Xp1 e bn1 allora l’equazione AX=b definisce un sistema di n equazioni lineari. Se n=p e det(A)0 allora l’unica soluzione In generale, il sistema di equazioni ammetterà almeno una soluzione se il rango di A è uguale al rango della matrice aumentata (A,b) Se A è una matrice quadrata (n=p) allora
7
Autovalori - Autovettori
Sia A=[ajk] una matrice quadrata (nn). Consideriamo Se è soluzione per qualche x0 allora: è denominato autovalore di A x è denominato autovettore di A Possiamo riscrivere Cioè n equazioni algebriche in n incognite x1,…,xn Per n = 2
8
Autovalori - Autovettori
Si noti che è il determinate caratteristico di A che se nullo allora A è una matrice singolare Soluzione di A
9
Autovalori - Autovettori
Esempio: Trovare gli autovettori e corrispondenti autovalori della matrice quadrata Soluzione I corrispondenti autovettori sono dati da Otteniamo per 1= -2
10
Possiamo moltiplicare una matrice per un vettore come segue
Mx=y dove
11
Vettori linearmente indipendenti
Siano un insieme di vettori di uno spazio vettoriale X Siano scalari Se sussiste la seguente relazione
12
Spanning a Space Sia X uno spazio vettoriale lineare, e sia un sottoinsieme di X. Possiamo dire che il sottoinsieme , “spanna” cioè genera lo spazio X se e solo se N.B. La dimensione di uno spazio è costituito dal numero minimo di vettori che generano lo spazio
13
Prodotto Interno (dot-Product)
x y Il prodotto interno è uno SCALARE! Diremo che un vettore x è normalizzato se
14
Prodotto Interno (dot-Product)
x y Perciò il prodotto interno è una misura di collinearità di due vettori (concetto di similarità) Dalla diseguaglianza di Cauchy-Schwartz ricordiamo che
15
Ortogonalizzazione di Gram-Schmidt
Ortogonalità Due vettori x,y sono ortogonali tra loro se (x,y)=0 (x y) Possiamo estenderlo anche a spazi. Un vettore x di X è ortogonale ad un sottospazio X1 se esso è ortogonale ad ogni vettore di X1 (x X1) Due spazi X1 e X2 sono ortogonali se ogni vettore di X1 è ortogonale ad ogni vettore di X2 (X1 X2) Dati alcuni vettori linearmente indipendenti come possiamo convertirli in un insieme di vettori ortogonali che spannano lo stesso spazio? Ortogonalizzazione di Gram-Schmidt
16
Sottospazi lineari Se sono n vettori linearmente indipendenti di
Allora ogni sottoinsieme di essi con k≤n genera un sottospazio lineare di Esempi di sottospazi di sono piani e rette passanti per l’origine
17
Proiezione Ortogonale
Se Π è sottospazio di n allora qualsiasi vettore arbitrario può essere decomposto nella somma di due vettori: Proiezione ortogonale Teorema della Proiezione Di tutte le decomposizioni della forma con quella che corrisponde alla proiezione ortogonale soddisfa la seguente:
18
Gram-Schmidt Supponiamo di avere n vettori indipendenti e da essi si vogliono ottenere n vettori ortogonali Scegliamo il primo vettore ortogonale come primo vettore lin. ind. Per ottenere il secondo vettore ortogonale v2 scegliamo y2 ma gli sottraiamo la parte che è in direzione di v1 Dove a viene scelto in modo che v1v2. Ossia
19
Gram-Schmidt cont’d Pertanto continuando il processo si ottiente alla k-esima compoenente nnd5gs
20
Misure di distanza di patterns
Vettori osservabili devono essere rappresentati in uno spazio che possiede una metrica Introduciamo il concetto di distanza d(x,y) tra coppie di elementi dello spazio
21
Distanza Euclidea Definita per vettori binari, indica il numero di posizioni (elementi) in cui due vettori differiscono. Le regole C1, C2 e C3 sono valide Distanza di Hamming
22
Correlazione Usata per confrontare pattern di segnali, misurandone la loro similarità. Siano La loro correlazione non-normalizzata è data da Oss. Se x e y sono vettori dello spazio Euclideo, allora la correlazione coincide col prodotto interno Metodi di correlazione sono adatti a rilevare segnali quasi periodici contaminati da rumore Gaussiano
23
Direzione di coseni Se l’informazione rilevante dei pattern o dei segnali da analizzare è contenuta solo nei moduli delle loro componenti, allora la similarità può essere misurata in termini di direzione di coseni Siano Si noti che se i vettori sono normalizzati ad 1, allora il coseno coincide con la correlazione
24
Misura di similarità nella metrica di Minkowsky
Rappresenta una generalizzazione della distanza Euclidea. Usata per esperimenti di psicologia Definita come segue La distanza “city-block” è ottenuta per =1
25
Misura di similarità di Tanimoto
Alcuni risultati hanno mostrato che questa distanza è stata efficiente in alcuni contesti rispetto ad altri. Definita come segue Originariamente introdotta per il confronto di insiemi. Siano A e B due insiemi non ordinati distinti (non-numerici) di elementi (per. Es. identificatori o descrittori di documenti, o feature discrete) La similarità tra A e B può essere definita come la variazione del numero di elementi in comune rispetto al numero totale di elementi. Sia n(X) il numero di elementi in X allora
26
Misura di similarità di Tanimoto
Usata con successo per valutare la similarità tra documenti Ciascun singolo descrittore può essere fornito di un proprio peso. Per esempio, supponiamo che ik sia il peso del k-esimo descrittore per l’i-esimo documento. Allora la similarità di due documenti denotati xi e xj è ottenuta definendo
27
Distanza di Mahalonobis
Le componenti di x e y possono essere generate da un processo stocastico che definisce una dipendenza statistica tra esse. Si definisce un prodotto interno come segue La distanza è data da Con ψ è l’inverso della matrice di covarianza di x e y. Svantaggi Il calcolo di ψ per pattern a n dimensioni necessita l’acquisizione di un numero di campioni »n2 Il calcolo di prodotti matrice-vettore è di gran lunga più complesso del prodotto scalare.
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.