La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Teoria e Tecniche del Riconoscimento Cosimo Distante Fondamenti di Matematica.

Presentazioni simili


Presentazione sul tema: "Teoria e Tecniche del Riconoscimento Cosimo Distante Fondamenti di Matematica."— Transcript della presentazione:

1 Teoria e Tecniche del Riconoscimento Cosimo Distante Fondamenti di Matematica

2 spazio vettoriale lineare Uno spazio vettoriale lineare X è costituito da un insieme di elementi (vettori) definito su un campo scalare R che soddisfa le seguenti condizioni: Siano

3 Richiami di Algebra lineare Un vettore a d dimensioni x ed il suo trasposto x t è definito da Dove tutte le componenti possono essere a valori reali.

4 Denotiamo con M una matrice n×d (rettangolare) e la sua trasposta M t di dimensioni d×n Una matrice d×d è chiamata Simmetrica se m ij =m ji Anti-simmetrica se m ij =-m ji In generale una matrice è chiamata non-negativa se m ij 0 i,j Matrici

5 Matrice Identità: La funzione (oppure il simbolo) delta di Kronecker è definito come

6 Matrici Rango: Il rango di una matrice è il numero massimo di righe linearmente indipendenti (o colonne) di A. Proprietà di base: Si denota con r( A ) il rango della matrice A Se A è una matrice quadrata (n=p) allora Sia X p 1 e b n 1 allora lequazione AX=b definisce un sistema di n equazioni lineari. Se n=p e det(A) 0 allora lunica soluzione In generale, il sistema di equazioni ammetterà almeno una soluzione se il rango di A è uguale al rango della matrice aumentata (A,b)

7 Autovalori - Autovettori Se è soluzione per qualche x 0 allora: autovalore è denominato autovalore di A autovettore x è denominato autovettore di A Sia A=[a jk ] una matrice quadrata (n n). Consideriamo Possiamo riscrivere Cioè n equazioni algebriche in n incognite x 1,…,x n Per n = 2

8 Autovalori - Autovettori Si noti cheè il determinate caratteristico di A che se nullo allora A è una matrice singolare Soluzione di A

9 Autovalori - Autovettori Esempio: Trovare gli autovettori e corrispondenti autovalori della matrice quadrata Soluzione I corrispondenti autovettori sono dati da Otteniamo per 1 = -2

10 Possiamo moltiplicare una matrice per un vettore come segue Mx=y dove

11 Siano un insieme di vettori di uno spazio vettoriale X Siano scalari Se sussiste la seguente relazione Vettori linearmente indipendenti

12 Sia X uno spazio vettoriale lineare, e sia un sottoinsieme di X. Possiamo dire che il sottoinsieme, spanna cioè genera lo spazio X se e solo se Spanning a Space N.B. La dimensione di uno spazio è costituito dal numero minimo di vettori che generano lo spazio

13 Prodotto Interno (dot-Product) x y Il prodotto interno è uno SCALARE! Diremo che un vettore x è normalizzato se

14 Prodotto Interno (dot-Product) x y Perciò il prodotto interno è una misura di collinearità di due vettori (concetto di similarità) Dalla diseguaglianza di Cauchy-Schwartz ricordiamo che

15 Ortogonalità Due vettori x,y sono ortogonali tra loro se (x,y)=0 (x y) Possiamo estenderlo anche a spazi. Un vettore x di X è ortogonale ad un sottospazio X 1 se esso è ortogonale ad ogni vettore di X 1 (x X 1 ) Due spazi X 1 e X 2 sono ortogonali se ogni vettore di X 1 è ortogonale ad ogni vettore di X 2 (X 1 X 2 ) Dati alcuni vettori linearmente indipendenti come possiamo convertirli in un insieme di vettori ortogonali che spannano lo stesso spazio? Ortogonalizzazione di Gram-Schmidt

16 Sottospazi lineari Se sono n vettori linearmente indipendenti di Allora ogni sottoinsieme di essi con kn genera un sottospazio lineare di Esempi di sottospazi di sono piani e rette passanti per lorigine

17 Proiezione Ortogonale Se Π è sottospazio di n allora qualsiasi vettore arbitrario può essere decomposto nella somma di due vettori: Proiezione ortogonale Teorema della Proiezione Di tutte le decomposizioni della forma con quella che corrisponde alla proiezione ortogonale soddisfa la seguente:

18 Gram-Schmidt Supponiamo di avere n vettori indipendenti e da essi si vogliono ottenere n vettori ortogonali Scegliamo il primo vettore ortogonale come primo vettore lin. ind. Per ottenere il secondo vettore ortogonale v 2 scegliamo y 2 ma gli sottraiamo la parte che è in direzione di v 1 Dove a viene scelto in modo che v 1 v 2. Ossia

19 Gram-Schmidt contd Pertanto continuando il processo si ottiente alla k-esima compoenente nnd5gs

20 Misure di distanza di patterns Vettori osservabili devono essere rappresentati in uno spazio che possiede una metrica distanza Introduciamo il concetto di distanza d(x,y) tra coppie di elementi dello spazio

21 Definita per vettori binari, indica il numero di posizioni (elementi) in cui due vettori differiscono. Le regole C1, C2 e C3 sono valide Distanza di Hamming Distanza Euclidea

22 Correlazione Usata per confrontare pattern di segnali, misurandone la loro similarità. Siano La loro correlazione non-normalizzata è data da Oss. Se x e y sono vettori dello spazio Euclideo, allora la correlazione coincide col prodotto interno rumore Gaussiano Metodi di correlazione sono adatti a rilevare segnali quasi periodici contaminati da rumore Gaussiano

23 Direzione di coseni Se linformazione rilevante dei pattern o dei segnali da analizzare è contenuta solo nei moduli delle loro componenti, allora la similarità può essere misurata in termini di direzione di coseni Siano Si noti che se i vettori sono normalizzati ad 1, allora il coseno coincide con la correlazione

24 Misura di similarità nella metrica di Minkowsky Rappresenta una generalizzazione della distanza Euclidea. Usata per esperimenti di psicologia Definita come segue city-block La distanza city-block è ottenuta per =1

25 Misura di similarità di Tanimoto Alcuni risultati hanno mostrato che questa distanza è stata efficiente in alcuni contesti rispetto ad altri. Definita come segue Originariamente introdotta per il confronto di insiemi. Siano A e B due insiemi non ordinati distinti (non-numerici) di elementi (per. Es. identificatori o descrittori di documenti, o feature discrete) La similarità tra A e B può essere definita come la variazione del numero di elementi in comune rispetto al numero totale di elementi. Sia n(X) il numero di elementi in X allora

26 Misura di similarità di Tanimoto Usata con successo per valutare la similarità tra documenti Ciascun singolo descrittore può essere fornito di un proprio peso. Per esempio, supponiamo che ik sia il peso del k-esimo descrittore per li-esimo documento. Allora la similarità di due documenti denotati x i e x j è ottenuta definendo

27 Distanza di Mahalonobis Le componenti di x e y possono essere generate da un processo stocastico che definisce una dipendenza statistica tra esse. Si definisce un prodotto interno come segue La distanza è data da Con ψ è linverso della matrice di covarianza di x e y. Svantaggi Il calcolo di ψ per pattern a n dimensioni necessita lacquisizione di un numero di campioni » n 2 Il calcolo di prodotti matrice-vettore è di gran lunga più complesso del prodotto scalare.


Scaricare ppt "Teoria e Tecniche del Riconoscimento Cosimo Distante Fondamenti di Matematica."

Presentazioni simili


Annunci Google