La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Elaborazione di Immagini II Parte Lezione N.1

Presentazioni simili


Presentazione sul tema: "Elaborazione di Immagini II Parte Lezione N.1"— Transcript della presentazione:

1 Elaborazione di Immagini II Parte Lezione N.1
Giovanni Naldi Dipartimento di Matematica Centro ADAMSS Università degli studi di Milano

2 Agenda 1. Introduzione Alcuni aspetti ``classici’’
2. Primi approcci e problemi 3. Metodologie recenti snake, level set, PDE, … 4. Applicazioni 5. Ulteriori problemi

3 Un testo classico: Rosenfeld, Azriel, Kak, Avinash C
Un testo classico: Rosenfeld, Azriel, Kak, Avinash C.; Digital picture processing Table of Contents: Chap1 Introduction Chap2 Matghematical Preliminaries (Linear Operations, Discrete Picture Transforms, Random Variables, Random Fields, Vector space Representation) Chap3 Visual Perception (Brightness and Contrast, Acuity and Contour, Color, Pattern and Texture, Shape and Space, Duration and Motion, Detection and Recognition) Chap4 Digitization (Sampling, Quantization) Chap 5 Compression (Transform Compression, Fast implementation of KL Compression, Fourier, Hadamard and Cosine Transform Compression, bit allocation, Predictive Compression, Block truncation compression, error-free compression, more on compression techniques, the rate-distortion function) Chap 6 Enhancement (Quality, gray scale modification, Sharpening, Smoothing) Chap 7 Restoration (The a-priori knowledge required in restoration, inverse filtering, least squares filtering, Constrained deconvolution, recursive filtering, some further restoration models) Chap 8 Reconstruction (Methods for generating projection data, the Fourier Slice Theorem, The filtered-backprojection algorithm for parallel projection data, aliasing artifcats, Noise in reconstructed images, reconstruction from fan projections, Algebraic Recontruction Tecqniques) Chap9 Matching (Image Geometry, Registration, Geometric Transformation, Match Measurement) Chap10 Segmentation (Pixel Classification, Edge Detection, Feature Detection, Sequential Segmentation, Iterative segmentation) Chap11 Representation (Representation Schemes, Conversion between Representations, Geometry Property Measurement) Chap12 Description (Properties, Models)

4

5 Image Processing and Analysis: Variational, PDE, Wavelet, and Stochastic Methods
Tony F. Chan and Jianhong (Jackie) Shen SIAM 2005 List of Figures; Preface; Chapter 1: Introduction; Chapter 2: Modern Image Analysis Tools; Chapter 3: Image Modeling and Representation; Chapter 4: Image Processing: Denoising; Chapter 5: Image Processing: Deblurring; Chapter 6: Image Processing: Inpainting; Chapter 7: Image Processing: Segmentation; Bibliography; Index. In alcuni casi medesimi problemi ma metodi differenti. Molti tipi di immagini ….

6

7

8 I segnali sono grandezze dipendenti da una o piu variabili temporali o spaziali e contengono informazione riguardo lo stato di qualche fenomeno. Un segnale e costituito da una entità contenente qualche tipo di informazione che può essere estratta, trasmessa o elaborata. Esempi (di segnali): segnali del parlato, che si incontrano anche in telefonia e radio; segnali video e immagini; suoni e musica, riproducibili ad esempio da un lettore di CD; segnali biomedici, come elettrocardiogrammi e radiografie. Un segnale e rappresentato, in generale, da una funzione g = f(x), dove: g denota una variabile (dipendente) sui valori di una grandezza fisica o chimica (corrente, tensione, pressione, concentrazione di molecole e così via). x denota una o più variabili indipendenti generalmente coordinate spaziali o temporali. f denota la relazione funzionale che associa ad ogni valore di x il corrispondente valore della grandezza fisica g.

9 Segnale acustico, P(t), P pressione acustica, t tempo
Immagine monocromatica identificata dalla funzione L(x,y), che fornisce la luminosità in funzione delle due coordinate spaziali (x,y).

10 IMMAGINI 2D Per immagini a due dimensioni (2D) intendiamo una rappresentazione di una scena su un piano, per esempio una fotografia. Le immagini 2D possono rappresentare oggetti creati al computer, misure fisiche ecc… oppure possono essere prodotte da un programma di grafica, da una macchina fotografica digitale, da un telescopio, da un microscopio, da un satellite, da un tomografo ecc.. Una immagine monocromatica può essere identificata come una funzione I(x,y) in due variabili, dove x ed y rappresentano le coordinate (spaziali) mentre il valore I nel punto (x,y) è chiamata intensità o livello di grigio dell’immagine nel punto. Quando I valori x,y e l’ampiezza I sono quantità discrete, finite si parla di immagine digitale. Immagini binarie Falsi colori Immagini a toni di grigio Immagini a colori

11 Cosa è una immagine digitale?
Immagine come una superficie: immagini a livelli di grigio come superfici in (x,y, I), e immagini a colori come superfici in (x,y,R,G,B). 95 120 80 200 190 77 40 202 15 73 43 111 35 74 10 Immagine a livelli di grigio come una matrice Pixel:=Picture element 8 bits-Quantization Sintesi di immagini a colori Risoluzione: dimensioni matrice immagine, numero di livelli di quantizzazione, frame rate. pixel

12 Il processo di conversione del segnale continuo in digitale può essere distinto in due passi fondamentali: il rivelamento (misura); la conversione analogica/digitale. Nel primo passo la quantità fisica da rappresentare è misurata da un apparato appropriato che la converte in un segnale ancora continuo (per esempio elettrico). Nel secondo passo il segnale continuo è convertito in digitale Esempio 1D. In una sala d’incisione il cantante emette suoni (onde sonore) che vengono rivelati dal microfono (trasduttore), l’uscita del microfono è un segnale elettrico continuo. Questo può rimanere tale e viene inciso su un nastro magnetico oppure può essere convertito in un segnale digitale e quindi registrato su CD, hard disk ecc.. (in vari formati). Quando poi noi riascoltiamo il brano viene fatta una conversione opposta cioè da digitale a elettrica e quindi attraverso la cuffia, l’auricolare o l’altoparlante (che sono i trasduttori) a onde sonore.

13 Esempio 2D. Un processo analogo avviene per le immagini bidimensionali, il trasduttore che converte l’intensità luminosa è in genere un CCD, mentre la conversione opposta ( cioè da digitale ad analogica) è realizzata dallo schermo o dalla stampante. Da slide corso Bertero-Boccacci (UniGE)

14 Un esempio di trasduttore: il CCD
I CCDs (Charge-Couple Devices) sono presenti nelle macchine fotografiche digitali, nelle cineprese digitali, negli scanners, nei telescopi e nei microscopi. Anche se ogni dispositivo sarà studiato per adattarsi alle caratteristiche della luce incidente nei vari casi, il principio di funzionamento è lo stesso. I sensori di immagini contengono una griglia di elementi sensibili su un unico chip di silicio. Questi elementi convertono la luce incidente in cariche elettriche che, fino alla fase di lettura, rimangono intrappolate nell’elemento. Queste cariche possono essere misurate e convertite in numeri (digitali) che indicano quanta luce ha colpito il singolo elemento. Il nome Charge-Couple deriva dal modo di lettura delle cariche alla fine dell’esposizione. Da slide corso Bertero-Boccacci (UniGE)

15 Da slide corso Bertero-Boccacci (UniGE)
Quando l’esposizione è terminata ogni elemento del CCD si è caricato in proporzione alla quantità di luce che ha inciso su di esso. La figura mostra un esempio con il numero di cariche (elettroni) presenti su ogni elemento. La fase di lettura (che dà il nome al dispositivo) avviene per righe. All’inizio le cariche della prima riga vengono accumulate in un registro e poi attraverso un amplificatore entrano in un convertitore analogico-digitale che produce una array della dimensione corrispondente al numero di elementi della riga Viene letta una riga per volta e poi il contenuto del registro è cancellato. Le cariche delle righe sono accoppiate (“coupled”) tra di loro e, quindi, quando si libera una riga tutte le cariche si spostano di un posizione in giù. Si ripete il procedimento fino a quando non si è letta l’ultima riga. Il CCD allora è pronto per “leggere” una nuova immagine. Da slide corso Bertero-Boccacci (UniGE)

16 CCDs a colori Filtro di Bayer Beam splitter
Ogni elemento del CCD non è sensibile al colore. Come è possibile ottenere una immagine a colori? I sensori delle fotocamere scompongono, attraverso dei filtri, la luce nei colori di base additivi: Rosso Arancio (R), Verde (International Green = G) e Blu Violetto (B). Quando tutti e tre i colori sono stati acquisiti, vengono sovrapposti per ottenere lo spettro di altri colori. Ci sono molti metodi differenti per acquisire i colori, per esempio: 3 CCD (uno per ogni colore); una maschera ruotante con i filtri che permette l’acquisizione in sequenza dei tre colori; un filtro (filtro di Bayer) che permette di acquisire i tre colori contemporaneamente sullo stesso CCD. Il filtro contiene più verde perchè l’occhio umano ne ha bisogno per “vedere” correttamente i colori. (non è ugualmente sensibile) Filtro di Bayer Beam splitter

17 Campionatura e quantizzazione (monocromatica)
Qualunque sia il sensore, il suo output è un segnale continuo. Per creare un’immagine digitale, il segnale deve essere campionato sia in senso spaziale che come valore. Sono quindi necessari due processi: • campionatura: discretizza lo spazio • quantizzazione: discretizza il valore in un certo numero di livelli di grigio

18

19 Immagini monocromatiche.
Una immagine digitale img(m,n) in uno spazio discreto 2D, deriva da una immagine analogica img(x,y) in uno spazio continuo 2D attraverso un processo di digitalizzazione (o campionamento) . L’mmagine continua img(x,y) è divisa in M righe e N colonne. L’intersezione di una riga con una colonna è chiamata pixel. Il valore assegnato al pixel identificato dalla coppia (m,n) con m=1,2,...,M e n=1,2,...,N e da img(m,n). In molti casi img(x,y) può essere considerato il segnale fisico che arriva sulla superficie del sensore 2D.

20 Effetto Risoluzione spaziale
Effetto quantizzazione

21 Scopo elaborazione immagini
•Image (signal) processing (elaborazione di immagini (segnali)): immagine in ingresso immagine in uscita Esempi: Miglioramento delle immagini (image enhacement), estrazione dei contorni, riduzione del rumore, etc.. •Image Analysis (analisi delle immagini): immagine in ingresso dati (misure) in uscita Esempi: Individuazione dei punti angolosi, misura del gradiente, fotometria etc.. •Image Understanding (comprensione delle immagini): immagine in ingresso descrizione ad alto livello Esempi: Riconoscimento di oggetti specifici all’interno dell’immagine (volti), segmentazione etc.

22

23

24

25

26

27

28

29

30

31

32

33

34 istogramma Immagine originale Immagine riordinata

35

36 Trovare operatori puntuali per modificare l’istogramma

37 Equalizzazione dell’istogramma


Scaricare ppt "Elaborazione di Immagini II Parte Lezione N.1"

Presentazioni simili


Annunci Google