La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Immagini digitali Introduzione. Definizioni Immagine: rappresentazione di un oggetto ottenuta tramite una appropriata “illuminazione” Immagine: misura.

Presentazioni simili


Presentazione sul tema: "Immagini digitali Introduzione. Definizioni Immagine: rappresentazione di un oggetto ottenuta tramite una appropriata “illuminazione” Immagine: misura."— Transcript della presentazione:

1 Immagini digitali Introduzione

2 Definizioni Immagine: rappresentazione di un oggetto ottenuta tramite una appropriata “illuminazione” Immagine: misura della intensità luminosa riflessa (o trasmessa) della radiazione utilizzata per ottenere l’immagine stessa Tale radiazione consiste di un insieme di onde elettromagnetiche di opportuna lunghezza d’onda (o energia)

3 La luce è un'onda elettromagnetica che si propaga nello spazio e nel tempo con una certa lunghezza d'onda e frequenza La luce è un fascio di fotoni che si propagano nello spazio e nel tempo con una certa energia E - maggiore lunghezza d'onda  minore frequenza  minore energia - minore lunghezza d'onda  maggiore frequenza  maggiore energia COLORE: frequenza dell'onda (o lughezza d'onda) o energia del fotone INTENSITA': è l'energia che passa attraverso un'area unitaria nell'unità di tempo e si misura in watt/m 2 : è cioè l'energia che attraversa in ogni secondo una superficie di un metro quadrato. Si può dimostrare che l'intensità è proporzionale al prodotto delle ampiezze del campo elettrico e del campo magnetico; e siccome questi ultimi due sono proporzionali tra loro, in ultima analisi l'intensità è proporzionale al quadrato dell'ampiezza del campo elettrico. La luce m sec T fotoni E A

4 Lo spettro elettromagnetico

5 Immagini digitali e beni culturali Utilizzo di immagini nel campo dei Beni Culturali: –Ricognizione tramite tecniche video –Diagnostica tramite le più svariate metodologie di indagine (raggi X, luce visibile, infrarossi, ultravioletti, …) –Documentazione e archiviazione delle opere d’arte –… Uso sempre maggiore di immagini in formato digitale

6 Formazione dell’immagine Il processo di formazione delle immagini coinvolge considerazioni di ordine geometrico e radiometrico Le prime riguardano le relazioni fra le dimensioni e le posizioni degli oggetti del mondo reale e quelle delle loro rappresentazioni nell’immagine Le seconde si riferiscono alle modalità con le quali l’energia luminosa nella scena si traduce nell’intensità luminosa osservata nell’immagine

7 Aspetti geometrici Molti dei dispositivi di acquisizione di immagini sono assimilabili ad una macchina fotografica I raggi luminosi provenienti dall’oggetto vengono focalizzati tramite una lente biconvessa sul piano dove si forma l’immagine Tale piano corrisponde alla pellicola per apparecchi analogici, al CCD per apparecchi digitali, …

8 Aspetti geometrici Nel punto L è posta la lente biconvessa, di distanza focale f L’asse z coincide con l’asse ottico Il piano xy è il piano di formazione dell’immagine Il sistema di coordinate xyz è definito sistema di coordinate fisso alla macchina Consideriamo il caso delle immagini formate da un apparecchio fotografico.

9 Aspetti geometrici Le relazioni geometriche tra gli oggetti del mondo reale e le loro immagini sono fornite dalle leggi dell’ottica geometrica Un punto P di coordinate (x 0, y 0, z 0 ) viene proiettato in un punto P’ nel piano xy le cui coordinate x i, y i, z i sono date da: L’immagine risulta capovolta Tutti i punti della retta PL vengono proiettati sullo stesso punto P’ (immagine 2D)

10 Processo di formazione dell'immagine: aspetti radiometrici L'immagine è il risultato: –dell'interazione della luce emessa dalla sorgente –con l'oggetto che stiamo osservando –e dipende dalla capacità dello strumento che usiamo per vedere –SORGENTE + OGGETTO + SISTEMA DI RIVELAZIONE

11 Quindi dobbiamo prendere in considerazione tre diversi fattori: –La luce emessa dalla sorgente (intensità luminosa della sorgente) i(x,y); –La riflettanza dell'oggetto dell'osservazione r(x,y); –Il processo di formazione dell'immagine dovuto allo strumento Processo di formazione dell'immagine: aspetti radiometrici

12 Aspetti radiometrici Gli aspetti radiometrici si riferiscono alle modalità con le quali l’energia luminosa proveniente dalla scena interagisce con il sistema di formazione dell’immagine L’intensità luminosa f(x,y) proveniente da un oggetto può essere rappresentata come: i(x,y) è l’illuminazione proveniente dalla sorgente e r(x,y) la riflettanza dell’oggetto con

13 Aspetti radiometrici L’illuminazione è determinata dalle sorgenti luminose, mentre la riflettanza dipende dalle caratteristiche degli oggetti presenti La riflettanza può assumere valori compresi tra 0 (assorbimento totale) e 1 (riflettanza completa) Sorgente luminosai (candele) Luce solare9000 Cielo nuvoloso1000 Interno100 Oggettor Velluto nero0.01 Parete bianca0.80 Neve fresca0.93

14 Formazione immagini L’energia luminosa è rappresentata dalla funzione f( ,  ), mentre l’immagine registrata è descritta dalla g(x,y) La relazione che lega le due funzioni in generale è del tipo:

15 Formazione immagini La funzione h descrive come i punti ( ,  ) contribuiscono all’immagine nel punto (x,y) Essa congloba il comportamento dei vari componenti del sistema di acquisizione dell’immagine (lenti, collimatori, diaframmi, …) Supponendo che il processo di formazione sia lineare e invariante per traslazione, si ha:  La g(x,y) è ottenuta come convoluzione della f con la funzione h Un punto dell’immagine g(x,y) è ottenuto come media pesata dei contributi dei singoli punti di f ( ,  ); i pesi sono espressi dai valori della funzione h, che gode della proprietà di dipendere solo dalla distanza fra i punti ( ,  ) che entrano nell’operazione di media e il punto (x,y) in esame e non dalla posizione assoluta degli stessi.

16 Il rumore Le equazioni appena viste non tengono conto del rumore presente nel processo di formazione dell’immagine Riprendendo una serie di immagini statiche, ci si aspetta che i valori di g siano gli stessi in un determinato punto dell’immagine Si nota invece che i valori di g fluttuano attorno ad un certo valore Si dice che l’immagine g è affetta da rumore, che causa tali variabilità

17 Il rumore Le cause del rumore in un immagine sono molteplici: variabilità intrinseca nel campo di energia luminosa, rumore dell’apparato di acquisizione (rumore elettronico, interferenze, …) Si può quindi descrivere il processo di formazione come: La funzione che specifica con quale probabilità i valori di n(x,y) si verificano è la distribuzione normale (di Gauss)

18 Distribuzione gaussiana La distribuzione gaussiana ha la forma: dove  è la media e  lo scarto quadratico medio Tra  –  e  +  sono contenuti il 68% dei dati Tra  –3  e  +3  sono contenuti il 99.7% dei dati

19 Formazione dell’Immagine: il rumore Il rumore nelle immagini digitali si evidenzia in prevalenza come una certa granulosità o puntinatura monocromatica (luminance noise) e/o come puntini o macchioline colorate (chroma noise) evidenti soprattutto nelle aree uniformi come il cielo. Le cause del rumore: I segnali elettrici in uscita dal sensore non sono abbastanza ampi per poter essere utilizzati, quindi devono essere amplificati, e più i segnali sono deboli maggiore dovrà essere il grado di amplificazione. Ogni amplificazione comporta un aumento del segnale utile ma anche un aumento del rumore originale, più una certa quantità di rumore introdotto dal processo stesso. Un altro fenomeno che genera rumore è dovuto al fatto che un singolo pixel colpito dalla stessa quantità di luce in momenti diversi genera segnali di intensità diversa. Ciò comporta che pixel adiacenti stimolati in modo omogeneo danno segnali con una piccola variabilità statistica, che si traduce in una certa granulosità (rumore) nella immagine finale. Come se non bastasse, anche in assenza totale di luce i pixel producono un certo segnale di fondo (dark image) che genera rumore, a causa dell'agitazione termica.

20 Formazione dell’Immagine: il rumore Foto con rumore Solo rumore (diaframma chiuso) "dark image"

21 Analogico-Digitale La definizione classica di "analogico" e "digitale" è quella che segue: –Il segnale analogico è quello in cui sia continua la variazione nel tempo o nello spazio. –Il segnale digitale è quello in cui la variazione nel tempo o nello spazio avviene invece in modo discreto. La meridiana a sinistra segna non solo le ore, i minuti ed i secondi, ma anche ogni altro tipo di frazione vogliamo immaginare: i mezzi secondi, i decimi, i centesimi e così via. Per quanto possa essere difficile per l'occhio distinguere i vari istanti, noi sappiamo che la meridiana passa in modo continuo per ogni istante di tempo noi possiamo immaginare. Invece l’orologio in alto segnerà le ore, i minuti, ed i secondi, facendo scattare questi ultimi uno ad uno; noi non vediamo i mezzi secondi, i decimi e così via: dalle 10:10:01 alle 10:10:02 (per esempio) l'orologio segnerà sempre le 10:10:01

22 Immagini digitali I sistemi di formazione forniscono l’intensità luminosa nei vari punti dell’immagine sotto forma di segnali analogici Immagine digitale: rappresentazione numerica di un oggetto (immagine) La digitalizzazione è quel processo che consente di convertire il segnale analogico in segnale digitale L’immagine in forma digitale può essere elaborata tramite un calcolatore

23 Crescente diffusione di diverse tecniche di acquisizione (telecamere, scanner) e nuove tecnologie che generano immagini intrinsecamente digitali (tomografi, risonanza magnetica, radiografi digitali, satelliti per telerilevamento,... ) Immagine digitale pixel: I(x,y) = (v R,v G,v B ) Spazi di colore: Liv. grigio1 pixel = 1 byte = 8 bit (0,…,255) RGB 1 pixel = 3 byte (rosso verde blu) = 24 bit Immagini digitali

24 Digitalizzazione La digitalizzazione è formata da due diverse operazioni: campionamento e quantizzazione Il campionamento consiste nel rappresentare un segnale attraverso un numero limitato di campioni Il valore di ciascuno di questi campioni deve essere quantizzato, per poterli rappresentare con un numero limitato di cifre

25 Campionamento Cosa vuol dire allora campionare un segnale? Vuol dire trovare una rappresentazione discreta per qualcosa che in origine ha una variazione continua. Il primo problema pratico che si pone di fronte alla realizzazione di un campionamento, è di stabilire quante volte in un certo lasso di tempo o di spazio vada presa la misurazione del segnale perché: – il campionamento risulti accurato, –il segnale digitale risultante non abbia perso o mutato determinate caratteristiche del segnale originale.

26 Digitalizzazione Il campionamento di un’immagine consiste nel misurare, mediante un opportuno strumento, l’intensità luminosa media in ciascuno dei quadratini di una griglia sovrapposta all’immagine da digitalizzare. Campionamento Ai piccoli quadratini si dà il nome di pixel (picture element)

27 Digitalizzazione L’insieme dei valori medi di luminosità di ciascun pixel rappresenta l’equivalente numerico dell’immagine in esame. Ciascun pixel viene identificato da una posizione (riga, colonna) e da un livello di grigio

28 Quantizzazione dei grigi Effettuato il campionamento spaziale, resta da decidere quale intensità (livello di grigio) assegnare a ciascun campione La quantizzazione consiste nello stabilire dei livelli di decisione d 0, d 1, …, d k e rappresentare ciascun campione con il livello più vicino I livelli di grigio vengono rappresentati nel calcolatore mediante numeri interi compresi tra 0 e una potenza di 2 Se si utilizzano m bit per rappresentare un’immagine, allora si avranno a disposizione 2 m livelli di grigio: d k = 2 m

29 Digitalizzazione

30 Immagine digitale: rappresentazione numerica di un oggetto (immagine) Immagine digitale: funzione bidimensionale campionata e quantizzata (campionata tramite una griglia rettangolare e quantizzata in uguali intervalli di luminosità)

31 Immagini digitali Un’immagine digitale è caratterizzata quindi da due grandezze: Risoluzione spaziale (densità di campionamento): distanza tra i centri dei vari pixel, misurata in mm Risoluzione in livelli di grigio: numero di livelli di grigio in cui è stata quantizzata la luminosità

32 Campionamento Quale griglia di campionamento è ottimale per non perdere dettagli importanti dell’immagine? La scelta del passo di campionamento condiziona il risultato di tutte le operazioni effettuate sulle immagini digitali Intuitivamente: il pixel deve essere grande quanto i più piccoli dettagli degli oggetti che si vogliono osservare Teorema di Shannon: i passi di campionamento devono essere minori della metà delle dimensioni dei più piccoli oggetti presenti

33 Campionamento, esempio A.La classica sinusoide elementare: B.Scegliamo un dispositivo che prenda, in un certo lasso di tempo, un certo numero di campioni del segnale: ad esempio, 14 campioni per periodo della sinusoide: la sinusoide originaria è ancora intuibile, per cui è possibile ricostruirla e invertire il procedimento. C.Immaginiamo ora di dimezzare la frequenza del campionamento, ossia di raddoppiare il tempo tra una misurazione e l'altra: otterremo una serie di campioni meno fitta della precedente, la sinusoide è ancora intuibile ma è evidente che abbiamo perso parte dell'informazione originale T A B C tBtB tCtC

34 Campionamento, Teorema di Nyquist D.Dimezzando ancora, la situazione diventa quasi critica: è già molto difficile risalire al segnale originale. E.Dimezzando ulteriormente, si perde ogni traccia della sinusoide! D E Ogni segnale "a banda limitata" può essere campionato e perfettamente ricostruito a patto che il passo di campionamento sia almeno la metà del periodo minimo presente nel segnale e quindi che la frequenza di campionamento sia almeno il doppio della frequenza massima contenuta nella banda del segnale. Dunque che c'è un punto critico, al di sopra del quale il passo di campionamento non può salire (e la frequenza non può scendere), pena la perdita totale dell'informazione. Esiste un importantissimo teorema che ci aiuta a stabilire quale sia il punto critico: il Teorema di Shannon-Nyquist o anche Teorema fondamentale del campionamento. tDtD tEtE f =1/T

35 Applicazione Teorema Nyquist Proviamo ad applicare il teorema nello scegliere la rappresentazione spaziale del pixel –Innanzitutto dobbiamo capire che nell’immagine che vogliamo campionare ci deve essere un segnale di riferimento: in termini di immagini vuol dire che dobbiamo cercare nell’immagine l’oggetto più sottile che vogliamo risolvere, altrimenti non lo vediamo più –Stabilito l’oggetto più piccolo che vogliamo vedere dobbiamo scegliere un passo di campionamento pari alla metà delle dimensioni di questo oggetto per poterlo distinguere dallo sfondo. 1mm = 4 pixel 1 pixel = 0.25 mm 0.5 mm Qual è l’oggetto più piccolo che possiamo vedere? 1mm = 1 pixel 1 pixel = 1 mm 2 mm 1mm = 2 pixel 1 pixel = 0.5 mm 1 mm

36 Aliasing Se non si osservano le regole sul campionamento si presenta il fenomeno dell’aliasing I campioni sono stati scelti ad intervalli superiori alla lunghezza d’onda del fenomeno in esame Il segnale campionato non è fedele a quello analogico

37 Funzione delta di Dirac La funzione delta di Dirac  (x) ha le seguenti proprietà:

38 Campionamento spaziale Il campionamento spaziale, dal punto di vista matematico, è rappresentato dal prodotto tra la funzione f(x,y) e la funzione s(x,y), costituita da una sommatoria di funzioni di Dirac: Campioni prelevati nei nodi della griglia Le singole funzioni  sono centrate nei punti di campionamento (i  x,j  y)

39 Campionamento spaziale L’immagine campionata f c (x,y) vale: L’immagine digitale risulta quindi costituita dall’insieme dei campioni prelevati nei singoli nodi della griglia

40 Teorema di Shannon Il criterio quantitativo che permette di stabilire il passo di campionamento giusto per una data immagine è costituito dal teorema di Shannon Lo spettro di potenza dell’immagine campionata deve essere uguale a quello dell’immagine originaria Perché ciò succeda, i passi di campionamento in ciascuna direzione devono essere non superiori alla metà delle dimensioni degli oggetti più piccoli

41 Risoluzione spaziale

42 Quantizzazione dei grigi Tanto maggiore è il numero di bit usati per rappresentare i campioni, tanto più accurata è la rappresentazione Il rumore di quantizzazione è l’errore commesso che è tanto più elevato quanto più basso è il numero di livelli di grigio Quando il numero di bit è troppo basso appare il fenomeno dei falsi contorni Nella pratica si usano 8 bit per rappresentare le immagini in tono di grigio (256 livelli di grigio)

43 Risoluzione in livelli di grigio

44 Risoluzione in livelli di grigio Nell’immagine in alto a sinistra i livelli adoperati sono 256; procedendo da sinistra verso destra e dall’alto verso il basso essi vengono dimezzati per ciascuna immagine.

45 Risoluzione in livelli di grigio I livelli adoperati sono 16 nell’immagine in alto a sinistra. Procedendo da sinistra verso destra e dall’alto verso il basso essi vengono dimezzati per ciascuna immagine. L’immagine in basso a destra è pertanto quantizzata con due soli livelli (bitmap).

46 Alta o bassa risoluzione? Grande quantità di informazioni: –migliori dettagli spaziali –miglior visibilità di oggetti a basso contrasto I dispositivi di acquisizione e visualizzazione devono “supportare” le alte risoluzioni Minor spazio di archiviazione richiesto Operazioni più veloci: –acquisizione –elaborazione –visualizzazione Le immagini sono meno affette da rumore statistico

47 Modello di immagine digitale Alla fine del processo di digitalizzazione l’immagine digitale è rappresentata da una matrice di M  N numeri interi compresi tra 0 e 255: I valori di M e N sono legati al dispositivo di acquisizione dell’immagine (numero dei pixel del dispositivo)

48 Modello di immagine digitale Un altro modo per rappresentare una immagine è mediante un ordinamento lessicografico In tal modo si usa una notazione di rappresentazione vettoriale Colonna 1 Colonna 2 Colonna N

49 Modello di immagine digitale Con la notazione vettoriale si può riformulare il processo di formazione dell’immagine come: dove H è una matrice rappresentante la funzione h che descrive il sistema di acquisizione Con tale relazione, i campioni dell’immagine digitale sono espressi come semplice combinazione lineare dei valori del campo di energia luminosa dell’immagine originale Considerando anche il contributo del rumore, si ha:

50 Qualità delle immagini Oltre al rumore esistono altre cause che degradano un’immagine: distorsioni geometriche, cromatiche, sfuocamenti, … È necessario avere strumenti per valutare la qualità di un’immagine Esistono parametri di giudizio soggettivo e parametri di giudizio oggettivo –soggettivo: osservazione delle immagini da parte di un gruppo di persone che esprimono un giudizio di merito sull’immagine in esame –oggettivo: parametro quantitativo che esprime uno scostamento dell’immagine in esame rispetto ad un’immagine ideale

51 SNR, Rapporto Segnale Rumore S/N significa Signal to Noise ratio, ossia rapporto segnale/rumore della telecamera (e di conseguenza dell’immagine digitale ottenuta). SNR = S/N Cosa significa S/N Il rapporto segnale/rumore è indice della qualità del segnale della telecamera, in quanto rapporta il segnale fornito con gli inevitabili disturbi in esso presenti. Più alto il valore di S/N, più pulito sarà il segnale fornito dalla telecamera. L’SNR è un semplice modo per descrivere la "pulizia" di un dato segnale. E’ semplicemente la tensione di uscita divisa per il valore RMS del rumore.

52 SNR, esempio Una traccia oscilloscopica con un rapporto segnale/rumore di 100 ha una forma molto chiara con un rumore trascurabile. Un rapporto segnale/rumore di 10 produce un segnale ancora molto chiaro ma con un rumore ben visibile. Un rapporto di 3 è abbastanza cattivo e con 1 il segnale è quasi perso nel rumore stesso.

53 SNR, esempio Il quadrato è il segnale, il resto (fondo) dovrebbe essere omogeneo ed uniforme invece varia casualmente ed è rumore Nel primo caso il quadrato c'è si intuisce ma quasi non si vede Nel secondo caso il quadrato si vede meglio Nel terzo è molto più chiaro

54 SNR, conclusione E' importante ricordare che il rapporto segnale/rumore non caratterizza il detector in sè stesso: ad esempio, è possibile avere un rapporto segnale/rumore migliore per lo stesso detector semplicemente aumentando il livello del segnale incidente. Il rapporto segnale/rumore descrive realmente le condizioni alle quali si sta lavorando. Se state cercando di ottenere dati con un rapporto segnale/rumore di 3 non presterei fede ai vostri risultati tanto come se aveste un rapporto segnale/rumore di 30, o ancora meglio 300.

55 Immagini a colori Le immagini a colori sono rappresentate da 3 matrici, ognuna delle quali contiene le frazioni dei colori di base B G R

56 Esempio di sensore CCD Matrice di fotorivelatori a stato solido, cresciuti su una comune base di silicio. A ciascuno di questi microscopici rivelatori corrisponde un singolo elemento dell’immagine (pixel). Sensori CCD

57 Il CCD (Charge-Coupled Device) è nato presso i laboratori Bell di Murray Hill, New Jersey. Verso la fine del 1969, Boyle e Smith, ricercatori impegnati nella ricerca di nuovi metodi di acquisizione delle immagini tramite cristalli di silicio, trovarono quasi per caso il CCD. Il CCD è un dispositivo caratterizzato da una matrice di microscopiche regioni di forma quadrata o rettangolare, disposte a scacchiera sulla superficie di un cristallo di silicio, opportunamente trattato e integrato in un dispositivo chiamato microchip (tecnologia MOS). Tali regioni, molto sensibili alla luce, denominate pixel (picture element), sono ricavate direttamente nel silicio e disposte come mattonelle di un pavimento, troppo piccole per essere osservabili ad occhio nudo. DISEGNO DI UN MICROCHIP Sensori CCD

58 Per comprendere meglio il funzionamento di una camera CCD, possiamo grosso modo compararne l'aspetto ad una semplice macchina fotografica. In una macchina fotografica tradizionale la superficie del film esposta alla luce giace su un piano posto di fronte all'otturatore. Se sostituiamo il film con un sensore CCD ed equipaggiamo la nostra macchina con un'elettronica e un software capaci di registrare e riprodurre immagini digitali, otteniamo una camera CCD. La superficie del sensore è paragonabile a quella di un'emulsione fotografica: alla matrice dei pixel corrisponde i granuli di alogenuro d’argento dell'emulsione. Da notare la differenza nelle dimensioni del sensore: nelle camere CCD non professionali sono poche decine di millimetri quadrati rispetto agli 864 mm 2 del campo di una 24x36. Sensori CCD

59 La superficie di un'emulsione fotografica, vista al microscopio, è composta di grani, le cui dimensioni non sono tutte perfettamente uguali. Inoltre, i grani del film sono distribuiti in modo non del tutto uniforme. Invece i pixel del CCD sono tutti identici e sono disposti con assoluta regolarità lungo le colonne e le righe di una matrice quadrata o rettangolare. Quando si riprende un’immagine con una camera CCD, la luce, composta a sua volta dai singoli fotoni provenienti dall'oggetto inquadrato, viene “catturata” dalla superficie del sensore e ciascun pixel raccoglierà una quantità di luce proporzionale alla durata dell'esposizione e all'intensità del flusso luminoso incidente in quel punto. Sensori CCD

60 Il principio fisico su cui si basa tale dispositivo è l'effetto fotoelettrico. La struttura può essere riassunta in una superficie di dimensioni massime 6 x 6 centimetri, il cui costituente fondamentale è silicio, organizzata in una matrice di elementi, detti pixel, ciascuno costituito dall'elemento base di un CCD, il condensatore MOS (Metal Oxide Silicon). Il CCD: principio di funzionamento

61 Un CCD consiste in un circuito integrato formato da una riga, o da una griglia, di elementi semiconduttori (photosite) in grado di accumulare una carica elettrica (charge) proporzionale all'intensità della radiazione elettromagnetica che li colpisce. Questi elementi sono accoppiati (coupled) in modo che ognuno di essi, sollecitato da un impulso elettrico, possa trasferire la propria carica ad un altro elemento adiacente. Inviando al dispositivo (device) una sequenza temporizzata d'impulsi, si ottiene in uscita un segnale elettrico grazie al quale è possibile ricostruire la matrice dei pixel che compongono l'immagine proiettata sulla superficie del CCD stesso. Il CCD: principio di funzionamento

62 L’interazione dei fotoni con il CCD provoca la liberazione di elettroni per effetto fotoelettrico. Durante la fase di esposizione i fotoelettroni vengono accumulati in ciascun pixel. Quindi sulla superficie del sensore andrà formandosi una precisa mappa elettronica dell'immagine dell'oggetto ripreso. Il passo successivo consiste nel trasferimento della carica. La carica accumulata in ciascun pixel viene trasferita sequenzialmente, con l’ausilio di varie tecniche, ad un registro di lettura. Questa operazione viene effettuata manipolando in maniera sistematica la differenza di potenziale tra i pixel, in modo tale che il segnale costituito dagli elettroni si muova lungo i registri verticali da un pixel al successivo, come se viaggiasse su un nastro trasportatore. STRUTTURA DEL CCD PRINCIPIO DI FUNZIONAMENTO DI UN CCD

63 Il registro di lettura accumula una riga alla volta e quindi trasporta il pacchetto di cariche in modo sequenziale ad un circuito amplificatore interno. L'operazione finale, la rivelazione delle cariche, avviene quando i singoli pacchetti di cariche vengono convertiti in un voltaggio d'uscita. Il voltaggio di ciascun pixel può essere amplificato da un amplificatore esterno, codificato in modo digitale e “trasformato“ in una sequenza numerica di bit, ovvero in un ben determinato tono (livello) di grigio. L’immagine digitale così ottenuta, che prende il nome di light frame, sarà quindi trasferita in un computer e visualizzata su un monitor. PRINCIPIO DI FUNZIONAMENTO DI UN CCD

64 Dopo la chiusura dell'otturatore (1) il chip, che ha registrato nei singoli pixel le variazioni di carica dovute all'impatto dei fotoni, è pronto a trasmettere l'informazione (i pixel sono colorati in verde; le stelline rosse rappresentano le cariche generate dai fotoni). L'informazione contenuta nella prima riga di pixel si sposta simultaneamente nel registro seriale (2) dove viene raccolta ed inviata sequenzialmente all'uscita (3, 4). Quando il registro seriale si svuota, viene caricata la seconda riga di pixel e il processo riparte dal punto 2. Una volta che tutti i registri sono vuoti, l'otturatore può essere riaperto per cominciare la registrazione di una nuova immagine. PRINCIPIO DI FUNZIONAMENTO DI UN CCD

65

66 TIPOLOGIA DEI CCD La matrice di mxn pixels è organizzata in maniera diversa a seconda dello schema di trasferimento di carica adottato: Interline transfer Frame transfer Full frame transfer Interline transfer Nei CCD Interline Transfer, ad ogni colonna di elementi fotosensibili è associata una colonna adiacente di elementi schermati dalla luce (registri verticali). Alla fine del processo di integrazione, le cariche accumulatesi negli elementi fotosensibili sono istantaneamente trasferite nei registri verticali, per poi essere trasferite riga per riga, nel registro orizzontale di lettura del segnale di uscita del CCD. Lo shift delle cariche dai pixel ai registri verticali di lettura dura poco più di un microsecondo.

67 I CCD Frame Transfer presentano due aree strutturalmente identiche sulla superficie del sensore. Una, sensibile alla luce, è la zona dove si accumulano le cariche durante la posa; l’altra, schermata con una lamina metallica, è la memoria dove al termine del processo di integrazione sarà parcheggiata l’immagine dopo un trasferimento dall’area sensibile, della durata di 1-2 millesimi di secondo. Frame transfer CCD TIPOLOGIA DEI CCD

68 Full frame transfer CCD I CCD Full Frame Transfer hanno solamente l’area attiva. La lettura dell’immagine al termine dell’esposizione, avviene mediante trasferimento progressivo al registro di lettura del contenuto delle righe della matrice del sensore, dalla prima riga fino all’ultima. Questo processo dura in genere qualche decimo di secondo. Se l’area del sensore nel frattempo non è protetta dal flusso incidente dei fotoni, l’immagine finale sarà affetta da smearing, ossia da un alone provocato dal continuo assorbimento di energia luminosa. Tale inconveniente viene eliminato equipaggiando tali camere con otturatori elettromeccanici, in grado di schermare l’area attiva del sensore durante la lettura e il campionamento dell’immagine. TIPOLOGIA DEI CCD

69 CAMERE CON SENSORE CCD CURVE DI EFFICIENZA QUANTICA DI UN SENSORE CCD

70 Per raffreddare il CCD in modo da diminuirne il rumore termico si ricorre spesso ad un sistema di raffreddamento termoelettrico (Thermoelectric Cooling - TEC). Questo sistema consiste essenzialmente in una cella o elemento Peltier, formata da una o più giunzioni, in serie, di due materiali diversi; il passaggio di una corrente nella giunzione induce un trasferimento di calore da un materiale all’altro, raffreddandone uno e riscaldando l’altro: il sistema si comporta, in pratica, come una pompa di calore. DARK CURRENT

71 Il CCD viene attaccato al lato di raffreddamento della cella Peltier, la quale sottrae calore dal lato freddo e lo trasferisce al lato caldo, dove, affinché il sistema lavori correttamente, deve essere smaltito. Con le celle Peltier si può raggiungere al massimo una differenza di temperatura tra i due lati pari a circa 60 °C: di conseguenza la temperatura assoluta che può essere raggiunta dal lato freddo dipende da quella a cui si trova il lato caldo; per questo motivo è molto importante avere una buona dissipazione del calore sul lato caldo. DARK CURRENT

72 I CCD A COLORI I sensori CCD non hanno alcuna conoscenza cromatica della realtà: reagiscono ai fotoni liberando elettroni, senza essere, di fatto, in grado di distinguere fra le diverse lunghezze d’onda della luce. Una volta avvenuta la “conversione” di fotone in elettrone, ogni informazione sul colore del fotone che l’ha generato viene persa. Dunque un sensore CCD, almeno allo stato attuale, è un dispositivo rigidamente monocromatico ("vede" a livelli di grigio) e genera una tensione elettrica variabile in funzione della quantità di luce che lo raggiunge. Un convertitore analogico/digitale fa poi il resto: la tensione in uscita dal sensore CCD, trasmessa singolarmente per ogni pixel di cui è formato il dispositivo di acquisizione, viene convertita in formato numerico.

73 Maggiore è il numero di bit del convertitore, maggiore sarà il numero di sfumature effettivamente riconosciute durante l'acquisizione.

74 Per aggiungere cromaticità alle immagini si può ricorrere alla sintesi additiva. Attraverso una terna di filtri RGB e un sensore CCD monocromatico siamo in grado di riconoscere le singole componenti cromatiche primarie dell'immagine acquisita. Ovvero, una volta nota per ogni singolo pixel la quantità di rosso, di verde e di blu di cui la porzione d'immagine è formata, abbiamo un quadro piuttosto chiaro delle sue caratteristiche cromatiche. Nella sua accezione più semplice l'acquisizione a colori si riduce quindi ad effettuare tre singole esposizioni, anteponendo all'obbiettivo di ripresa un filtro rosso, un filtro verde e uno blu. Otteniamo in questo modo tre immagini monocromatiche che, opportunamente ricombinate tra loro, ripropongono l'immagine a colori corrispondente, o quasi, alla realtà. I CCD A COLORI

75 Un sistema di ripresa organizzato in questo modo crea diversi problemi. Primo tra tutti il fatto che fotocamera e soggetto ripreso, durante le tre esposizioni, devono rimanere assolutamente immobili. Per lo stesso motivo sarebbe impossibile realizzare telecamere a colori a CCD singolo, proprio in virtù del fatto che nulla è più movimentato di una ripresa video. L'ostacolo delle tre riprese successive si può aggirare più o meno facilmente utilizzando tre singoli sensori CCD, ognuno filtrato diversamente, oppure anteponendo ai singoli pixel una fitta rete di microfiltri RGB. I CCD A COLORI

76 L'immagine "letta" da un sensore CCD realizzato con questa tecnologia è a colori. Per ogni punto conosciamo sempre una delle tre caratteristiche cromatiche primarie (il rosso, il verde, oppure il blu) e le altre due possono essere facilmente interpolate ricorrendo ai pixel situati nell'intorno di quell'area, che sicuramente saranno filtrati anche secondo le componenti cromatiche mancanti. In figura sono presi due generici pixel del sensore (A e B) ed è schematizzata una basilare tecnica di interpolazione, che tiene conto solo ed esclusivamente dei punti adiacenti. I CCD A COLORI

77 Da segnalare che non è assolutamente casuale il fatto che siano presenti più elementi filtrati in verde rispetto a quelli filtrati in rosso e in blu (i primi sono esattamente il doppio dei secondi e dei terzi), in quanto la regione del verde è quella di maggiore sensibilità per il nostro apparato visivo ed è proprio in quella "zona" dello spettro visibile che riusciamo a riconoscere un numero maggiore di dettagli e di sfumature. Non si può generare un'immagine a colori da un singolo sensore CCD microfiltrato, senza ricorrere all'interpolazione software. E' possibile, però minimizzare il problema ricorrendo ad uno schema di funzionamento più sofisticato, come quello mostrato di seguito. I CCD A COLORI

78 Si basa sull'utilizzo di pixel rettangolari, di dimensione esattamente pari alla metà dei punti immagine che intendiamo acquisire. Secondo lo schema in figura, per ogni pixel della nostra immagine conosciamo il valore di due delle tre componenti cromatiche primarie, mentre quattro pixel nel suo intorno possono fornire informazioni circa la terza. Ad esempio, del pixel A conosciamo esattamente la quantità di rosso e di blu di cui è composto, mentre dai pixel identificati con la lettera B possiamo interpolare la componente verde. Lo stesso accade per il pixel C, di cui è nota la quantità di rosso e di verde, mentre il blu possiamo interpolarlo dai quattro pixel identificati dalla lettera D. I CCD A COLORI

79 Ma il vero "salto di qualità" si ha eliminando del tutto o minimizzando al massimo il meccanismo di interpolazione software dei punti colore. In questo caso, se non intendiamo effettuare più esposizioni con differenti filtri, è necessario ricorrere a 2 o a 3 sensori CCD utilizzati insieme. In figura è mostrato uno schema esemplificativo di una fotocamera digitale basata su due sensori CCD, nonché la soluzione di 3 sensori CCD, uno per componente primaria di sintesi additiva. I CCD A COLORI

80 E' evidente che nell'ultimo caso (3 CCD) non è necessario compiere alcuna operazione di interpolazione software di natura cromatica, in quanto di ogni pixel della nostra immagine conosciamo esattamente ognuna delle tre componenti cromatiche che identificano il rispettivo colore. Più interessante, dal punto di vista matematico, la situazione della coppia di sensori CCD, il cui schema di interpolazione è mostrato a lato. I CCD A COLORI

81 Dei due CCD disponibili (di pari risoluzione grafica), ad uno è demandato il compito di leggere tutti i pixel verdi dell'immagine, mentre l'altro si occupa delle componenti rosso e blu, secondo lo schema a scacchiera mostrato. E' evidente che in questo caso di ogni punto conosciamo sempre esattamente due componenti cromatiche e solo la terza dovrà essere interpolata. Ad esempio, del pixel A è noto il verde e il rosso (il blu è da interpolare), mentre del pixel B conosciamo il verde e il blu, lasciando al software il calcolo della componente rossa. Anche in questo caso la predominanza di pixel verdi (che essendo presenti sul 100% della superficie non necessitano di interpolazione alcuna) permette risultati interessanti in termini di risoluzione finale. I CCD A COLORI


Scaricare ppt "Immagini digitali Introduzione. Definizioni Immagine: rappresentazione di un oggetto ottenuta tramite una appropriata “illuminazione” Immagine: misura."

Presentazioni simili


Annunci Google