La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Misure dimensionali senza contatto.

Presentazioni simili


Presentazione sul tema: "Misure dimensionali senza contatto."— Transcript della presentazione:

1 Misure dimensionali senza contatto.
Sistemi di misura considerati: - SISTEMI AD INTERFEROMETRIA LASER - SISTEMI AD ULTRASUONI - SISTEMI A TRIANGOLAZIONE - SISTEMI CON ARRAY LINEARI - SISTEMI DI VISIONE Vantaggio: mancando il tastatore, i sistemi di misura senza contatto non inducono errori per effetto di carico. Se il corpo da misurare è caratterizzato da una flessibilità relativamente elevata ( es. corpo in gomma), l’errore per effetto di carico può essere non trascurabiile e di difficile valutazione se non si controlla la forza di contatto del tastatore. Esempi: misura dimensionale di un tappo in sughero, misura delle oscillazioni di una corda vibrante.

2 Misure dimensionali senza contatto.
Vantaggio: mancando il tastatore, i sistemi di misura senza contatto non inducono errori per effetto di carico. Di alcuni oggetti è definita la dimensione solo sotto un certo carico Vantaggio: mancando il tastatore, i sistemi di misura senza contatto non inducono errori per effetto di carico. Se il corpo da misurare è caratterizzato da una flessibilità relativamente elevata ( es. corpo in gomma), l’errore per effetto di carico può essere non trascurabiile e di difficile valutazione se non si controlla la forza di contatto del tastatore. Esempi: misura dimensionale di un tappo in sughero, misura delle oscillazioni di una corda vibrante.

3 - SISTEMI AD INTERFEROMETRIA LASER

4 Gli strumenti che permettono di tarare i blocchi piano-paralleli con incertezze dell’ordine dei 100 nm sfruttano comunemente il principio dell’interferometria. Facendo interferire due raggi di luce coerente e monocromatica e polarizzata i fronti d’onda dei campi elettrico e magnetico vengono a sommarsi e si genera un’attenuazione od un’esaltazione dell’intensità luminosa in funzione dello sfasamento relativo. Gli strumenti di misura dimensionale o di spostamento vengono tarati con le seguenti tecniche: per confronto con altro strumento di classe superiore mediante blocchi sonda piano-paralleli il cui spessore e la cui planarità é nota con accuratezza di un ordine di grandezza superiore Gli strumenti che permettono di tarare i blocchi piano-paralleli con incertezze dell’ordine dei 100 nm sfruttano comunemente il principio dell’interferometria Facendo interferire due raggi di luce coerente e monocromatica i fronti d’onda dei campi elettrico e magnetico vengono a sommarsi e si genera un’attenuazione od un’esaltazione dell’intensità luminosa in funzione dello sfasamento relativo

5 Si consideri il solo campo elettrico E in un dato punto dello spazio:
1 2 E E 1 2 t E sin I tot 1 2 I

6 Sviluppando le relazioni si ottiene:
I 1 cos F 2 t G

7 Poiché l’occhio umano é sensibile alla sola componente continua dell’intensità, come gran parte dei dispositivi optoelettronici, si ha: I 1 cos

8   E  sin kx   t B cos    
L’equazione d’onda di un campo elettromagnetico è: E sin kx t B cos     Lo sfasamento tra due sorgenti laser può essere dovuto ad un diverso cammino x oppure ad un diverso istante di emissione t.

9 E 1 2 Nei sistemi di misura dimensionale si sfrutta il diverso cammino tra i raggi riflessi dalla superficie del blocco e da una superficie semi- riflettente di riferimento. d 1 d 2 E 1 sin t kd 2 k d

10 E’ possibile misurare con estrema accuratezza l’altezza H di un blocco disponendolo su di una superficie di riferimento leggermente inclinata ed osservando le linee di interferenza che si generano. H fulcro micrometro

11 Le linee di interferenza coincidono se H é un multiplo intero di mezza lunghezza d’onda.
r 2 Se la dimensione H é un multiplo intero di mezza lunghezza d’onda utilizzata, le linee di interferenza coincidono. Altrimenti saranno sfasate proporzionalmente al fattore r che indica di quanto la dimensione H si discosta dall’essere multiplo di mezza lunghezza d’onda. H n 2 r , 1

12 P 2 1 I Avendosi un’alternanza di interferenza costruttiva e distruttiva si generano linee scure intervallate da linee più chiare. L’origine delle linee di interferenza risiede nella differenza di sfasamento in corrispondenza delle due quote Avendosi un’alternanza di interferenza costruttiva e distruttiva si generano linee scure intervallate da linee più chiare.

13 Utilizzando fonti luminose a diversa lunghezza d’onda e misurando lo sfasamento tra i due sistemi di righe d’interferenza é possibile eliminare l’ambiguità di fase e quindi avere una misura della dimensione H con incertezza di risoluzione pari a Min 2

14 Con lo stesso principio è possibile paragonare le quote di blocchi di taratura utilizzando un terzo blocco poggiato sulla superficie dei primi due contando le frange di interferenza che si generano a causa della diversità di quota si misura la differenza di altezza

15 - SISTEMI AD ULTRASUONI

16 D La misura avviene tramite la lettura del tempo che un’onda di pressione ultrasonica impiega a percorrere due volte lo spazio D. Per avere una buona direzionalità si utilizzano frequenze superiori al MHz. Se le caratteristiche ottiche dell’oggetto non consentono di sfruttare metodi ottici (ad esempio nel controllo dimensionale di lenti) si possono utilizzare gli ULTRASUONI. La misura avviene tramite la lettura del tempo che un’onda di pressione ultrasonica impiega a percorrere due volte lo spazio D. Per avere una buona direzionalità si utilizzano frequenze superiori al MHz.

17 - SISTEMI A TRIANGOLAZIONE

18 Si utilizzano sensori detti a triangolazione ottica
laser lente PSD D Si utilizzano sensori detti a triangolazione ottica un raggio laser viene puntato sull’oggetto. La luce diffusa viene raccolta da una lente che focalizza su punti diversi di un fotorivelatore (es. PSD) in funzione della distanza D. Un sistema di visione cerca di riprodurre alcuni meccanismi percettivi e di elaborazione delle informazioni tipiche del sistema occhi-cervello. Tramite i sistemi di visione si generano immagini digitali che possono essere utilizzate anche per ottenere informazioni riguardanti le dimensioni di un oggetto.

19 Utilizzando il principio della triangolazione la misura avviene tramite la conoscenza della distanza tra i due riferimenti fissi D e la misura delle due distanze relative a e b. s = D - a - b D a b Quando le caratteristiche superficiali dell’oggetto non consentono una buona riflessione si può sfruttare un array di fotodiodi sui quali punta una lama di luce laser interponendo l’oggetto di cui si vuol misurare la dimensione alcuni elementi appartenenti all’array verranno oscurati La lettura del numero di elementi oscurati fornirà una misura della dimensione ortogonale al fascio laser

20 - SISTEMI CON ARRAY LINEARI

21 n=4 D fascio laser d La dimensione D é proporzionale al numero di pixel n non eccitati dalla luce laser. Conoscendo la dimensione d del pixel si ricava la misura D: D n d

22 Con tale tecnica si opera una discretizzazione della lunghezza pari alla dimensione longitudinale media dei singoli elementi dell’array. La misura é quindi affetta da un’errore di risoluzione. D n d d D errore

23 - SISTEMI DI VISIONE

24 I SISTEMI DI VISIONE Un sistema di visione cerca di riprodurre alcuni meccanismi percettivi e di elaborazione delle informazioni tipiche del sistema occhi-cervello. Tramite i sistemi di visione si generano immagini digitalizzate. Un sistema di visione cerca di riprodurre alcuni meccanismi percettivi e di elaborazione delle informazioni tipiche del sistema occhi-cervello. Tramite i sistemi di visione si generano immagini digitali che possono essere utilizzate anche per ottenere informazioni riguardanti le dimensioni di un oggetto.

25 Nella figura si può notare la telecamera (1) vincolata ad un supporto dotato di 6 gradi di libertà (tre possibili spostamenti e tre rotazioni); al supporto è collegato il sistema di illuminazione (2) consistente in due lampade ad incandescenza. Il pezzo da misurare (3) è appoggiato al piano di ripresa (4) dotato di reticolo per la taratura del sistema. Il segnale analogico in uscita della telecamera è acquisito dalla scheda digitalizzatrice (frame-grabber) situata nel computer (8); in tal modo l'immagine digitalizzata non è più soggetta a possibile degradazione della qualità nelle successive fasi di manipolazione, quali duplicazione, trasmissione etc. . Il computer è comandato da tastiera o mouse (7) tramite un menu di comandi visualizzati su un monitor (5). L'immagine acquisita direttamente della telecamera o l'immagine elaborata dal computer è evidenziata dal monitor (6). Esistono programmi che permettono di sovraimporre al piano immagine del monitor (6) un piano grafico che illustra le elaborazioni eseguite (per esempio visualizzazione di istogrammi, intensità di livelli di grigio relativi ad una linea etc.) durante la fase di elaborazione dell'immagine.

26 Telecamera Computer Immagine analogica Immagine digitale Immagine
reale Telecamera Computer Sistema di illuminazione digitalizzatore (frame grabber) Immagine digitale Immagine digitale Immagine elaborata I principali componenti del sistema di visione possono essere schematizzati nella figura.E’ messa in evidenza la trasformazione fra immagine reale dell'oggetto da misurare, l'immagine analogica in uscita dalla telecamera, l'immagine digitalizzata dal frame-grabber, l'immagine elaborata dal computer e l'informazione ottenuta dal sistema di visione. A seconda del tipo di analisi, quest'ultima può essere utilizzata per diverse applicazioni. controllo e guida analisi dimensionale Identificazione di parti Ispezione

27 Telecamera Immagine analogica sensore vidicon, CCD o CID elettronica
ottica I componenti principali di un sistema di visione sono la telecamera, ed il computer con la scheda digitalizzatrice (frame-grabber). La telecamera: è il sensore della catena di misura ed è l'equivalente elettronico dell'occhio umano. Consiste di tre elementi principali: l'ottica, il sensore e l'elettronica ad esso associata. La figura 3 rappresenta schematicamente i componenti di una telecamera ed evidenzia il primo passaggio da immagine reale ad immagine analogica, caratteristico dei sistemi di visione. L'ottica è composta da un diaframma e da uno o più gruppi di lenti che permettono di focalizzare l'immagine sul piano del sensore; parametri caratteristici delle ottiche sono la lunghezza focale e l'apertura massima del diaframma. La diversa lunghezza focale permette di variare l'ampiezza dell'angolo del cono ottico di ripresa dell'immagine. Esistono ottiche a focale fissa oppure di tipo zoom, ottiche macro o micro, eventualmente interfacciate ad opportuni tubi di prolunga o soffietti con slitte per poter ingrandire opportunamente gli oggetti. Gili elementi sensibili sono di diversi tipi e possono essere classificati per dimensione (sensori puntuali, lineari, planari o di volume), per sensibilità a diverse lunghezze d'onda della luce (raggi-X, ultravioletto, visibile, bianco-e-nero, infrarosso) o per caratteristiche di acquisizione del segnale (CCD, CID, vidicon). Immagine reale

28 immagine analogica computer digitalizzatore fuori linea Hardware di
(frame grabber) Hardware di elaborazione buffer database immagine digitale software di elaborazione software specifico Un computer consiste generalmente di: 1) scheda digitalizzatrice (frame-grabber) che è in grado di acquisire il segnale analogico della telecamera e di trasferirlo in forma digitale al computer; si possono avere schede digitalizzatrici più avanzate, dotate di processore interno che oltre a convertire il segnale lo elaborano e lo trasferiscono in un buffer di memoria (frame-buffer). 2) buffer: l'immagine digitalizzata può essere memorizzata in un buffer di memoria utile per le successive elaborazioni e confronti; 3) software specifico per l'elaborazione dell'immagine: questo varia notevolmente a seconda del tipo di elaborazione da effettuare. 4) hardware di elaborazione che consiste nei componenti tradizionali di un computer quali RAM, ROM, etc. . 5) computer fuori linea: in alcuni casi, se l'elaborazione di immagini richiede una notevole mole di operazioni, può essere conveniente utilizzare un computer parallelo col compito di elaborare l'immagine acquisita, eventualmente confrontandola con un'immagine campione residente in un data base tramite un software specifico. immagine elaborata Informazione

29 Le immagini possono essere classificate, nel modo seguente:
Si definisce IMMAGINE una misura dell'intensità luminosa emessa da corpi nello spazio. Le immagini possono essere classificate, nel modo seguente: - una sequenza di immagini in movimento; - una singola immagine a colori; - una singola immagine B/N con diversi valori di livello di grigio (l.g.); - una singola immagine B/N a due soli l.g. L'immagine è composta da un numero discreto di elementi detti pixels. L’Immagine è una misura dell'intensità luminosa emessa da corpi nello spazio; essa può essere definita come una rappresentazione in grado di interfacciarsi correttamente col sistema visivo umano (occhio) o elettronico (telecamera). Dato che un'immagine è la proiezione su un piano di una scena tridimensionale, e quindi è soggetta a trasformazioni geometriche (proiezioni prospettiche), è necessaria una successiva elaborazione per avere il riferimento al corpo nello spazio. L'uomo è in grado, tramite la comparazione di due immagini della stessa scena acquisite da punti di vista diversi, di ricostruire la scena tridimensionale; tali operazioni invece sono assai più limitate in un sistema di visione artificiale. Le immagini possono essere classificate, dal caso più complesso al più semplice nel modo seguente: - una sequenza di immagini in movimento (per esempio le vibrazioni di una corda tesa); - una singola immagine a colori(RGB) oppure 3 immagini B/N ciascuna relativa ad uno dei colori principali ( rosso, giallo, blu); - una singola immagine B/N con diversi valori di livello di grigio (l.g.); - se l'informazione principale è contenuta nella forma degli oggetti rappresentati, la determinazione del contorno trasforma l'immagine a due soli l.g. (per esempio oggetto bianco su fondo nero); - separando i diversi oggetti si ottengono più immagini di un solo oggetto. L’'immagine è composta da un numero discreto di elementi detti pixels. Se l'immagine è in B/N l'intensità di ciascun pixel è detta livello di grigio (l.g.) ed è memorizzata nella ram video utilizzando da 1 a 8 bits per l.g. .

30 La risoluzione relativa ad un'immagine dipende da due grandezze:
- il numero di pixel che compongono l'immagine (risoluzione spaziale); - il numero di gradazioni di diversi l.g. relativi a ciascun pixel (risoluzione cromatica). La risoluzione relativa ad un'immagine dipende da due grandezze: - il numero di pixel che compongono l'immagine (risoluzione spaziale); - il numero di gradazioni di diversi l.g. relativi a ciascun pixel (risoluzione cromatica). Il numero di diverse gradazioni di l.g. varia da 2 a 256, in funzione del numero di bits con cui viene memorizzato il singolo valore di l.g. . Un sistema di visione con sensibilità ai colori simile a quelli che percepisce l'occhio umano dovrebbe essere composto di tre telecamere (per esempio una sensibile al rosso, una al giallo e una al blu), ciascuna con sistema di memorizzazione ad almeno 6 bit (l'occhio umano infatti è in grado di distinguere circa 60 L.G).

31 Le immagini vengono acquisite in matrici rettangolari con un numero variabile di righe e colonne; per esempio si trovano matrici da x 512 elementi. Se i dati vengono acquisiti in 20 ms, corrispondenti alla frequenza di 50 Hz dello standard europeo sarebbe necessaria una RAM di 6,554 Mbytes/s. Non è ovviamente facile per un sistema di visione riuscire a gestire una tale mole di dati. Le immagini vengono acquisite in matrici rettangolari con un numero variabile di righe e colonne; generalmente si trovano in commercio sensori con matrici da 512 x 512 elementi (ma si può arrivare a 4096 x 4096), per un totale di ( ) pixels che devono essere memorizzati nella RAM video fino a 8 bits/pixel. Nel caso di 8 bits/pixel, si hanno quindi (o ) bits o ( ) bytes. Se i dati vengono acquisiti in 20 ms, corrispondenti alla frequenza di 50 Hz dello standard europeo CCIR (oppure a 60 Hz seguendo lo standard USA NTSC), è necessaria una RAM di 6,554 (419,430) Mbytes/s. Non è ovviamente facile per un sistema di visione artificiale riuscire a gestire una tale mole di dati. Perché allora i sistemi di visione sono così diffusi ed in continua espansione se richiedono la gestione di tale volume di dati? la risposta è semplice: è possibile eseguire misure senza contatto; i vantaggi di poter localizzare e controllare oggetti senza toccarli sono spesso così schiaccianti che si è forzati a scegliere soluzioni con sistemi di visione; per esempio si pensi al vantaggio di poter eseguire il controllo dimensionale in una linea di produzione in cui gli oggetti si trovino allo stato plastico o siano composti di materiale deformabile (gomma) senza la necessità di farli toccare da un tastatore. Inoltre la quantità di informazioni che un sistema di visione può fornire è certamente superiore a qualsiasi altro sistema di misura (per esempio è possibile misurare le dimensioni di un componente pressofuso e contemporaneamente misurarne la sua temperatura superficiale in base all'intensità di radiazione infrarossa emessa).

32 Le variabili da considerare in un'immagine sono:
-1) l'illuminazione: a ciascun pixel dell'immagine viene assegnato un valore numerico corrispondente all'intensità luminosa della scena. -2) il contrasto: viene definito come la differenza tra il massimo ed il minimo l.g. presente in un'immagine; 3) la frequenza spaziale di un'immagine è legata qualitativamente al livello di dettaglio della stessa; Le variabili da considerare in un'immagine sono: 1) l'illuminazione: a ciascun pixel dell'immagine viene assegnato un valore numerico corrispondente all'intensità luminosa della scena. A differenza dell'occhio umano, nei sistemi artificiali, grandi variazioni del livello di luminanza medio non ben tollerati; per superare parzialmente il problema, si utilizza un dispositivo antropomorfo, il diaframma. 2) il contrasto: viene definito come la differenza tra il massimo ed il minimo l.g. presente in un'immagine; per esempio se un'immagine ha un basso contrasto, essa tende ad assumere un grigio quasi uniforme ed i dettagli tendono a scomparire. 3) la frequenza spaziale di un'immagine è legata qualitativamente al livello di dettaglio della stessa; ad esempio nel caso di immagini sfuocate e quindi con basso livello di dettaglio, la frequenza spaziale sarà spostata più verso il basso rispetto alle frequenze della stessa immagine a fuoco. La frequenza spaziale di un'immagine si ottiene eseguendo la trasformata di Fourier bidimensionale dei valori della matrice di pixels relativa all'immagine in esame.

33 -7) l'ampiezza del campo visivo e la risoluzione spaziale.
-4) il movimento: di oggetti nell'immagine con sensore fermo o del sensore con oggetti fermi. -5) il colore. -6) la disparità binoculare:i sistemi di visione sono in grado di elaborare immagini tridimensionali solo in particolari casi semplici. -7) l'ampiezza del campo visivo e la risoluzione spaziale. -4) il movimento: possono considerarsi due diversi tipi di movimento: -a) movimento di oggetti nell'immagine con sensore fermo; -b) movimento del sensore con oggetti fermi. Questi due tipi di movimento sono elaborati in modo diverso a seconda della tipologia di elemento sensibile. -5) il colore: sistemi di visione artificiali possono rilevare diversi campi di lunghezze d'onda compreso infrarosso e ultravioletto. Un sistema di visione composto di tre telecamere B/N ciascuna delle quali dotata di filtri in grado di acquisire principalmente un colore primario è in grado di memorizzare un'immagine a colori RGB. -6) la disparità binoculare: gli animali sono provvisti di due occhi per ricostruire immagini tridimensionali dall'analisi comparata di due immagini bidimensionali acquisite da due diversi punti di vista. Attualmente i sistemi di visione artificiale sono in grado di acquisire ed elaborare immagini tridimensionali solo in particolari casi semplici data la complessità di operazioni necessarie a tale elaborazione. -7) l'ampiezza del campo visivo e la risoluzione spaziale: in un sistema di visione deve essere ottimizzato in funzione del tipo di immagine che esso dovrà acquisire. L'ottimizzazione inizia dalla scelta dell'ottica con un campo visivo avente un angolo maggiore di circa il 20% rispetto all'angolo di vista dell'oggetto da acquisire.

34 Tipi di illuminazione in base alla posizione:
La qualità di un'immagine dipende dal tipo di illuminazione utilizzata. Tipi di illuminazione in base alla posizione: 1) illuminazione frontale. 2) illuminazione laterale. 3) sorgente luminosa dietro l'oggetto. 4) luce strutturata. La qualità di un'immagine dipende dal tipo di illuminazione utilizzata per il particolare sistema di visione. Il campo di lunghezze d'onda della sorgente luminosa deve essere scelto in funzione delle caratteristiche di acquisizione del particolare elemento sensibile. Si possono elencare i tipi di illuminazione in base alla loro posizione rispetto all'oggetto: 1) illuminazione frontale: una singola sorgente di luce è posta nelle vicinanze della telecamera. Essa è usata soprattutto nell'acquisizione di superfici piane quali grafici o documenti. 2) illuminazione laterale: due o più sorgenti luminose sono disposte in modo tale da minimizzare le ombre di corpi tridimensionali. 3) sorgente luminosa dietro l'oggetto: in questo caso l'immagine del profilo dell'oggetto risulta contrastato al massimo. E' utilizzata nelle misure dimensionali o nel controllo dell'eventuale presenza di bordi. 4) luce strutturata: consiste generalmente in piani di luce incidenti l’oggetto.

35 Esempio di luce strutturata
Esempio di luce strutturataper misure utilizzato per misurare anche l’altezza di un oggetto. Un piano di luce ottenuto tramite sorgente diluce laser e lente cilindrica illumina una porzione dell’oggetto. La telecamera, postain direzione ortogonale al piano di appoggio, acquisisce una linea spezzata che permette di calcolare l’altezza dell’oggetto se è nota l’orientazione della lama di luce.

36 CARATTERISTICHE DEL SEGNALE
Il segnale di ingresso è la luminanza della scena acquisita dalla telecamera. Si ha: d2F = L dA cos  La luminanza o brillanza L del punto P della superficie dA, nella direzione x è definita come il flusso di energia raggiante, nell'angolo solido d CARATTERISTICHE DEL SEGNALE In un sistema di visione il segnale di ingresso è la luminanza* della scena acquisita dalla telecamera. Sia P un punto di una superficie di un corpo radiante; dA l'area dell'elemento di superficie circostante P; x una direzione uscente da P; a l'angolo che x forma con la normale alla superficie dA, diretta verso il sensore ottico. Sia d2F il flusso di energia raggiante uscente da dA all'interno dell'angolo solido d. Detta (dA cos) l'area apparente corrispondente a dA, vista dal sensore nella direzione x, si ha: d2F = L dA cos  d . La luminanza L del punto P della superficie dA, nella direzione x è definita come il flusso di energia raggiante, nell'angolo solido dw. La luminanza è detta anche brillanza; la luminanza energetica o radianza è riferita ad unità energetiche (nel SI:watt); la luminanza luminosa è invece riferita ad unità fotometriche (nel SI: lumen). La luminanza delle varie porzioni di corpi in esame eccita diversamente i corrispondenti pixels (picture elements) del sensore ottico che forniscono in uscita un segnale corrispondente. Ciascun pixel quindi acquisisce un particolare valore di luminanza; tutti i pixels della matrice del sensore ottico forniscono un insieme di valori, memorizzati nel computer, che forniscono l'uscita del sistema di visione o immagine digitalizzata.

37 Il segnale di uscita di un sistema di visione è quindi duplice:
- a) posizione dei pixel nella matrice; - b) luminosità di ciascun pixel. Alla luminanza, in ingresso, della particolare area del corpo compresa nel campo di vista del singolo pixel nella matrice, corrisponde, un segnale di uscita che consiste in un determinato valore di luminanza del pixel stesso. Il segnale di uscita di un sistema di visione è quindi duplice: - a) posizione dei pixel nella matrice; - b) luminosità di ciascun pixel. Nelle diverse applicazioni può risultare primaria l'uscita relativa alla posizione o alla luminanza; molto spesso l'informazione di misura è ottenuta da un'opportuna combinazione dei due tipi di uscita. Ad esempio nell'analisi dimensionale di corpi, si misura il numero di pixel compreso fra due o più posizioni specifiche nella matrice dell'immagine digitalizzata; nelle misure di temperatura invece si misura il valore di luminosità o livello di grigio di uno o più pixels in una particolare zona di interesse della matrice digitalizzata.

38 - Il numero di pixel che costituiscono un'immagine.
RISOLUZIONE La risoluzione dell'immagine, definita come la più piccola variazione di posizione o di luminanza dell'oggetto (ingresso) in grado di fornire una variazione dei valori dell'immagine digitalizzata (uscita), dipende da due condizioni: - Il numero di pixel che costituiscono un'immagine. - Il numero di bits per ogni pixel, assegnati a descrivere il numero di possibili gradazioni di L.G.. RISOLUZIONE La risoluzione dell'immagine, definita come la più piccola variazione di posizione o di luminanza dell'oggetto (ingresso) in grado di fornire una variazione dei valori dell'immagine digitalizzata (uscita), dipende da due condizioni: - Il numero di pixel che costituiscono un'immagine. Ad esempio un sensore con 1024 x 1024 pixels avrà, a parità di altre condizioni, doppia risoluzione spaziale rispetto ad un sensore con 512x512 pixels. Si noti che il numero di pixel aumenta col quadrato della risoluzione. - Il numero di bits per ogni pixel, assegnati a descrivere il numero di possibili gradazioni di L.G.. Immagini digitalizzate con 1 bit/pixel vengono quindi memorizzate con due soli L.G. (bianco e nero); immagini digitalizzate con 8 bit/pixel vengono memorizzate con 256 gradazioni di L.G. . Si supponga, ad esempio, di acquisire un oggetto di dimensioni di 10 mm, a tutto campo, in un'immagine, digitalizzata con 512 x 512 pixel e due L.G. . La risoluzione spaziale r, sarà pari alla dimensione di un pixel nell'immagine, quindi: r = 10 mm / 512 = 19,5 mm.

39 la distanza d corrisponde al numero di pixel q compresi fra il bordo sinistro e destro, moltiplicati per la larghezza media dei pixel Lp: d = q Lp Se non si utilizzano particolari tecniche volte a migliorare la precisione di misura, la distanza d ricercata corrisponde al numero di pixels (q-0,5) (0,5 per tener conto del fatto che la linea teoricamente giace al centro del pixel p-esimo), compresi fra il bordo sinistro edestro, moltiplicati per la larghezza media dei pixel lp: d = q lp

40 telecamera Esempio: in figura è riportato uningrandimento di una porzione di immagine digitalizzata in cui compare una linea verticale chiara su sfondo scuro; il grafico sottostante corrisponde ai diversi valori di L.G. di una linea orizzontale che attraversi la porzione di immagine.

41 La risoluzione nelle misure di distanze può essere migliorata se si tiene conto dell'intensità dei L.G. di pixel adiacenti utilizzando tecniche di tipo sub-pixel. Esse si basano sul calcolo dei momenti dell'intensità di L.G. di ordine maggiore o uguale ad u. La risoluzione nelle misure di distanze può essere migliorata se si tiene conto dell'intensità dei L.G. di pixel adiacenti utilizzando tecniche di tipo sub-pixel. Tecniche di questo tipo si basano sul calcolo dei momenti dell'intensità di L.G. di ordine maggiore o uguale ad un. Ad esempio si voglia migliorare la accuratezza di misura utilizzando una tecnica sub-pixel basata sul calcolo del momento del primo ordine nell'immagine della figura precedente; il bordo è definito da una linea chiara su uno sfondo scuro e si può calcolare la sua posizione ricorrendo alla valutazione del momento del primo ordine delle posizioni dei pixel con relative intensità di L.G.. Utilizzando l'analogia delle forze, l'insieme delle intensità di L.G. dei pixels possono essere sostituite un insieme di forze di pari intensità.

42 S = Si i x (L.G.)i i = p-2, p-1, p, p+1, p+2 q = S / F
F = Si (L.G.)i q = S / F d = (q-0,5) x lp ± ip Utilizzando l'analogia delle forze, l'insieme delle intensità di L.G. dei pixels possono essere sostituite un insieme di forze di pari intensità. Si può calcolare il momento statico delle forze M relative ai 5 pixels di maggiore intensità: S = Si i x (L.G.)i i = p-2, p-1, p, p+1, p+2 La somma delle forze F risulta essere: F = Si (L.G.)i e quindi il baricentro q delle forze risulta: q = S / F La distanza d ricercata è il numero (q-0,5) di pixels moltiplicato per la larghezza media dei pixel lp: d = (q-0,5) x lp ± ip essendo l'incertezza di risoluzione ip valutabile intorno a ±0,1 lp. Nel caso in cui il bordo dell'oggetto da misurare sia definito definito da un'area chiara su uno sfondo scuro, il calcolo del momento statico non è più applicabile. In tali casi risulta quindi necessario operare preventivamente sull'immagine calcolandone ad esempio la sua derivata prima col metodo di Sobel o applicare una tecnica di sogliatura. Tecniche più sofisticate di tipo sub-pixel utilizzano una combinazione di momenti di ordine 1°, 2° e 3° e permettono in tal modo di ridurre l'incertezza di risoluzione anche di un fattore 20.

43 SENSIBILITA’ La sensibilità statica assoluta è definita come la derivata della posizione del punto luce nella matrice di pixels o del livello di luminosità del pixel (grandezze di uscita) rispetto alla variazione di posizione o luminanza dell'oggetto visualizzato (grandezza di ingresso). La sensibilità spaziale ha dimensioni di [pixel/m]. La sensibilità statica assoluta è definita come la derivata della posizione del punto luce nella matrice di pixels o del livello di luminosità del pixel (grandezze di uscita) rispetto alla variazione di posizione o luminanza dell'oggetto visualizzato (grandezza di ingresso). Nelle misure di posizione, trascurando l'effetto di possibili distorsioni, la sensibilità può nella maggior parte dei casi ritenersi costante, pari al rapporto fra il numero di pixels compresi tra due punti luce nell'imagine acquisita e la loro reale distanza. La sensibilità spaziale ha quindi dimensioni di [pixel/m]. Per migliorare la sensibilità spaziale di un sistema di visione è opportuno ingrandire il più possibile l'immagine per aumentare al massimo il numero di pixels compresi fra i due punti luce.

44 TARATURA E’ un’operazione complessa a causa delle distorsioni elettro-ottiche che si manifestano in forma più o meno evidente in funzione dell’accuratezza richiesta e del tipo di sistema di visione utilizzato. La taratura di un sistema di visione è molto spesso complessa a causa delle distorsioni sia di tipo ottico che di tipo elettronico che si manifestano in forma più o meno evidente a seconda del tipo di sistema di visione. Di conseguenza aree uguali (pixels), in posizioni diverse nell'elemento sensibile, possono corrispondere ad aree di dimensioni diverse nell'immagine. I valori di livelli di grigio (L.G.) relativi a ciascun pixel non sono stabili anche nel caso di acquisizione di immagini stazionarie perché dipendono da diversi fattori. Tra essi è da ricordare il rumore elettronico difficile da eliminare completamente; solitamente per ridurre tale rumore si utilizza un sistema di illuminazione intenso in modo da aumentare il contrasto dell'immagine. Se l'elemento sensibile acquisisce una nuova immagine con caratteristiche di illuminazione sensibilmente diverse dalla precedente, il segnale in uscita risulta abbastanza stabile solo dopo un transitorio di qualche secondo in cui i L.G. variano anche notevolmente a causa della possibile saturazione dei pixels adiacenti.

45 Taratura di sistemi 2-D TARATURA DI SISTEMI 2-D
Le distorsioni ottiche dipendenti dal tipo di obiettivo utilizzato per focalizzare l'immagine sull'elemento sensibile, sono denominati fenomeni di non-linearità puntuale; fra questi, le distorsioni di tipo geometrico sono assai importanti perché possono alterare le misure dimensionali. Questo tipo di distorsioni, nel caso bidimensionale, alterano la posizione di punti nel piano. Esempi tipici sono l'effetto cuscino e l'effetto barile, molto evidenti nelle telecamere con tubo vidicon e negli schermi a tubo a raggi catodici. Ad esempio una griglia di punti, vedi figura a, in seguito ad una distorsione a cuscino, vedi figura b, presenterà i lati esterni curvati con gli spigoli più distanti dal centro dell'immagine, mentre la curvatura delle linee sarà sempre meno evidente man mano che ci si avvicina al centro dell'immagine. In seguito ad una distorsione a barile della stessa griglia, vedi figura c, i lati esterni saranno curvati in senso opposto, con gli spigoli più avvicinati al centro dell'immagine; accentuando la distorsione a barile, la griglia tenderà ad una una configurazione discoidale con le quattro maglie ai lati disposte su una circonferenza. Esistono metodi diversi per tarare un sistema di visione, tra questi, mediante il metodo delle trasformazioni affini, si determinano le dimensioni di ciascun pixel dopo aver trasformato l'immagine distorta in una corrispondente immagine compensata.

46 Nella figura si può osservare una griglia cartesiana distorta
Nella figura si può osservare una griglia cartesiana distorta. Per ottenere un'immagine corretta è necessario un restauro dell'immagine che può essere ottenuto mediante una compensazione spaziale. Sia f(i,j) la relazione che correla la posizione i,j, secondo i due assi cartesiani, di ciascun pixel dell'immagine non distorta; essa può essere nota a priori se nella fase di taratura del sistema, si acquisisce un reticolo a maglie note. La distorsione spaziale causa una trasformazione della funzione f(i,j) nella funzione g(k,l). Il problema consiste nel determinare una funzione di compensazione spaziale che applicata alla g(k,l) la trasformi in una funzione f(i,j) il più possibile simile alla f(i,j). Nella taratura è quindi necessario conoscere le coordinate di ogni punto (i,j) e del corrispondente punto nel piano distorto (k,l). La determinazione della trasformazione che lega le coordinate (i,j) alle coordinate (k,l), non è sempre immediata. Spesso si decide di operare per porzioni di immagine determinando diverse trasformazioni affini, valide ciascuna in un'area limitata dell'immagine; esse sono infatti sempre applicabili ad aree di immagine sufficientemente piccole. In un modello lineare sono sufficienti 3 punti di cui siano note le coordinate nell'immagine reale (i,j) e nell'immagine distorta (k,l) per determinare i 6 coefficienti (a0, a1, a2, b0, b1, b2) della trasformazione lineare affine che permette di risalire alla funzione f(i,j): i = a0 + a1 k + a2 l; j = b0 + b1 k + b2 l. Con trasformazioni lineari di questo tipo è possibile eseguire traslazioni, rotazioni, e ingrandimenti dell'immagine.

47 Il livello di grigio del punto (i,j) non può essere rilevato direttamente perchè le informazioni riguardanti le diverse tonalità di L.G. si riferiscono a punti situati in posizioni diverse nell’immagine acquisita. Si osservi però che il L.G. relativo al punto (i,j) non può essere rilevato in quanto le informazioni riguardanti le diverse tonalità di L.G. si riferiscono a punti (k,l) di diversa posizione nell'immagine. Si deve pertanto risalire all'intensità del punto (i,j), mediante opportuna interpolazione dei L.G. rilevati da un certo numero (in genere 9) di pixels adiacenti (per esempio nei punti k±1, l±1). L'immagine corretta sarà quindi una combinazione lineare delle immagini acquisite durante lo spostamento del sensore. Un metodo molto usato soprattutto nelle applicazioni industriali, più semplice e di rapida esecuzione è la cosiddetta taratura con metodo diretto. Consiste nell'acquisire con parametri ottici fissi (quali l'insieme di lenti, il diaframma, l'illuminazione, etc.) uno o più campioni di dimensioni note. Il numero np di pixel contenuti nel segmento che corrisponde alla distanza d compresa fra i bordi da misurare, serve a determinare la loro dimensione media lp del pixel, definita come: lp = (d / np) ± ip essendo ip l'incertezza di misura del pixel assegnata. E' da tener presente che il metodo diretto vale solo per misure dimensionali eseguite in corrispondenza della zona tarata dell'immagine; anche piccole variazioni della posizione di misura aumentano l'incertezza di misura.

48 Taratura di sistemi 3-D La taratura di un sistema di visione tridimensionale, è più complessa perché è necessario determinare la distanza fra punti giacenti su piani diversi. Per “vedere” oggetti in profondità un sistema di visione necessita di almeno due telecamere. TARATURA DI SISTEMI 3-D La taratura di un sistema di visione tridimensionale, è più complessa perché è necessario determinare il valore di profondità o la distanza fra punti giacenti su piani diversi. Per vedere oggetti in profondità un sistema di visione necessita di due telecamere, analogamente all'uomo che sfrutta il confronto di due immagini dello stesso oggetto viste da due posizioni differenti. Un punto visibile da due telecamere dà luogo sulle due immagini ad una coppia di punti detti coniugati. Si procede alla taratura cercando di determinare i coefficienti delle matrici di trasformazione tra il sistema di riferimento solidale all'obiettivo e l'ambiente esterno. Si applicano le equazioni delle proiezioni prospettiche o delle proiezioni ortografiche (nel caso si possano assumere parallele alcune linee di fuga). Alle funzioni g(k,l) relative all'immagine acquisita in forma prospettica o in forma assonometrica, vengono applicate trasformazioni affini in grado di ruotare e traslare opportunamente l'immagine. Nel caso di misure stereoscopiche, due telecamere in posizioni diverse sono puntate sullo stesso soggetto. E' nota quindi la distanza relativa fra le due viste e si pone un problema di triangolazione che può essere risolto tramite trasformazioni affini di rotazione e traslazione della seconda immagine rispetto alla prima.

49 La rotazione può essere descritta da una matrice R : a11 a12 a13
e la traslazione dal vettore T: T = (Ut, Vt, Wt) Le coordinate dei centri C1 e C2 delle due telecamere nei rispettivi sistemi sono: C1 = (0,0,f1) C2 = (0,0,f2) X = l x, Y = l y, Z = (1-l) f1 U = g u, V = g u, W = (1-g) f2 La rotazione può essere descritta da una matrice R del tipo: a11 a12 a13 R = a21 a22 a23 a31 a32 a33 e la traslazione dal vettore T: T = (Ut, Vt, Wt) La prima e la seconda telecamera siano definite rispettivamente da un sistema di coordinate S1 = (O1, X, Y, Z), S2 = (O2, U, V, W) dove i sistemi di coordinate dell'immagine I1 e I2 siano rispettivamente (O1, X, Y) e (O2, U, V). Gli assi principali delle due telecamere siano allineati con l'asse Z e W. Le coordinate dei centri C1 e C2 delle due telecamere nei rispettivi sistemi siano: C1 = (0,0,f1) C2 = (0,0,f2) con f1 e f2 due numeri reali positivi. Un punto P nello spazio, avente coordinate (X, Y, Z) nel sistema S1 e coordinate (U, V, W) nel sistema S2, sia proiettato sulle immagini I1 e I2 rispettivamente nei punti p(x,y) e q(u,v). Sussistono le seguenti relazioni fra i punti dei sistemi S1, S2 e I1, I2: X = l x, Y = l y, Z = (1-l) f1 U = g u, V = g u, W = (1-g) f2

50 Trasformando il sistema S1 nel sistema S2, si ha:
(U,V,W) = (X,Y,Z) R + T Nel piano delle telecamere: a11 l x + a21 l y + a31 (1-l) f1 + Ut = g u a12 l x + a22 l y + a32 (1-l) f1 + Vt = g a13 l x + a23 l y + a33 (1-l) f1 + Wt = (1-g) f2 La taratura di sistemi tridimensionali può essere notevolmente semplificata in casi particolari. Trasformando il sistema S1 nel sistema S2, si può scrivere: (U,V,W) = (X,Y,Z) R + T La relazione, nel piano delle telecamere, può essere scritta come: a11 l x + a21 l y + a31 (1-l) f1 + Ut = g u a12 l x + a22 l y + a32 (1-l) f1 + Vt = g v a13 l x + a23 l y + a33 (1-l) f1 + Wt = (1-g) f2 Due di queste equazioni possono essere usate per determinare l e g e quindi la posizione del punto P nello spazio. La terza equazione, che deve essere soddisfatta dalla coppia l e g , è una condizione di corrispondenza dei due punti p e q nelle due immagini. La taratura di sistemi tridimensionali può essere notevolmente semplificata in casi particolari. Nel caso ad esempio di misure di profondità di corpi mediante l'utilizzo di lame di luce orientate, il problema della profondità si riconduce alla sola misura distanza fra due linee di luce.


Scaricare ppt "Misure dimensionali senza contatto."

Presentazioni simili


Annunci Google