cerca
Appello d'esame di Elaborazione delle Immagini - 25/06/2008
modifica cronologia stampa login logout

Wiki

UniCrema


Materie per semestre

Materie per anno

Materie per laurea


Help

Uni.TemiEsameEI02 History

Hide minor edits - Show changes to output

Changed lines 8-9 from:
'''Guardando l’immagine mostrata in Figure 1:'''\\
to:
'''Guardando l’immagine mostrata in Figure 1:'''\\
Changed line 12 from:
'''Alcune lenti generano una distorsione dell’immagine acquisita che può essere illustrata dalla figura precedente:\\
to:
'''Alcune lenti generano una distorsione dell’immagine acquisita che può essere illustrata dalla figura precedente:\\
Changed lines 17-18 from:
'''Se x e y sono le coordinate non distorte (in figura (B)) e x’ y’ sono le rispettive coordinate distorte (in figura (A)) la distorsione radiale può essere rappresentata dalle seguenti equazioni:'''
to:
'''Se x e y sono le coordinate non distorte (in figura (B)) e x’ y’ sono le rispettive coordinate distorte (in figura (A)) la distorsione radiale può essere rappresentata dalle seguenti equazioni:'''
Changed lines 35-36 from:
'''Data l’immagine C scegliere una tra le possibili operazioni morfologiche che unisca i due insiemi connessi e calcolarne il risultato dopo aver scelto opportunamente il kernel(3x3). (Si richiede di mostrare una figura simile a quella in C in cui è mostrato il risultato di tale operazione)'''
to:
'''Data l’immagine C scegliere una tra le possibili operazioni morfologiche che unisca i due insiemi connessi e calcolarne il risultato dopo aver scelto opportunamente il kernel(3x3). (Si richiede di mostrare una figura simile a quella in C in cui è mostrato il risultato di tale operazione)'''
Changed lines 73-74 from:
'''Definire il problema dell’edge detection (il rilevamento di contorni) e proporre alcuni metodi per rilevarli.'''
to:
'''Definire il problema dell’edge detection (il rilevamento di contorni) e proporre alcuni metodi per rilevarli.'''
Changed lines 154-158 from:
to:
L'operazione finale da eseguire è trovare gli zero crossing dell’immagine laplaciana per determinare le posizioni degli edge.\\
Gli zero crossing, in ogni pixel p dell’immagine filtrata, vengono individuati utilizzando un intorno 3x3 centrato in p; uno zero crossing in p implica che i segni di almeno dei due suoi pixel vicini opposti sono diversi. Ci sono quattro casi possibili: sinistra/destra, sopra/sotto e le due diagonali.\\
Una caratteristica fondamentale di questo metodo è che utilizzare gli zero crossing per l’individuazione degli edge comporta che gli edge risultanti sono spessi 1 pixel.
Changed lines 160-161 from:
'''Data l’immagine raffigurata in H. Calcolare l’immagine filtrata servendosi di un filtro non lineare massimo su di una finestra 2x2'''
to:
'''Data l’immagine raffigurata in H. Calcolare l’immagine filtrata servendosi di un filtro non lineare massimo su di una finestra 2x2'''
Changed line 181 from:
'''Definire che cosa si intende per filtraggio omomorfo (Homomorphic filtering). Su quale concetto si basa? Indicare come varia l’intensità luminosa di un’immagine a seguito dell’applicazione di tale filtraggio. Il contrasto aumenta o diminuisce?'''
to:
'''Definire che cosa si intende per filtraggio omomorfo (Homomorphic filtering). Su quale concetto si basa? Indicare come varia l’intensità luminosa di un’immagine a seguito dell’applicazione di tale filtraggio. Il contrasto aumenta o diminuisce?'''
Added lines 26-29:

LA RISPOSTA A QUESTA DOMANDA NON PUO' CHE ESSERE:\\

'+'''IA IA CTHULHU FATGHA'''+'
Added line 65:
Come richiesto le due aree sono state unite attraverso la chiusura, anche se sarebbe bastata la dilatazione.
Changed lines 59-60 from:
to:
Nella fase di erosione l'elemento strutturante deve essere completamente contenuto nell'oggetto e non deve avere quindi elementi in comune con lo sfondo.
L'immagine dell'esercizio la consideriamo binaria: i quadrati grigi con valore 1 e quelli bianchi con valore 0.
Dall'operazione di erosione otteniamo il seguenti risultato:

Attach:EsameEI02es2d.jpg
Added lines 50-61:

Attach:EsameEI02es2e.jpg

La fase di dilatazione serve per accrescere o ispessire gli oggetti in un'immagine binaria, ovviamente in base alla forma dell'elemento strutturante. In questo caso è sufficiente che l'elemento strutturante ricopra almeno un punto dell'oggetto, non deve essere completamente contenuto come nel caso dell'erosione.\\
In questo caso ci permette di unire le due aree precedentemente separate.\\
Il risultato ottenuto è il seguente:

Attach:EsameEI02es2c.jpg


Changed lines 152-153 from:
ha senso una cosa del genere? in qualsiasi pixel ci si posizioni attorno c'è sempre almeno un 20.
to:

In
qualsiasi pixel ci si posizioni attorno c'è sempre almeno un 20.
Deleted line 37:
Changed lines 36-38 from:
* '''dilatazione''', che espande il contorno dell'immagine
* '''chiusura''', che assottiglia i contorni, fonde rotture sottili ed elimina piccoli vuoti
to:
* '''dilatazione''', che espande il contorno dell'immagine, accresce o ispessisce gli oggetti in un'immagine binaria. Le dimensioni dell'ispessimento dipendono dall'elemento strutturante scelto.\\
La dilatazione di A attraverso B, con A e B due insiemi in Z'^2^', viene definita:\\

Attach:EsameEI02es2a.jpg

* '''chiusura''', che assottiglia i contorni, fonde rotture sottili ed elimina piccoli
vuoti.
Changed lines 44-45 from:
to:
La chiusura è definita come:\\

Attach:EsameEI02es2b.jpg

quindi la chiusura di A attraverso B è semplicemente la dilatazione di A attraverso B, seguita dall'erosione del risultato attraverso B.\\\

Nel nostro caso prendiamo un elemento strutturante così formato:\\
Added lines 34-41:

Le operazioni morfologiche che possiamo eseguire su questa immagine per fare in modo di collegare i due insiemi sono:
* '''dilatazione''', che espande il contorno dell'immagine
* '''chiusura''', che assottiglia i contorni, fonde rotture sottili ed elimina piccoli vuoti

In questo caso applichiamo la chiusura in modo da poter trattare sia la dilatazione che l'erosione.\\
Changed lines 127-128 from:
Quindi avviene una sorta di erosione perché i particolari sembrano assottigliarsi.\\\
to:
Nel calcolo del filtro massimo il nuovo valore di un pixel è il massimo dei valori dei pixel che rientrano nel suo intorno ''(m,n)''
Changed lines 130-134 from:
to:
20 20 20 20 20
20 20 20 20 20
20 20 20 20 20
20 20 20 20 20
20 20 20 20 20
Added line 136:
ha senso una cosa del genere? in qualsiasi pixel ci si posizioni attorno c'è sempre almeno un 20.
Deleted line 123:
Added lines 125-132:

Il filtro massimo serve per espandere le zone chiare a discapito di quelle scure e quindi i dettagli fini e scuri vengono cancellati.\\
Quindi avviene una sorta di erosione perché i particolari sembrano assottigliarsi.\\\

Nel nostro caso otteniamo:\\
[@

@]
Changed lines 138-139 from:
i'_o_'(x,y) = e'^i'^'^'(x,y)^'
r'_o_'(x,y) = e'^r'^'^
'(x,y)^'
to:
i'_o_'(x,y) = e'^i'(x,y)^'\\
r
'_o_'(x,y) = e'^r'(x,y)^'
Added lines 132-143:

Il '''filtraggio omomorfico''' è un filtraggio che opera nel dominio della frequenza e quindi utilizza la Trasformata di Fourier. Questo tipo di filtraggio si basa sui concetti dell'illuminazione e della riflettanza per andare a migliorare l'aspetto dell'immagine effettuando operazioni di compressione dei range dell'intensità e miglioramento del contrasto.\\
Ciò è possibile perché un'immagine può essere espressa come prodotto delle componenti di illuminazione ''i(x,y)'' e riflettanza ''r(x,y)'':\\
f(x,y) = i(x,y)r(x,y)\\\

questa equazione non può essere utilizzata direttamente nel dominio della frequenza perché la trasformata di Fourier di un prodotto non è uguale al prodotto delle trasformate. Per poter operare nella frequenza è necessario separare le componenti di illuminazione e riflettanza, in modo tale che il filtro possa operare separatamente sulle due componenti; il risultato finale di output sarà dato da:\\
i'_o_'(x,y) = e'^i'^'^'(x,y)^'
r'_o_'(x,y) = e'^r'^'^'(x,y)^'

Il concetto fondamentale legato a questo tipo di filtraggio è che nel dominio spaziale la componente di illuminazione è caratterizzata da lente variazioni spaziali, mentre la componente di riflettanza tende a variare bruscamente soprattutto nei punti di separazione di oggetti differenti. Queste caratteristiche portano ad associare le ''basse frequenze'' della trasformata di Fourier con l'illuminazione e le ''alte frequenze'' con la riflettanza.\\
Quindi per ottenere una compressione del range dinamico e un miglioramento del contrasto bisogna amplificare gli effetti dovuti alle alte frequenze(riflettanza) e attenuare gli effetti dovuti alle basse frequenze(illuminazione).
Changed lines 100-106 from:





to:
Per poter individuare gli edge in modo più selettivo e mantenendo il più alto grado di connettività solitamente conviene utilizzare smoothing e thresholding insieme.\\\

Una ''tecnica avanzata'' per l'individuazione degli edge che tiene conto (a differenza dei metodi visti sopra) della presenza di rumore e della natura degli edge è l''''individuatore di Marr-Hildreth'''.\\
Le ''ipotesi'' di partenza di questi tizi sono:
* le variazioni di intensità sono dipendenti dalla scala dell'immagine e quindi la loro individuazione richiede l'uso di operatori di dimensioni diverse.
* un cambiamento di intensità improvviso da origine a un picco o lungo la derivata prima o a uno zero crossing nella derivata seconda.

Quindi le '''caratteristiche principali''' di un operatore utilizzato per l'individuazione degli edge dovrebbero essere:
* essere un operatore differenziale capace di calcolare un'approssimazione delle derivate prima e seconda in ogni punto dell'immagine
* poter essere regolato per agire a ogni scala selezionata, in modo tale che gli operatori più grandi possano essere utilizzati per individuare gli edge sfocati mentre gli operatori più piccoli per individuare i dettagli più piccoli scarsamente visibili.

L'operatore che ha le seguenti caratteristiche è il '''LoG''', il '''Laplaciano del Gaussiano''' o per via della sua forma '''operatore a sombrero'''.\\
Attach:EsameEI02es3a.jpg

Questo operatore ha due '''aspetti fondamentali''':
* la parte ''gaussiana'' dell'operatore sfoca l'immagine, quindi riduce il rumore sia nel dominio spaziale che in quello della frequenza ed è quindi meno probabile che vengano introdotti artefatti non presenti nell'immagine originale.
* il ''laplaciano'' ha il vantaggio di essere ''isotropico'', cioè invariante per rotazione, e quindi ha le caratteristiche del sistema visivo umano e risponde in egual modo alle variazioni di intensità in ogni direzione della maschera, senza quindi la necessità di dover utilizzare maschere multiple per calcolare la risposta più forte.
Changed lines 65-68 from:
e la direzione di un edge in un punto qualsiasi ''(x,y)'' è ortogonale alla direzione di ''alfa(x,y)'' del vettore gradiente in quel punto.\\\

Per ottenere il gradiente serve calcolare le derivate parziali e queste possono essere implementate utilizzando le maschere(o operatori) di Roberts, di Prewitt e di Sobel.
* Operatore di Roberts: è l'operatore a croce più semplice che serve per individuare la direzione diagonale di un edge. E' un operatore 2X2 semplice da implementare ma scomodo per via del fatto che non è simmetrico rispetto al punto centrale.\\
to:
e la direzione di un edge in un punto qualsiasi ''(x,y)'' è ortogonale alla direzione di ''α(x,y)'' del vettore gradiente in quel punto.\\\

Per ottenere le componenti del gradiente serve calcolare le derivate parziali e queste possono essere implementate utilizzando le maschere(o operatori) di Roberts, di Prewitt e di Sobel.
* '''Operatore di Roberts''': è l'operatore a croce più semplice che serve per individuare la direzione diagonale di un edge. E' un operatore 2X2 semplice da implementare ma scomodo per via del fatto che non è simmetrico rispetto al punto centrale.\\
Changed lines 75-108 from:
* operatore di Prewitt:
to:
* '''operatore di Prewitt''': è un operatore 3X3 che approssima le derivate nella direzione x e y e permette ovviamente anche di individuare gli edge diagonali.\\
Le forme possibili sono:\\
[@
-1 -1 -1 -1 0 1 orizzontale e verticale
0 0 0 -1 0 1
1 1 1 -1 0 1

0 1 1 -1 -1 0 diagonale
-1 0 1 -1 0 1
-1 -1 0 0 1 1
@]

* '''operatore di Sobel''': è un operatore 3X3 che approssima le derivate nella direzione x e y e permette ovviamente anche di individuare gli edge diagonali.\\
Viene preferito a Prewitt perché è più performante nella rimozione del rumore e nelle prestazioni.\\
Le forme possibili sono:\\
[@
-1 -2 -1 -1 0 1 orizzontale e verticale
0 0 0 -2 0 2
1 2 1 -1 0 1

0 1 2 -2 -1 0 diagonale
-1 0 1 -1 0 1
-2 -1 0 0 1 2
@]








Changed line 67 from:
Per ottenere il gradiente serve calcolare le derivate parziali e queste possono essere implementate utilizzando le maschere(o operatori) di Roberts, di Prewitt e di Sobel.\\
to:
Per ottenere il gradiente serve calcolare le derivate parziali e queste possono essere implementate utilizzando le maschere(o operatori) di Roberts, di Prewitt e di Sobel.
Changed lines 60-62 from:

to:
Il gradiente viene utilizzato per definire l'''intensità'' e la ''direzione'' di un edge in un certo punto ''(x,y)''.\\
Tutto ciò è possibile perché il gradiente è un vettore bidimensionale che ha la proprietà geometrica di puntare nella direzione di massima variazione di ''f'' nel punto ''(x,y)''. La direzione del gradiente è data da:\\

Attach:EsameEI02es3.jpg

e la direzione di un edge in un punto qualsiasi ''(x,y)'' è ortogonale alla direzione di ''alfa(x,y)'' del vettore gradiente in quel punto.\\\

Per ottenere il gradiente serve calcolare le derivate parziali e queste possono essere implementate utilizzando le maschere(o operatori) di Roberts, di Prewitt e di Sobel.\\
* Operatore di Roberts: è l'operatore a croce più semplice che serve per individuare la direzione diagonale di un edge. E' un operatore 2X2 semplice da implementare ma scomodo per via del fatto che non è simmetrico rispetto al punto centrale.\\
Le forme possibili sono:\\
[@
-1 0
0 1
@]

* operatore di Prewitt:
Changed lines 43-45 from:
1- a gradino: sono edge ideali che separano due livelli di intensità alla distanza di 1 pixel; sono ideali perché è più probabile trovarli in un'immagine generata in laboratorio che non in un'immagine reale in quanto queste sono solitamente sfocate e rumorose.\\
2- a rampa: sono edge caratterizzati proprio dalla sfocatura e dal rumore presenti nelle immagini presenti a causa del dispositivo di acquisizione.\\
3- roof: è associato al bordo di una qualche regione e la base di questo tipo di bordo è determinata dallo spessore e dalla sfocatura della linea.\\
to:
1- '''a gradino''': sono edge ideali che separano due livelli di intensità alla distanza di 1 pixel; sono ideali perché è più probabile trovarli in un'immagine generata in laboratorio che non in un'immagine reale in quanto queste sono solitamente sfocate e rumorose.\\
2- '''a rampa''': sono edge caratterizzati proprio dalla sfocatura e dal rumore presenti nelle immagini presenti a causa del dispositivo di acquisizione.\\
3- '''roof''': è associato al bordo di una qualche regione e la base di questo tipo di bordo è determinata dallo spessore e dalla sfocatura della linea.\\
Changed line 48 from:
In base alle caratteristiche dei tre modelli di edge risulta evidente che per poterli individuare si possono utilizzare le caratteristiche della derivata prima e della derivata seconda. Infatti la ''magnitudo'' della derivata prima può essere utilizzata per individuare la presenza di un edge in un punto, mentre il ''segno'' della derivata seconda può essere utilizzato per determinare se un pixel di un edge giace sul lato scuro o chiaro di un edge.\\
to:
In base alle caratteristiche dei tre modelli di edge risulta evidente che per poterli individuare si possono utilizzare le caratteristiche della derivata prima e della derivata seconda. Infatti la ''magnitudo'' della {+derivata prima+} può essere utilizzata per individuare la presenza di un edge in un punto, mentre il ''segno'' della {+derivata seconda+} può essere utilizzato per determinare se un pixel di un edge giace sul lato scuro o chiaro di un edge.\\
Changed line 50 from:
Quindi i tre passi fondamentali per individuare gli edge sono:
to:
Quindi i '''tre passi fondamentali''' per individuare gli edge sono:
Changed lines 48-59 from:
In base alle caratteristiche dei tre modelli di edge risulta evidente che per poterli individuare si possono utilizzare le caratteristiche della derivata prima e della derivata seconda. Infatti la ''magnitudo'' della derivata prima può essere utilizzata per individuare la presenza di un edge in un punto, mentre il ''segno'' della derivata seconda può essere utilizzato per determinare se un pixel di un edge giace sul lato scuro o chiaro di un edge.
to:
In base alle caratteristiche dei tre modelli di edge risulta evidente che per poterli individuare si possono utilizzare le caratteristiche della derivata prima e della derivata seconda. Infatti la ''magnitudo'' della derivata prima può essere utilizzata per individuare la presenza di un edge in un punto, mentre il ''segno'' della derivata seconda può essere utilizzato per determinare se un pixel di un edge giace sul lato scuro o chiaro di un edge.\\
Il problema delle derivate è che in presenza di rumore è quasi impossibile ricavare qualsiasi informazione dall'istogramma. (vedi figura 10.11 pag.709)\\
Quindi i tre passi fondamentali per individuare gli edge sono:
* applicare lo smoothing all'immagine per ridurre il rumore presente
* individuare i potenziali punti di edge
* localizzare gli edge, cioè selezionare tra i punti candidati quelli che lo sono veramente
\\
Le tecniche utilizzate per questo scopo sono:
* operatori gradiente
* combinazione del gradiente con il thresholding
* individuatore di Marr-Hildreth
Added lines 40-49:

L''''edge detection''', cioè l'individuazione dei bordi, è il metodo più utilizzato per la segmentazione di immagini e si basa sui bruschi cambiamenti locali di intensità.\\
Esistono tre tipi di edge:\\
1- a gradino: sono edge ideali che separano due livelli di intensità alla distanza di 1 pixel; sono ideali perché è più probabile trovarli in un'immagine generata in laboratorio che non in un'immagine reale in quanto queste sono solitamente sfocate e rumorose.\\
2- a rampa: sono edge caratterizzati proprio dalla sfocatura e dal rumore presenti nelle immagini presenti a causa del dispositivo di acquisizione.\\
3- roof: è associato al bordo di una qualche regione e la base di questo tipo di bordo è determinata dallo spessore e dalla sfocatura della linea.\\
Comunque sia nelle immagini possono essere presenti tutti e tre questi tipi di edge, ovviamente non identici ai modelli ideali, ma simili in base alla quantità di rumore e sfocatura presenti.\\\

In base alle caratteristiche dei tre modelli di edge risulta evidente che per poterli individuare si possono utilizzare le caratteristiche della derivata prima e della derivata seconda. Infatti la ''magnitudo'' della derivata prima può essere utilizzata per individuare la presenza di un edge in un punto, mentre il ''segno'' della derivata seconda può essere utilizzato per determinare se un pixel di un edge giace sul lato scuro o chiaro di un edge.
Deleted lines 42-47:
'''Definire il problema dell’edge detection (il rilevamento di contorni) e proporre alcuni metodi per rilevarli.'''

%red%[-'''SOLUZIONE'''-]


!!Esercizio 5
Changed line 51 from:
!!Esercizio 6
to:
!!Esercizio 5
Changed lines 49-50 from:
'''Data l’immagine raffigurata in H. Calcolare l’immagine filtrata servendosi di un
filtro non lineare massimo su di una finestra 2x2'''
to:
'''Data l’immagine raffigurata in H. Calcolare l’immagine filtrata servendosi di un filtro non lineare massimo su di una finestra 2x2'''
Added lines 32-62:

%red%[-'''SOLUZIONE'''-]


!!Esercizio 3
'''Definire il problema dell’edge detection (il rilevamento di contorni) e proporre alcuni metodi per rilevarli.'''

%red%[-'''SOLUZIONE'''-]


!!Esercizio 4
'''Definire il problema dell’edge detection (il rilevamento di contorni) e proporre alcuni metodi per rilevarli.'''

%red%[-'''SOLUZIONE'''-]


!!Esercizio 5
'''Data l’immagine raffigurata in H. Calcolare l’immagine filtrata servendosi di un
filtro non lineare massimo su di una finestra 2x2'''

Attach:EsameEI02es5.jpg\\


%red%[-'''SOLUZIONE'''-]


!!Esercizio 6
'''Definire che cosa si intende per filtraggio omomorfo (Homomorphic filtering). Su quale concetto si basa? Indicare come varia l’intensità luminosa di un’immagine a seguito dell’applicazione di tale filtraggio. Il contrasto aumenta o diminuisce?'''

%red%[-'''SOLUZIONE'''-]
Changed lines 29-31 from:
to:
Attach:EsameEI02es2.jpg\\

'''Data l’immagine C scegliere una tra le possibili operazioni morfologiche che unisca i due insiemi connessi e calcolarne il risultato dopo aver scelto opportunamente il kernel(3x3). (Si richiede di mostrare una figura simile a quella in C in cui è mostrato il risultato di tale operazione)'''
Changed line 12 from:
Alcune lenti generano una distorsione dell’immagine acquisita che può essere illustrata dalla figura precedente:\\
to:
'''Alcune lenti generano una distorsione dell’immagine acquisita che può essere illustrata dalla figura precedente:\\
Changed lines 15-20 from:
Il tipo di distorsione di cui si parla viene detto distorsione radiale perché è proporzionale alla distanza dal centro della lente.\\\

Se x e y sono le coordinate non distorte (in figura (B)) e x’ y’ sono le rispettive
coordinate distorte (in figura (A)) la distorsione radiale può essere rappresentata
dalle seguenti equazioni:
\\
to:
Il tipo di distorsione di cui si parla viene detto distorsione radiale perché è proporzionale alla distanza dal centro della lente.'''\\\

'''Se x e y sono le coordinate non distorte (in figura (B)) e x’ y’ sono le rispettive coordinate distorte (in figura (A)) la distorsione radiale può essere rappresentata dalle seguenti equazioni:'''
Changed lines 20-26 from:
y' = y(1 - k'_2_' * (x'^2^' + y'^2^'))\\

In cui le incognite sono i coefficienti (detti di distorsione radiale) k1 e k2.\\
Supponendo di conoscere le dimensioni delle celle della griglia originale e di
poter misurare i punti della griglia distorta. Proporre un metodo per stimare i
coefficienti di distorsione.
to:
y' = y(1 - k'_2_' * (x'^2^' + y'^2^'))

'''
In cui le incognite sono i coefficienti (detti di distorsione radiale) k1 e k2.'''\\
'''Supponendo di conoscere le dimensioni delle celle della griglia originale e di poter misurare i punti della griglia distorta. Proporre un metodo per stimare i coefficienti di distorsione.'''
Added lines 27-28:

!!Esercizio 2
Changed lines 22-23 from:
y' = y(1 - k'_2_' * (x'^2^' + y'^2^'))\\\
to:
y' = y(1 - k'_2_' * (x'^2^' + y'^2^'))\\
Added lines 1-35:
(:title Appello d'esame di Elaborazione delle Immagini - 25/06/2008:)
[[Torna alla pagina di Elaborazione delle Immagini -> Elaborazione delle Immagini]]
----

%titolo%''':: Appello d'esame di Elaborazione delle Immagini - 25/06/2008 ::'''

!!Esercizio 1
'''Guardando l’immagine mostrata in Figure 1:'''\\

Attach:EsameEI02es1.jpg

Alcune lenti generano una distorsione dell’immagine acquisita che può essere illustrata dalla figura precedente:\\
(A) Immagine del reticolo distorta dalla lente.\\
(B) Immagine originale.\\
Il tipo di distorsione di cui si parla viene detto distorsione radiale perché è proporzionale alla distanza dal centro della lente.\\\

Se x e y sono le coordinate non distorte (in figura (B)) e x’ y’ sono le rispettive
coordinate distorte (in figura (A)) la distorsione radiale può essere rappresentata
dalle seguenti equazioni:
\\
x' = x(1 - k'_1_' * (x'^2^' + y'^2^'))\\
y' = y(1 - k'_2_' * (x'^2^' + y'^2^'))\\\


In cui le incognite sono i coefficienti (detti di distorsione radiale) k1 e k2.\\
Supponendo di conoscere le dimensioni delle celle della griglia originale e di
poter misurare i punti della griglia distorta. Proporre un metodo per stimare i
coefficienti di distorsione.

%red%[-'''SOLUZIONE'''-]



----
[[Torna alla pagina di Elaborazione delle Immagini -> Elaborazione delle Immagini]]