Elaborazione delle Immagini

Embed Size (px)

DESCRIPTION

Appunti sul corso di Elaborazione delle Immagini dell'università Insubria (VA)

Citation preview

  • Indice generaleFormazione delle Immagini.................................2

    Acquisizione dell'immagine............................2Processo di acquisizione dell'immagine.....2Processo di formazione delle immagini......3

    Percezione delle Immagini...................................3Concetti di base....................................................3Image Enhancement.............................................3

    Caratteristiche..................................................3Formula Generale............................................4Operatori Puntuali Generale............................4

    Trasformazioni dei valori di grigio.............4Applicazioni................................................4Trasformazioni puntuali di base..................5

    Operatori Puntuali...........................................5Negativo di un immagine............................5Trasformazioni logaritmiche.......................5Trasformazioni Logaritmiche.....................5Contrast Stretching.....................................5Contrast Stretching con funzioni lineari a pezzi............................................................6Gray level/intesity Slicing..........................6Bit Plane Slicing.........................................6

    Istogramma di un immagine............................6Definizione.................................................6Istogramma normalizzato...........................6Istogramma cumulato.................................7

    Equalizzazione dell'istogramma......................7I passi della procedura di equalizzazione. . .8Matching di istogramma.............................8

    Operazioni Aritmetiche con le immagini........8Somma di Immagini...................................9Sottrazione di immagini..............................9

    Operazioni insiemistiche...............................10Operatori Logici............................................10

    And, Or.....................................................10Trasformazioni Spaziali.....................................10

    Trasformazioni spaziali mediante Operatori Locali.............................................................10Filtri...............................................................10Filtri Lineari - Convolutivi............................11Soluzioni con la maschera sui bordi..............12Operatori di Smoothing : Filtri passa-basso. .12

    Applicazioni..............................................13Sogliatura.......................................................13Filtro Gaussiano.............................................13

    Filtro Mediano...............................................14Operatori di Sharpening................................14Operatore di Sharpering Basato sulla derivata seconda..........................................................15Operatore Laplaciano....................................15Filtri di Sharpening Unsharp Masking & High Boosting.........................................................16Uso della derivata prima................................17Operatori di Smoothing Sommario...............18Operatori di Sharpening Sommario...............18

    Segmentazione delle immagini..........................19Segmentazione di Immagini..........................19Approcci alla segmentazione.........................20Parallelismo Enhancement-Edge detection...20Metodi basati sulla discontinuit (Basati sui contorni)........................................................20Operatori utilizzati nell'ambito della segmentazione...............................................21Determinazione di Punti Isolati.....................21Procedimento.................................................21Estrazione di linee.........................................21Bordi (edges) e Contorni...............................22Operatori........................................................23

    Determinazione dei contorni basata su operatori-gradiente....................................24

    Uso del Laplaciano nella segmentazione......24Uso del Laplaciano della Gaussiana per la segmentazione...............................................25Determinazione dei Contorni Linking i bordi.......................................................................26

    Tecniche di Linking (locali)......................26Segmentazione d'immagini Approccio per regioni............................................................26Thresholding [Multilevel thresholding]........26Algoritmo iterativo per definire la soglia globale...........................................................27Local, Adaptive Thresholding.......................27Operatori derivativi nel Tresholding.............28Determinazione di Regioni............................28Region Growing............................................28Tecniche di Split & Merge.........................29

    Split Merge [Slide 33]...............................29Merge [Slide 35].......................................30

    Il Colore.............................................................30

    1

  • Formazione delle Immaginirelazione che sussiste fra la scena e limmagine prodotta sul piano sensibile

    Coinvolge due aspetti:

    Aspetti Geometrici

    Spiegano su quale punto del piano-immagine (bidimensionale, 2D) va a cadere un punto della scena (tridimensionale, 3D)

    Aspetti fisici

    Spiegano il valore di Brightness(intensit luminosa) di un punto dell'immagine in funzione dell'illuminazione della scena e delle propriet della superficie

    Acquisizione dell'immagineE il processo che porta dallimmagine prodotta sul piano sensibile del dispositivo di imaging a quella disponibile nella memoria del calcolatore

    [Esempio] Un semplice modello di formazione delle Immagini

    La scena illuminata da una sorgente puntuale.

    Loggetto nella scena riflette la radiazione incidente.

    Il dispositivo di Imaging /Camera memorizza la radiazione riflessa e incidente sul piano immagine per mezzo di materiale fotosensibile.

    Data una scena e un piano vedremo che

    Un punto della scena incide su punti diversi del piano immagine

    Un punto del piano immagine colpito da raggi provenienti da punti diversi della scena

    Il sistema di imaging che deve riprodurre un'immagine ha il ruolo di convogliare i raggi su un dispositivo di rilevazione in modo che ad un punto della scena corrisponda uno ed un solo punto delpiano immagine.

    Bisogna risolvere come far cambiare direzione ai raggi in modo che un fascio divergente diventi convergente Es. Pinhole Camera: scatola con un foro minuscolo.

    Processo di acquisizione dell'immagine Per formare unimmagine occorre disporre di un sistema di rivelazione

    Nel caso della visione naturale il sistema di rivelazione la retina, su cui troviamo particolari sensori: i coni per la visione diurna e i bastoncelli per la visione notturna

    Nella visione artificiale o pi semplicemente nei sistemi di imaging tecnologici occorre disporre di matrici di rivelazione in cui sono disposti i sensori

    2

  • Processo di formazione delle immagini(nel caso in cui la sorgente il campo elettromagnetico) il pixel ha il compito di assorbire tutta la luce ( i fotoni ) che incide su di esso e di generare elettroni liberi che in questo caso sono detti foto-elettroni.

    La generazione di un foto-elettrone allinterno di un singolo pixel avviene perch un atomo, della sostanza di cui fatto il pixel, assorbe un fotone e lenergia di questo fornita ad uno dei suoi elettroni che cos si pu allontanare dal resto dellatomo e diventare un foto-elettrone libero.

    La rivelazione di unimmagine consiste allora nel conteggio, per ciascun pixel, di tutti gli elettroni liberi generati durante lesposizione.

    Esistono altre cause, indipendenti dalla quantit di luce assorbita dal singolo pixel, di generazione dielettroni liberi. La principale tra queste la stessa temperatura di lavoro a cui si trova il pixel, in quanto lagitazione termica produce di per s elettroni liberi. Nel processo di rivelazione dellimmagine questi elettroni termici sommandosi ai foto-elettroni costituiscono una fonte di rumore rispetto al segnale vero e proprio costituito dai foto-elettroni.

    Formazione Immagini Slide 18...

    Percezione delle Immagini

    Concetti di base

    Image Enhancement Obiettivi:

    facilitare e potenziare il processo di valutazione ed interpretazione di un immagine

    da parte di un umano

    per il riconoscimento visuale

    Si opera trasformando i livelli di grigio

    compensa deterioramenti della qualit

    rende pi nitidi ed esalta i dettagli

    eliminare effetti indesiderati

    Caratteristiche La scelta del metodo di enhancement dipendente dal problema e dalla natura

    dell'immagine

    3

  • Non esiste una teoria generale, una soluzione si raggiunge con schemi trial and error

    Se l'enhancement finalizzato ad un'ispezione visuale il criterio di bont del metodo essenzialmente soggettivo e/o dipendente dal contesto

    preservano la struttura dell'immagine.

    Formula Generaleg(x , y )=T [ f ( x , y)]

    f(x,y) : immagine di input

    g(x,y) : immagine di output (elaborata)

    T : operatore su f con dominio di definizione un intorno di (x,y)

    T si dice operatore puntuale se l'intorno su cui opera ha dimensioni 1x1, ovvero considerano unicamente il singolo pixel.

    T si dice operatore locale se l'intorno su cui opera ha dimensioni maggiori di 1x1.

    T si dice operatore algebrico/logico se opera su un set di immagini di input.

    Operatori Puntuali GeneraleT si dice operatore puntuale se l'intorno su cui opera ha dimensioni 1x1, ovvero considerano unicamente il singolo pixel.

    Trasformazioni dei valori di grigio Sono rappresentabili in forma tabellare, di grafico (Look Up Table)

    Il risultato dipende solo dal valore di grigio del punto dell'immagine originale

    Il risultato di ciascun passo dell'elaborazione pu essere registrato sull'immagine stessa a sostituzione del valore originale del pixel elaborato

    Applicazioni Rimozione degli effetti di non linearit del sensore di acquisizione

    correzioni preliminari al display delle immagini

    per mantenere la corrispondenza tra valori di luminanza del pixel e brillanza di un elemento del display oppure

    per attribuire agli elementi di interesse dell'immagine un valore entro il range di massima visibilit del dispositivo di display.

    Espansione della dinamica dei livelli di grigio per far risaltare elementi dell'immagine rappresentati in un intervallo ristretto

    Sogliatura dell'immagine per la definizione dei contorni

    4

  • Trasformazioni puntuali di base Negativo

    Lineari

    Logaritmiche

    Esponenziali

    Operatori PuntualiNegativo di un immagineUn'immagine negativa semplicemente un'immagine con i valori dei pixels invertiti. In forma analitica:

    y = (L - 1) - x con L=256 per un immagine a 8-bit

    Trasformazioni logaritmiche In alcuni casi il range dinamico di un immagine (intervallo tra il pixel di valore pi basso e il

    pixel di valore pi alto) eccede di molto le capacit di un dispositivo per la visualizzazione.

    Scalando linearmente i valori il risultato che risultano visibili solo le parti chiare dell'immagine.

    La funzione di trasformazione lavora mappando un range ristretto di valori di bassa intensitin un range pi ampio (dilatazione delle zone scure) e comprimendo i valori di alta intensit.

    s = c log (1 + r) , con c costante ed r>=0

    Trasformazioni Logaritmiches=cr

    espansionedelladinamica se 1

    Usata per esempio per visualizzare su un monitor immagini.

    Contrast Stretching Obiettivo:

    Aumentare il range di livelli di grigio presenti nell'immagine

    Cause:Immagini poco contrastate sono frutto di scarsa illuminazione durante l'acquisizione, ridotto range dinamico nel sensore

    Offrono molta flessibilit nella definizione della Trasformazione ma sono complessi da definire per una specifica applicazione

    l'analista deve specificare punti di controllo della trasformazione

    5

  • Contrast Stretching con funzioni lineari a pezzi

    y={ ax ,0xr1b(xr 1)+s1, r 1xr2c(xr 2)+s2, r 2xL1Implementazione pi semplice:

    Pout=(Pc)(badc

    )+a

    per esempio in immagini a 8 bit [0,255]

    Pout=(Pc)(255dc )

    Gray level/intesity SlicingIl Gray level slicing enfatizza linformazione contenuta in un range di livelli di grigio.

    Bit Plane SlicingOgni piano immagine visualizza il contributo di uno specifico bit

    Istogramma di un immagineListogramma dei livelli di grigio di unimmagine uno dei pi semplici ed utili strumenti nellelaborazione delle immagini. Molte tecniche di miglioramento e segmentazione si basano sulluso dellistogramma.

    DefinizioneListogramma di unimmagine con livelli di grigio nellintervallo [0,L-1] una funzione discreta della forma:

    h(r k)=nk

    dove:

    rk il kesimolivello di griggio

    nk il numero di pixelscon il livello paria r kcon0KL1

    Listogramma quindi una funzione che associa ad ogni livello il numero di pixel dellimmagine aventi quel livello di grigio.

    Con listogramma otteniamo uninformazione statistica dellimmagine ovvero la frequenza di occorrenza dei livelli di grigio.

    Istogramma normalizzato

    p(rk )=nk

    MN

    con M, N numero di righe e colonne della matrice immagine

    6

  • L'istogramma normalizzato d una stima della probabilit di occorrenza dei livelli di grigio nell'immagine descrivendo la frequenza di occorrenza dei valori di grigio nell'immagine.

    La somma dei componenti di un istogramma normalizzato pari a 1

    Istogramma cumulatoSi definisce istogramma cumulato la seguente funzione

    H (rk )=x=0

    rk

    h(x )

    Indica il numero di pixels nellimmagine che hanno valori di grigio minori o uguali a rk

    nella sua forma normalizzata:

    P(rk )=x=0

    rk

    p (x)

    la funzione ha un massimo asintotico uguale a 1

    In termini statici

    p(x) denota la funzione di densit di probabilit

    P(rk) denota la funzione di Distribuzione Cumulativa

    Equalizzazione dell'istogrammaIl metodo risponde alla seguente idea intuitiva:

    un'immagine con valori di grigio che occupano l'intero range e sono equamente distribuiti dovrebbe avere un buon contrasto.

    Si tratta di un metodo di miglioramento del contrasto basato su criteri formali, automatico, senza euristica

    Il metodo formulato nel continuo; nel discreto ho un'approssimazione

    Teniamo conto che ogni operatore che attua una modifica del contrasto, e quindi che opera sui valori di grigio dell'immagine, comporta il riposizionamento delle barre dell'istogramma dell'immagine iniziale. Le barre non sono modificate in altezza (al limite sovrapposte) e il nuovo istogramma ha lo stesso numero di barre di quello iniziale

    hi(x )dx=h0( y )dy dx ,dy0 , hi(x)dx=h0( y)dy

    Partendo dalla relazione hi(x )dx=h0( y )dyimpostiamo che l'istogramma dell'immagine risultante sia uniforme, ovvero tutte le barre abbiano la stessa altezza

    Sia N il numero totale dei pixels

    L numero di livelli di grigio

    7

  • Ciascuna barra dell'istogramma imposto uniforme pari a N/L

    SLIDE Enhancement2-14

    H (xk)=x=0

    x k

    h i(x)

    La trasformazione che permette di ottenere unimmagine con istogramma uniforme listogramma cumulato dellimmagine originale moltiplicato per un fattore di scala.

    I passi della procedura di equalizzazione Calcolo dell'istogramma dell'immagine di Input hi

    Calcolo dell'istogramma cumulato Hi

    Calcolo del nuovo valore del pixel dell'immagine di Output Pout secondo la formulataPout = (L-1/N) Hi(pin)

    Non sempre lequalizzazione porta a buoni risultati

    Scarse prestazioni si hanno ad esempio quando

    limmagine presenta ampie zone scure.

    Matching di istogrammaEnhancement2 Slide 21...25

    Operazioni Aritmetiche con le immaginiSono operatori logici.

    Descrizione

    Somma: riduzione del rumore

    Sottrazione: enfasi delle differenze

    Moltiplicazione: mascheramento

    Divisione: Mascheramento

    Propriet:

    Si effettuano pixel per pixel (in modalit sequenziale o parallela), ovvero gli operatori si applicano a pixels con stesse coordinate, appartenenti a immagini diverse

    Sottrazione ed addizione sono le operazioni aritmetiche pi utilizzate

    Divisione e moltiplicazione hanno ruoli equivalenti (la divisione tra due immagini riconducibile alla moltiplicazione di unimmagine per il reciproco dellaltra) riconducibili a mascheramenti

    Le immagini che compaiono come operandi nelle espressioni algebriche debbono avere la

    8

  • stessa dimensione

    Somma di ImmaginiRiduzione del rumore, Image averaging

    Definiamo rumore presente in un'immagine una componente del segnale acquisito che deriva dal segnale ideale

    Consideriamo l'immagine come matrice di pixels i cui valori sono dati da :

    g(x,y) = f(x,y)+r(x,y) con r rumore presente nell'immagine

    L'idea sottesa al metodo di ridurre il rumore sommando una serie di immagini g(x,y)

    g(x , y )= 1ki=1

    K

    gi(x , y)

    possibile dimostrare che se il rumore scorrelato e con media 0 , il valore atteso di

    g(x , y ) f (x , y )

    Scaling per visualizzazione di immagini somma:

    Unimmagine a 8 bit ha un range di valori per ciascun pixel [0,255]

    Sommando K immagini il range [0, kX255]. Per riportare i valori nel range di visualizzazione lo scaling : g(x,y)/K

    Sottrazione di immagini Si ottiene calcolando la differenza tra i valori di tutte le coppie di pixels corrispondenti, nelle

    due immagini di riferimento. C(x,y)=A(x,y)-B(x,y)

    La sottrazione pu essere utilizzata per enfatizzare le differenze tra due immagini non visibili percettivamente.

    Nei prossimi due esempi che seguono viene sottratta ad unimmagine una stessa immagine acui sono stati azzerati nella codifica di ciascun pixel i 4 bit meno significativi

    Scaling per immagini differenza:

    Nella differenza di immagini il massimo range possibiledellimmagine risultato [-255, +255].

    Per riportare i valori nel range di visualizzazione sfruttando tutto il range dinamico lo scaling consiste nel:

    1. Considerare il minimo dellimmagine differenza

    2. Sommare il suo negativo a tutti i pixel g(x,y)

    3. Moltiplicare per la costante 255/Max dove MAX il massimo dellimmagine ottenuta al punto 2

    9

  • Per la moltiplicazione e divisione serve per schiarire o scure di un certo valore l'immagine

    Operazioni insiemistiche Si applicano a insiemi di pixels appartenti a regioni allinterno di immagini

    Unassunzione implicita che i pixels appartenenti ad una regione (insieme) abbiano la stessa intensit; non infatti definito il risultato dellintersezione sui valori di intensit

    Operatori Logici Operano anchessi pixel per pixel.

    I pixels sono processati come stringhe di numeri binari; gli operatori si applicano dunque bita bit

    Es: il Not applicato ad un pixel nero apparir bianco; il Not realizza la stessa funzione del negativo di un immagine: s=255-t

    And, OrSono utilizzati per mascherare e quindi isolare regioni di interesse nellimmagine (RoI).

    AND: foto AND foto( tutto nero e rettango bianco) passa solo ci che ce nel rettangolo bianco

    OR: foto OR foto ( tutto bianco e un rettangolo nero ) passa solo ci che c' nel rettangolo nero

    Trasformazioni SpazialiTrasformazioni spaziali mediante Operatori LocaliGli operatori locali per trasformazioni spaziali, detti anche filtri operano sullinformazione spaziale intesa come "variazione" dei livelli di grigio in un determinato intorno dell'immagine.

    Frequenza Spaziale, Due definizioni:

    E' la differenza fra il valore pi alto e pi basso in un certo intorno

    E' il numero di cambiamenti nel valore di intensit per unit di distanza per ogni parte dell'immagine

    * se tutti i pixel sono uguali = frequenza nulla

    **se un pixel vale zero e quello sotto vale tanto = frequenza del segnale alta

    ***se un pixel rispetto a un altro ha variazioni unitarie = frequenza del segnale bassa

    FiltriAlla base delle trasformazioni spaziali sottesa l'idea che un'immagine sia una sintesi di diverse componenti spaziali a diversa frequenza.

    10

  • La decomposizione dell'immagine in una somma di componenti a differenti frequenze alla base dell'uso di filtri

    Il processo inverso di sovrapposizione porta alla sintesi dell'immagine.

    F(x,y) = LP (x,y) + HP (x,y)

    con:

    LP = low Pass filtering

    HP = High Pass filtering

    F = immagine di partenza

    Tipi di filtri:

    LowPass: enfatizza, lascia passare, le basse frequenze

    HighPass: enfatizza, lascia passare, le alte frequenze

    Le trasformazioni spaziali o filtri spaziali si basano su

    operatori locali che operano direttamente nel piano immagine interessando il pixel e il suo intorno

    sul concetto di finestra mobile (maschera, template, Kernel)

    Filtri Lineari - Convolutivi Finestra monile: matrice di coefficienti e di valori da sommare

    La finestra centrata sul pixel da elaborare

    Le dimensioni della finestra in generale mxn (di solito quadrata)

    Formula

    m = 2a + 1

    n = 2b + 1

    w = matrice per trasformare

    f = matrice

    g(x , y )=s=a

    a

    t=b

    b

    w(s , t )f (x+s , y+ t)

    11

  • *Per semplicit di notazione

    con:

    wi = coefficiente della maschera

    zi = valore del pixel immagine

    R=i=1

    mn

    wizi

    Soluzioni con la maschera sui bordi Si limita il movimento della maschera mantenendola ad una distanza di (n-1)/2 cio si

    eliminano i bordi

    si duplicano le righe/colonne dell'immagine

    Allargo l'immagine con righe/colonne di zeri

    Operatori di Smoothing : Filtri passa-basso Si enfatizzano le basse frequenze e si attenuano le alte frequenze

    determinano uno sfocamento dell'immagine, utile per vari scopi:

    per eliminare piccoli dettagli

    per ridurre il rumore

    per attenuare falsi contorni per quantizzazione non accurata

    Formula generale per operatori lineari di smoothing:

    g(x , y )=s=a

    a

    t=b

    b

    w (s , t)f (x+s , y+t)

    s=a

    a

    t=b

    b

    w(s , t)

    con

    maschera m x n

    m = 2a +1

    n = 2b +1

    Osservazioni:

    Il denominatore costante

    dal punto di vista algoritmico

    si applica all'immagine l'operazione indicata al numeratore

    12

  • all'immagine risultante si applica il fattore di scala indicato dal denominatore

    Applicazioni Eliminare dettagli

    Eliminare rumore

    SogliaturaL'effetto di omogeneizzazione fatto a scapito di informazioni di bordo, "edges",ovvero di discontinuit significative nell'immagine. Una soluzione la sogliatura.

    Con

    f immagine originale

    g immagine filtrata

    g immagine risultato

    {gI (x , y)=g (x , y ) , se|g (x , y ) f (x , y )|

  • dell'operatore di filtraggio.

    7 x7 per=1

    11 x11 per=1,5

    13 x13 per=2

    19 x19 per=3

    si ottiene una buona approssimazione con la costante davanti alla maschera viaggiante pari a:

    K=2

    Esempio

    Maschera viaggiante:

    1 4 7 4 1

    4 16 26 16 4

    7 26 41 26 7

    4 16 26 16 4

    1 4 7 4 1 Coefficiente: 1/273

    Filtro Mediano Se l'obbiettivo ridurre il rumore piuttosto che livellare, omogeneizzare l'immagine, un

    approccio alternativo agli operatori di smoothing lineare.

    E' particolarmente efficace quando il rumore consiste in netti spikes e si vogliono preservarele zone di transizione dell'immagine.

    Si definisce valore mediano m di un insieme di valori il valore tale per cui met dei valori dell'insieme sono minori (o uguali) ad m e met sono maggiori (o uguali).

    Operativamente

    si ordinano i valori compresi all'interno di una finestra

    si individua il valore nella posizione centrale della sequenza e si assegna tale valore al pixel centrale

    Trasformazioni Spaziali1-2015.pdf SLIDE 30...32

    Operatori di SharpeningSono basati sulla derivata prima e derivata seconda della funzione immagine.

    Basati sulla derivata prima:

    devono avere valore zero nei tratti omogenei dellimmagine

    14

  • devono avere valore diverso da zero lungo le zone di transizione

    Formula

    { dfdx=f (x+1, y )f (x , y )dfdy=f (x , y+1)f (x , y )

    Basati sulla derivata seconda:

    devono avere valore zero nei tratti omogenei dellimmagine

    devono avere valore diverso da zero allinizio ed al termine delle zone di transizione

    Devono avere valore pari a zero nelle zone di transizione con pendenza costante

    Formula

    { d2 fdx2

    =f (x+1, y)+ f (x1, y)2 f (x , y)

    d2 fdy2

    =f (x , y+1)+ f (x , y1)2 f (x , y )

    Operatore di Sharpering Basato sulla derivata secondaSiamo interessati ad un operatore che sia:

    Isotropo ovvero che esalti le zone di alta frequenza in modo indipendente dalla direzione delle discontinuit

    Invariante per rotazione: ruotando limmagine ed applicando poi loperatore si ottiene lo stesso risultato della rotazione dellimmagine a cui gi stato applicato loperatore

    Operatore LaplacianoRosenfeld and Kak (1982) trovarono che loperatore piu semplice ed efficace basato sulla derivata seconda il Laplaciano.

    Nel continuo, per una funzione f(x,y) loperatore Laplaciano definito nel modo seguente:

    2 f= d2 f

    d x2+ d

    2 fd y2

    15

  • un operatore lineare, possibile esprimerlo in termini di maschera convolutiva:(Dimostrazione SLIDE 10,11 Trasformazioni-spaziali2-2015.pdf)

    nell'intorno a 4 (come segue o con i seni invertiti)

    0 1 0

    1 -4 1

    0 1 0 Nell'intorno a 8 (come segue o con i segni invertiti)

    1 1 1

    1 -8 1

    1 1 1

    Le maschere derivative hanno il nucleo convolutivo a somma nulla: nelle zone omogenee dellimmagine (ovvero zone con pixels aventi lo stesso valore di

    grigio), conformemente al comportamento atteso di un operatore derivativo assegnano ai pixels un valore pari a valore zero

    Sommando il risultato del Laplaciano con limmagine originale le zone di transizione del segnale immagine risulteranno enfatizzate e le rimanenti inalterate

    g(x , y )={f (x , y )2 f (x , y) , se il centrodellamaschera negativof (x , y) 2 f (x , y ) , se il centro dellamaschera positivoMaschere viaggianti

    Senza elementi Diagonali0 -1 0

    -1 4 -1

    0 -1 0 Con elementi diagonali

    -1 -1 -1

    -1 8 -1

    -1 -1 -1

    Filtri di Sharpening Unsharp Masking & High BoostingIdea: un'immagine frutto del contributo di basse ed altre frequenze

    F(x , y)=PassaAlto(x , y )+PassaBasso (x , y )

    Un effetto di sharpening si ottiene sottraendo ad un'immagine l'immagine stessa con un operatore diSmoothing cio un filtro passa basso

    PassaAltro(x , y)=F(x , y)PassaBasso (x , y )

    16

  • Filtro Unsharp Maskingg(x , y )= f (x , y ) f smoothed (x , y )

    High Boosting

    Formulag(x , y )=Af (x , y)f smoothed(x , y) , con A1

    Maschera convolutiva (Se A = 1 ottengo il Laplaciano)

    f passaalto(x , y )={Af (x , y )2 f (x , y )Af (x , y)+2 f (x , y) Senza elementi Diagonali

    0 -1 0

    -1 A+4 -1

    0 -1 0 Con elementi diagonali

    -1 -1 -1

    -1 A+8 -1

    -1 -1 -1

    Uso della derivata primaGradiente:

    Il gradiente un vettore che in ogni punto orientato nella direzione di massima pendenza del segnale immagine. Lentit della pendenza catturata dal modulo del gradiente

    f=[G xG y ]=[ f x f y ]

    Modulo del Gradiente:

    | f|=G x2+G y2

    Direzione del gradiente (coefficiente angolare della retta Gy e Gx)

    ( x , y)=tan1(G yG x )Approssimazione discreta del modulo del gradiente mediante applicazione in successione di due maschere convolutive:

    | f|=G x2+G y2 | f||G x|+|G y|

    17

  • z1 z2 z3

    z4 z5 z6

    z7 z8 z9| f||z 8z 5|+|z6z5|

    Altre approssimazioni: Operatore di Roberts

    | f||z 9z 5|+|z8z6|-1 0

    0 1+

    -1 0

    0 1 Operatore di Sobel

    | f||(z7+2z8+z 5)(z 1+2z 2+ z3)|+|(z 3+2z 6+z9)(z 1+2z 4+z 7)|

    -1 -2 -1

    0 0 0

    1 2 1+

    -1 0 1

    -2 0 2

    -1 0 1

    Operatori di Smoothing Sommario Operatori di integrazione (filtro passa basso)

    Media, media pesata

    Nuclei convolutivi con somma algebrica dei coefficienti positiva

    Gauss (credo)

    Operatori di Sharpening Sommario Operatori derivativi (filtro passa alto)

    Gradiente, Laplaciano

    Nuclei convolutivi con somma algebrica nulla

    18

  • Segmentazione delle immagini

    Segmentazione di ImmaginiGenerale:

    La segmentazione suddivide limmagine in regioni/oggetti che la compongono e ripropone in chiave tecnologica/artificiale la primitiva figura/sfondo che regola la nostra percezione

    Il livello di dettaglio con cui effettuare la suddivisione dipende dagli scopi dellanalisi di immagini di cui la segmentazione il passo iniziale

    La segmentazione di immagini uno dei temi pi complessi dellelaborazione delle immagini

    Dallaccuratezza del processo di segmentazione dipende il successo delle elaborazioni successive finalizzate allanalisi ed alla classificazione dei contenuti In alcune appllicazioni, per facilitare il processo di segmentazione si controlla il processo di acquisizione (es: per il controllo industriale si controlla lilluminazione e lo sfondo in modo tale che gli oggetti siano facilmente identificabili) o si controlla la formazione dellimmagine (es: nel telerilevamento per scopi di target recognition militare si utilizzano sensori sensibili alle caratteristiche spettrali degli oggetti da identificare

    Sia R la regione spaziale che comprende lintera immagine.Possiamo intendere la Segmentazione un processo che partiziona R in n sottoregioni R 1 ,....., R n tali che :

    1.nUi=1

    R i=R

    2. Ri unaregione connessa, i

    3. RiR j= i , j , i j

    4. P(Ri)=True , iP(R k ) un predicato logico definito per i punti appartenenti a Rk FI linsieme vuoto

    19

  • 5. P(RiR i)=False per ogniregione adiaciente Ri ,R j

    Approcci alla segmentazione Approccio basato sulla discontinuit dei valori di grigio nellimmagine:

    [Basate sui Contorni]

    assume che i bordi (edges)degli oggetti siano sufficientemente diversi gli uni dagli altri edal background in modo da consentire una separazione degli oggetti di interesse

    Approccio per similarit dei valori di grigio: [Basate sulle regioni]

    procede direttamente individuando regioni che soddisfano i criteri 1-5 elencati in precedenza

    Parallelismo Enhancement-Edge detection Enhancement - operatori puntuali livello di grigio

    Enhancement - operatori locali frequenza spaziale

    Segmentazione - operatori basati sulla discontinuit contorni

    Segmentazione - operatori basati sulla similarit regioni

    Contorni e regioni sono strutture che creano il link tra dati grezzi ed interpretazione.

    Metodi basati sulla discontinuit (Basati sui contorni) Si basano su operatori derivativi

    tali metodi sono articolati in due fasi:

    Trasformazione dell'immagine per esaltare le zone di Discontinuit

    Applicazione di un criterio di decisione ad ogni pixel dell'immagine trasformata per attribuire l'appartenenza o la non appartenenza del pixel alle zone di bordo

    Alla base di queste tecniche ritroviamo operatori derivativi simili a quelli visti nell'ambito dell'Image Enhancement

    NellEnhancement il risultato prodotto dallapplicazione di tali operatori viene sovrapposto allimmagine originale per esaltare le zone ad alta frequenza spaziale

    Nella segmentazione dopo lapplicazione di tali operatori viene applicata una regola di decisione per decidere sulla base del valore della trasformazione se un dato pixel dellimmagine appartiene ad un bordo/edge

    SLIDE 11 Segmentazione dimmagini.pdf

    20

  • Operatori utilizzati nell'ambito della segmentazione Operatori direzionali semplici

    Operatori basati sul modulo del gradiente

    Operatore Laplaciano, Laplaciano della Gaussiana

    Determinazione di Punti Isolati Applicando un operatore derivativo del secondo ordine

    ottengo valori molto discrimanti

    Il punto isolato definisce una zona di discontinuit in tutte le direzioni

    Si utilizza quindi l'operatore Laplaciano che un operatore isotropo derivativo del secondo ordine

    Procedimento Applico l'operatore Laplaciano su tutti i pixels dell'immagine

    Applico un'operazione di sogliaturaif |R|>=Tthen punto isolato

    Estrazione di lineeSi definiscono maschere viaggianti di tipo direzionale, ovvero che calcolano le differenze accumulate lungo certe direzioni:

    La direzione caratterizzata dalla disposizione dei coefficienti con valore pi alto (pari a 2) nel nucleo convolutivo, la cui somma pari a zero; le maschere daranno quindi risposte nulle nelle zone omogenee.

    Assumendo un background costante, ciascuna maschera far tornare il valore massimo quando sar posizionata in modo tale che la linea disposta lungo la riga centrale della maschera

    Spiegazione

    Siano R1, .., R4 le risposte delle maschere per un dato posizionamento sullimmagine

    21

  • Se|Ri|>|R j for|all ji

    il corrispondente pixel centrale appartiene alla linea con direzione corrispondente alla maschera i-esima

    Se si interessati allindividuazione di linee in una determinata direzione nota a priori, si processa limmagine con la maschera corrispondente e si soglia il valore dellimmagine risultante opportunamente

    Bordi (edges) e ContorniLapproccio per discontinuit alla segmentazione delle immagini ha come obbiettivo la determinazione completa del contorno degli oggetti contenuti nellimmagine.

    Alcune precisazioni:

    Contorno concetto globale

    Bordo (edge) concetto locale

    Un edge/bordo un insieme di pixels connessi che risiedono nelle zone di confine tra due regioni, in cui lintensit subisce brusche variazioni

    Idealmente un edge un insieme di pixels connessi ognuno dei quali Si pone ortogonalmente alla transizione dei livelli di grigio.

    Realisticamente, a causa di imperfezioni nel processo di acquisizione, un edge mostra spesso un effetto di sfocamento, cos da avere un profilo a rampa. Pi la rampa lunga pi ledge spesso.

    Utilizzando operatori locali, per ottenere un contorno si determinano gli edges mediante operatori derivativi locali e si definisce poi una procedura per la ricostruzione/descrizione dei contorni degli oggetti linkando i bordi individuati

    Edge

    Con gli operatori derivativi si rilevano i punti di transizione di livelli di grigio nellimmagine

    Per rilevare un edge occorre cogliere la significativit della transizione ovvero distinguere transizioni significative (edges) da transizioni non significative (rumore, variazioni non di bordo)

    Lo strumento a disposizione per la discriminazione la sogliatura; il problema lindividuazione della soglia che sar frutto di conoscenze a priori o procedure trial and error

    *Gli operatori basati sulla derivata prima e seconda sono sensibili al rumore In particolare la derivata seconda.

    22

  • Altre precisazioni:

    Punto di bordo:

    La derivata prima in quel punto ha un valore superiore ad una determinata soglia

    Segmento di Bordo:

    Insieme di punti di bordo connessi secondo un dato criterio di connettivit

    Contorno:

    Insieme di segmenti di bordo linkati tra loro secondo un criterio di linking

    Operatori Operatore di Roberts

    | f||z 9z 5|+|z8z6|-1 0

    0 1+

    -1 0

    0 1 Operatore di Sobel

    | f||(z7+2z8+z 5)(z 1+2z 2+ z3)|+|(z 3+2z 6+z9)(z 1+2z 4+z 7)|

    -1 -2 -1

    0 0 0

    1 2 1+

    -1 0 1

    -2 0 2

    -1 0 1

    Operatore di Prewitt| f||(z7+z 8+z 9)(z 1+z2+z 3)|+|(z3+ z6+z 9)(z1+z 4+z 7)|

    -1 -1 -1

    0 0 0

    1 1 1+

    -1 0 1

    -1 0 1

    -1 0 1

    23

  • Determinazione dei contorni basata su operatori-gradiente Applicazione delle maschere nelle due direzioni

    calcolo del modulo (e della direzione del gradiente)

    Svantaggi:

    Complessit del calcolo

    Difficolt nell'individuazione di un valore di soglia

    Se si applica lo smoothing

    elimina zone di discontinuit non significative

    Sar pi semplice determinare il valore di soglia per la determinazione dei contorni

    Metodo:

    Sobel

    Smoothing

    Threesholding

    Uso del Laplaciano nella segmentazione Uso diretto per la localizzazione degli edge

    Uso complementare agli operatori derivativi del primo ordine a cui demandato il ruolo di localizzazione degli edges; con il Laplaciano si prende la decisione se un pixel sta nel lato scuro o chiaro delledge (inizio o fine della rampa relativa alledge nel profilo immagine).

    Vantaggi principali del Laplaciano per un uso diretto:

    Il punto di passaggio per lo zero unico se la rampa in corrispondenza delledge sufficientemente ripida (questo consente di ottenere contorni a spessore unitario e centrati sul punto di transizione)

    Gli zero crossing formano catene abbastanza continue indipendentemente dall'intensit del contorno

    L'operazione di sogliatura pi semplice: i candidati punti di contorno sono gli zeri della derivata seconda.

    24

  • Uso del Laplaciano della Gaussiana per la segmentazione Poich il Laplaciano un'operatore derivativo del secondo ordine ha comunque dei limiti se

    applicato direttamente poich risulta molto sensibile al rumore.

    Loperatore Laplaciano della Gaussiana (LoG) introdotto da Marr e Hildreth composto essenzialmente da due operazioni

    Convoluzione conun filtro convolutivo gaussiano

    Analisi della derivata seconda (Laplaciana): calcolo della

    derivata e binarizzazione

    introdotto al fine di superare lo svantaggio dellenfasi del rumore nellapplicazione del laplaciano mantenendone i vantaggi

    Filtro LoG

    Lidea di applicare un filtro di smoothing allimmagine per ridurre il rumore e poi applicare loperatore Laplaciano

    Anzich fare in due passi si pu definire un unico nucleo convolutivo chiamato il Laplaciano della Gaussiana sfruttando la linearit delloperatore laplaciano

    Formula:

    log (x , y)= 14[1 x2+ y22 2 ]e

    x2+ y2

    22

    E comodo utilizzare un nucleo convolutivo unico

    Tuttavia applicando prima il filtro gaussiano e poi loperatore Laplaciano si avrebbe un maggior controllo sulla funzione di Smoothing

    Analizziamo in dettaglio il ruolo delloperatore LoG per lindividuazione degli edges nellimmagine ai fini della segmentazione

    Es. Consideriamo unimmagine composta da due regioni ciascuna con valori omogenei ma

    diversi tra le due regioni La risposta del filtro di LoG sar la seguente:

    Zero in zone distanti dalledge Positiva da un lato delledge Negativa dallaltro lato delledge Zero nel mezzo delledge

    25

  • Determinazione dei Contorni Linking i bordi Idealmente le tecniche derivative dovrebbero restituire contorni continui; in realt a causa di

    rumore, differenze di illuminazione etc. si ottengono contorni spezzati

    Si provvede adottando tecniche di linking

    Tecniche di Linking (locali) Si considerano due pixels individuati come pixels di bordo dalle tecniche basate sul

    gradiente e si decide la loro a ppartenenza allo stesso contorno verificando la similarit di:

    Intensit del modulo del gradiente

    Direzione del vettore gradiente

    Formule| f (x , y ) f (x0, y0)|E ,conE soglianonnegativa|(x , y )(x0 , y0)|A

    *In casi complessi la continuit del contorno garantita dallutilizzo di approcci che integrano gli operatori locali in approcci globali

    Segmentazione d'immagini Approccio per regioni

    Thresholding [Multilevel thresholding] Comprende tecniche fondamentali e semplici, basate su criteri di omogeneit dei livelli di

    grigio all'interno delle regioni di cui composta limmagine.

    Si procede definendo degli intervalli nel range dinamico dell'immagine e ad ognuno di essi si associa una regione.

    Lo strumento fondamentale per la segmentazione a soglia l'istogramma.

    Formula:T = T [ (x,y), p(x,y) , f(x,y)]con:

    f(x,y)livello di grigio del pixel di coordinate (x,y)

    p(x,y) propriet locale (per es. livello medio

    dei pixel di un determinato intorno)

    T dipendente solo da f(x,y) Soglia globale

    T dipendente sia da f(x,y), sia da p(x,y) Soglia locale

    T dipendente da f(x,y), p(x,y), ed (x,y) Soglia dinamica, adattiva

    26

  • Il rumore compromette l'applicabilit

    Soluzione:

    Applicare un filtro di smoothing che sfoca l'immagine (ma non l'istogramma)

    L'illuminazione non omogenea sfavorisce il trovare un livello di soglia

    La soglia globale da utilizzare

    Immagini sempli con pochi oggetti uniformii

    applicazioni nel controllo industriale in cui possibile definire e controllare l'illuminazione

    Algoritmo iterativo per definire la soglia globale Seleziona un primo valore per la soglia T (ad es. valor medio di tutti i pixels

    nellimmagine)

    Segmenta limmagine usando T. Si ottengono due gruppi di pixels: G1 con valori sopra la soglia e G2 con valori minori o uguali alla soglia

    Calcola la media dei valori per G1 e G2 (m1 ed m2 rispettivamente)

    Calcola il nuovo valore di soglia T= 12(m1+m2)

    Ripeti dal passo 2 finch la differenza in T tra due iterazioni inferiore ad un certo valore T 0

    Local, Adaptive Thresholding Alcuni fattori connessi allacquisizione dellimmagine, per esempio lilluminazione non

    uniforme, rendono inapplicabile il metodo di sogliatura basato sulla soglia globale

    Il problema risolvibiledividendo limmagine originalein sottoimmagini ed utilizzareuna soglia diversa per ciascunasottoimmagine

    Laspetto critico in questamodalit come dividerelimmagine (quanto grandi debbono essere le sottoimmagini) e come definire la soglia per ciascuna di esse

    Lipotesi che si possa raggiungere per ciascuna immagine la condizione per cui efficace una semplice sogliatura globale

    27

  • Operatori derivativi nel Tresholding Le possibilit di definire un valore di soglia per un problema di segmentazione sono

    maggiori nel caso in cui listogramma dellimmagine abbia picchi elevati e ristretti, simmetrici e ben separati

    Una possibilit per ottenere un buon istogramma su cui definire il valore di soglia di considerare solo pixels in prossimit dei bordi degli oggetti.

    Per individuare se un pixel di bordo utilizzo il gradiente

    Per individuare se sono sulla parte chiara o scura delledge utilizzo il laplaciano

    Determinazione di RegioniLe tecniche di estrazione di regioni si basano sulle propriet di similarit tra i pixels dell'immagine

    in alternativa alle tecniche di estrazione dei contorni che si basano sulle caratteristiche di discontinuit.

    Le tecniche di estrazione di regioni tentano di raggiungere l'obbiettivo della segmentazione, ovvero l'estrazione di oggetti dall'immagine, in modo diretto definendo regioni che coincidano con oggetti o parti di essi.

    Dal punto di vista insiemistico l'insieme delle regioni R 1 ,....., Rn , che vengono individuate da un processo di segmentazione devono rispettare le seguenti condizioni:

    1.nUi=1

    R i=R

    2. Ri una regioneconnessa , i

    3. RiR j= i , j , i j

    4. P(Ri)=True , iP(R k ) un predicato logico definito per i punti appartenenti a Rk FI linsieme vuoto

    5. P(RiR i)=False per ogniregione adiaciente Ri ,R j

    Region Growing Le tecniche di segmentazione che vanno sotto il nome di region growing sono basate sul

    concetto di accrescimento delle regioni ottenuto mediante progressiva fusione di pixels/regioni adiacenti.

    L'idea base quella di partire con un insieme di "semi" e a questi aggregare pixels dell'intorno che obbediscono ad un criterio di omogeneit (predicato P).

    Tali criteri possono basarsi su descrittori pi o meno complessi basati sull'uniformit del

    28

  • livello di grigio, il colore, la tessitura...

    Nellaccrescimento occorre considerare laspetto geometrico ovvero i pixels appartenenti ad una regione dovrano formare un insieme connesso

    I criteri possono essere pi o meno complessi a seconda dei casi ed inglobare sia funzioni matematiche sia regole euristiche basate su conoscenze a priori degli oggetti.

    Punti critici

    Scelta dei semi; pu basarsi su euristiche o per essere attuata necessita la valutazione di criteri complessi e simili a quelli usati in fase di accrescimento.

    Complessit computazionale

    Vantaggi

    Flessibilit

    Accuratezza

    Un aspetto interessante la definizione di approcci ibridi basati su estrazione di regioni guidata dai risultati dell'estrazione di contorni.

    Tecniche di Split & MergeQueste tecniche eseguono la segmentazione in due fasi:

    Fase1: processo Top Down di suddivisione dell'immagine in regioni elementari

    Fase2:processo bottom-up di raggruppamento (merge) delle regioni elementari in regioni complesse.

    Le tecniche "Split & Merge" si possono considerare un sottocaso delle tecniche di region growing in cui il punto di partenza fornito dalla fase di split e l'accrescimento fornito dalla fase di merge.

    Split Merge [Slide 33]Il processo di splitting avviene tramite una procedura ricorsiva che crea e scandisce un albero quaternario

    Si parte dall'intera immagine (R; root dell'albero quaternario) e si procede suddividendo l'immagine in un insieme di 4 regioni quadrate di dimensione 2 n X2 n (primo livello del'albero).

    Si procede valutando per ogni blocco la condizione di omogeneit (rappresentata dal predicato P).

    Per i blocchi per i quali la condizione non verificata si procede suddividendoli in quattro sotto-blocchi anch'essi quadrati di dimensioni 2 n-1 X2 n-1 ai quali viene applicata ricorsivamente la stessa procedura.

    Si termina la procedura di Splitting quando per ogni regione soddisfatta la condizione di omogeneit.

    29

  • Merge [Slide 35]Al termine del processo di suddivisione l'immagine segmentata in un insieme molto numeroso di regioni di piccole dimensioni (sovra- segmentazione).

    E' dunque probabile che la partizione finale contenga regioni adiacenti con stesse propriet.

    Si procede dunque a fondere regioni adiacenti R i ed R j per le quali

    P(R i U R j )= True.

    L'intero processo termina quando nessuna azione di SPLIT e MERGE possibile.

    Il ColoreIl colore la traduzione visiva della stimolazione dei fotorecettori della retina provocata da unenergia radiante compresa entro un intervallo spettrale tra 0.4 e 0.7 micron di lunghezza donda

    Importanza:

    Ispezione visuale

    Analisi automatica:

    ricco di informazioni

    Il fenomeno dei colori fondamentalmente di tipo psicofisico

    dipende da

    nautra luminosa

    caratteristiche riflettivit

    caratteristiche sensoriali del nostro occhio

    caratteristiche psichiche

    Sulla natura del colore si discusso per parecchi secoli.

    Il problema resta ancora pieno di interrogativi.

    La visione del colore deriva da un processo molto complesso in cui i fattori fisiologici e psicologici si sovrappongono in maniera determinante a fattori fisici.

    Dal punto di vista fisico esistono solo radiazioni di diversa lunghezza donda e non il colore come entit.

    Coni:

    65% dei coni sono sensibili al rosso, 33% al verde, 2% al blu

    30

  • Sintesi colori:

    Colorimetria Obbiettivo

    definire sistemi di riferimento colorimetrici assoluti che permettano di definire in modo univoco qualsiasi colore

    A scopi di standardizzazione la CIE(Commission Internationale de lEclarage) fissa le lunghezze donda dei colori primari ai seguenti valori

    Blu = 435.8nm

    Green= 546.1 nm

    Rosso = 700 nm

    Osservazione:Dal punto di vista della distribuzione spettrale dei colori, non un singolo colore corrispondente ad una singola lunghezza d'onda pu essere definito rosso, verde o blu; quindi le tre componenti specificate RGB non generano tutti i colori dello spettro.

    Sistema colorimetrico CIE XYZ Dalla teoria del tristimolo si deriva un modello quantitativo per specificare il colore.

    Un colore sar determinato dai valori di tristimolo (detti anche coefficienti di tricromaticit) denotati X, Y, Z per la componente di Rosso, Verde e Blu rispettivamente

    Come si derivano tali coefficienti?

    Ricordiamo i fattori coinvolti nella caratterizzazione del colore

    La riflettanza della superficie di cui si vuole quantificare il colore

    31

  • la sorgente illuminante

    le curve di sensibilit dei tre tipi di fotoricettori del nostro sistema visivo

    L15-IL Colore.pdf SLIDE 26...46

    Gli Spazi Colore - Modelli di rappresentazione del Colore Lo scopo dei mofelli e/o spazi colore quello di facilitare la specifica dei colori in una

    modalit standard

    In essenza un modello colore consiste di:

    Un sistema di coordinate che definisce uno spazio

    Un sottospazio in cui ogni colore un punto

    Ogni spazio differisce per le variabili scelte come base per lo spazio

    Esistono diversi spazi orientati a diversi scopi:

    hardware oriented (monitor a colori, stampanti)

    RGB (color monitor, Video cameras)

    CMY, CMYK (stampanti a colore)

    manipulation oriented (CAD, Animazione,..)

    HSI

    Esistono molti altri modelli, facilmente derivabili e comprensibili a partire da quelli citati

    Il modello colore RGB E basato sulla teoria del tristimolo per la quale ogni colore visto come combinazione

    variabile dei tre colori primari Red, Green, Blue

    Il sistema RGB alla base della produzione di grafica per lo schermo

    I valori spettrali di Red Green and Blue sono quelli convenzionalmente posti da C.I.E (non si generano quindi tutti I colori visibili)

    Ogni colore appare nelle sue tre componenti spettrali Red Green Blue

    ogni colore un punto allinterno del cubo ed definito in termini di un vettore che parte dallorigine del sistema di assi cartesiani.

    E definito in un sistema di riferimento cartesiano con i colori primari R G B posti sugli assi

    Linsieme dei punti appartenenti al cubo rappresenta linsieme dei colori

    che si possono rappresentare con i colori primari scelti come basi Il modello RGB

    32

  • semplice computazionalmente, orientato allHardware

    Non include le caratteristiche percettive, non quindi immediata la manipolazione dei colori

    Codifica delle immagini RGB

    3 strati di colore Es. 8 bit, in totale fa 24 bit

    E importante definire un sottoinsieme di colori riproducibile fedelmente indipendentemente dalle risorse hardware a disposizione.

    Molti sistemi in uso riducono il numero di colori rappresentabili a 256 a vantaggio della fedelt di riproduzione

    Dei 256 solo 216 sono affidabili ovvero riproducibile fedelmente indipendentemente dal sistema operativo. (Per applicazioni Internet consigliabile utilizzare tale sottoinsieme detto safe web colors)

    I modelli CMY e CMYK lo spazio CMY lo spazio duale di RGB, con basi opposte:

    C=1-R M=1-G Y=1-B

    Conversione RGB CMY

    [ CMY ]=[111][

    RGB ]

    Spazio HSI/L E vicino a come si pensa il colore ovvero in termini di

    Tinta (Hue)

    Saturazione (Saturation)

    Intensit/Brillanza (Intensity) (o lightness)

    E uno strumento utile per sviluppare algoritmi basati su una descrizione percettiva del colore e che dovranno essere utilizzati per manipolare colori secondo una descrizione naturale ed intuitiva

    La nozione di intensit fondamentale nel descrivere uninformazione pittoriale; lo spazio HSI scorpora linformazione intensit dai descrittori di colore/tinta facilitando la specifica del colore complessivo

    * e come far ruotare il cubo dell'RGB su un vertice

    33

  • Elaborazione delle Immagini in Pseudocolore Tecniche di conferimento del colore a immagini acquisite in bianco e nero.

    Lo scopo migliorare lispezione visuale di immagini e identificare informazioni rappresentate originariamente in scale di grigio.

    Intensity Slicing/Color CodingPensiamo allimmagine rappresentata come funzione 3D. Ponendo un piano parallelo alle coordinate dellimmagine si definisce uno slicing dellimmagine. Associando un colore diverso ad ogni lato del piano otteniamo unimmagine a due colori.

    In generale:

    Sia[0, L-1] la scala di grigi, l 0 il nero e l L-1 il bianco

    Supponiamo che P piani perpendicolari allasse delle intensit siano definiti ai livelli l 0 ...l p;

    i piani P con 0

  • Operatori di Enhancement Similmente alle trasformazioni puntuali per immagini a livelli di grigio definiamo le

    trasformazioni (ountuali) del colore in unimmagine full color con lespressioneg(x , y )=T [ f ( x , y)]

    Dove f unimmagine a colori g limmagine trasformata T un operatore che opera suun intorno dellimmagine

    Operatori Puntuali Operano solo sul valore puntuale del pixel ovvero sui valori di grigio dei piani immagine

    che compongono limmagine a colorsi=T i(r1 ,... , rn), con i=1, ... , n

    n il numero delle componenti colore:in RGB n=3, in CMYK n=4..;

    si e ti denotano le componenti colore di ciascun pixel e Ti denota la trasformazione definita per una data componente colore; linsieme delle trasformazioni Ti denota linteratrasformazione detta color mapping

    Color BalancingFunzioni che correggono Limmagine per ottenere quella corretta

    Trasformazioni spaziali: Smoothin nello spazio RGBSia S x,y un insieme di coordinate che definiscono un intorno del pixel c di coordinate (x,y) in unimmagine RGB

    c (x , y )=[R(x , y)G (x , y )B(x , y )]l'operazione di smoothing cos definita:

    c (x , y )=1k (x , y)S

    c (x , y )

    c (x , y )=[1k (x , y)S

    R(x , y )

    1k ( x, y)S

    G(x , y)

    1k (x , y)S

    RB(x , y )]Con R, G, B componenti del pixel c dellimmagine a colori nel piano di Rosso del Verde e del Blu

    35

  • Color Image Sharpening:operatore Laplaciano

    2[c (x , y )]=[2R (x , y )

    2G(x , y )2B(x , y) ]

    36

    Formazione delle ImmaginiAcquisizione dell'immagineProcesso di acquisizione dell'immagineProcesso di formazione delle immagini

    Percezione delle ImmaginiConcetti di baseImage EnhancementCaratteristicheFormula GeneraleOperatori Puntuali GeneraleTrasformazioni dei valori di grigioApplicazioniTrasformazioni puntuali di base

    Operatori PuntualiNegativo di un immagineTrasformazioni logaritmicheTrasformazioni LogaritmicheContrast StretchingContrast Stretching con funzioni lineari a pezziGray level/intesity SlicingBit Plane Slicing

    Istogramma di un immagineDefinizioneIstogramma normalizzatoIstogramma cumulato

    Equalizzazione dell'istogrammaI passi della procedura di equalizzazioneMatching di istogramma

    Operazioni Aritmetiche con le immaginiSomma di ImmaginiSottrazione di immagini

    Operazioni insiemisticheOperatori LogiciAnd, Or

    Trasformazioni SpazialiTrasformazioni spaziali mediante Operatori LocaliFiltriFiltri Lineari - ConvolutiviSoluzioni con la maschera sui bordiOperatori di Smoothing : Filtri passa-bassoApplicazioni

    SogliaturaFiltro GaussianoFiltro MedianoOperatori di SharpeningOperatore di Sharpering Basato sulla derivata secondaOperatore LaplacianoFiltri di Sharpening Unsharp Masking & High BoostingUso della derivata primaOperatori di Smoothing SommarioOperatori di Sharpening Sommario

    Segmentazione delle immaginiSegmentazione di ImmaginiApprocci alla segmentazioneParallelismo Enhancement-Edge detectionMetodi basati sulla discontinuit (Basati sui contorni)Operatori utilizzati nell'ambito della segmentazioneDeterminazione di Punti IsolatiProcedimentoEstrazione di lineeBordi (edges) e ContorniOperatoriDeterminazione dei contorni basata su operatori-gradiente

    Uso del Laplaciano nella segmentazioneUso del Laplaciano della Gaussiana per la segmentazioneDeterminazione dei Contorni Linking i bordiTecniche di Linking (locali)

    Segmentazione d'immagini Approccio per regioniThresholding [Multilevel thresholding]Algoritmo iterativo per definire la soglia globaleLocal, Adaptive ThresholdingOperatori derivativi nel TresholdingDeterminazione di RegioniRegion GrowingTecniche di Split & MergeSplit Merge [Slide 33]Merge [Slide 35]

    Il ColoreColorimetriaSistema colorimetrico CIE XYZ

    Gli Spazi Colore - Modelli di rappresentazione del ColoreIl modello colore RGBI modelli CMY e CMYKSpazio HSI/L

    Elaborazione delle Immagini in PseudocoloreIntensity Slicing/Color Coding

    Full color Image processingOperatori di EnhancementOperatori PuntualiColor BalancingTrasformazioni spaziali: Smoothin nello spazio RGBColor Image Sharpening:operatore Laplaciano