• Progetto ed applicazioni di metodi per l'analisi della qualità delle immagini
  • Dardi, Francesca

Subject

  • analisi qualità immagini
  • applicazioni forensi
  • SCUOLA DI DOTTORATO DI RICERCA DI INGEGNERIA DELL'INFORMAZIONE
  • ING-INF/01 ELETTRONICA

Description

  • 2010/2011
  • L’analisi della qualità dell’immagine rappresenta attualmente un ambito di ricerca estremamente interessante ed innovativo per quanto riguarda molteplici settori di applicazione, dal multimediale, al biomedico, al forense. Trattare l’argomento in modo esaustivo si presenta quindi particolarmente complesso poiché, a seconda della particolare tipologia di applicazione, possono essere definiti di conseguenza diversi criteri per esprimere la qualità dell’immagine in analisi e diverse categorie di algoritmi per la determinazione di criteri di valutazione. Nel presente lavoro di tesi, si vuole cercare di dare un quadro sufficientemente ampio ed originale di quali possano essere stime efficaci della qualità di un’immagine, in particolare all’interno di una sequenza video ed in fase di studio di nuovi sistemi multimediali ad alta qualità, e con tale termine intendendo la qualità percepita dall’utente finale del sistema: parliamo quindi di qualità soggettiva, argomento ancora più circostanziato nel campo di studio individuato. Frequentemente, in tale ambito, le analisi di qualità, o più specificatamente di artefatti riconducibili a stime effettuate, vengono implementate in relazione a codifiche video proprie di standard avanzati: esempio tipico è rappresentato dalle applicazioni di algoritmi di qualità a possibili configurazioni di codifica previste dallo standard H264. Determinati tipi di codifiche, comprendono già nella catena di elaborazione del video la presenza di specifici stadi atti a ridurre determinati artefatti da codifica, fra cui citiamo la blochettatura, che in qualche modo è possibile prevedere soprattutto in caso di “bit rate” di trasmissione particolarmente bassi e corrispondenti ad una maggiore perdita di informazione, almeno nella maggior parte dei casi. Proprio per questo motivo decidiamo di rivolgerci allo studio di una seconda tipologia di artefatto, estremamente rilevante dal punto di vista percettivo ma non ancora così analizzato, ovvero la sfocatura: questa non è facilmente riconducibile ad una singola causa, come appunto la codifica, ed è per questo che misurazioni in tal senso vanno effettuate su più caratteristiche dell’immagine in analisi. La misurazione di sfocatura che proponiamo in questo lavoro è costituita infatti da differenti componenti, in modo da poter ricondurre a ciascun tipo di analisi sfocature dalle caratteristiche diverse ed imputabili a cause di natura differente. Una prima misurazione a livello globale riguarda in particolare una stima in percentuale dell'area dell'immagine in esame interessata da un basso indice di contrasto, calcolato secondo formule note e nel rispetto di quanto percepito da un osservatore. Una seconda misurazione di tipo globale rileva invece il deterioramento o addirittura l'assenza di dettaglio fine, imputabile ad es. ad artefatto da codifica in modo abbastanza tipico. Alle misurazioni di sfocatura precedentemente illustrate, diviene necessario affiancare altre considerazioni di tipo percettivo, riconducibili a modelli del sistema visivo umano, proprio per raggiungere una valutazione soggettivamente coerente anche in assenza di immagini di riferimento per effettuare la stima di qualità. È necessario infatti valutare diversamente l’entità dell’artefatto a seconda delle caratteristiche a livello locale della zona dell’immagine in cui si manifesta. All’interno dell’immagine in analisi, grazie a modelli già accettati dalla comunità scientifica, è possibile determinare, quale sia la regione e/o gli oggetti focalizzati immediatamente dall’attenzione di un osservatore umano. Si decide quindi di abbinare procedure di determinazione di aree di “spot of attention” a procedure di estrazione degli oggetti presenti in una scena, in modo da distinguerne quelli così detti “in primo piano”. Ciò comporta in particolare l’integrazione di modelli del sistema visivo umano con un opportuno algoritmo di segmentazione, sperimentalmente coerente con quanto percepito a livello della scena in termini di regioni estratte. Il frame viene segmentato in regioni dalle caratteristiche omogenee e coerenti con la cognizione dell’osservatore ed in un secondo momento, vengono selezionate fra le regioni individuate quelle che soddisfano i criteri scelti di rilevanza percettiva. A valle di tutte queste considerazioni, sintetizziamo le misurazioni e le informazioni percettive rilevate per identificare la presenza e classificare la tipologia di sfocatura presente in una determinata immagine. Vengono descritte le caratteristiche delle diverse tipologie di sfocatura di interesse per il presente lavoro e in quale modo possono essere riconosciute e quantificate seguendo la traccia di analisi finora descritta: in particolare, vengono riconosciute la sfocatura nativa, estesa in ampie zone dell’immagine e prodotta da cattiva acquisizione o volutamente introdotta dall’operatore, e quella da codifica. In presenza di sfocatura da codifica, vediamo come ne siano particolarmente affetti i bordi degli oggetti presenti nella scena e non particolarmente netti, così come le tessiture ed altri dettagli fini. Tessiture e dettaglio fine corrispondono infatti a rapide variazioni di intensità ma di ampiezza contenuta, per questo la trasformata DCT e la quantizzazione successiva propria della codifica penalizzano soprattutto tali frequenze più elevate. Basandoci su queste osservazioni, viene proposta una tecnica per la stima locale della sfocatura grazie all’analisi dei bordi e del dettaglio nella componente di luminanza dell’immagine. Questo è possibile ricorrendo all’utilizzo di un operatore, ovvero la diffusione anisotropa, che si rivela particolarmente adatto a simulare gli effetti della sfocatura da identificare, in modo da capire se questa ha già avuto effetto sull’immagine di test o meno. L’efficacia della metrica proposta nella stima della sfocatura viene quindi sperimentalmente analizzata. Per prima cosa i “frame” vengono raggruppati secondo criteri oggettivi, come ad esempio la presenza di sfocatura e la sua origine, esaminando la corrispondenza fra il valore calcolato della metrica e la categoria oggettiva del “frame” in esame. Successivamente, viene studiata la relazione fra metrica e stima complessiva di qualità, confrontata con giudizi di osservatori umani, sempre in relazione alla tipologia di sfocatura corrispondente. Si procede quindi con una seconda fase sperimentale atta a verificare la validità soggettiva delle considerazioni fatte in caso di sfocatura da codifica analizzata a livello locale e confrontata con valutazioni percettive. Diversi risultati sperimentalmente ottenuti vengono presentati nel capitolo dedicato. Per completare lo studio proposto, infine, si analizza brevemente altre possibili applicazioni di algoritmi di analisi della qualità dell’immagine, diversi dal principale ambito di analisi riguardante la multimedialità. In particolare, uno dei settori che maggiormente sta acquisendo importanza in termini di ricerca riguarda proprio le applicazioni alle scienze forensi, con le problematiche ad essa relative e prevalentemente inerenti il miglioramento della qualità dell’immagine finalizzata e/o preventiva al riconoscimento di volti e tracce contenute nell’immagine in esame, da sottoporre ad un operatore esperto o ad un algoritmo di riconoscimento automatico. Una prima analisi di qualità dell’immagine da sottoporre a riconoscimento può rappresentare quindi un importante passo da eseguire preventivamente ad altri tipi di operazioni, anche per ottenere una stima di attendibilità di quanto poi effettuabile in termini di miglioramento e riconoscimento: in corrispondenza ad un basso livello di qualità, corrispondente a tracce realmente rilevate sulla scena del crimine, viene proposto infine un algoritmo di riconoscimento rivolto a un tipo di tracce molto specifico, ovvero quelle di calzatura, che si dimostra particolarmente robusto al rumore e particolarmente adatto a lavorare sul caso reale, come metodologia indipendente o in combinazione con algoritmi già esistenti nello stato dell’arte.
  • XXIV Ciclo
  • 1971

Date

  • 2012-07-20T11:15:20Z
  • 2012-07-20T11:15:20Z
  • 2012-03-15

Type

  • Doctoral Thesis

Format

  • application/pdf
  • application/pdf

Identifier