Remotely Sensed Data Fusion as a Basis for Environmental Studies: Concepts, Techniques and Applications
Cartography, Natural Resource Management
Fernerkundungsbilder Data Fusion als Basis für Umwelt-Studien: Konzepte, Techniken und Anwendungen
Kartographie, Natural Resource Management
by Ali Darvishi Boloorani
Date of Examination:2008-09-16
Date of issue:2008-12-01
Advisor:Prof. Dr. Martin Kappas
Referee:Prof. Dr. Gerhard Gerold
Referee:Prof. Dr. Joachim Saborowski
Referee:Prof. Dr. Karl-Heinz Pörtge
Files in this item
Name:darvishi_boloorani.pdf
Size:3.46Mb
Format:PDF
Description:Dissertation
Abstract
English
Following the dramatic qualitative and quantitative developments of remote sensing systems and digital imaging technologies, numerous kinds of images have been captured, processed and analyzed in several aspects of earth applications. Almost all of image sensors are designed for specific purposes therefore the utilization of remotely sensed data is very diverse. While these datasets are highly useful for some applications, for some others are incomplete, imprecise, and redundant. For example the information contained in hyperspectral and multispectral datasets provide a valuable basis for environmental studies while the low spatial resolution characteristics of these datasets reduce their performances in many applications. For several remote sensing applications, data fusion is the process of alleviating the shortages of data sources. Data fusion is a formal framework that provides means and tools for the alliance of data originating from different sources. It aims at obtaining information of greater quality; the exact definition of greater quality will depend upon the application. Data fusion is usually carried out in three levels of processing: pixel, feature and decision. In an ideal data fusion framework the level of process will be adapted based on data characteristics and the user requirements.This PhD. work explores the concepts and techniques of multi-source remotely sensed data fusion for the purpose of visual spatial resolution enhancement and improvement the accuracy of land cover classification. The investigation datasets were selected from the Earth Observation-One satellite imager which has Hyperion, hyperspectral, ALI, multispectral, and ALI, panchromatic sensors.For the first part of work, 10 of the most common pixel level DF techniques and two innovated ones, named Radon and fanbeam, were investigated and obtained results were compared. Results showed that these two innovated techniques have good abilities in spectral preservation but their ability in spatial quality of fused images was weak. More than the spectral quality of fused images a new technique in spatial quality assessment called coefficient of variance of image autocorrelation was developed. The qualities of fused images were evaluated using this new methodology and its ability was efficient and informative in fused imagery quality assessment. For hyperspectral feature (i.e. spectral band) reduction an innovative methodology called Maximum Spectral and Spatial Information Indicator (MSSI) was introduced and its ability evaluated in comparison to two common feature reduction techniques i.e. Transformed Divergence (TD) and Bhattacharyya Distances (BD). Outcome results showed that MSSI has almost the same ability as for TD and BD. Another evaluated aspect was the comparison of hyperspectral and multispectral datasets fused with panchromatic image. Using the investigated datasets, the measured qualities of fused images showed that in pixel level data fusion MS has higher ability then HS datasets.For the second part of this work, decision level data fusion, two procedures for decision level fusion were innovated. These methodologies called hyperspectral Wavelength Based Decision Fusion (WBDF) and Class Based Decision Fusion (CBDF). The ability of these two new procedures was evaluated for hyperspectral data fusion in land cover mapping accuracy improvement. Final produced maps showed an about 4 % overall accuracy improvement. Also another methodology for decision level data fusion called Multi Classifier Decision Fusion (MCDF) was evaluated which could improve the accuracy of results to about 8%. More than these experimental and technical investigations and innovations the literature of DF and its usability for several applications like environmental, agriculture, mining, urban, medicine studies, etc was studied. Finally, some experimental recommendations for future works in data fusion are drawn.
Keywords: Remote Sensing Data Fusion (RSDF); Pixel Level Data Fusion (PLDF); Decision Level Data Fusion (DLDF); EO-1
Other Languages
Die Technologien und Systeme im Bereich der
satellitengestützten Erdbeobachtung haben sich in den
letzten drei Jahrzehnten rasant entwickelt. Die Folge
ist eine Fülle von Aufnahmesystemen und Bilddaten, die
für zahlreiche Anwendungen im Bereich der Erderkundung
heran gezogen werden können. Da die überwiegende Anzahl
der Sensorsysteme für spezifische Applikationen
ausgelegt ist, sind die Auswertemethoden und
Strategien entsprechend vielfältig. Entsprechend
werden Datensätze produziert, die für einige
Anwendungen sehr nützlich sind, für andere aber
unvollständig oder redundant. Die mathematische Fusion
von Datensätzen unterschiedlicher Auflösung
(geometrisch, spektral, zeitlich) bietet hierbei die
Möglichkeit, mehrere Datensätze zu kombinieren und
hierdurch das Informationspotenzial für die Auswertung
zu optimieren. Datenfusion kann üblicher Weise in drei
verschiedenen Ebenen durchgeführt werden: 1.) auf der
Pixelebene, 2.) auf der Objektebene und 3.) auf der
Entscheidungsebene.In der vorliegenden Arbeit wurden Konzepte und
Techniken zur Fusion satellitengestützter
Fernerkundungsdaten evaluiert und weiter entwickelt.
Die Bewertung der Güte einer Fusion erfolgte vor dem
Hintergrund der Anwendung im Bereich der visuellen
Interpretation der Datensätze sowie zum Zwecke der
Landnutzungskartierung auf Basis der verwendeten
Datenquellen. Die untersuchten Datensätze entstammen
der Erdbeobachtungsmission Earth Observation One
(EO-1) der National Aeronautics and Space
Administration (NASA) der USA. Die verwendeten Sensoren
sind Hyperion (hyperspektral), ALI-ms (multispektral)
und ALI-pan (panchromatisch).Im ersten Teil der Arbeit wurden Verfahren auf der
Pixelebene evaluiert. Der zweite Teil der Arbeit
beschäftigt sich mit dem Vergleich von Verfahren auf
der Entscheidungsebene. In beiden Teilen der Arbeit
wurden sowohl bestehende Verfahren evaluiert als auch
neue Methoden implementiert (z. B. Radon und Fanbeam
Fusion, Wavelength Based Decision Fusion und andere).
Die Qualitätsanalyse der Fusionsmethoden erfolgte auf
Basis visueller Vergleiche sowie statistischer
Parameter (z. B. Maximum Spectral and Spatial
Information Indicator, Transformed Divergence und
andere). Abschließend wurde der Einsatz der bewerteten
Fusionsmethoden für potenzielle Anwendungen im Bereich
geographischer Fragestellungen diskutiert.
Schlagwörter: Fusion satellitengestützter Fernerkundungsdaten; Pixelebene Datenfusion; Entscheidungsebene Datenfusion; EO-1