WN-Geomatica-30102014 - Institut für Geographie
Transcription
WN-Geomatica-30102014 - Institut für Geographie
Working Note: „Using Geomatica Software” By Dr. S. Hese Lehrstuhl für Fernerkundung Friedrich-Schiller-Universität Jena 07743 Jena Löbdergraben 32 Soeren.hese@uni-jena.de Autor: Dr. S. Hese Versioning: v.0.1 - 8.2004: Initial stuff and structure definition v.0.2 - 9.2004: Geomatica figures, added section 3 v.0.3 – 10.2004: Minor corrections. v.0.4 – 11.2004: Automos correction v.0.5 – 1 .2005: Xpace routines & minor corrections v.0.6 – 7.2005: Minor changes & V10 Updates v.0.71 – 11.2006: Minor changes to exercises and some typos corrected v.0.8 - 10.2014: update for Geomatica 2013 1. Einführung ....................................................................................................... 2 1.1 Inhalt dieses Skriptes .................................................................................... 2 1.2 Theorieinhalte der LV Fernerkundung I GEO212: ......................................... 2 1.3 Digitale Bildverarbeitung – die Grundlagen ....................................................... 4 1.4 Digitale Bildverarbeitung in der Fernerkundung – Komponenten eines Bildverarbeitungssystems ................................................................................... 5 2 Bildverarbeitungssoftware in der Fernerkundung .................................................... 6 2.1 Fernerkundungssoftware ............................................................................... 6 2.2 Andere Softwarepakete mit z.T. fernerkundungsrelevantem Funktionsumfang: ..... 9 3 Arbeiten mit Geomatica 9 – eine Einführung ........................................................ 12 3.1 Die Geomatica Toolbar: ............................................................................... 12 3.2 Mit Xpace arbeiten ...................................................................................... 13 3.3 Arbeiten im Command-Mode (EASI): ............................................................. 14 3.4 EASI/PACE Routinen nach Anwendungsbereichen sortiert ................................. 16 3.5 EASI- Programmierung................................................................................ 28 3.6 GCPWorks ................................................................................................. 30 3.7 ImageWorks – der stabile Image-Viewer aus den 90igern ....... Fehler! Textmarke nicht definiert. 3.8 Geomatica OrthoEngine – creating an ASTER DEM from scratch: ....................... 31 3.9 FOCUS (die integrative Umgebung aller Geomatica Funktionen) ........................ 35 3.10 Die Algorithmenbibliothek – arbeiten mit Geomatica ohne EASI/PACE .............. 38 3.11 Der PCI Modeler ....................................................................................... 39 3.12 PCIDSK Datenformat: ............................................................................... 40 3.13 Lizenzierung ............................................................................................ 43 3.14 Geomatica 10 – ein Ausblick....................................................................... 45 4. Literatur ........................................................................................................ 46 4.1 National and International Periodicals: .......................................................... 46 4.2 Geomatica spezifische Literaturhinweise: ....................................................... 46 4.3 Lehrbücher: ............................................................................................... 48 4.4 Other References and further reading: .......................................................... 48 4.5 Online Tutorials: ......................................................................................... 51 1. Einführung 1.1 Inhalt dieses Skriptes Dieses Skript gibt eine Einführung in die Software PCI Geomatica und ist Teil der Dokumentation für ein Vorlesungsskript zum Modul Fernerkundung I des BSC Geographie an der Friedrich-Schiller-Universität Jena. Teile dieser Dokumentation wurden der EASI/PACE Hilfe von Geomatica und online Material von http://www.pci.on.ca entnommen bzw. von CGI-Systems zur Verfügung gestellt oder stammen aus Aufzeichnungen von S. Hese. Die vorläufige Planung sieht z.Zt. folgende Übungen mit Geomatica Software vor: • Ü1: Datenimport und PCIDSK Database Management - Layerstacking / Einführung in das XPACE BV-System • Ü2: Database handling (ASL, CDL, MCD, LOCK, UNLOCK), PCIDSK File Management mit PCIMOD • Ü3: Georeferenzierung / geometrische Korrektur - Arbeiten mit GCPWorks • Ü4: NDVI, Ratios und PCA (PCIMOD, MODEL, THR, MAP, ASL, CDL, PCA) • Ü5: Filterungen im Ortsbereich (PCIMOD, EASI/PACE Database Filtering) • Ü6: Filterungen im Frequenzbereich (PCIMOD, FTF, FFREQ, FTI) • Ü7: IHS Data Fusion (PCIMOD, FUSE, IHS, RGB) • Ü8: Klassifikation I – supervised classification (MLC, CSG, CSR, CHNSEL, SIGSEP, PCIMOD, SIEVE) • Ü9: Klassifikation II – unsupervised classification (Clustering), (PCIMOD, ISOCLUS, KCLUS) • Ü10: Texturanalyse (PCIMOD, TEX) • Ü11: Genauigkeitsanalysen (User – Producer Accuracy, MLR, MAP) 1.2 Theorieinhalte der LV Fernerkundung I GEO212: 1. Einführungsveranstaltung: Vorbesprechung, Allgemeines, Informationen zu den 2. 3. Übungen und Tutorien, Lehrveranstaltungsinhalte, Literatur, Übungslisten, Gruppenaufteilung. Termin: Einführung in die Software Geomatica (EASI/PACE, XPACE, Modeler, Focus, GCPWORKS, EASI Programmierung), Einführung in das menschliche Sehen und Bildverstehen, Reizverarbeitung, Aufbau des Auges, Stäbchen, Zapfen, Farbsehen, menschliche Signalverarbeitung, Stereobildverarbeitung, Technologie digitaler Sensoren, CCD Sensor Architektur, Zeilensensor ver. Framesensor, Farbe bei der digitalen Datenaufnahme, CCD und CMOS Sensor und Aufnahmesysteme, Sensor Architekturen, Fillfaktor, Termin: Grundlagen der digtialen Bild- und Signalverarbeitung, Grundlagen der Fernerkundung (compressed), Sensorik zwischen räumlicher und spektraler Auflösung, Detektorkonfigurationen, das Pixel, Datenspeicherung, Datentypen, Datenformate, Dateneinheiten, Bit, Byte, Megabyte, Datensatzgrößenberechnung, BSQ, BIL, BIP, Anwendungen, Vor- und Nachteile, Auflösungsarten (räumlich, spektral, radiometrisch, temporal), Software in der digitalen Bildverarbeitung – ein Überblick, Byte Order, Bildpyramiden, Einführung in das Histogramm, 4. 5. 6. 7. 8. 9. 10. 11. Prozesse in der industriellen BV und in der Fernerkundung, FernerkundungsBilddateiformate, das PCIDSK Dateiformat, Arbeiten mit Segmenten in Geomatica. Termin: Datenvorverarbeitung: geometrische Korrektur, parametrische Verfahren, Interpolationsverfahren, geometrische Verzerrungen bei Satellitendaten und Flugzeugdaten, Entzerrung, Resamplingverfahren (NN BIL, CC), Polynome erster und nter Ordnung, der RMS Error, systematische Korrektur von Zeilenscannerdaten, Detaileinführung GCPWorks, Übung mit GCPWorks in Geomatica (Image to Image Correction). Termin: Histogramm Transferfunktionen, das Histogramm, Lookup Tables, Histogramm Equalisation, Linear Stretch, Äquidensitenstreckung, Histogramm Thresholding, Histogramm Matching, Brightness Inversion, radiometrische Kalibrierung, Atmosphärenkorrektur Überblick über verschiedene Ansätze (Modell basiert, Dark-Pixel Subtraction, Empirical Line), Vorteile der AK, Strahlungskomponenten, Units of electromagnetic radiation: "Radiant Flux Density per Unit Area per Solid Angle, mW cm-2 sr-1 um-1 (= spectral radiance)), Gain-Settings, Reflectance vers. Radiance. ATCOR2 in Geomatica, ATCOR2 und ATCOR3, topographische Korrektur (Kanalratios, mit lokalem Beleuchtungswinkel, Berechng. des Einfallswinkels, Lambertsche Methode, Civco Modifikation, Non-Lambertsche Methode mit Minneart Konstante, Termin: Spektrale Transformationen, spektrale Eigenschaften von Vegetation, Aufbau eines Blattes, Vegetationsindizes, Red Edge, NDVI (Normalized Difference Vegetation Indice) und andere Ratios, HKT (Transformation) - PCT (Principal Component Transformation, Theorie und Beispiele für praktische Anwendungen, Tasseled Cap Transformation im Vergleich zur PCT - Vorteile und Nachteile, Kanalratios und PCT in Geomatica und EASI/PACE, Übung zur PCA in XPACE, Termin: Räumliche Transformationen, Filterungen im Ortsbereich, Image Domain Filterverfahren, Randpixelproblematik, Highpass, Lowpass, Highboost etc., statistische Filter (Mean, Median, Gaussian, MinMax), morphologische Filter, Kantendetektoren, Zero-Sum Filter (Laplace, Sobel, Prewitt, subtraktive Glättung), adaptive Filterverfahren (Frost, Lee), Filterungen in Geomatica, Übungen zu Highpass, Lowpass und ZeroSum-Filterungen in EASI/PACE und Imageworks, Termin: Filterungen im Frequenzraum, Fourier-Transformation, Step-Funktion, 1D-Step-Funktion und Umsetzung durch Amplitude und Frequenz, 2-D DFT, die Fouriersynthese, Phase und Magnitude, Powerspektrum, Reduzierung von Bildrauschanteilen, SNR (Signal to Noise), FFT in Geomatica, Übung zur Noisereduzierung mittels Medianfilter und Fourier Transformation unter Verwendung von EASI/PACE Programmmodulen, Termin: Datenfusion, Auflösungsproblematik: high res. spectral vers. spatial resolution, Datenfusionsprozesstypen, Ziele der Datenfusion, IHS, Hexcone Farbmodel, Farbraum-Projektion, Intensity, Hue, Saturation, PCA/PCS Fusion (Principal Component Substitution - PCS), COS-Verfahren, Pansharpening, Arithmetische Kombinationen - Fusion, Theorie die Farbraumtransformationen, HIS-RGB in Geomatica, SVR Fusion, Übung zur Datenfusion in EASI/PACE. Termin: Parametrische Klassifikatoren: Gliederung der Klassifikationsverfahren (unüberwachte -überwachte Verfahren; parametrische - nicht-parametrische Verfahren), unüberwachtes Clustering, K-Means, ISODATA, Min Distance to Mean, Parallelepiped Classifier, MLC (Maximum Likelihood Klassifikation), Verfahrensgliederung bei der überwachten Klassifikation (Definition von Trainingsgebieten, Definition von Evaluierungs(Test)gebieten, Genauigkeitsanalyse), kombinierte Verfahren, Postklassifikations Smoothing, ISODATA Clustering in Geomatica, Übung zur unüberwachten Klassifikation in Geomatica (EASI/PACE), Termin: Nicht parametrische Verfahren, Gliederung der Klassifikationsverfahren (unüberwachte -überwachte Verfahren; parametrische - nicht-parametrische 12. 13. 14. 15. Verfahren), Level Slicing, (Box-Classifier), ANN (Artifical Neural Networks) Einführung in Theorie, Anwendungen und Programme in EASI/PACE, Prozessablauf in XPACE, Problembereiche bei der Anwendung, Struktur der Klassifikation mit ANNs (Konstruktion, Trainingsphase, Klassifikationsphase, Hierarchical Classification, NN Klassifikator, Distance-Weighted k-NN, Narenda Goldberg non-iteratives und nicht-parametrisches Histogramm Clustering, Descision Tree Klassifikatoren, DTC vers. ANN, ANN Module in Geomatica (Beschreibung der Advanced ANN Module in EASI/PACE), Übung zur überwachten Klassifikation, Termin: Textur, Definitionen, statistische Parameter 1er Ordng (Varianz, Mittelwert), statistische Parameter 2ter Ordng. (SGLD), Spatial Grey Level Dependence Matrices, Concurrence Matrix, Co-occurence Matrix, SGD-MatrixKlassen: Contrast, Dissimilarity, Homogenität, Angular Second Moment (Energy, Entropy), GLCM Mean, Variance, Stdev, Correlation), statistische Parameter 3ter und nter Ordng. (Variogrammanalysen und -texturklassifikation), Textur zur Datensegmentierung, Link zu Segmentierungsmethoden, Mustererkennung, Textur in Geomatica (Modulüberblick und -anwendung von TEX ), Übung zur Texturklassifikation in EASI/PACE, Termin Genauigkeitsanalysen von Klassifikationsergebnissen (Evaluierungsgebiete, Trainingsgebiete, User- und Producer Genauigkeit, Error of Omission, Error of Comission, MLR (Maximum Likelihood Report) in Geomatica, Übung zur Klassifikationsgenauigkeit, Literaturhinweise zum Thema, Termin: Hyperspektrale Datenauswertung, Eigenschaften, Sensoren (Kurzüberblick), Datenredundanz, spectral Unmixing, Endmembers, Spectral Angle Mapper, MNF (Minimum Noise Fraction), Spectral Feature Fitting, Binary Encoding, Hyperspektrale Datenverarbeitung in ENVI und SAM in Geomatica, Ausblick auf die Objekt orientierte Klassifikation und Schnittmengen mit GIS (Landscape Metrics, Fragstat, r.le in GRASS), ULE (Lehrevaluierung), ggf. 15. Termin: Wiederholung aller Termininhalte in komprimierter Form, Fragestunde zur Klausur, Ergebnis-Diskussion der ULE Analyse 1.3 Digitale Bildverarbeitung – die Grundlagen Einheiten der Speicherkapazität: 1 1 1 1 Bit = -> 0 oder -> 1 - ( Ja ) oder ( Nein ) Byte = 8 Bit = 1 Zeichen (=> 256 mögliche Ausprägungen) KiloByte = 1024 Bytes -> 1024 = 2(hoch 10) MB = 1 Megabyte = 1024 * 1024 Byte (1.048.576 Byte). Megabyte: Die Berechnung von einem Megabyte führt immer wieder zur Verwirrung, daher sei hier auf den Faktor hingewiesen, mit dem gerechnet werden muss: 1024 Byte = 1 KiloByte, 1024 KiloByte = 1 Megabyte. 1024 Megabyte = 1 Gigabyte Um also von z.B. 123.456.789 Bytes auf Megabyte umzurechnen, rechnet man: (123.456.789/1024)/1024=117,73 MB, oder 123.456.789/1048576=117,73 MB Dieser Faktor wird in allen Berechnungen, die in MegaByte ausgedrückt werden, verwendet. Unglücklicherweise halten sich z.B. einige Hardwarehersteller nicht an diese Konvention. Dies führt beim Kauf von Festplatten immer wieder zu Verwirrungen. KB= 1024 Byte Kilobyte 2^10 = MB= 1024 KB Megabyte 2^20 = GB= 1024 MB Gigabyte 2^30 = TB= 1024 GB Terabyte 2^40 = PB= 1024 TB Petabyte 2^50 = EB= 1024 PB Exabyte 2^60 = ZB= 1024 EB Zetabyte 2^70 = 1.180.591.620.717.411.303.4 ca. 1 24 Bytes Trilliarde (ca. 10^21) YB= 1024 ZB 2^80 = 1.208.925.819.614.629.174.7 06.176 Bytes (ca. 10^24) Jotabyte 1.024 Bytes ca. 1 Tausend 1.048.576 Bytes ca. 1 Million 1.073.741.824 Bytes ca. 1 Milliarde 1.099.511.627.776 Bytes ca. 1 Billion 1.125.899.906.842.624 Bytes ca. 1 Billiarde (ca. 10^3) (ca. 10^6) (ca. 10^9) (ca. 10^12) (ca. 10^15) 1.152.921.504.606.846.976 (ca. ca. 1 Trillion Bytes 10^18) Im Gegensatz zur Beschreibung von Datenmengen, spricht man bei der Beschreibung der radiometrischen Datenauflösung nur von Bit und nicht von Byte (8Bit) Einheiten. Es gilt also: 1 Bit 8 Bit 10 Bit 12 Bit 16 Bit 32 Bit 64 Bit 128 Bit (on or off) 21 (2 mögliche Ausprägungen) 28 values, equals 1 Byte (256 Werte - 0-255) 210 values, 1024 Werte 212 values, 4096 Werte 216 (2 Byte), 65536 Werte 232 (4 Byte), 4.294.967.296 264 (8 Byte), 18.446.744.073.709.551.616 2128 (16 Byte) Type Descriptions: integer 4 byte signed integer number float 4 byte single precision floating point number double 8 byte double precision floating point number char single character (1 byte) byte single unsigned byte (8 Bit) 1.4 Digitale Bildverarbeitung in der Fernerkundung – Komponenten eines Bildverarbeitungssystems Die Methoden der digitalen Bildverarbeitung werden in der Fernerkundung aufgeteilt in unterschiedliche in einer spezifischen Reihenfolge abzuarbeitende Prozessierungs- oder Verarbeitungsschritte: 1. Image a. b. c. d. e. Preprocessing: Noise Removal Geometric Correction / Geocoding / Georeferencing Radiometric Correction Atmospheric Correction Topographic Normalisation 2. Image a. b. c. d. e. f. Enhancement: Contrast Manipulation Spatial Feature Manipulation Multi Image Manipulation Data Fusion Multispectral Transformation Feature extraction 3. Image a. b. c. Classification and/or Biophysical Modelling Supervised classification Unsupervised classification Biophysical parameter retrieval (Biomass, FPAR, LAI, forest stand density etc.) Bilddaten in der Fernerkundung haben spezifische Merkmale. Im Einzelnen lassen sich folgende Merkmalsbereiche voneinander trennen: • • • • Radiometrische – spektrale Merkmale Geometrische – texturelle Merkmale Temporale Merkmale Kontextmerkmale 2 Bildverarbeitungssoftware in der Fernerkundung 2.1 Fernerkundungssoftware ENVI/IDL: Schwerpunkt der Analysefunktionen in ENVI ist der hyperspektrale Bereich. Ein großer Vorteil von ENVI ist die nahtlose Integration von IDL Routinen in ENVI. IDL gilt im Bereich der Fernerkundung als eine der stärksten Programmiersprachen. Im Vergleich zu anderen Umgebungen fällt bei ENVI die enorme Menge an Fenstern auf, mit denen Eingaben und Darstellungen umgesetzt werden. Oft werden wichtige Funktionen tief in Menüstrukturen versteckt. Intensives Arbeiten führt schnell zu sehr unübersichtlichen Desktops und erschwert erheblich das systematische Arbeiten. Der Viewer von ENVI ist recht schnell und solange man nicht mit mehreren Datensätzen arbeitet ist das Konzept sehr ergonomisch bedienbar. Problematisch wird es, wenn mehrere Datensätze angezeigt werden sollen (Übersichtlichkeit). Die hyperspektrale Funktionalität ist wohl am Markt führend. Nutzung und Entwicklung eigener IDL Routinen ist jedoch nötig, um das eigentliche Potential der Softwareumgebung auszunutzen. Mit der Version 4.0 ist einiges an Funktionalität hinzugekommen (Decision Tree Classifier, Neural Net Classifier). Die Unterstützung von Fremdformaten ist erheblich besser geworden mit den neueren Versionen ab 3.5. Das ENVI Bilddatenformat ist recht einfach über eine ASCII-HeaderDatei ansprechbar und es existiert ein eigenes Vektorformat. Die Stabilität ist befriedigend. Z.T. existieren Erweiterungen, die jedoch kostenpflichtig sind (z.B. ASTER DTM). Demoversion ist vollständig herunterladbar, arbeitet jedoch nur 7 Minuten lang. Der Creaso-Support ist vorbildlich (www.creaso.com). Es existiert eine Studentenversion zu erheblich reduziertem Preis. Fazit: ENVI ist die Entwicklungsumgebung der Wahl für alle Arbeiten im Bereich der hyperspektralen Datenverarbeitung und -analyse. Aufgrund der Nähe zu IDL auch in vielen anderen Bereichen der Fernerkundung sehr oft eingesetztes Softwarepaket. Schnelle Einarbeitung möglich. Funktionsumfang in Version 4.0/5.0 hat gleichgezogen mit anderen RS-Software-Paketen. Insbesondere die Verfügbarkeit von IDL (Kombination mit) ist i.d.R. ein entscheidendes Kaufargument. ERDAS Imagine: Zur Leica Geosystems Gruppe gehörendes Softwarepaket mit viel Tradition im deutschsprachigen Raum. Kein spezifischer Schwerpunkt, jedoch gute Funktionalität im Bereich Photogrammetrie und allgemeine Fernerkundung. Die Nutzung von Modeller und EML Programmierungen zur Erweiterung der Funktionalität ist in den meisten Fällen notwendig. Der grafische Modeller ist sehr gut gelungen und sehr flexibel einsetzbar. Einige spezielle Tools (Knowledge Engineer, Knowledge Classifier) und die ATCOR Einbindung (AddOn) sind herauszustellen. Schwache Leistung im Bereich Vectordatenverarbeitung (Vector Modul ist von ArcINfo eingekauft und bringt nur wenig Funktionalität aus ArcInfo mit und ist unverständlich teuer), dafür aber sehr ausgereiftes Tool für 3D Visualisierung (VirtualGIS). Nicht vollständige Importfunktion für die gängigen Datenformate (Geomatica PCIDSK?). Sehr schneller und stabiler Viewer. Die Dokumentation ist jedoch definitiv nicht ausreichend, insbesondere die Online- bzw. Kontexthilfe taugt i.d.R. gar nicht bzw. hilft einem nicht weiter. Webseite unter: (http://www.gis.leica-geosystems.com/Products/Imagine/). Große Usergemeinde in Deutschland, aber auch in den USA. Regelmäßige Nutzertreffen in Deutschland durch Geosystems organisiert. Email-Forum mit reger Teilnahme. Support über Geosystems in München. Stabilität zufrieden stellend und eindeutig besser als bei der Geomatica 9.x /10 / 2012 Reihe. Im neueren Explorer Look in den Versionen ab 2010 recht stark integriertes Arbeiten mit Explorer Kontext Menü möglich. Fazit: Guter Einstieg in die Fernerkundung, jedoch nicht das systematische Arbeiten unterstützend. Gewohntes Bedienkonzept vieler Menüs, klasse Pfadnavigationsoptionen, die zu erheblich beschleunigtem Arbeiten führen. Vorbildlicher Datenviewer und sehr guter grafischer Modeller im Baukasten System. ERMapper: Aus Australien stammende Software mit Stärken im Bereich der Visualisierung. Im zentraleuropäischen Bereich nicht sehr stark vertreten, jedoch mit großer Funktionsvielfalt. Demoversion downloadbar. Bekannt wurde in den letzten Jahren das Dateiformat ECW, ein auf Waveletmethoden basierendes Dateiformat mit hohen verlustfreien Kompressionsraten. Sehr gute Visualisierungstools für GIS Daten und 3D Information (von Leica Geosystems aufgekauft worden und nicht mehr verfügbar). eCognition: Objektorientierte Bildverarbeitung (Segmentierung & Klassifikation von Bildsegmenten ohne klassische Datenverarbeitungsfunktionen wie z.B. Atmosphärenkorrektur oder geometrische Korrektur. eCognition wird von der Firma Trimble (vormals Definiens aus München) vertrieben und empfiehlt sich in erster Linie für geometrisch sehr hoch auflösende Datensätze im Bereich 10cm – 1 m -15 m und höher auflösend. Gute Dokumentation, hohe Anforderungen an die Hardware, komplexe Einarbeitungsphase möglichst mit erheblichen Vorkenntnissen aus der BV notwendig. Jährliche Nutzertreffen in München oder anderswo, online Mailforum. Netter Support aus München. Vollständige Demoversion downloadbar (Begrenzung nur durch die Bildgröße). Stabilität der Software sehr gut bei kleineren Datensätzen – eher sehr schlecht bei sehr großen Datensätzen. Fazit: Software für spezielle Fragestellungen. Zur vollständigen Nutzung aller Funktionen sind erhebliche Erfahrungen im Bereich der Bildverarbeitung, Programmierung und möglichst auch im GIS-Bereich Voraussetzung. Geomatica (Ex PCI): Produkt der kanadischen Softwarefirma PCI-Geomatics mit langer Tradition im Erdfernerkundungsbereich. Unterschiedliche Nutzerinterface machen es dem Einsteiger schwer, den richtigen Weg in die Funktionalität der Software zu finden. Wer jedoch eine flache und anstrengende Lernkurve zu Beginn überstanden hat, dem stehen viele Funktionen zur Verfügung, die sich einfach über Routinen einbinden lassen und für viele Anwendungen anpassbar sind. EASI Programmierumgebung kann zur Entwicklung von Batch Prozessierungsroutinen genutzt werden. Durch die Nähe der EASI/PACE (XPACE nicht mehr verfügbar) Routinen zur EASI-Programmierung ist der Einstieg in die Programmierung von Routinen recht einfach. Das Nutzerinterface zwingt den Anwender Verfahren und Methoden vollständig zu verstehen. Die Onlinehilfe ist absolut notwendig für Einsteiger. Der Funktionsumfang vieler Routinen ist erheblich und sehr gut konfigurierbar und gut dokumentiert. Sehr gute Datenimportfunktionen für praktisch fast alle Fremdformate (inklusive Erdas Imagine). Sehr guter OrthoEngine mit automatischer Unterstützung vieler Sensor-Daten-Geometrien. Die Onlinehilfe ist vorbildlich gelöst und enthält auch weitergehende Literaturhinweise. Online-Hilfe von Focus leider nicht in der gleichen Tradition aufgebaut. Leider existieren in der Version 9.x/10 und 2012 immer noch Probleme mit der Stabilität bei Verwendung des Focus Interface bzw. mit der grafischen Darstellungsqualität unter UNIX. ATCOR Einbindung nicht so gut gelungen wie in ERDAS (wie kann man effektiv c0 und c1 Koeffizienten erzeugen?). Topografische Normalisierung mittels DTM fehlt als Tool (aber in ATCOR3 verfügbar – kostenpflichtig). Das Focus Viewer Interface ist sehr langsam und hat auch nach Updates i.d.R. noch erhebliche Bugs. Der Updatezyklus ist recht schnell. I.d.R. erscheinen vierteljährliche Bugbereinigungen. Demoversion von Geomatica ist bestellbar. Ein abgespeckter Viewer ist frei verfügbar. Große Usergemeinde insbesondere im englischen Sprachraum (Kanada, GB, USA). Nutzertreffen in Deutschland eher selten (CGI-Systems). Fortbildungen i.d.R. in Canada oder GB. Waches Email-Forum mit Austausch von EASI Skripten ist herauszustellen. Support in Deutschland über CGI Systems in München. Website unter: (www.pci.on.ca). Fazit: Softwarepaket für Anwender mit Nähe zur Programmierung, da die volle Funktionalität erst durch EASI-Routinen nutzbar ist. Komplexe Einarbeitungsphase notwendig, da das Nutzungskonzept viel Vorwissen voraussetzt. PCI unterstützt jedoch entscheidend das methodische und strukturierte Arbeiten mit Fernerkundungsdaten durch den sehr modularen Aufbau. Schade, das der Rest des Konzeptes nach Version 6.0 immernoch so unglaublich instabil läuft. Durch die nicht sehr große Nutzergemeinde ist der Austausch von EASI/PACE Routinen nur begrenzt möglich VICAR: Das VICAR Bildverarbeitungssystem wurde am JPL entwickelt und wird genutzt, um Daten der Planetenmissionen z.B. zum Mars auszuwerten. VICAR ist komplett Kommandozeilen orientiert und gut scriptierbar. “VICAR, which stands for Video Image Communication And Retrieval, is a general purpose image processing software system that has been developed since 1966 to digitally process multi-dimensional imaging data. VICAR was developed primarily to process images from the Jet Propulsion Laboratory's unmanned planetary spacecraft. It is now used for a variety of other applications including biomedical image processing, cartography, earth resources, astronomy, and geological exploration. It is not only used by JPL but by several universities, NASA sites and other science/research institutions in the United States and Europe.”. Kein Support, nach Kenntnisstand kein Mailforum. http://www-mipl.jpl.nasa.gov/external/vicar.html KHOROS: „Khoros Pro 2001 (http://www.khoral.com/) ist eine Softwareentwicklungsumgebung, mit der aus einem Repertoire an vorhandenen Softwarebausteinen eigene Applikationen entwickelt werden können. Die Anwendungsschwerpunkte liegen dabei in den Bereichen Bildverarbeitung, Signalverarbeitung und Visualisierung. Khoros war ursprünglich eine Entwicklung der University of New Mexico (1990) und wurde lange Zeit im Quelltext zum freien Download zur Verfügung gestellt. Dadurch erreichten die ursprüngliche Version 1 sowie die Nachfolgeversion Khoros 2 auch in Deutschland einige Verbreitung bei Hochschulinstituten und Forschungseinrichtungen. Seit einigen Jahren wird Khoros nun von einer eigens gegründeten Firma als kommerzielles Produkt weiterentwickelt und vertrieben (Khoral Research Inc.). Den Vertretern von Khoral Research ist dabei wohl bekannt, dass ein nicht unwesentlicher Teil des Khoros-Systems aus Entwicklungen einer aktiven Nutzergemeinde entstanden ist, die im Laufe von Jahren viele Bausteine zu dem Paket beigetragen hat. Außerdem gründete die Attraktivität der ersten Khoros-Versionen nicht zuletzt auf der Verfügbarkeit der Programmquellen. Unter diesem Aspekt bietet Khoral Research Inc. auch weiterhin eine "Studentenversion" im Quelltext an, die sich Studenten nach einer Registrierung herunterladen können, die aber nicht weiterverteilt werden darf. Diese besteht aus dem Quelltext einer Beta-Version von Khoros Pro, die aktuelle Weiterentwicklungen in einer frühen Testphase beinhaltet“ (http://www.lrzmuenchen.de/services/software/grafik/khoros/). Inzwischen ist Khoros in den Besitz von AccuSoft übergegangen und nicht mehr frei verfügbar. Das System heißt nun wohl VisiQuest (http://www.accusoft.com/) und ist voll kommerziell. Fazit: Sehr schade, dass Khoros nicht mehr „freie“ Software ist! 2.2 Andere Softwarepakete mit z.T. fernerkundungsrelevantem Funktionsumfang: GRASS: GRASS ist ein Open Source GIS (http://grass.baylor.edu/), welches frei verfügbar ist. Vollversion herunterladbar. Auch für unterschiedliche UNIX Varianten kompilierbar. Windows Portierung unter Verwendung von Cygwin. “GRASS GIS (Geographic Resources Analysis Support System) is an open source, Free Software Geographical Information System (GIS) with raster, topological vector, image processing, and graphics production functionality that operates on various platforms through a graphical user interface and shell in X-Window. It is released under GNU General Public License (GPL).” Alle Module sind in den GRASS-Manpages beschrieben. Funktionalitäten im Bereich Bildverarbeitung (Image Processing): Auflösungsverbesserung, Bildentzerrung (affin, polynomisch) auf Raster- oder Vektorgrundlagen, Farbkomposite, Fouriertransformation, Hauptkomponentenanalyse (PCA), Histogrammstreckung und -stauchung, Image Fusion, kanonische Komponentenanalyse (CCA), Kantenerkennung, Klassifikationen: (a) radiometrisch: unüberwacht, teilüberwacht und überwacht (Affinity, Maximum Likelihood), (b) geometrisch/radiometrisch: unüberwacht (SMAP), Kontrastverbesserung, Koordinatentransformation, IHS/RGB-Transformation, Orthofoto-Herstellung, Radiometrische Korrektur (Filterung), Resampling (bilinear, kubisch, IDW, Splines), Shape Detection, Zero Crossing. Visualisierungsmöglichkeiten: Animationen, 3DOberflächen, Bildschirm-Kartenausgabe, Farbzuweisung, Histogramm. Nutzergemeinde praktisch nur UNIs, rege Aktivitäten in den Mailforen, jedoch viele wiederkehrenden Probleme mit Portierungshintergrund. Kaum Schulungen, online tutorial ist sehr gut. Handbücher verfügbar. Support gibt’s nicht (Open Source), Nutzertreffen nach Bedarf und Laune). Große Stärke ist die Integration eigener Skriptroutinen unter UNIX (UNIX Shell und Utilities sind vollständig nutzbar). TclTk Interface nach eigenen Vorstellungen ausbaubar. Durch die gute Integration mit R wird GRASS voraussichtlich wieder stärker in den Focus der EO Nutzergemeinde rücken. Zusammen mit R lassen sich viele Lösungen erarbeiten, die in anderen BV Softwarepaketen unmöglich sind. Fazit: Eine Umgebung für die Entwicklung von GIS-Routinen, Schwerpunkt im Raster-GIS Sektor. Sehr gute Nutzbarkeit zusammen mit GRASS. ArcGIS: Das GIS Software Paket schlechthin, mit nicht endenden Funktionen, Schnittstellen und Ausbaustufen vom Marktführer im GIS-Sektor ESRI (www.esri.com). Rasterfunktionalität kommt mit den ArcGIS Extensions: Spatial Analyst (find suitable locations, find the best path between locations, perform integrated raster/vector analysis., Perform distance and cost-of-travel analyses, perform statistical analysis based on the local environment, small neighbourhoods, or predetermined zones, generate new data using simple image processing tools, interpolate data values for a study area based on samples, clean up a variety of data for further analysis or display; 3D Analyst; Geostatistical Analyst; ArcScan (Perform automatic or interactive raster-to-vector data conversion, create shapefile or geodatabase line and polygon features directly from raster images, use raster snapping capabilities to make interactive vectorization more accurate and efficient, prepare images for vectorization with simple raster editing). Schwerpunkt der Rasterfunktionen in ArcGIS liegt auf GIS Analysefunktionen, Datenaustausch, Interpolation, nicht auf der klassischen Bildverarbeitung und dem Data Preprocessing. Halcon: (http://www.mvtec.com/halcon/) Software mit Schwerpunkt im Bereich industrielle Bildverarbeitung und Feature Detection, Pattern Matching. „HALCON is well known as a comprehensive machine vision software that is used worldwide. It leads to cost savings and improved time to market: HALCON's flexible architecture facilitates rapid development of machine vision and image analysis applications. HALCON provides an extensive library of more than 1100 operators with outstanding performance for blob analysis, morphology, pattern matching, metrology, 3D calibration, and binocular stereo vision, to name just a few.” IPW: IPW (Image Processing Workbench) ist ein Bildverarbeitungssystem, das unter UNIX auf Skript orientierter Arbeitsweise beruht. Diverse Einzelroutinen (um 80) können zu komplexeren Skripten kombiniert werden. Dokumentation vorhanden (www), online Version frei verfügbar. Support n/a und Mailforum nicht vorhanden. Stabilität wohl gut – wenig im deutschen Sprachraum genutzt. Schlechte Schnittstelle zu anderen Datenformaten (GRASS und UNIX Bildformate), aber sehr gute Unterstützung bei der Strahlungsmodellierung. Basiert in hohem Maße auf der UNIX Shell. Mit UNIX Shellprogrammen können schnell und effektiv eigene Routinen zusammengestellt werden. “The Image Processing Workbench is a Unix-based image processing software system. The system was written by Jim Frew, with contributions from Jeff Dozier, J. Ceretha McKenzie, and others at the University of California, Santa Barbara. The software is portable among Unix systems and is freely distributable. The name Image Processing Workbench reflects the influence the Unix system had on the design of IPW, since an early version of Unix was called the `Programmer's Workbench'. Individual Unix and IPW programs are "tools" which may be used together to perform more complicated operations. IPW is a set of programs, written in C, that form an extension of Unix. Therefore, IPW programs can be used in combination with Unix programs, and IPW has no need to duplicate basic Unix functions such as file management and command interpretation. Unix programs are executed by typing the name of the program as a command to the shell. Parameters are specified on the command line, rather than in response to user prompts. The command syntax for IPW is patterned after the proposed standard for Unix system commands. In Unix and IPW most input and output are on preconnected channels, the standard input (stdin) and the standard output (stdout). "Pipes" connect the standard output of one command to the standard input of the next. The use of pipes avoids intermediate files and speeds the execution time since the second program in the pipeline may start running as soon as output from the first program begins.” (http://www.icess.ucsb.edu/~ipw2/crrel.man/1/ipw.html) (aktuell nicht mehr online verfügbar). Idrisi: (http://www.clarklabs.org/IdrisiSoftware.asp?cat=2): Raster Vector-GIS Funktionalität, z.T mit eingeschränkter kommerziellen Datenformaten. Kompatibilität mit ILWIS: ILWIS integrates image, vector and thematic data in one package on the desktop. ILWIS delivers import/export, digitizing, editing, analysis and display of data as well as production of quality maps and geostatistical tools. As from 1st January 2004 ILWIS software will be distributed solely by ITC as shareware to all users irrespective of their relation with ITC. Documentation is online available. MATLAB: MATLAB® und die Image Processing Toolbox unterstützen eine Vielzahl fortschrittlicher Bildverarbeitungsfunktionen. Es können Bildmerkmale extrahieren und analysieren, Merkmalmessungen berechnen und Filteralgorithmen angewendet werden. MATLAB bietet eine umfangreiche Entwicklungsumgebung, mit Schwerpunkten im Bereich Algorithmusentwicklung und Anwendungseinsatz, Visualisierung, Bildanalyse und Verbesserung und Datenim- und export. Durch Zugriff auf andere Extensions von MATLAB (Neural Network Toolbox u.a.) ist eine Ausweitung in andere Methodenbereiche möglich. Durch die stark auf Programmierung basierende Struktur von MATLAB ist diese Software stark vertreten in den technischen Wissenschaften (Engineering). Ausgedehnte Dokumentation, Software portiert auf unterschiedliche Betriebssysteme, an vielen Universitäten verfügbar i.d.R. über beliebig viele Campuslizenzen. Ernsthafte Alternative zu IDL für die Algorithmenentwicklung, jedoch ohne fertige Standard –Fernerkundungsroutinen. http://www.mathworks.de /applications/imageprocessing/. Andere interessante Softwarepakete im GIS/RS Sektor: CARIS, MAPINFO, MANIFOLD, SMALLWORLD, GMT, VARIOWIN, GSTAT, GSLIB. 3 Arbeiten mit Geomatica – eine Einführung Dieser Abschnitt wurde z.T. aus den Handbüchern von EASI/PACE und Schulungsmaterial von CGI Systems übernommen bzw. stammt aus persönlichen Aufzeichnungen des Autors. Die Schnellkonfiguration: * Focus Autostart ausschalten: \etc\geomatica.prf „Autolaunch“ für Focus löschen (1. Zeile) * Arbeitsverzeichnis von Geomatica Geomatica-Icon/rechte Maus/Ausführen in d:\ Name_Directory * Focus Nutzereinstellungen Focus/Tools/Options 3.1 Die Geomatica Toolbar: Über die Geomatica Toolbar werden die Geomatica-Module aufgerufen: Abb. 1: Geomatica 9.1 Toolbar Von links nach rechts: Focus: Datenvisualisierung, Datenerfassung, Datenbankmanagement, Im/Export, Subset, Reproject, Klassifizieren, Programme ausführen in der Algorithmenbibliothek, Modeler: Visuelles bzw. graphisches Modellierinterface (vegleichbar mit dem ERDAS Modeller) auch mit Batch-Processing Fähigkeiten, EASI: Command-Mode Interface und Programmierumgebung für EASI Routinen (sehr wichtig für Batchprocessing), OrthoEngine: geometrische Entzerrung, manuelles und automatisches Mosaikieren, Orthobild und DGM-Generierung, FLY: 3D fly-through, Chip Manager: Erstellung von Passpunkt-Datenbanken, License Manager: Lizenzierung; ImageWorks: der alte Viewer von PCI bis zur Version 6. Wird durch Focus ersetzt und fällt wohl in der Zukunft weg; Xpace: EASI/PACE Routinen mit graphischem Interface – gleiche Softwareumgebung wie in EASI; GCPWORKS: Tool zur geometrische Korrektur, zur Mosaikierung und Georeferenzierung. Die PCI Geomatics Generic-Database-Technologie erlaubt den Zugriff auf über 100 Raster- und Vektorformate. Viele Formate können nicht nur gelesen, sondern auch geschrieben werden. Die „Generic Database“ ist in alle Geomatica-Module implementiert. Für manche Arbeitsschritte können Files in Fremdformaten verwendet werden, d.h. es ist keine Konvertierung in das PCI interne Format (*.pix) notwendig. Z.B. können Passpunkte direkt aus einem GEOTIFF-Bild genommen werden, oder eine Bildklassifizierung kann direkt mit einem Imagine-File durchgeführt werden u.ä.m. . Soll ein Datensatz aber mit vielen Geomatica Programmen bearbeitet werden, ist es oft sinnvoll das File in einen pix-File zu importieren, denn in diesem Format können Zusatzinformationen, wie GCPs, LUTs, PCTs etc. gespeichert werden. PCIDSK (*pix): Geomatica hat eine eigene, software-interne Datenbank, die sogenannte PCIDSK, in der Bilddaten (Rasterdaten) in Bildkanälen (Channels) und damit assoziierte Daten in Segmenten (Segments) gespeichert werden können. Die Files haben die Endung pix. Bildkanäle (Channels): 8-Bit ganzzahlig ohne Vorzeichen (8U), 16-Bit ganzzahlig, mit Vorzeichen (16S), 16-Bit ganzzahlig, ohne Vorzeichen (16U), 32-Bit reell, mit Vorzeichen (32R) Segmente (Segments): Geographische Bezugsdaten (Georeferencing), Passpunkte (GCPs), Look-Up-Tabellen (LUTs), Pseudofarb-Tabellen (PCTs), Vektoren (Vectors), Masken (Bitmaps), Orbitdaten (Orbits), Spektrale Signaturen (Signatures) u.a.(siehe unten). 3.2 Mit Xpace arbeiten Der Einstieg in EASI/Pace erfolgt über das Anklicken des Xpace-Symbols in GEOMATICA. Für eine erfolgreiche Programmausführung sind die Arbeitsschritte Programmaufruf, Statusabfrage, Setzen der Parameter, Überprüfung des Eingabestatus und die Programmausführung notwendig (vergleiche Abbildung 2). Abb. 2: Xpace Arbeitsumgebung mit XPACE Panel und Status-Window. Falls Unklarheiten bezüglich des Programms oder der Programmparameter bestehen, kann mit der Help-Taste die On-Line Hilfe aufgerufen werden. Die Onlinehilfe funktioniert aktualisierend. Je nach dem, welches Programmmodul aufgerufen wird aktualisiert sich auch die Onlinehilfe. In der Onlinehilfe werden in der Regel das Programm, die Parameter, der Algorithmus sowie ein oder mehrere Beispiele dargestellt. Die Onlinehilfe ist sehr detailliert und sollte möglichst immer mitlaufen beim Arbeiten mit Xpace. Beachte! Alle Programme, die unter XPACE zur Verfügung stehen, sind auch unter EASI verwendbar, jedoch existieren in der Algorithmenbibliothek unter FOCUS sehr viele Routinen und Programme, die nicht unter EASI/PACE verfügbar sind. PACE-Programme lesen in der Regel Daten von Eingabekanälen (DBIC Database Input Channel) und geben das Ergebnis in Ausgabekanäle (DBOC Database Output Channel) aus. Deshalb ist darauf zu achten, daß nicht aus Versehen wichtige Bildkanäle überschrieben werden!!! Viele neuere Funktionen sind nur unter FOCUS über die Algorthmenbibliothek erreichbar. 3.3 Arbeiten im Command-Mode (EASI): Um PACE Programme im Command-Mode ausführen zu können, muß der Programmname vorab bekannt sein. Für eine erfolgreiche Programmausführung sind die vier Arbeitsschritte notwendig: status Abfrage des Programmstatus (l e t ) Setzen der Parameter help Aufruf der On-Line Hilfe run Ausführung des Programms key string Suche nach Kommandos Im Command-Mode ist jeweils nur die Eingabe des ersten Buchstaben notwendig (z.B. s fav). Bei der Let-Anweisung muß keine Angabe gemacht werden. Beispiel: Anhand des Programms FAV (Average Filtering of Image Data) wird die grundlegende Vorgehensweise im Command-Mode verdeutlicht. Alle Angaben werden nach dem EASIPrompt eingegeben: EASI>s fav FILE DBIC DBOC FLSZ MASK - Database File Name :eltoro Database Input Channel List > 1 Database Output Channel List > 2 Filter Size: Pixels, Lines > 5 5 Area Mask (Window or Bitmap) > Jetzt werden die gewünschten Parameter eingegeben: EASI>file="irvine EASI>dbic=2 EASI>dboc=8 EASI>flsz=3,3 EASI>mask=0,0,256,256 Vor der Programmausführung sollte der Programmstatus nochmals abgefragt werden, um zu prüfen, ob alle Änderungen richtig durchgeführt wurden: EASI>s fav FILE DBIC DBOC FLSZ MASK - Database File Name :irvine Database Input Channel List > 2 Database Output Channel List > 8 Filter Size: Pixels, Lines > 3 3 Area Mask (Window or Bitmap) > 0 0 256 256 Alle Parameter sind nun richtig gesetzt und das Programm kann ablaufen: EASI>r fav Durch das Programm FAV wird vom Datenbasis-File "Irvine" der Bildkanal 2 mit einem 3x3 Filter gefiltert und das Ergebnis im Bildkanal 8 ausgegeben. Es wird jedoch nicht das gesamte Bild eingelesen, sondern nur der linke obere Ausschnitt mit der Größe 256 x 256 Pixel. Falls Unklarheiten bezüglich des Programms oder seiner Parameter bestehen, kann die On-Line Hilfe aufgerufen werden: EASI>h fav die Onlinehilfe erscheint. Die On-Line Hilfe enthält den gleichen Text wie die "EASI/PACE On-Line Help Manuals". In der Regel werden das Programm, die Parameter, die Algorithmen sowie ein oder mehrere Beispiele dargestellt. Ist der Benutzer z.B. an einer Erklärung der Parameter interessiert, ist folgende Eingabe notwendig: EASI>h fav p (arameter) Analog erfolgt der Aufruf von d (etail), e (xample), a (lgorithm) u.a. Abb. 3: EASI (Engineering Analysis and Scientific Interface) Kommandozeileninterface. Beachte! Wie aus dem vorhergehenden Beispiel deutlich wird, unterscheidet EASI/PACE zwischen Textparametern (FILE) und numerischen Parametern (DBIC, DBOC, FLSZ, MASK). Im Command-Mode werden Textparameter bei der Statusausgabe durch einen Doppelpunkt (:) gekennzeichnet und die Texteingabe muß in Anführungszeichen gesetzt werden. Die Anführungszeichen am Textende können allerdings entfallen. Numerische Parameter sind durch ein Größerzeichen (>) gekennzeichnet. Mehrere numerische Angaben werden durch Komma voneinander getrennt. 3.4 EASI/PACE Routinen nach Anwendungsbereichen sortiert Nachfolgend eine Auflistung der EASI/PACE Routinen nach Anwendungsbereichen kategorisiert. Diese Auflistung hat nicht einen Vollständigkeitsanspruch. Die Erklärungen sind z.T. noch unvollständig. Create, modify and delete PCIDSK files / other Utilities Data import and layerstacking process flow: fimport -> pcimod -> iii CIM Create Image Database File. Creates and allocates space for a new PCIDSK database file, for storing image data. PCIDSK files can store 8-bit unsigned, 16-bit signed, 16-bit unsigned, and 32-bit real image channels, of any size (pixels and lines). A georeferencing segment is automatically created as the first segment of the new file. PCIMOD PCIDSK Database File Modification. Allows modification of PCIDSK database files. These modifications include: adding new image channels, deleting image channels, and compressing PCIDSK files (removing deleted segments) to release disk space. modify CIM created files SHL prints PCI diskfile header report CDL channel description listing LINK DIM DAS Delete segments ASL List segments AST Determine the segment type CDL channel description listing NUM Database Image Numeric Window. Prints a numeric window of image data on the report device. CLR Clear image with 0 LOCK / UNLOCK Lock and unlock a channel PYRAMID creates pyramid layers DIM2 delete database and image channels (obsolete) CIM2 Create database and image channel files (separate files per channel) “file interleaved” (obsolete) PCIADD2 adds one new image channel (obsolete) PCIDEL2 deletes image channels from PCI database (obsolete) Export PCIDSK file / Import external format to PCIDSK File FIMPORT -> PCIMOD -> III -> Imageworks (import & layerstack) FIMPORT transfers all image and aux info from a source file to a new PCIDSK file (all GDB supp. formats) FEXPORT export to some GDB formats IMAGERD needs number of lines and pixels, header size, interleaving mode See also: DEMWRIT, DTEDWRIT, ERDASCP, ERDASHD, ERDASRD, IPPI LINK PPHL PPII Image to BSQ Intermediate Format, Moves image data from a PCIDSK image database to an intermediate Band Sequential file format. This intermediate format is useful for transferring data to the PAMAP software product. Live Link to Non-PCIDSK Image File Creates a PCIDSK database file header allowing indirect access to imagery on a non-PCIDSK file. In addition, auxiliary information such a LUTs or bitmaps are transferred to the newly created PCIDSK file. BSQ Intermediate File Header Listing Prints the header block of the PCI-BSQ intermediate file BSQ Intermediate Format to Image Moves image data from a PCIBSQ intermediate file format to a PCIDSK image database. Usually, this file is created by PAMAP third-party software. See also PPVI, SVFRD, SVFWR Transfer Data or Subset Data / Data Interchange III IIA IIB IIIBIT MIRROR ROT ROTBIT VECREAD VECWRIT VREAD VWRITE transfer image data between database files (source and target PCIDSK file have to exist (subsetting possible by using DBIW and DBOW) Segment Transfer Bitmap Transfer Image Transfer under a Bitmap Mirror an image Rotate an database channel Rotates bitmaps Read Vector Data from Text File Transfers vector information held in a text file, to a PCIDSK database vector segment. Vector Write to Text File, Writes vector information held in a PCIDSK vector segment to a text file. Read Vector Data from Text File Reads vector (line and point) data from a text file to a new PCIDSK database vector segment. Write Vector Data to Text File Writes vector (line and point) data from an existing PCIDSK database vector segment to a new text file. Geometrische Anpassung für Datenfusion oder multitemp. Analysis von verschieden Datensätzen. AUTOREG IMGLOCK TRANSFRM IMGFUSE REG GeoAnalyst: (Autoregistrierung – siehe auch imglock (nur nach Vorkorr. Möglich, mit Initial-GCP-Segment.) (um Autoreg oder Imglock zu nutzen muessen die Daten bereits grob aufeinander registiert sein, sonst laeuft nix). Datenfusion Image Registration, Performs image registration of an input (uncorrected) image to an output (master) image, given a set of ground control points. CONTOUR Contour Generation from Raster Image Creates a vector segment containing contour lines from a raster image, such as an elevation (DEM) image, given a specified contour interval. The contour value for each line is saved in either the Z-coordinate of all vertices or in a separate attribute field. ContactX Contact Extension Creates an output vector segment. The vector egment consists of line segments which trace the intersection of a plane with the surface of a digital elevation model (DEM). The plane is defined from the dip and strike angles of the input shape, which are set by the DIP program. Alternatively, they may be set as parameters in this program. DIEST Estimation Procedure for Spatial Data Integration Combines multiple layers of spatial data to derive a favourability model for predicting a geological event (mineral potential, landslide, etc.). Available algorithms include probability estimation, certainty factor estimation, and fuzzy membership estimation. DIGRP must be run before DIEST Dip and Strike Calculation Calculates angles of dip and strike for a set of 3 or more points. Upward/Downward Continuation Filter Compute upward/downward continuation of a potential field. The filter is applied in frequency domain. 2D Fourier transform is first applied to the image. After filtering, the image is transformed back to the spatial domain. Vertical Differentiation Filter Compute the Nth order vertical differentiation of a potential field. The filter is applied in frequency domain after transforming the image using 2D FFT. Inverse Distance Interpolation Generates a raster image by interpolating image values between specified pixel locations using the Simple Inverse Distance or Weighted Inverse Distance algorithm. Natural Neighbour Interpolation Generates a raster image by interpolating image values between specified pixel locations using natural neighbour interpolation. This program uses the NNGRIDR code developed by Dr. D.F. Watson at the University of Western Australia. Radial Basis Function Interpolation Generates a raster image by interpolating image values between specified pixel locations using a Radial Basis Interpolation Algorithm. This program implements the Multi-Quadric and the Thin Plate Spline schemes. Texture Analysis Calculates a set of texture measures for all pixels in an input image. The measurements are based on second-order statistics computed from the grey level co-occurrence matrices. Either texture measures for a specific direction or directional invariant measures can be computed. The texture measures may be used as input features to classification algorithms. IP FCONT FVDIF IDINT NNINT RBFINT TEX Change Radiometric Resolution: SCALE Image Grey Level Scaling and Quantization, nonlinear mapping of image grey levels to a This program is typically used to scale data (32 and 16-bit) channels to "low" resolution channels. perrforms a linear or desired output range. from "high" resolution (16 and 8-bit) STR LUT FUN MODEL, (ARI) Image Contrast Stretch, Generates a lookup table segment to perform contrast stretching of image data on database files. Image Enhancement via Lookup Table, Enhances imagery on disk by passing it through an 8-bit Lookup Table segment (LUT type 170) or breakpoint Lookup Table segment (BLUT type 172) and writing the resulting imagery back to disk. This allows bulk radiometric enhancement of image data. Image Enhancement via Functions, Generates a lookup table to perform a specified function and stores it in a database lookup table segment. Five function types are supported: Histogram Equalization, Histogram Normalization, Histogram Matching, Infrequency Brightening, Adaptive Enhancement Model Interface, zur Ausführung von Berechnungsroutinen, die im Syntax geschrieben wurden (siehe help Model, Syntax). Change Geometric Resolution: IIIAVG, Transfers image data between two database files. Input pixels are averaged, if the output database size is smaller than the input database size. Resolution reduction can be done defining the output size. IMERGE, Merges one image channel from one or more image files to produce one output file. Output georeferencing and pixelsize can be defined. IIIC Database to Database channel transfer. Output bounds define the new geometrical resolution. Other options: usage of Xpace -> Reproject Focus -> Reproject Projektionen: Creating and adding projection information CIMPRO FIMPORT SETPRO MAKEPRO DBREPRO Create Image Projected Database (Import Foreign File) Transfers all the image, and auxiliary information from a source file to a newly created PCIDSK file. All GDB supported file types may be imported. Set projection make projection segment database reprojection report Reproject from one image to another: DBREPRO CIMPRO REGPRO show desired output projection create new projected database resample to new projection Geometric Correction: Process flow for mosaicing of georeferenced data sets: FPOLY2 -> APOLY2 -> RADNORM -> AUTOCUT -> MOSAIC IVI GCII GCIV + GCIM GCIT GCPREP GCPG CIM Image to video display transfer tool (v.6 utility). Image to Image/Vector/Map/Terminal GCP collection (v.6) GCPReport for GCP Segmentss GCP Collection Preview Graphic Report Create image database file GEOSET REG Gcpworks AUTOMOS MOSAIC IMERGE.eas MATCH CREMOS.EAS Set the georeferencing segment Image Registration using a GCP Segment created earlier or with GCPworks (or without GCP Segment). Interactive GCP Tool for non-systematic geometric correction. Automosaic, can be used to automatically mosaic georeferenced Image databases that have the same georeferencing. This is the Most powerfull solution for full automatic mosaic generation. Output Is created automatically. Two very important subfunctions are included: TREMOV (trend removal) can be used to radiometrically balance big mosaics removing trends or hot spots in an image using APOLY2 and FPOLY2. RBAL (radiometrical balancing) calculates Lookup table balancing for each scene to make the adjacent scenes match better. Resulting mosaics show less patchiness (RADNORM Programm). With the MOSTYP function the cutline can be adjusted to areas that show similar DNs – optimal cutline calculation (“Cutline”) can be adjusted using different cost functions (CFUNC). However, AUTOMOS is a complex routine and sometimes fails to complete the mosaicing process. Image Mosaicking, Moves image data from an input image database file to an output image database file. The mosaicking process may be controlled by a vector segment defining the mosaic cut-line. In addition, the input image database data may be modified by a lookup table before it is moved to the output database. Merge Image Files Merges one image channel from one or more image files to produce one output file. IMERGE overwrites one input image file with the next input file, all within the output file Histogram Matching LUT Creates a lookup table which performs histogram matching of an input image to a master image. The output lookup table is saved on the input database and can be used by program LUT to modify input image. Mosaicing EASI routine. Noise removal: LRP DSTRIPE Line Replacement Image Destriping Frequency transforms: FTF FTI FFREQ Fourier Transformation Inverse Fourier Transformation Freq Domain Filter Database Image Filtering: FAV FED Averaging (Mean) Filter Performs AVERAGE filtering on image data. The Averaging (mean) filter smooths image data, eliminating noise. Edge Detection Filter (up to 33x33) Performs EDGE DETECTION filtering for Image data. The edge detection filter creates an image where edges (sharp changes in grey-level values) are shown. FEFROST FELEE FFROST FGAMMA KUAN FLE FME FMO FPR FPRE SHARP FSOBEL FSPEC LINE SIEVE Enhanced Frost Filtering (up to 33x33), FEFROST performs enhanced frost filtering on any type of image data. The filter is primarily used on radar data to remove high frequency noise (speckle) while preserving high frequency features (edges). Enhanced Lee Adaptive Filtering (up to 11x11), Performs enhanced Lee adaptive filtering on image data. The enhanced Lee Filter is primarily used on radar data to remove high frequency noise (speckle) while preserving high frequency features (edges). Frost Adaptive Filtering (up to 33x33) FFROST is used primarily to filter speckled SAR data. An adaptive Frost filter smooths image data, without removing edges or sharp features in the images. Gamma Filtering (up to 11x11), Performs gamma map filtering on image data. The gamma map filter is primarily used on radar data to remove high frequency noise (speckle) while preserving high frequency features (edges). Kuan Filtering (up to 11x11), Performs Kuan filtering on image data. The Kuan filter is primarily used on radar data to remove high frequency noise (speckle) while preserving high frequency features (edges). Lee Adaptive Filtering (up to 11x11), Performs Lee adaptive filtering on image data. The Lee Filter is primarily used on radar data to remove high frequency noise (speckle) while preserving high frequency features (edges). Median Filter (up to 7x7) Performs MEDIAN filtering on image data. The median filter smooths image data, while preserving sharp edges. Mode Filter (up to 7x7) Performs MODE filtering on image data. The Mode filter is primarily used to clean up thematic maps for presentation purposes. Programmable Filter (up to 33x33), Performs programmable filtering on image data. The programmable filter averages image data according to user specified weights. Prewitt Edge Filter (3x3), Performs PREWITT EDGE DETECTOR filtering for Image data. The Prewitt edge detector filter creates an image where edges (sharp changes in grey-level values) are shown. Sharpening Filter (up to 33x33) Performs an edge sharpening filter on image data. This filter improves the detail and contrast within an image. Sobel Edge Filter (up to 3x3), Performs SOBEL EDGE DETECTOR filtering for Image data. The Sobel edge detector filter creates an image where edges (sharp changes in grey-level values) are shown. SAR Speckle Filters Applies a speckle filter on a SAR image. The supported filters are: Lee Filter, Kuan Filter, Frost Filter, Enhanced Lee Filter, Enhanced Frost Filter, Gamma MAP Filter and Touzi Filter. These filters are primarily used on radar data to remove high frequency noise (speckle), while preserving high frequency features (edges). For convenience, a Block Average Filter and a Standard Deviation Filter are also provided. Lineament Extraction Extracts linear features from an image and records the polylines in a vector segment. This program is designed for extracting lineaments from radar images. However, it can also be used on optical images to extract curve-linear features. Sieve Filter (Class Merging) Reads an image channel, and merges image value polygons smaller than a user specified threshold with the largest neighbouring polygon. This is typically used to filter small classification polygons from a classification result. MODEL ARI Modelling environment (can be used instead of EASI) Atmospheric Correction / Biosphere parameter modelling: ATCOR0 ATCOR1 ATCOR2 ATCOR3 ATCOR2_T ATCOR3_T LAI SAVI FPAR (obsolete v.6) (obsolete v.6) Atmosheric correction for flat areas, calculates an atmospheric correction for flat areas applying constant or varying atmosphere. Atmospheric correction and topographic normalisation, calculates a ground reflectance image using elevation data. Calculation of surface temperature for flat area Calculation of surface temperature using elevation data Leaf Area Index model, calculates an Leaf Area Index model value. Soil Adjust Vegetation Index, calculates a Soil Adjusted Vegetation Index (SAVI) Fraction of Absorbed Photosynthetically Active Radiation, calculates fraction of Absorbed Photosynthetically Active Radiation Ratios, Indices, IHS, PCA: RTR Image rationing ARI Image arithmetics CHDET PCA Principal Component Analysis DECORR (after PCA) IHS (RGB to IHS Conversion) Converts red, green, and blue (RGB) image channels to intensity, hue, and saturation (IHS) image channels. The IHS program is the inverse of the RGB program. The Intensity-Hue-Saturation transformation is used by the FUSE and FUSEPCT procedures to perform data fusion. RGB (IHS to RGB Conversion) Converts intensity, hue, and saturation (IHS) image channels to red, green, and blue (RGB) image channels. FUSE (FUSE - data fusion for RGB colour image performs data fusion of a Red-Green-Blue colour image with a black-and-white intensity image. The result is an output RGB colour image with the same resolution as the original B/W intensity image, but where the colour (hue and saturation) is derived from the resampled input RGB image. FUSE is an EASI procedure which uses the REGPRO, IHS, and RGB programs to perform data fusion. FUSEPCT Data fusion for pseudocolour, performs data fusion of a pseudocolour image with a black-and-white intensity image. The result is an output RGB colour image with the same resolution as the original B/W intensity image, but where the colour (hue and saturation) is derived from the resampled input pseudocolour image. FUSEPCT is an EASI procedure which uses the REGPRO, PCE, IHS and RGB programs to perform data fusion. FUSION Data fusion of two input images, creates an output RGB colour image by fusing an input RGB colour or pseudocolour image with an input black-and-white intensity image, using the IHS transform (cylinder or hexcone model) or the Brovey transform. NDVI TASSEL Compute NDVI (from AVHRR) (better use EASI or MODEL) Tasseled cap transformation for Landsat MSS TM and ETM bands Supervised Classification: Process flow: CSG -> CSR -> CSE -> SIGMER -> MLC -> MAP -> MLR 1. create test sites as graphic planes in Imageworks 2. change PCIPIX file layout (add channels for results) 3. save graphic planes to new graphic bitmaps into the PCIPIX file 4. create class signatures using the graphic bitmaps CSG CSR CSE SIGSEP SIGMER CHNSEL Class Signature Generator Class Signature Report Class Signature edit Signature Separability Class Signature Merging Multispectr Channel Selection 5. Classify the image data using e.g. MLC into the empty image channels MINDIS MLC Minimum distance Classifier Maximum Likelyhood Classifier 6. Create a report of the classification and of evaluation areas for accuracy purpose MAP MLR use MAP to burn (encode) evaluation areas (graphic bitmaps) into an image channel with identical class codes as used for the graphic bitmaps in the classification use MLR to create the reports: MLR Maximum Likelyhood Report TRAIN Classification procedure from PCI v.6 (obsolete) Unsupervised Classification: 1. Use directly KCLUS or ISOCLUS KCLUS FUZCLUS ISOCLUS NGCLUS NGCLUS2 FUZ (K-Means Clustering) unsupervised clustering using the K-means (Minimum Distance) method on image data for up to 255 clusters (classes) and 16 channels. The output is a theme map directed database image channel. (Isodata Clustering Program) Performs unsupervised clustering using the ISODATA method on image data for up to 255 clusters (classes) and 16 channels. The output is a theme map directed to a database image channel. 8-Bit Narendra-Goldberg Clustering, maybe better clustering results Multi-bit Narendra-Goldberg Clustering Unsupervised Fuzzy Classification, implements an unsupervised fuzzy clustering algorithm. A maximum of 255 clusters can be generated from 16 image channels. Each cluster is stored into a separate image channel. The intensity value of each pixel in each image channel is proportional to the degree of membership of that pixel corresponding to the channel's. 2. Merge classes or signatures and recluster the data: AGGREG Interactive Class Aggregation, merges up to 255 selected classes together. Using the clustering results, the user can display classes in different colours, group classes into aggregates, change the colours of classes, and change classes under graphic bitmaps to another class. SIGSEP SIGMERG AUTOMER Signature separability, prints a report of class signature separabilities among 2 to 256 classes. Separabilities can be calculated using either the Transformed Divergence or the Bhattacharrya (Jeffries-Matusita) distance measure. The separability between two classes can be used to determine if the classes should be merged using: Class Signature Merging Automatic Signature Merging Other tools for cluster analysis: CLS EXP SCE Cluster definition classification Feature space exploration Single class ellipse SPL SPL3D VOR Scatterplot of image data 3D Scatterplot of Image Data Visual Outlier Removal Alternative classification approaches: Neural network classification process flow: NNCREAT -> NNTRAIN -> NNCLASS -> NNREP -> MAP -> MLR AVG NNCREAT: NNTRAIN NNCLASS NNREP REDUCE CONTEXT Unsupervised texture segmentation, CIM -> MAL (Mallat Wavelet Transformation) -> AVG Creates a neural network segment for back-propagation neural network processing. The neural network programs (NNCREAT, NNTRAIN and NNCLASS) form the process for supervised classification of multispectral imagery using training sites with ANNs. Trains a back-propagation neural network for pattern recognition). Neural Network Classification (Classifies multispectral imagery using a back-propagation neural network segment created by the NNCREAT program and trained by the NNTRAIN program). Prints a report of the parameters in a backpropagation neural network segment created by NNCREAT and trained by NNTRAIN. Validation is done using MAP (to burn eval areas into a raster layer), MLR (Class report) Creates a grey level vector reduced image for frequency-based contextual classification. The output image created by this program is used by the CONTEXT program to perform a supervised classification of multispectral imagery using user-specified training sites. Performs frequency-based contextual classification of multispectral imagery, using a grey level reduced image (created by the REDUCE program) and a set of training site bitmaps. Hyperspectral Analysis: SAM Spectral Angle Mapper Image Classification Classifies hyperspectral image data, on the basis of a set of reference spectra that define the classes. See also: SPADD, SPARITH, SPCONVF, SPCNVG, SPCOPY, SPECREP, SPFIT, SPHULL, SPIMARI, SPMOD, SPNORM, SPREAD, SPUNMIX, SPWRIT. Database Reports: ASL BIT CDL CDSH HIS LUTREP PCTREP HISDUMP RCSTATS SHL Segment listing Bitmap printout Channel listing CD header report Histogram image LUT report PCT report Histogram export Row/column statistics Source Header List Multilayer Modelling: IPG OLO OVL POG BBT CONSTR IPG MAT POG PRX Identifies contiguous groups of 8-connected pixels of the same input grey level or for specified input grey-level ranges, and assigns a unique grey level as a label to each output raster polygon. Applies a logical operation to an image channel using a pseudocolour table created on the display with the DCP "BL" command and saved with VIP to the database. The output is a bitmap that is ON where the logical operation of the associated BL command is satisfied. Combine multiple image channels by setting the output channel qual to the minimum or maximum value of all input channels at any given pixel location. Classes within the input images can be recoded by OVL using lookup tables created with REC Reports the position, area, and perimeter for all specified polygons in a PCIDSK image database file. Inserts up to eight bitmaps into bitplanes of an image plane. The resultant image is an overlay map, which can be analyzed using the DCP bitplane commands and the tasks OLO and CAR. Individual bitplanes can be cleared with CIB. CONSTRAINT ANALYSIS allows the user to overlay layers of information and examine the combinations of data. This is used to find areas in an image that meet a number of different constraints, such as with site selection. Identifies contiguous groups of 8-connected pixels of the same input grey level or for specified input grey-level ranges, and assigns a unique grey level as a label to each output raster polygon. Creates a coincidence (intersection) matrix for the classes of two images and an image of the coincidence values. Classes within the input images can be recoded by MAT using lookup tables created with Reports the position, area, and perimeter for all specified polygons in a PCIDSK image database file. Proximity Analysis Calculates proximities to a given class or classes within an image. ARE REC Elevation Data Area under Bitmap. Calculates the true and projected areas, under a user-selected bitmap, from an elevation image. Creates or overwrites a 256-value database lookup table segment which can be used to transform or recode 8-bit image data stored on database image channels. Unspecified lookup table values can be defaulted to either zero or identity. No image data is changed. Vector Utilities: Raster vectorisation process flow: RTV -> VECMERGE -> VECCLEAN Raster statistics under buffered vector polygons, process flow: GRDPOL -> SCALE -> SHRINK -> THR -> MODEL -> RTV -> VIMAGE -> VECREP CONTOUR GRD GRDINT GRDPIN GRDPNT GRDPOL GRDVEC IDINT KRIGING RBFINT RTV Contour Generation from Raster Image. Creates a vector segment containing contour lines from a raster image, such as an elevation (DEM) image, given a specified contour interval. The contour value for each line is saved in either the Z-coordinate of all vertices or in a separate attribute field. Vector Grid Interpolation, Grids (fills in) the raster image channel,by interpolating image data between encoded vector data (normally created by the GRDVEC program). GRDVEC and GRDINT can be used to create digital elevation models (DEM). Point Grid Interpolation Generates a raster image by interpolating image values between specified pixel locations. Optionally associated with each input pixel grey level is a user-specified confidence level. Point Coverage Gridding Given a set of points stored in a vector segment, a raster image is generated where each grey level corresponds to the attribute value of the closest point. Polygon Coverage Gridding Convert polygons or arcs in vector segments to raster image or bitmap. Vector Encoding Encodes (burns in) vector data into existing raster image channel. The attribute value associated with each line and point in the vector segment is encoded into the image channel. The GRDINT program is used to grid (fill in) raster values between encoded vectors in the image channel. GRDVEC and GRDINT can be used to create a digital elevation mode (DEM) from contours. Inverse Distance Interpolation Generates a raster image by interpolating image values between specified pixel locations using the Simple Inverse Distance or Weighted Inverse Distance algorithm. Point Interpolation with Kriging Generates a raster image by interpolating points specified in vector segments, using the kriging method. Radial Basis Function Interpolation Generates a raster image by interpolating image values between specified pixel locations using a Radial Basis Interpolation Algorithm. This program implements the Multi-Quadric and the Thin Plate Spline schemes. Raster to Vector Conversion Takes as its input a raster image held in a channel on a PCIDSK file (preferably one which has been classified and/or well filtered). RTV then outputs vector data describing the boundaries and/or interior points of the areas (polygons) in the image. The generated vector data is stored in a created vector segment in the file. VDEMINT VECBUF VECDIG VECMERG VESPRO VECREG VECREP VECRST VECSEL VIMAGE VSAMPLE Create Buffer Zone Around Vector Set Creates a graphic mask defining a buffer zone which surrounds vector data, given a user specified buffer width. Vector Digitization (Using Tablet) Interactively digitizes lines and points on a map using a tablet (digitizing table). Simultaneous feedback is provided on a video display. Lines and points are saved on a new PCIDSK database vector segment. Merge Database Vector Segments Merges two or more vector segments held in a PCIDSK file and writes the result to a new vector segment. Converts the input vectors to produce a new vector segment of vector data in the specified output projection. Vector Registration (Warping) Performs registration of vector data on a vector segment using a ground control point (GCP) segment or a georeferencing segment, to produce a new segment of transformed vector data. Vector Segment Report, Writes the contents of a vector segment to a report device. Rasterize Vectors This program rasterizes one or more vector segments with a provided RST into one or three raster channels. Vector Selection Performs selection of vectors for a window and/or range(s) of attributes to produce a new vector segment. Vector thinning may also be done on the output vectors. Collect Image Point/Polygon Statistics VIMAGE samples a raster image layer for each vector in a vector layer, and adds a column to the vector layer containing the requested sample statistics. Either point sampling, or polygon statistics can be computed. Sample Image Along Vectors This program samples pixels from one or more image channels that lie underneath a specified vector segment and writes the result to a txt file, or vector point layer. Watershed and Drainage Applications: DRAIN Drainage Basin From Elevation Data, Generates a drainage network data set channel using the flow accumulation data. DWCON Drainage Watershed Conditioning, Performs four conditioning procedures for drainage and watershed programs. This program must be executed before any drainage and watershed programs. OVERLND Overland Path Generation, Finds the overland path (flow path) of the drainage network. The OVERLND program uses the point sources (start cells) from the STARTER program, and traces their overland paths until they enter the drainage network or encounter the edge of the image channel. PPTABLE Pour Point Table Report, Finds all the pour points between watersheds (i.e., a table of linkages for watersheds) and stores them in a table. Pour points are the points of lowest elevation on the common boundary between watersheds. SEED Automatic Watershed Seed Starter Performs automatic seeding for delineation of sub-watersheds defined by major tributaries. STARTER Watershed Seed Starter, Performs an interactive procedure to create a starter data set for specific watershed delineation or overland path determination WTRSHED Watersheds from Elevation Data finds the specific watersheds or sub-watersheds using the results from STARTER or SEED. 3.5 EASI- Programmierung Ein EASI-Macro enthält eine Reihe von EASI-Anweisungen (siehe Manual EASI User Guide), die im Texteditor eingegeben und gespeichert werden (die Extension ist .eas, z.B macro_1.eas) Macros werden mit einer Run-Anweisung im EASI-Window gestartet (EASI>r dir ; s. weiter unten). Einfache Macros enthalten eine Aneinanderreihung von Programm-Parametereingaben und Run-Anweisungen (r cim). Textvariable (z.B. file) müssen in Hochkomma gesetzt werden. Einfache Prozeduren enthalten eine Aneinanderreihung von Parameterangaben und eine RUN-Anweisung. Ausgefeilte Prozeduren können aber auch vom Benutzer Eingaben abfragen, On-Line Hilfe beinhalten, Unterprozeduren aufrufen, arithmetische Funktionen ausführen und anderes mehr. In EASI-Prozeduren können sowohl permanente Variable, die in das Parameter-File (PRM.PRM) eingetragen sind, auftreten, als auch temporäre Variable, die nur während des Ablaufes einer bestimmten Prozedur zur Verfügung stehen. Für viele Prozeduren sind die im Parameter-File vorhandenen Variablen (z.B. DBIC, ESCALE) und einige temporär definierte Variable (z.B. #A, $B) ausreichend. Findet eine bestimmte Variable immer wieder in verschiedenen Prozeduren Verwendung, kann der Benutzer diese mit dem Befehl DEF ins Parameter-File aufnehmen. “EASI, the Engineering Analysis and Scientific Interface, is both a command environment for interactive executing tasks and a scripting language for the construction of applications. EASI is independent of its host environment and eliminates the differences between host operating systems, presenting the user with a simple, powerful environment. As a command environment, EASI provides a simple and convenient mechanism for querying and setting input parameters required by an executable module, referred to as a “task”. The interactive user is able to view a complete list of all the parameters required as input by a task, check their current values, modify their values, and execute the task. As a scripting language, EASI can be used to automate those manual procedures that are performed by a user interactively. A set of commands can be placed in an ordinary text file, called an EASI script, to specify parameter values and execute tasks. Chains of such commands in an EASI script can be used to automatically compute more complex or time-consuming results. In addition to support for simple automation scripts, the EASI scripting language includes a complete set of control structures with which complex applications can be built. EASI also includes a rich set of intrinsic functions which permit the manipulation of data in a platform independent way. Examples of data that can be accessed and manipulated include raster imagery, vector data, projection information, and general binary and text files.“ (EASI/PACE Reference Geomatica 8.2) Eine Beispielroutine ist wird in Abb.4 vorgestellt und kommentiert: !EASI ! Rev1. 11.8.2003 (docu and the initial statements) ! ! EASI Routine by SHese 82003 ! ! using: PCIMOD and DAS ! ! start of online help documentation here ! ! ! ! ! ! ! ! ! THE ! is just documentation and remarks – you can just write anything here DOC is for online documentation that can be read through XPACE or EASI/PACE by the user STATUS is the syntax output from the status command or the status button in EASI/PACE or XPACE INPUT asks for input from the user PRINT just prints anything out here LOCAL defines variables etc. check the EASI reference for more on this stuff DOC @title{BATCHDELETE}{Delete Channels or Segments in Batchmode} DOC DOC 1 Details DOC DOC This Routine deletes Channels or Segments in Batchmode DOC using DAS or PCIMOD - all files in a directory are treated DOC DOC_END ! this is a simple documentation that hold only a detail-chapter local string chanseg local string in_dir, fn, ext, bn local mstring dirlist local integer number, i local $Z let $Z = "\ status_title "Delete Channels or Segments" status_end print "" print "Delete Channels or Segments from all PCIDSK files in Directory" print "" INPUT "Delete Channels (CHAN) or Segments (SEG) (chan/seg): "chanseg INPUT "Enter the directory which contains the files to be changed: " in_dir INPUT "ENTER Channel or Segment number: " number dirlist = getdirectory(in_dir) ! ---------------------this is the create section -----------------------------------------! start of first if-loop if (chanseg = "chan") then ! start of a for-loop for i = 1 to f$len(dirlist) fn = in_dir + $Z + dirlist[i] ext = getfileextension(fn) bn = getfilebasename(fn) ! start of secondary if-loop if (ext ~= "pix") then MONITOR = "ON" file=in_dir + $Z + dirlist[i] !starting with PCIMOD routine pciop="DEL" PCIVAL=number RUN PCIMOD endif endfor endif if (chanseg = "seg") then for i = 1 to f$len(dirlist) fn = in_dir + $Z + dirlist[i] ext = getfileextension(fn) bn = getfilebasename(fn) if (ext ~= "pix") then MONITOR = "ON" file=in_dir + $Z + dirlist[i] !starting with DAS routine dbsl=number RUN DAS endif endfor endif print "Finished all" ! this is just a simple example of a batch routine using if-then-endif and for-loops ! and asking the user to enter some parameters Abb 4: Beispiel EASI Routine: EASI Routine zum Löschen von Segmenten oder Kanälen in allen PIX Dateien in einem Verzeichnis. Further Reading: see “EASI Users Guide”. 3.7 Geometrische Korrektur mit Orthoengine In Orthoengine (Geomatica): 1. Öffnen Sie OrthoEngine (Taskbar Icon mit dem Flugzeug) und wählen Sie „File“, „New“, „Math Modelling Method: Polynomial“ und denken Sie sich einen Projektnamen für die Georeferenzierungssitzung (für den Dateinamen) aus. 2. Stellen Sie die Ausgabe-Georeferenzierung ein (UTM 32 WGS84 - E012 (entspricht UTM Zone 32, Northern Hemisphere) Pixelgröße: 28,5 m) 3. Laden Sie im nächsten Prozessierungsschritt „GCP-Collection“ den unkorrigierten Datensatz ein (erster Button) und aktivieren Sie „Quick Open“. 4. Betätigen Sie den nächsten Button unter der Kategorie „GCP Collection“ mit der Beschreibung „Collect GCPs Manually“. Wählen Sie bei „Ground Control Source“ die Option “Geocoded Image“ und selektieren Sie unter „File Name“ den georeferenzierten PCIDSK File, der als Master vorgesehen ist. 5. Öffnen Sie das Referenz Bild und sammeln sie Passpunkte (GCPs) in beiden Datensätzen. Um die Passpunkte zu übernehmen, „Use Point“ auswählen und schließlich im GCP-Collection Fenster „Accept“ auswählen. ACHTUNG: die GCPs werden im OrthoEngine Projekt-File abgespeichert und nicht im PCIDSKFile! 6. Kontrollieren Sie die x/y Residuen durch Auswahl des Menüeintrags „Options-> Residuen“ im OrthoEngine Hauptmenü, aktivieren Sie die Felder unter der Menüleiste „Display“. 7. Sind ausreichend GCPs ausgewählt worden, so kann im nächsten „Processing Step“: „Geometric Correction“ die geometrische Korrektur gestartet werden („Schedule Ortho Generation“). 3.8 Geomatica OrthoEngine – creating an ASTER DEM from scratch: The following description is from an online tutorial of PCI Geomatics about ASTER DEM generation (www.pci.on.ca). The ASTER Earth Observation Satellite is unique in that it offers nearly simultaneous capture of stereo images, minimizing temporal changes and sensor modeling errors. Band 3 of the VNIR sensor includes two channels, a Nadir looking scene and a Backward looking scene. This provides stereo coverage from which a DEM can be automatically extracted. Aster Level 1A and Level 1B are both supported for DEM extraction and ortho rectification by OrthoEngine. Each does have its own set of benefits and draw backs that you need to consider. Level 1A is not corrected, level 1B is and therefore has the potential to produce less accurate results than level 1A when you are using quality ground control (the difference is negligible if you are relying on the GCPs supplied with the sensor). Level 1A also enables you to use the stitching function to stitch continuous scenes from the same path. This can reduce the number of GCPs and tie points required and reduces the seam you may get mosaicking DEMs from the same path. Level 1A does have an offset in the SWIR bands that is fairly significant so if you need these bands for multi-spectral analysis you may want to consider level 1B as this offset is corrected for in level 1B, but not level 1A. Also level 1B has been rotated so the stitching routine cannot be used with level 1B imagery. The following is a brief tutorial on the use of Geomatica OrthoEngine for ASTER DEM Extraction. Step 1 Project and Projection Setup • Select File > New to create a new project in OrthoEngine. • Enter a Filename and Project Name.Select “Satellite Orbital Modelling”. • Select “General High Resolution” model. “Accept” • Set the Project Georeferencing and Output Pixel Spacing. For the VNIR bands of ASTER, this will be 15m Abb. 8 OrthoEngine project window Step 2 Data Input • Select the “Data Input’ processing step. • Select READ from CD • Select “ASTER” as the CD Format. The buttons for the Requested Channels will change to show the ASTER bands • Select the HDF file as CD Header Filename For DEM Extraction, you will require channels 3N and 3B. The nadir and backwardlooking channels have different extents and different distortions. This requires them to be georeferenced individually. • Select the “3N” button, and enter an output filename. • Click “Read” to import to a .pix database. • Repeat the steps for the “3B” channel, giving a new filename Abb.9 Read CDROM – ASTER import NOTE: If you are working with Level 1A imagery and have scenes from the same path you can use Utilities>Stitch Image Tiles to stitch up to five scenes to make one seamless image to work with. Remember to stitch the 3n images and the 3b images separately. The stitch process will rebuild the orbital segment for the strip after stitching is complete Step 3: GCP and Tie Point Collection • Select the “GCP/TP Collection” processing step. (Note: that if you are creating a DEM without GCPs you do not need to actually load the GCPs supplied with the Aster scene. The software will use these behind the scene to perform the adjustment) • Collect GCPs as for any other project, using manual entry, from geocoded images, vectors, chip databases, or a text file. • Collect tie points to connect the “3N” and “3B” channels to each other. NOTE: If you are not collecting GCPs, using the GCPs supplied with the scenes you want to pay particular attention to your tie point collection. You want to try for at least twenty points making sure you cover the edges well and ensure a good distribution through the middle. Try collecting four points first then run the Automatic Tie Point Collection to speed up the process. Remember if you have clouds in your scene check the results from automatic tie point collection. Step 4: Model Calculation • Select the “Model Calculations” processing step. • Click on the Perform Bundle Adjustment icon. Step 5: Creating Epipolar Images • Select the “DEM from Stereo” processing step. • Select Create Epipolar Image. • In the Left Image window, select the “3N” file. This will move the “3B” file to the Right Image window. (Note: if you import channel 1-3n at the data input stage be sure to set the channel for the ‘n’ image to be 3. • Select the “3B” file in the right-hand window. The Epipolar Output Image names will be assigned automatically. Add the epipolar pairs to the table • Set Working Cache as desired, and then click Generate Pairs. This resamples the nadir and backward-looking images so that they overlap, left to right, as a stereopair. Abb. 10: Generate Epipolar Images Step 6: Generating a DEM • Select the Extract DEM Automatically • Set the DEM extraction options. Refer to the help topic “Generating Digital Elevation Models” for a detailed description of each parameter. • Select whether you want to create a geocoded DEM at this stage or not. If so give it a file name. If you do not want to generated a geocoded DEM at this stage your DEM will be written to the file indicated under Epipolar DEM. To geocode this file select Geocode Extracted Epipolar DEM from the “DEM from Stereo” processing step. • Click Start Dem Extraction Abb. 11: Ortho Engine “Automatic DEM Extraction” Interface 3.9 FOCUS (die integrative Umgebung aller Geomatica Funktionen) Focus ist das Tool zur Datenvisualierung, zur Analyse und Bearbeitung, für GIS Aufgaben, zur Umprojektion, zum „Subsetten“ und für die Kartengenerierung. Focus integriert eine Vielzahl der Funktionen von EASI/PACE in einer grafischen Oberfläche, der sog. Algorithm Librarian. - Focus unterstützt über 100 Raster- und Vektorformate Beliebige Anzahl von Raster-Layern Beliebige Datentiefe (1, 8, 16, 32 Bit) Schwarz/weiß, farbig oder Pseudofarben Georeferenzierte, sich überschneidende Daten mit verschiedener Auflösung und Projektion in einem Fenster visualisieren Beliebige Anzahl von Vektor-Layern Vektoren mit numerischen und Text-Attributen GIS-Tools Editier-Tools Programmausführung Kartengenerierung Files und Maps-Tab Maps-Tab ist die (Default)Einstellung für die Datenvisualisierung, Editierung, Analyse und Kartengenerierung. Die geladenen Layer werden in der Baumliste angezeigt und können nach oben oder unten verschoben werden, um die Daten optimal sehen zu können. Über die rechte Maus-Funktion stehen eine Vielzahl von Bearbeitungs- und Analysefunktionen zur Verfügung. Wichtig ist, dass der zu bearbeitende Layer in der Baumliste selektiert ist, damit die gewünschte Funktion oder die Properties zugänglich sind. Viele der rechte Maus-Funktionen sowie zusätzliche Funktionen stehen über das Pulldown-Menü zur Verfügung. Häufig verwendete Funktionen sind auch über Icons aufrufbar. Für jeden Datenlayer können über die rechte Maus-Funktion (oder Doppelklick) die Properties geändert werden. Z.B. können für Rasterdaten (Channels und Bitmaps) Werte voll- oder teiltransparent geschaltet werden (s. Bild weiter unten). Für Vektoren kann über rechte Maus/Representation Editor die Darstellungsart geändert werden. Im Files-Tab erfolgt das File-Management. Es können z.B. Layer gelöscht oder angelegt, die Georeferenzierung von Raster- und Vektordaten überprüft und korrigiert werden. * Maps-Tab Properties/Display/Transparency und Opacity für Bildkanäle und Bitmaps Abb. 12: Geomatica Focus RGB Layer Properties Fenster Layer/RGB Mapper Clone View und Chained Window View/Visualization Tools Strenges Layer-Konzept, d.h. „falsch selektiert und nichts passiert!“ * Files-Tab Properties Georeferencing Write Lock Anlegen von neuen Vector- und Bitmap-Segmenten Die Kenntnisse über Focus lassen sich mit dem Manual Focus User Guide und den beiden Kapiteln „Getting Started“ und „Focus Basics“ vertiefen. Vektoren Besitzen Georeferencing-Information. Vektor-Segmente können eine unterschiedliche Projektion und geographische Ausdehnung als die Kanäle besitzen. Beim Import gehen die Projektionsangaben oft verloren (nur METRE). Unter Properties die Angaben wieder eintragen (Save nicht vergessen). Vektor-Attribute können über den Attribut-Manager (rechte Maus-Funktion) angeschaut und bearbeitet werden. Bitmaps Besitzen keine Georeferencing-Information. Wenn eine Maske in einem anderen File verwendet werden soll, die Maske mit MAP in einen 8U-Kanal einbrennen. Diesen mit Tools/Reproject auf die Auflösung und Größe des Zielfiles anpassen und mit Utilities/Transfer Layers in das andere File übertragen. Mit THR kann wieder eine Bitmap erstellt werden. Kartengenerierung Unter View in den Map View Mode umschalten (oder über die Icons in der Menüleiste). • Unter Map Properties (rechte Maus/Properties oder Doppelklick) Papiergröße angeben (1). • Unter Area Properties Maßstab setzen (2). • Für Text oder auch Symbole ist ein Vektor-Layer erforderlich. Dieser wird für die Area angelegt (Rechte Maus/New Vector Layer und „Unstructured“). Im Style Editor können Buchstabenart, Größe, Farbe festgelegt werden. Unter „Westlich“ finden sich die bekannten Windows-Fonts. Für das Textschreiben muss das schwarze T-Icon (4. Icon von links, zweite Icon-Zeile) aktiviert werden. • Unter Area (2) Rechte Maus/Surround durchführen und Kartenrahmen,Titel etc. auswählen. Jedes Surround Element kann auch noch nachträglich unter Properties bearbeitet werden. Z.B. für Grid den Rasterabstand ändern. • Fertige Karte mit File/Print Map oder Print Map to File ausgeben. • Für weitere Analyse wieder in Area View Mode umschalten. Das Manual Focus User Guide widmet sich dem Thema Kartengenerierung im Kapitel „Publishing Map Projects“. EASI-Modelling unter Tools % kennzeichnet Kanal im File %% kennzeichnet Bitmap im File Maske für Objektklasse mit Grauwert 8 erstellen: If (%3 = 8) %%12=1 Vegetationsindex: %10 = (%4 - %3) / (%4 + %3) Anmerkung: %10 sollte 32R sein; oder die Formel mit 100 multiplizieren und 16S wählen. Kanal löschen: %10 = 0 Weitere Informationen zum Thema EASI-Modelling gibts im Focus User Guide im Kapitel „Image Processing“. Bildklassifizierung Häufig angewandte Verfahren zur überwachten (Maximum Likelihood, Parallelepiped, Minimum Distance) und unüberwachten Bildklassifizierung (K-Means, Isodata, Fuzzy KMeans) sind im Focus unter Analysis/Image Classification implementiert. Für die Klassifikation wird in der Baumliste ein MetaLayer angelegt, über den die einzelnen Arbeitsschritte, wie Trainingsgebiete erfassen, Klassifikation, Post-Klassifikation, u.a., über die rechte Maus zur Verfügung stehen. Abb. 13: Geomatica Focus MetaLayer Konzept Zu diesem Thema gibt es weitere Informationen im Focus User Guide im Kapitel „Image Classification“. Weitere Klassifizierungsalgorithmen, wie z.B. Neuronale Netze, können über den Focus Algorithm Librarian/Classification gefunden und genutzt werden. Atmosphärische Korrektur In Focus sind alle Programme von ATCOR2 und -3 in ein sehr bedienerfreundliches Menü eingebaut. ATCOR wird über Analysis/Atmospheric Correction aufgerufen. Nach der Parametereingabe wird in der Baumliste ein MetaLayer angelegt. Über rechte Maus sind hier die weiteren Funktionen, wie Generierung von Dunst- und Wolken-Masken, spektralen Plotts und der atmosphärischen Korrektur zugreifbar. Abb. 14: Das ATCOR Modul in Geomatica Focus Weitere Informationen zu diesem Thema finden sich im Focus User Guide im Kapitel „Atmospheric Correction“. Anworten zu häufig gestellten Fragen gibt es auf der DLR Homepage http://www.op.dlr.de/atcor/atcor2+3_faq.html. 3.10 Die Algorithmenbibliothek – arbeiten mit Geomatica ohne EASI/PACE Der Zugriff auf Geomatica Bildverarbeitungsprogramme kann im Focus unter Tools/Algorithm Librarian, im PCI Modeler oder über EASI-Makros erfolgen. Zur Programmsuche ist im Focus eine hilfreiche Suchfunktion (rechte Maus/Find) implementiert (s. unten). Ansonsten können die Programme unter den entsprechenden Hauptpunkten gefunden werden. Das gewünschte Programm öffnen und die Parameter eingeben (Files und Input Params 1). Die Farbe Rot bedeutet „erforderlich Eingabe fehlt“, Gelb „mögliche Eingabe“, Grün „alles OK“. Das Ergebnis kann in den Focus-Viewer und/oder in ein File ausgegeben werden. Das Arbeiten mit der Algorithmen-Bibliothek wird im Focus User Guide im Kapitel „Algorithm Librarian“ genau beschrieben. Abb. 15: Algorithmen Bibliothek in Geomatica Focus 3.11 Der PCI Modeler Der PCI Modeler ist eine visuelle Bedienoberfläche für das Arbeiten mit Geomatica Programmen und eignet sich sehr gut zum Erstellen komplexer Arbeitsabläufe Per Mauszeiger werden die Programm-Module auf der Arbeitsfläche angeordnet und anschließend mit Leitungssymbolen verbunden. Die Iconart an den Programmmoduleinund ausgängen sowie die Farbe der Leitungen zeigen an, welcher Datentyp benutzt werden kann. Für die Eingabe von Programmparametern das Programm-Modul doppelklicken. Werden Files mit unterschiedlicher Projektion und/oder Auflösung verwendet, gibt das zuerst importierte File die Projektion und Auflösung vor (MasterFile). Ist der Arbeitsablauf fertig gestaltet, genügt ein Klick auf das Run-Symbol um das Modell zu starten. Für das Experimentieren nur mit View-Modulen zur Ergebnisvisualisierung arbeiten. Wenn der Verarbeitungsprozess feststeht, die Ergebnisse in ein File ausgeben (Export-Modul). Komplexere Modelle als Gedächtnisstütze für ähnliche Anwendungen speichern. Der Modeler unterstützt Batch-Prozessierung. Das Geomatica models-Verzeichnis enthält viele Modelle, die sich leicht für eigene Anwendungen anpassen lassen. Weitere Modelle sind unter http://www.pcigeomatics.com /support/models/index.htm erhältlich. Abb. 16: PCI Modeller mit graphischem Interface zur Konstruktion von einfachen Routinen und für Batch Prozessierung. 3.12 PCIDSK Datenformat: PCIDSK is a data structure for holding digital images and related data. Each PCIDSK database is a separate, named disk file. Each user of the EASI/PACE system can have any number of PCIDSK files, limited only by the disk capacity of the computer system. PCIDSK files can be shared with other users. One of the advantages of the PCIDSK file structure is that images and associated data, such as Lookup Tables and bitmaps, are contained in a single file, making it simple to keep track of related information. The use of a single file for each data set also simplifies the problems of deletion (when processing of the image is complete), backup and copying since only one file is involved in these operations. Abb. 17: Overview of the PCIDSK file structure. The PCIDSK database can store 8-bit unsigned integer, 16-bit signed integer, 16- bit unsigned integer, and 32-bit real image data. Image pixel values range from 0 to 255 for 8-bit unsigned integer, -32768 to 32767 for 16-bit signed integer, and 0 to 65535 for 16-bit unsigned integer. The magnitude of 32-bit real values ranges approximately from 1:2 _ 10_38 to 3:4 _ 10+38 and has seven digits of precision. Channels (or bands) of image data can be arranged in one of four ways: pixel interleaved, line interleaved, channel (or band) interleaved, or as separate files. Abb. 18: Interleaving data modes Abb. 19: Separate file data: File 1: AAA AAA File 2: BBB BBB File 3: CCC CCC The standard implementation of the PCIDSK database currently uses pixel interleaving, because this is a good choice for most multispectral applications. However, the channel (band) interleaving and separate file format for each image channel has also been implemented. Segments hold data related to the imagery in the file. They are usually created during a processing step to be used in future processing steps. The following Segment types are de_ned in this manual: Abb. 20: Segment types in Geomatica 3.13 Lizenzierung Geomatica kann in unterschiedlichen Konfigurationen erworben werden. Bis auf die Verwendung in der Lehre ist es jedoch sinnvoll praktisch alle „Advanced Module“ zu lizenzieren, da Atmosphärenkorrektur, einige spezielle Klassifikationsmethoden und auch die Orthodatenprozessierung sonst nicht zur Verfügung stehen. Die Module von Geomatica lassen sich wie folgt untergliedern: Geomatica Fundamentals: An entry level solution for image rectification, data visualization and analysis, plus functionality for full cartographic map production. Add features to Fundamentals to easily configure your production environment. Explore the various OrthoEngine Add-on Modules below. Geomatica Prime: A complete solution which includes all the functionality found within Fundamentals plus EASI, Algorithms, FLY! and PCI Visual Modeler. Numerous Advanced and OrthoEngine Add-on Modules are available for Prime. Explore the various Add-on modules PCI has to offer below. Geomatica GeoGateway: An affordable data viewing and translation tool, supporting over 100 raster and vector formats. Geomatica FreeView: A flexible data viewing tool supporting over 100 raster and vector formats for loading, viewing, selection, and enhancement. Advanced Module: Hyperspectral Image Compressor: Add-on to Advanced Hyperspectral package which allows for vector quantization. Prerequisites: Hyperspectral Image Compressor requires Geomatica Prime and Advanced Hyperspectral. Advanced Optical: Includes algorithms specifically designed to work with Optical satellite data (AVHRR Orbital Navigation, Advanced Image Classification & ATCOR2 Atmospheric Correction). Prerequisites: Advanced Optical requires Geomatica Prime. Atmospheric Correction (ATCOR 3): Extension to ATCOR 2 which allows one to calculate ground reflectance & surface brightness temperature for a rugged terrain. Prerequisites: ATCOR 3 requires Geomatica Prime and the Advanced Optical. Advanced Pan Sharpening: Algorithm which 'fuses' high-resolution panchromatic and low-resolution multispectral imagery together to create a high-resolution color image. Prerequisites: Advanced Pan Sharpening requires Geomatica Prime. Advanced Radar: Tools which allows handling of new product types, calibration methodologies and quality assessment techniques for ERS SAR data. OrthoEngine Add-On Modules for Geomatica Orthorectification Modules Airphotos Models Contains an efficient triangulation method for generating precise orthophotos from scanned or digital camera aerial photographs. Prerequisites: Airphotos Models requires either Geomatica Fundamentals or Geomatica Prime. Satellite Models Contains specialty sensor math models for generating precise orthoimages from a wide range of optical and radar imagery while correcting for distortions. Prerequisites: Satellite Models requires either Geomatica Fundamentals or Geomatica Prime. High Resolution Models: Contains specialty sensor math models for generating precise orthoimages from the new generation of high resolution satellites while correcting for distortions. Prerequisites: High Resolution Models requires either Geomatica Fundamentals or Geomatica Prime. Generic & RPC Models: A powerful ortho-rectification tool - with Generic Model, use new or unsupported satellites. Generate precise orthoimages while correcting for distortions with the RPC Model. DEM Extraction Modules: Automatic DEM Extraction: Add-on to Airphotos, Satellite, High-Resolution & Generic & RPC Models. This module allows automatic extraction of DEMs from stereo airphotos & selected satellite sensors. Prerequisites: Automatic DEM Extraction requires Geomatica Fundamentals or Geomatica Prime, plus at least one of the Geomatica OrthoEngine advanced sensor modelling packages; Airphoto Models, Satellite Models, High-Resolution Models or RPC & Generic Models. RADARSAT DEM Extraction: Add-on to Satellite Models. This module allows automatic extraction of DEMs from stereo RADARSAT images. 3D Stereo: Add-on to Airphotos, Satellite, High-Res. & Generic & RPC Models. This module offers advanced tools for 3D viewing & 3D feature extraction. Prerequisites: 3D Stereo requires Geomatica Fundamentals or Geomatica Prime, and an associated Geomatica OrthoEngine sensor math model, such as Airphoto Models, Satellite Models, High-Resolution Models or RPC and Generic Models. Ausserdem: ArcGIS PIXRaster PlugIn; GeoRaster ETL Oracle, Atlantis Scientific EartView (SAR), BAE SYSTEMS – SOCETSET; u.a. (http://www.pci.on.ca/products/products_overview.html) 3.14 Geomatica 10 – ein Ausblick Entscheidende Veränderungen mit der Version 10 sind nach Auskunft eines Vertreters der Firma PCI Geomatics (vom Juni 2005) zu erwarten in den folgenden Bereichen: - Allgemeine Verbesserung der Stabilität der Software (offensichtlich ist das Grundproblem der 9er Generation nun wirklich erkannt worden). - Sogenannte „Componetization“ vieler Funktionen des OrthoEngines und genereller Funktionen zur Skriptierung und Integration in den Modeller. Dies Betrifft wohl in erster Linie Funktionen aus dem OrthoEngine. - Überarbeitung und Erweiterungen der Funktionalität des OrthoEngine Pakets selbst. - Focus: „Smart Digitizing“ im Focus, „Chart Tools“ im Focus, neue kartographische Tools im Focus. - Algorithmen Bibliothek: Erweiterung um neue Module, die auch in der Modeler und in der EASI-Umgebung zur Verfügung stehen (Reprojektion, Subsetting, Z-Value Transfer, Oracle Support, MODIS Datenimport. - Hyperspektral: Model-based atmosphärische Korrektur (MODTRAN4 RTM basierend) (GENTP5 Generate a MODTRAN4 tape file, GENRLUT Generate an at-sensor radiance lookup table, RESRLUT Resample at-senor radiance lookup table to coincide with relative response profile, ATRLUT Transform at-sensor radiance to surface reflectance dataset, GENAWC Generate an atmospheric water vapor content map, GENCLUT Detect spectral line curvature and generate a correction lookup table, SLCCOR Apply a spectral line curvature correction. SMSPEC Smooth the dataset in the along-band dimension. RLUTSP Extract radiance spectra from a radiance lookup table. VIEWAZ Evaluate the view zenith angle and azimuth, SOLARAZ Evaluate the solar zenith angle and azimuth). - Radar: Sensor Support für ENVISAT ASAR (ASA_IMS, ASA_APS, SCANSAR, ASA_WSM), neues Modul zur Terrainkorrektur: (“A new algorithm (RTCSIGM) generates a calibrated radar backscatter image from a RADARSAT or ENVISAT ASAR image, with correction for radiometric terrain effects. Radar shadow masks and layover masks are also created. The SLC2IMG algorithm generates a visible image channel from two input SLC (Single Look Complex) ASAR channels. The SARSIGM algorithm generates a calibrated radar backscatter image from an ASAR scaled radar channel and an array of incident angles. The SARBETA algorithm generates a radar brightness channel from an ASAR scaled radar channel and an array of incident angels. 4. Literatur 4.1 National and International Periodicals: 1. 2. 3. 4. 5. 6. 7. 8. EARSeL Advances in Remote Sensing. IEEE Transactions on Geoscience and Remote Sensing International Journal of Remote sensing Pattern Recognition Letters Photogrammetric Engineering & Remote Sensing Remote Sensing of Environment Remote Sensing Reviews Zeitschrift fur Photogrammetrie und Fernerkundung. 4.2 Geomatica spezifische Literaturhinweise: ATCOR F. Lanzl and R. Richter. (AUGUST 27-30 1991). A fast atmospheric correction algorithm for small swath angle satellite sensors. ICO topical meeting on atmospheric, volume and surface scattering and propagation. Florence, Italy. pp. 455-458. R. Richter. (1991). Error bounds of a fast atmospheric correction algorithm for the LANDSAT Thematic Mapper and multispectral scanner bands. APPLIED OPTICS 30(30):4412-4417. R. Richter. (1990). Model SENSAT: a tool for evaluating the system performance of optical sensors. SPIE Propagation Engineering 1312:286-297. F.J. Ahern, P.M. Teillet, and D.G. Goodenough. (1977). Transformation of atmospheric and solar illumination conditions on the CCRS Image Analysis System. Machine Processing of Remotely Sensed Data Symposium. R. Richter. (1990). A fast atmospheric correction algorithm applied to LANDSAT TM images. International Journal of Remote Sensing 11(1):159-166. SAM Kruse, F.A., Lefkoff, A.B., Boardman, J.W., Heidebrecht, K.B., Shapiro, A.T., Barloon, P.J., and Goetz, A.F.H. (1993), "The Spectral Image Processing System (SIPS) – Interactive Visualization and Analysis of Imaging Spectrometer Data", Remote Sensing of Environment, Vol. 44, pp. 145-163. DESTRIPE Horn, B. K. P., and R. J. Woodham, (1979). Destriping Landsat MSS images by histogram modification. Computer Graphics and Image Processing. Vol. 10, pp. 69-83. Poros, D. J., and C. J. Peterson, (1985). Methods for destriping Landsat TM images. Photogrammetric Engineering and Remote Sensing. Vol.51, No. 9, pp. 1371-1378. FFT Gonzalez, R.C. and Wintz, P. [1987]. Digital Image Processing. 2nd Edition, Addison-Wesley, Massachusetts. MLC Duda and Hart, 1973. Pattern Classification and Scene Analysis, John Wiley and Sons, chapter 2. Robert A. Schowengerdt, 1983. Techniques for Image Processing and Classification in Remote Sensing. Academic Press. MINDIS Hodgson, M.E. (1988). Reducing the computational requirements of the minimum-distance classifier. Remote Sensing of Environment, Vol. 24. FUZCLUS J.C. Bezdek, "Fuzzy mathematics in pattern classification", Ph.D. dissertation, Cornell Univ., Itheca, NY, 1973. ISOCLUS KCLUS Tou, Julius T. and Rafael C. Gonzalez. 1974. Pattern Recognition Principles. Addison-Wesley Publishing Co. KNN K. Fukunaga. (1990). Introduction to Statistical Pattern Recognition. MINDIS Hodgson, M.E. (1988). Reducing the computational requirements of the minimum distance classifier. Remote Sensing of Environment, Vol. 24.H Academic Press, Boston. MTE Bernier, M.; Bonn, F.; and Gagnon, P. (eds.) ( 1989). Teledetection et Gestion Des Ressources. volume VI: Comptes rendus du sixieme congres de L'Association quebecoise de teledetection. Sainte-Foy, Quebec. L'Association quebecoise de teledetection. p. 388 NGCLUS Narendra & Goldberg. 1977. "A Non-parametric clustering scheme for Landsat". Pattern Recognition, vol. 9. pp 207-215. SIGSEP Richards, J. A. (1986). Remote Sensing Digital Image Analysis. Springer-Verlag. New York. pp. 206-225. Note: The formula to calculate the Bhattacharrya Distance measure given in the above book is incorrect. Check the reference in the book to find the right formula. NNCLASS The following papers and books provide more information on the the back-propagation neural network algorithm used by the NNCREAT, NNTRAIN and NNCLASS programs: Benediktsson, J.A., P.H. Swain, and O.K. Ersoy (1990). "Neural Network Approaches Versus Statistical Methods in Classification of Multisource Remote Sensing Data", IEEE Transactions on Geoscience and Remote Sensing, Vol. 28, No. 4, July 1990. Bischof, H., W. Schneider, and A.J. Pinz (1992). "Multispectral Classification of Landsat-Images Using Neural Networks", IEEE Transactions on Geoscience and Remote Sensing, Vol. 30, No. 3, May 1992. Hertz, J.A., A.S. Krogh, and R.G. Palmer (1991). "Introduction to the Theory of Neural Computation", Addison-Wesley Publishing Company. Maren, A.J., C.T. Harston, and P.M. Pap (1990). "Handbook of Neural Computing Applications", Academic Press Inc., San Diego. Pao, Y.H. (1989). "Adaptive Pattern Recognition & Neural Networks", Addison-Wesley Publishing Company. REDUCE and CONTEXT programs use the algorithm described in the following paper: Gong, P., and P. Howarth, "Frequency-Based Contextual Classification and Gray-Level Vector Reduction for Land-Use Identification". Photogrammetric Engineering & Remote Sensing, Vol. 58, No. 4, April 1992, pp. 423-437. UNMIX Gong, Miller, Freemantle and Chen. "Spectral Decomposition of Landsat Thematic Mapper Data For Urbal Land-Cover Mapping", Proceedings of the 14th Canadian Symposium on Remote Sensing, Calgary, Alberta, Canada, May 1991. MAL Mallat, S. (1990). Multiscale Image Analysis Mallat, S. (1989). "A Theory of Multiresolution Signal Decomposition: the Wavelet Representation." IEEE Trans. PAMI, Vol. II, No. 7, pp. 572-693. FUZ Gath, I. and Geva, A. (1989). Unsupervised Optimal Fuzzy Clustering. IEEE Trans. PAMI, Vol II, No. 7, pp. 773-789. 4.3 Lehrbücher: Curran P.J., 1986, Principles of Remote sensing. Essex, Longman Group, 282 pp. Campbell J.B., 1987, Introduction to Remote Sensing. New York, Guilford Press. Gonzalez R.C. & P. Wintz, 1987, Digital Image Processing. Addison-Wesley Pub. 503 pp Jenssen J.R., 2000, Remote Sensing of the Environment. Prentic Hall Int. London, 544pp. Lillesand T.M. & R.W. Kiefer, 2003, Remote Sensing and Image Interpretation. Wiley, New York. 747 pp. Richards J.A., Xiuping Jia, 1999, Remote Sensing Digital Image Analysis, An Introduction. SpringerVerlag, Berlin. 281 pp. Sabins F.F., 1987, Remote Sensing: Principles and Interpretation. Freeman and Company, New York, 449 pp. Schowengerdt, R.A., 1997. Remote Sensing – Models and Methods for Image Processing, 2nd Edition, Academic Press, Elsevier Science. 4.4 Other References and further reading: Asrar G. (Ed.), 1989, Theory and Applications of Optical Remote Sensing. New York, Wiley. 725 pp. Azzali S., 1985, Greenness and Brightness Formulae Applicable to East Sesia and Grande Bonificia Ferrarese. Institute for Land and Water Management Research, Note 1673. Wageningen, The Netherlands. Buiten H.J. & J.G.P.W. Clevers, 1993, Land Observation by Remote Sensing: Theory and Applications. Gordon and Breach, Reading. 642 pp. Cohen W.B., 1991, Temporal versus Spatial Variation in Leaf reflectance under Changing Water Stress Conditions. International Journal of Remote Sensing, Vol.12, pp. 1865-1876. Crist E.P. & R.J. Kauth, 1986, The Tasseled Cap De-Mystified. Photogrammetric Engineering & Remote Sensing, Vol.52, pp.81-86. Crist E.P. & R.C. Cicone, 1984a, A Physically Based Transformation of Thematic Mapper Data: the TM Tassled Cap. IEEE Transactions on Geoscience and Remote sensing, Vol. GE-22, pp.256263. Crist E.P. & R.C. Cicone, 1984b, Comparisons of the Dimensionality and Feautures of Simulated Landsat-4 MSS and TM Data. Remote Sensing of Environment 14, pp.235-246. Crist E.P. & R.J. Kauth, 1986, The Tasseled Cap De-Mystified. Photogrammetric Engineering & Remote Sensing, Vol.52, pp.81-86. Crist E.P., R. Laurin & R.C. Cicone, 1986, Vegetation and Soils Information Contained in Transformed Thematic Mapper Data. Proc. of the International Geoscience and Remote Sensing Symposium (IGARSS.86), Zurich 8-11 Sept, pp.1465-1470. De Jong S.M. & P.A. Burrough, in press, A Fractal Approach to the Classification of Mediterranean Vegetation Types in Remotely Sensed Images. Accepted for publication in Photogrammetric Engineering & Remote Sensing. De Jong S.M., 1994a, Applications of Reflective Remote Sensing for Land Degradation Studies in a Mediterranean Environment. Netherlands Geographical Studies 177, KNAG Utrecht, 240pp. De Jong S.M., 1994b, Derivation of Vegetative Variables from a Landsat TM Image for Erosion Modelling. Earth Surface Processes and Landforms, Vol.19, pp.165-178. De Jong S.M., 1993, An Application of Spatial Filtering Techniques for Land Cover Mapping Using TM-images. Geocarto International, Vol.8, pp. 43-50. De Jong S.M. & H.TH. Riezebos, 1991, Use of a GIS-database to Improve Multispectral Image Classification Accuracy. Proc. EGIS, 2-5 April, Brussels, pp. 503-508. Elvidge C.D., 1990, Visible and Near-Infrared Reflectance Characteristics of Dry Plant Materials. International Journal of Remote Sensing, Vol.11, pp.1775-1795. ERDAS Inc., 1993, Field Guide and User.s Manual ERDAS, Atlanta USA. ESA, 1993, ERS Users Handbook, Revision 1. ESA technical Report SP-1148, Estec, Noordwijk. FAO, 1993, Radar imagery: theory and interpretation. RSC series No.67. Food and Agricultural Organization, Rome. Galli de Paratesi S. & P. Reiniger (Eds.), 1987, Heat Capacity Mapping Mission. Investigation No.25 Tellus Project. Technical Report JRC, Ispra. 110 Goel, N.S. (1989), Inversion of Canopy Reflectance Models for Estimation of Biophysical Parameters from Reflectance Data. In: G. Asrar Ed., Theory and Applications of Optical Remote Sensing. Wiley, New York, pp. 205-251. Goetz A.F.H., G. Vane, J.E. Solomon & B.N. Rock, 1985, Imaging Spectrometry for Earth Remote Sensing. Science Vol. 228, pp. 1147-1153. Graetz R.D. (1990), Remote Sensing of Terrestrial Ecosystem Structure: An Ecologist.s Pragmatic View. In: R.J. Hobbs & H.A. Mooney, Remote Sensing of Biosphere Functioning. Ecological Stduies 79. Spriger-Verlag, New York. pp. 5-30. Guyot G., F. Baret & S. Jacquemoud, 1992, Imaging Spectroscopy for Vegetation Studies. In: F. Toselli & J. Bodechtel, Imaging Spectroscopy: Fundamentals and Prospective Applications. Kluwer Academic, Dordrecht, pp.145-165. Hansen R.F., 2001, Radar Interferometry: Data Interpretation and Error Analysis. Kluwer Academic Publishers, Dordrecht.308 pp. Huete A.R., 1989, Soil Influences in Remotely Sensed Vegetation Canpoy Spectra. In: G. Asrar (Ed.), Theory and Applications of Optical Remote sensing. Wiley & Sons, New York, pp.107141. Hunt G.R. & J.W. Salisbury, 1976, Visible and Near Infrared Spectra of Minerals and Rocks: XI. Sedimentary Rocks. Modern Geology, Vol.5, pp. 211-217. Hunt G.R. & J.W. Salisbury, 1971, Visible and Near Infrared Spectra of Minerals and Rocks: II. Carbonates. Modern Geology, Vol.2, pp.23-30. Janssen L.L.F., 1994, Methodology for Updating Terrain Object Data from Remote sensing Data. Thesis, Agriculture University Wageningen. 173 pp. Kaufman Y.J., 1989, The Atmospheric Effect on Remote sensing and its Correction. In: G. Asrar (Ed.), Theory and Applications of Optical Remote sensing. Wiley & Sons, New York, pp.336428. Kaufman Y.J. & C. Sendra, 1988, Algorithm for Automatic Atmospheric Corrections to Visible and Near-Infrared Satellite Imagery. Int. Journal of Remote Sensing 9, pp. 1357-1381. Kauth R.J. & G.S. Thomas, 1976, The Tasseled Cap, a Graphic Description of the Spectraltemporal Development of Agricultural Crops as Seen by Landsat. Proc. Symp. Machine Processing of Remotely Sensed Data. Purdue University, West Lafayette, Indiana, pp.41-51. Kloosterman E.H., H.T.C. van Stokkom & R.W.L. Jordans, 1991, Bruikbaarheid van de CAESARscanner voor Operationele Vegetatiekartering. BCRS-rapport 91-39, Delft. Kenizys F.X. et al., 1988, User.s Guide to LOWTRAN7, AFGL-TR-88-0177, Environmental Research Paper No. 1010, Airforce Geophysics Laboratory, Hanscom AFB, Massachusetts. Kruse F.A., Kierein-Young K.S. & Boardman J.W., 1990, Mineral Mapping at Cuprite, Nevada with a 63-Channel Imaging Spectrometer. Photogrammetric Engineering & Remote Sensing, Vol.56, pp. 83-92. Markham B.L. & J.L. Baker, 1986, EOSAT Landsat Technical Notes No.1. EOSAT, Lanham, Maryland, pp.1-8. Markham, B.L. & J.L. Baker, 1985, Spectral Characterization of the Landsat Thematic Mapper Sensors. International Journal of Remote Sensing, Vol.6, pp.697-716. Menenti M., 1993, Contribution of Remote Sensing to the Management of Water in Arid Areas. 111 In: H.J. Buiten & J.G.P.W. Clevers (Eds.), Land Observation by Remote Sensing: Theory and Applications Pudoc, Wageningen, pp.385-401. Menenti M., 1980, Physical Aspects and Determination of Evaporation in Deserts Applying Remote Sensing Techniques. PhD-thesis & Report 10 DLO Staring Centrum, Wageningen. Moen J.P., F.J.M. van der Wel, J.T. de Smidt, L.L. Vels & D.J. Harms, 1991, Monitoring van Heidevergrassing met behulp van Remote Sensing en een Geografisch Informatiesysteem (HEIMON). BCRS rapport 91-12, Delft. Mulders M.A., 1987, Remote Sensing in Soil Science. Developments in Soil Science 15. Elsevier, Amsterdam, 379 pp. Nieuwenhuis G.J.A., 1993, Agrohydrological Applications of Remote Sensing. In: H.J. Buiten & J.G.P.W. Clevers (Eds.), Land Observation by Remote Sensing: Theory and Applications Pudoc, Wageningen, pp.373-384. Nieuwenhuis G.J.A., E.H. Smidt & H.A.M. Thunissen, 1985, Estimation of Regional Evapotranspiration of Arable Crops from Thermal Infrared Images. International Journal of Remote Sensing 6, pp.1319-1334. Peterson D.L., J.D. Aber, P.A. Matson, D.H. Card, N. Swanberg, C. Wessman & M. Spanner, 1988, Remote Sensing of Forest Canopy and Leaf Biochemical Contents. Remote Sensing of Environment 24, pp.85-108. Pieters C.M. & P.A.J. Englert (Eds.), 1993, Remote Geochemical Analysis: Elemental and Mineralogical Composition. Cambridge University Press, Cambridge. 594 pp. Reeves R.G. (Ed.), 1975, Manual of Remote Sensing. ASPRS, Falls Church. Rosenfield G.H. & K. Fitzpatrick-Lins, 1986, A Coefficient of Agreement as a Measure of Thematic Classification Accuracy. Photogrammetric Engineering & Remote sensing, Vol.52, pp. 223-227. Rubin T.D., 1993, Spectral Mapping with Imaging Spectrometers. Photogrammetric Engineering & Remote sensing, Vol.59, pp. 215-220. Sellers P.J., 1989, Vegetation-Canopy Spectral Reflectance and Biophiscal Processes. In: G. Asrar (Ed.), Theory and Applications of Optical Remote sensing. Wiley & Sons, New York, pp.297335. Strahler A.H., 1980, The Use of Prior Probabilities in Maximum Likelihood Classification of Remotely Sensed Data. Remote Sensing of Environment 10, pp.135-163. Tanré D., C. Deroo, P. Duhaut, M. Herman, J.J. Morcette, J. Perbos & P.Y. Deschamps, 1985, Effects Atmosphérique en Télédetection, Logiciel de Simulation du Signal Satéllitaire dan le Spectre Solaire. Proc. 3rd Int. Coll. on Spectral Signatures of Objects in Remote Sensing, 1620 December, Les Arcs, pp.315-319. Thunissen H., R. Olthof, P. Getz & L. Vels, 1991, Grondgebruiksdatabank van Nederland met behulp van Landsat Thematic Mapper Opnamen. BCRS rapport 91-32, Delft. Tucker C.J., 1979, Red and Photographic Infrared Linear Combinations for Monitoring Vegetation. Remote Sensing of Environment 8, pp.127-150. Tucker C.J., J.A. Gatlin & S.R. Schneider, 1984, Monitoring Vegetation in the Nile Delta with NOAA6 and NOAA-7 AVHRR imagery. Photogrammetric Engineering and Remote Sensing 50, pp. 5361. 112 Tucker C.J., C.O. Justice & S.D. Prince, 1986, Monitoring the Grasslands of the Sahel 1984- 1985. Int. J. Remote sensing 7 (11): 1571-1581. Vane G. & A.F.H. Goetz, 1988, Terrestrial Imaging Spectroscopy. Remote Sensing of Environment 24, pp.1-29. Woodcock C.E., A.H. Strahler & D.L.B. Jupp, 1988a, The Use of Semivariograms in Remote Sensing: I. Scene Models and Simulated Images. Remote Sensing of Environment 25, pp.323248. Woodcock C.E., A.H. Strahler & D.L.B. Jupp, 1988b, The Use of Semivariograms in Remote Sensing: II. Real Digital Images. Remote Sensing of Environment 25, pp.349-379. 4.5 Online Tutorials: http://priede.bf.lu.lv/gis/Descriptions/Remote_Sensing/An_Online_Handbook/ http://www.fpk.tu-berlin.de/manuals/fernerkundung/ http://ivvgeo.uni-muenster.de/Vorlesung/FE_Script/Start.html http://www.sbg.ac.at/geo/idrisi/wwwtutor/tuthome.htm http://www.ccrs.nrcan.gc.ca/ccrs/learn/tutorials/fundam/chapter1/chapter1_1_e.html