Geographische und Topographische Lage von
Transcription
Geographische und Topographische Lage von
Post-graduate University Course MSc Space Sciences Master Thesis Automatisierte Generierung von virtuellen 3D Landschaften auf der Basis des Österreichischen Topographischen Modells, der Digitalen Katastralmappe und Satellitenbilddaten By Mag. Stefan Eichberger Automatisierte Generierung von virtuellen 3D Landschaften auf der Basis des Österreichischen Topographischen Modells, der Digitalen Katastralmappe und Satellitenbilddaten By Mag. Stefan Eichberger Submitted in partial fulfillment of the requirements for the degree of Master of Science of the Post-graduate University Course Space Sciences Karl Franzens University of Graz Graz, Austria December 2005 Karl Franzens University of Graz II Date: Dez. 2005 Author: Mag. Stefan Eichberger Title: Automatisierte Generierung von virtuellen 3D Landschaften auf der Basis des Österreichischen Topographischen Modells, der Digitalen Katastralmappe und Satellitenbilddaten Permission is herewith granted to the Post-graduate University Course Space Sciences of Karl Franzens University of Graz to circulate and to have copied for noncommercial purposes, at its discretion, the above title upon the request of individuals or institutions. _________________________________ Signature of Author The author reserves other publication rights, and neither the thesis nor extensive extracts from it may be printed or otherwise reproduced without the author’s written permission. The author attests that permission has been obtained for the use of any copyrighted material appearing in this thesis (other than brief excerpts requiring only proper acknowledgement in scholarly writing) and that all such use is clearly acknowledged. III Inhaltsverzeichnis 1 Einleitung & Zielsetzung................................................................................................1 1.1 Visualisierung & Geovisualisierung......................................................................................... 1 1.2 Zielsetzung ............................................................................................................................. 3 1.3 Workflow................................................................................................................................. 4 1.4 Begriffe ................................................................................................................................... 5 1.4.1 Visualisierung..................................................................................................................... 5 1.4.2 Landschaft.......................................................................................................................... 6 1.4.3 Dimensionen ...................................................................................................................... 6 1.4.4 Geodaten ........................................................................................................................... 9 2 Datengrundlagen ..........................................................................................................10 2.1 Digitales Geländemodell (DGM) ........................................................................................... 10 2.1.1 Verwendete DGMs: .......................................................................................................... 11 2.1.1.1 DGM des BEV ......................................................................................................... 11 2.1.1.2 SRTM (Shuttle Radar Topography Mission) ............................................................ 11 2.1.1.3 DGM Joanneum Research ...................................................................................... 12 2.2 Vektordaten .......................................................................................................................... 13 2.2.1 Verwendete Vektordaten.................................................................................................. 14 2.2.1.1 DLM – Digitales Landschaftsmodell......................................................................... 14 2.2.1.2 DKM – Digitale Katastralmappe............................................................................... 16 2.2.2 Datenformat: ESRI Shape................................................................................................ 16 2.2.3 Fernerkundung – das „Missing Link?“ .............................................................................. 17 2.3 Rasterdaten - Satellitenbilder und Sensoren ........................................................................ 19 2.3.1 QuickBird.......................................................................................................................... 20 2.3.2 Spot.................................................................................................................................. 21 2.3.3 Landsat ............................................................................................................................ 22 2.4 Klassifizieren von Fernerkundungsdaten.............................................................................. 24 2.4.1 Pixelbasierte Methodik ..................................................................................................... 24 2.4.1.1 Unüberwachte Klassifikation.................................................................................... 25 2.4.1.2 Überwachte Klassifikation........................................................................................ 26 2.4.2 Objekt-orientierte Methodik .............................................................................................. 28 2.4.2.1 Clusterbasierte Segmentierung ............................................................................... 29 2.4.2.2 Regionsbasierte Segmentierung (region-based) ..................................................... 30 2.4.2.3 Kantenbasierte Segmentierung (edge-based) ......................................................... 30 2.4.2.4 Watershed-Segmentierung...................................................................................... 31 2.4.2.5 Weitere Verfahren ................................................................................................... 31 2.5 Texturen ............................................................................................................................... 34 2.5.1 Natürliche Texturen .......................................................................................................... 35 2.5.2 Künstliche Texturen.......................................................................................................... 36 I 2.6 Existierende 3D-Visualisierung basierend auf amtlichen Geodaten am Beispiel der „Austrian Map“……………................................................................................................................................. 37 3 Konzept einer Landschaftsvisualisierung .................................................................39 3.1 3.2 3.3 3.4 3.5 3.6 4 VNS - Softwarefunktionalität................................................................................................. 40 Datenaufbereitung ................................................................................................................ 43 Rasterbasierte Visualisierung ............................................................................................... 45 Vektorbasierte Visualisierung ............................................................................................... 46 „Automatisierte“ Visualisierung ............................................................................................. 47 Arbeitsumgebung ................................................................................................................. 48 Visualisierungsergebnisse der einzelnen Testgebiete .............................................49 4.1 Dachstein-Tauern Region..................................................................................................... 49 4.1.1 Visualisierung................................................................................................................... 51 4.1.1.1 Konzeption & Work Flow ......................................................................................... 51 4.1.1.2 Grundlagen.............................................................................................................. 51 4.1.1.3 Aufbau & Konzept der Ecosystems ......................................................................... 51 4.1.1.4 Rasterbasierte Visualisierung .................................................................................. 57 4.1.1.5 Hybride Visualisierung............................................................................................. 64 4.1.1.6 Vektorbasierte Visualisierung .................................................................................. 71 4.2 Mallnitz – Hohe Tauern......................................................................................................... 77 4.2.1 Diskussion der Ergebnisse............................................................................................... 83 4.2.1.1 Fernerkundungsdaten ............................................................................................. 83 4.2.1.2 Vektordaten der DKM .............................................................................................. 85 4.2.1.3 Vektordaten des DLM.............................................................................................. 88 4.2.1.4 Animation................................................................................................................. 92 4.2.1.5 Realtime Animation ................................................................................................. 95 5 Grenzen und Zielsetzung.............................................................................................99 5.1 5.2 5.3 6 7 8 Systemvoraussetzung .......................................................................................................... 99 Daten & Zielsetzung ............................................................................................................. 99 Maßstab.............................................................................................................................. 100 Diskussion und Ausblick...........................................................................................101 Literaturverzeichnis ...................................................................................................104 Anhang ........................................................................................................................111 II Abbildungsverzeichnis Abb. 1: Objektdimensionen von Geodaten............................................................................................... 8 Abb. 2: Feature Space ........................................................................................................................... 25 Abb. 3: Überwachte Klassifikation.......................................................................................................... 27 Abb. 4: Ablauf einer Multispektral-Klassifizierung .................................................................................. 28 Abb. 5: Vergleich einer Abgrenzung eines Moors .................................................................................. 29 Abb. 6: Hierarchische Klassifizierung..................................................................................................... 31 Abb. 7: Information und Ablauf in einem typischen neuronalen Netz ..................................................... 32 Abb. 8: Künstliche Felstextur ohne (links) bzw. mit Bump Mapping (rechts).......................................... 34 Abb. 9: Beispiel einer natürlichen Textur, Kombination Landsat TM/Spot.............................................. 35 Abb. 10: Textur für Ackerflächen............................................................................................................ 36 Abb. 11: 2D-Bilder als Billboard Objekte ................................................................................................ 37 Abb. 12: Anaglyphenbild von Graz......................................................................................................... 37 Abb. 13: Perspektive Ansicht in der AMAP, Version 2.0 ........................................................................ 38 Abb. 14: Ecosystem „Nadelwald“ ........................................................................................................... 41 Abb. 15: Detailansicht ............................................................................................................................ 41 Abb. 16: Konzept einer Landschaftsvisualisierung mit VNS................................................................... 44 Abb. 17: Image Drape mit Satellitenbild (Auflösung 10 m)..................................................................... 45 Abb. 18: Vektorbasierte Visualisierung .................................................................................................. 46 Abb. 19: Gebietsabgrenzung Region Dachstein-Tauern........................................................................ 49 Abb. 20: Ecosystem Editor, VNS 2......................................................................................................... 52 Abb. 21: Ecosystems – Rules of Nature................................................................................................. 53 Abb. 22: Ecosystem – Material Gradient................................................................................................ 54 Abb. 23: Ecosystems – Material & Foliage............................................................................................. 54 Abb. 24: Darstellung der Klasse „Unclassified“. ..................................................................................... 55 Abb. 25: Ecotype Editor der Overstory für das Material „Laubwald“....................................................... 55 Abb. 26: Ecosystem – Color Map........................................................................................................... 56 Abb. 27: Landnutzungsklassifikation als Image Drape........................................................................... 58 Abb. 28: Satellitenbild als natürliche Textur. .......................................................................................... 58 Abb. 29: Visualisierung mittels künstlicher Texturen.............................................................................. 58 Abb. 30: Natürliche Textur im kleinen Maßstab...................................................................................... 59 Abb. 31: Künstliche Textur, kleiner Maßstab.......................................................................................... 60 Abb. 32: Natürliche Textur, mittlerer Maßstab........................................................................................ 60 Abb. 33: Künstliche Textur, mittlerer Maßstab ....................................................................................... 61 Abb. 34: Künstliche Textur, großer Maßstab.......................................................................................... 61 Abb. 35: Künstliche Textur, großer Maßstab.......................................................................................... 62 Abb. 36: 3D Objekte zur Darstellung bebauter Flächen ......................................................................... 63 Abb. 37: Rasterbasierte Ecosystems ..................................................................................................... 65 Abb. 38: Ergänzende Vektordaten für ein Verkehrs- (gelb) und Gewässernetz (blau)........................... 65 III Abb. 39: Terrafectors ............................................................................................................................. 65 Abb. 40: Render Preview ....................................................................................................................... 66 Abb. 41: Vektoren und Terrafectors ....................................................................................................... 67 Abb. 42: Terrafector und Area Terrafector mit den Komponenten Streams und Lakes.......................... 68 Abb. 43: Terrafectors ohne Streams, Area Terrafector mit Lakes.......................................................... 68 Abb. 44: Vektoren & Terrafectors (1) ..................................................................................................... 69 Abb. 45: Vektoren & Terrafectors (2) ..................................................................................................... 69 Abb. 46: Vektoren & Terrafectors (3) ..................................................................................................... 70 Abb. 47: Renderergebnis, hybride Methodik .......................................................................................... 70 Abb. 48: Open GL View, VNS2 .............................................................................................................. 72 Abb. 49: Konzept eines Edge Feathering Profile.................................................................................... 72 Abb. 50: Platzierung von 3D Objekten (1).............................................................................................. 74 Abb. 51: Platzierung von 3D Objekten (2).............................................................................................. 74 Abb. 52: Renderergebnis, Vektorbasierte Methodik............................................................................... 75 Abb. 53: Übersichtskarte Mallnitz – Hohe Tauern.................................................................................. 77 Abb. 54: 3D Ansicht des Testgebietes ................................................................................................... 77 Abb. 55: Lageungenauigkeiten zwischen DLM und DKM ...................................................................... 80 Abb. 56: Ausdehnung der DKM Daten ................................................................................................... 81 Abb. 57: Bottom-Up-Konzept der Modellierung für das Testgebiet Mallnitz ........................................... 82 Abb. 58: Spot 5 Klassifikation, 24 bit Farbdarstellung ............................................................................ 84 Abb. 59: Walls aus Gebäudepolygonen. ................................................................................................ 86 Abb. 60: Farbzuordnung über eine Thematic Map................................................................................. 87 Abb. 61: Modellieren von Walls ausgehend von einer dreidimensionalen Dachform ............................. 87 Abb. 62: Walls als Zaun entlang von Grundstücksgrenzen.................................................................... 87 Abb. 63: DLM Daten mit Terrafectors modelliert .................................................................................... 89 Abb. 64: Überlagerung der DKM mit DLM Daten ................................................................................... 90 Abb. 65: Natürliche Unterbrechung eines Terrafectors .......................................................................... 90 Abb. 66: Plazieren eines 3D Objektes.................................................................................................... 90 Abb. 67: Fertiges Renderergebnis mit Cloud Models und Shadows im Bildvordergrund ....................... 91 Abb. 68: Konzept einer Keyframe-basierten Animation.......................................................................... 92 Abb. 69: Ausschnitt der fertigen Animation (AVI Format, Windows Media Player, Version 9.0)............. 93 Abb. 70: Ausschnitt einer Animation mit künstlicher Textur (AVI Format, Windows Media Player, Version 9.0) ................................................................................................................................................ 94 Abb. 71: Teilausschnitt in Nature View Express (NVE), Version 1.60 .................................................... 97 Abb. 72: VRML Szene in Cortona 4.2 .................................................................................................... 97 IV Tabellenverzeichnis Tab. 1:.Elemente der räumlichen Wahrnehmung..................................................................................... 7 Tab. 2: Verfahren zur Raumbilderzeugung .............................................................................................. 7 Tab. 3: Parameter der SRTM Systeme .................................................................................................. 12 Tab. 4: Vergleich der Datenstrukturen Vektor – Raster.......................................................................... 13 Tab. 5: Inhalt des DLM, Stand November 2005 ..................................................................................... 15 Tab. 6: Quickbird Systemparameter....................................................................................................... 20 Tab. 7: SPOT Systemparameter............................................................................................................ 21 Tab. 8: Landsat Systemparameter......................................................................................................... 23 Tab. 9: Systemvorsaussetzung und verwendete Arbeitsumgebung....................................................... 48 Tab. 10: Zusammenfassung der verwendeten Software........................................................................ 48 Tab. 11: Abgrenzung des Testgebietes Dachstein Tauern Region in BMN Koordinaten ....................... 49 Tab. 12: Aggregierte Klassen und ihre Vergleichbarkeit mit CORINE-Klassen...................................... 50 Tab. 13: CLC Klassen, wie sie tatsächlich im Testgebiet vorkommen ................................................... 50 Tab. 14: Zusammenfassung der verschiedenen Visualisierungs-Methoden .......................................... 76 Tab. 15: Abgrenzung des Testgebietes Mallnitz - Hohe Tauern in BMN Koordinaten .......................... 77 Tab. 16: Attribute des DLM der Objektbereiche „Namen“ und „Verkehr“ ............................................... 78 Tab. 17: Attribute des Objektbereichs „Verkehr“ .................................................................................... 79 Tab. 18: Rasterattribute der Klassifikation der Quickbird-Szene............................................................ 84 Tab. 19: Auszug der Attribute für das Shape „Nfl.shp“ inkl. Summe der Polygone ................................ 85 Tab. 20: Zusammenfassung der Objektarten und ihre direkte Anwendbarkeit in VNS........................... 88 V Danksagung Im Rahmen des Universitätslehrganges Space Sciences konnte ich auf meinen Kenntnissen aus dem Studium der Umweltsystemwissenschaften aufbauen und mein Wissen mit dem selbst gewählten Schwerpunkt Remote Sensing noch vertiefen. Der Arbeitsschwerpunkt innerhalb der Master Thesis führte mich in eine Materie, die bis dahin in diesem Ausmaß noch Neuland für mich war. Für die die Schaffung der Voraussetzungen für eine erfolgreiche Arbeit am Joanneum Research bzw. die Betreuung der Master Thesis möchte ich mich an erster Stelle sehr herzlich bei Herrn Univ.-Prof. Dr. Mathias Schardt bedanken. Am Institut für Digitale Bildverarbeitung bot die Visualisierungsgruppe rund um Herrn Dipl. Ing. Alexander Almer einen idealen Rahmen von Fachwissen, Erfahrung und entsprechender Arbeitsmittel zur Durchführung der Arbeit. Bei Herrn Almer möchte ich mich besonders für die uneigennützige Bereitstellung von Arbeitsplatz und –mittel bedanken. Innerhalb des Institutes für Digitale Bildverarbeitung bzw. der Visualisierungsgruppe gilt mein besonderer Dank Herrn Dipl. Ing. Harald Stelzl, der mir zu jeder Zeit mit Rat und Tat zur Seite stand, Motivationsprobleme erfolgreich bekämpfte und zuletzt sogar des öfteren für kulinarische Freuden in den Mittagspausen sorgte. VI Kurzfassung Unsere Umwelt wird zusehends digital erfasst und durch einen ständig wachsenden Pool an Geodaten repräsentiert. Mit der Verfügbarkeit und Homogenisierung der Daten bzw. der kontinuierlich technischen Entwicklung von Computerhard- und Software liegt auch die Idee nahe, diese in ihrer ursprünglichen Form, nämlich 3-dimensional, zu visualisieren. In dieser Arbeit werden verschiedene Raster- und Vektordaten für eine möglichst automatisierte Landschaftsvisualisierung mittels der High-End Software Visual Nature Studio 2 (VNS) herangezogen. Satellitenbilder und daraus abgeleitete thematische Information können auf relativ einfache Art und Weise Grundlage für eine naturnahe Darstellung großflächiger Gebiete sein. Ein besonderes Hauptaugenmerk wurde innerhalb von VNS auf die Kompatibilität gegenüber GIS-Daten gelegt bzw. die Integration von Daten aus dem Digitalen Landschaftsmodell (DLM) und der Digitalen Katastralmappe (DKM) des Bundesamtes für Eich- und Vermessungswesen (BEV). In einem ersten Testgebiet wurden grundlegende Techniken und Methoden behandelt, die dann in einem zweiten Gebiet in Kombination mit den amtlichen GIS-Daten weiter verbessert und umgesetzt wurden. Als Ergebnis der Visualisierung wurden verschiedene 3-dimensionale Standbilder gerendert, Animationen mit natürlicher und künstlicher Textur bzw. Realtime Animationen als VRML- oder Nature View (NV) Szene erstellt Abstract Our environment is noticably represented through a growing pool of digital geo-data. Along with data availability and homogenisation as well as an ongoing technical development of computer hardware and software comes the idea of visualising these data in their natural way, that is to say, 3-dimensionally. In this study different raster data and vector data were used to achieve an automated landscape visualisation by means of the high-end software Visual Nature Studio 2 (VNS). Satellite images and thematic information derived from it provide an appropriate basis for views of large areas close to nature in a comparatively easy way. This study especially emphasises the VNS GIScompatibility and the integration of data taken from the Digital Landscape Model (DLM) and the Digitale Katastralmappe (DMK) of the Austrian Federal Office of Metrology and Surveying (BEV). With the first test area some basic techniques and methods are discussed and further improved and implemented in a second area, including the official GIS data. Different 3-dimensional still images and animations based on natural and artificial texture were rendered as results. In addition realtime animation as VRML- or Nature View (NV) scenes were generated. VII 1 Einleitung & Zielsetzung Es kommt nicht von Ungefähr, dass bestimmte Sprichwörter den Generationswechsel problemlos überdauern. Das viel strapazierte „Ein Bild sagt mehr als tausend Worte“ ist eines davon. Erwiesener Maßen sind graphische Repräsentationen das einfachste und effektivste Mittel in der Kommunikation (TUKEY, 1977; TUFTE, 1983; zitiert in DUNBAR et al., 2003). Der Mensch visualisiert von Natur aus. Einer Studie des U.S. Landwirtschaftsministeriums zufolge beruhen 87 % der menschlichen Perzeption unserer Umwelt auf dem Sehvermögen (KOCH und HARM, 2001). Unsere dreidimensionale Umwelt hat sich mit der Zeit verändert, ebenso die Mittel, diese abzubilden. Längst ist die Landschaftsmalerei von der modernen Technologie eingeholt worden. Computergenerierte 3D-Bilder ersetzen die, schon fast als nostalgisch zu bezeichnenden, gemalten Panoramen in vielen Tourismusregionen. Innerhalb der Visualisierung haben sich viele Teilgebiete etabliert, eines davon ist die Geovisualisierung. Eine ständig wachsende Datenmenge und die Entwicklung hoch auflösender Sensoren stellen immer neue Ansprüche an eine Visualisierung, bieten aber gleichzeitig auch immer mehr Möglichkeiten. Geographische Informationssysteme können zwar eine große Datenmenge verwalten und analysieren, zeigen jedoch in der 3D-Visualisierung noch erhebliche Schwächen und orientieren sich großteils noch an zwei Dimensionen zur Herstellung professioneller 2D Karten. Größere Ausschnitte unserer Erdoberfläche werden meist auf recht einfache Weise mittels Fernerkundungsbilder 3-dimensional dargestellt, stoßen jedoch bei näherer Betrachtung sehr rasch an natürliche Grenzen. 1.1 Visualisierung & Geovisualisierung Visualisierung ist ein sehr vielschichtiger Begriff, der Aspekt der Geovisualisierung stellt eine kleine Teildisziplin dar. Neben den Themen, die in dieser Arbeit behandelt wurden, gibt es noch eine Vielzahl anderer interessanter Ansätze und Facetten der 3D-Visualisierung und Geovisualisierung, die hier nun exemplarisch kurz angesprochen werden sollen. Eine interessante Herangehensweise an dieses Thema ist es, das Internet danach zu durchsuchen. Für einen Artikel über Visualisierung und Geomatik brachte der Begriff „visualisation“ im April 2000 244.255 Treffer (vgl. REED, 2000). Im November 2005 erzielte derselbe Suchbegriff in Google ungefähr 6.770.000 Treffer, der amerikanisch-englische Begriff „visualization“ sogar ungefähr 52.700.000. Die deutschsprachige „Visualisierung“ schaffte es immerhin noch auf 1.610.000 Hits. Der Begriff der „Geovisualisierung“ bzw. seine englischsprachigen Synonyme erzielen schon deutlich weniger Treffer (ca. 30.000), die „Landschaftsvisualisierung“ gar nur mehr 452 Treffer („Landscape Visualization“ im Vergleich dazu knapp 40.000 Hits). Man sieht also, dass das Wort „Visualisierung“ sehr häufig verwendet wird, in verschiedensten Zusammenhängen und Disziplinen. 1 Geovisualisierung wird mittlerweile zu vielen Zwecken eingesetzt, wie in der öffentlichen Planung und Szenarienbildung, als integrativer Bestandteil von Strategischen Umweltprüfungen (SUP) oder Umweltverträglichkeitsprüfungen (UVP), bei verschiedenen Bauvorhaben, die eine Veränderung der Umwelt und der Landschaft bewirken. Andere Anwendungsgebiete finden sich auch in der Rekonstruktion historischer Landschaften oder auch dem Tourismus (vgl. http://www.3dnature.com/realworld.html). Der Vorteil der 3D-Visualisierung liegt in der Art, wie wir Information sehen. Es wird vermutet, dass 50 Prozent der Neuronen im menschlichen Gehirn in das Sehvermögen involviert sind. Weiters wird vermutet, dass 3D Ansichten mehr Neuronen im Gehirn stimulieren und einen Entscheidungsprozess effizienter gestalten könnten. Bei 2D Reliefkarten beispielsweise muss unser Verstand erst ein konzeptionelles Modell des Reliefs herstellen, bevor eine Analyse erfolgen kann (N. VAN DRIEL, zitiert in REED, 2000). Auf der einen Seite ist es immer wieder die Möglichkeit, Inhalte leicht zu vermitteln und Nicht-Experten, die im Allgemeinen keine große Erfahrung darin haben, Pläne zu lesen oder sich eines GIS zu bedienen, eine Möglichkeit der Analyse im Entscheidungsprozess zu bieten bzw. Schwachstellen in der Kommunikation zu überwinden. Auf der anderen Seite wird speziell der 3D-Visualisierung ein gewisses Potential an Subjektivität und Trichterwirkung zugesprochen, d.h. was für die einen ein Segen, ist für die anderen eine Gefahr. Genau hier setzt der Begriff des „ethischen Maßstabes“ (vgl. Kap. 5.3) an bzw. die Tatsache, dass man eigentlich noch zu wenig darüber weiß, wie Menschen computergenerierte 3D Bilder und Virtual Reality wahrnehmen bzw. welche Wirkung solche Eindrücke haben können. Es stellt sich mitunter auch die Frage, wie real soll die abgebildete Wirklichkeit sein? Einen interessanten Einblick dazu bietet eine Umfrage zur Anwendung von computergenerierten Bildern im Planungsprozess in Norwich, England, aus dem Jahr 2001 (vgl. APPLETON, 2001). Mit der Wahrnehmung von Landschaft beschäftigen sich auch wissenschaftliche Disziplinen. Landschafts-Empfindung (Landscape Perception) ist ein Zweig der Landschaftsbewertungsforschung (Landscape Assessment Research), die untersucht, wie gut eine Landschaft gewisse Kriterien erfüllt. Normalerweise werden solche Beurteilung von der Öffentlichkeit getroffen, oder einer Teilmenge davon. Es gibt noch eine ganze Reihe anderer professioneller Beurteilungsmethoden, geordnet nach ökonomischen oder funktionellen Gesichtspunkten bzw. Ressourcen. In diesem Zusammenhang sei auch Maslow’s Hierarchie der Bedürfnisse genannt, um die Wichtigkeit der Landschaftsbewertungsforschung zu verstehen (PALMER, 2003). Die Möglichkeiten der 3-Dimensionalität werden auch als Schnittstelle zwischen traditionellen GISAnwendern und dem Rest der Welt bezeichnet. Bei ERDAS Inc. sah man zumindest im Jahr 2000 eine stark wachsende Nachfrage an 3D-Visualisierungssoftware, vielleicht in Zusammenhang mit neuen, hoch auflösenden Satellitenbildern (JORDAN, 2000). Auch bei ESRI war man im selben Jahr der Meinung, dass Anwender zusehends nach Möglichkeiten realistischerer Betrachtung ihrer Daten suchen. Es wurde der Trend spürbar, dass binnen kurzem viele erwarten werden, dass ihr GIS fotorealistische Bilder der Daten produzieren kann, denn will man, dass GIS unsere Welt passend modelliert, muss man auch die dritte Dimension inkludieren (CRAWFORD, 2000). 2 Ervin (2003) geht davon aus, dass computerbasierte Techniken zur Sammlung, Manipulation und Darstellung von Daten sich weiter verbreiten werden, teilweise angetrieben von Anforderungen seitens des Militärs oder der Computerspieleindustrie. Digitale Landschaftsmodellierung wird mehr Bedeutung gewinnen in Planung und Design, auf professioneller und akademischer Ebene. Als einige wichtige voraussehbare Entwicklungen nennt er eine höhere Rechenleistung künftiger Computer, steigende Anzahl von Objektbibliotheken und fertigen Landschaftselementen für Softwarepakete, steigender Fotorealismus, verbesserte Datenerfassung, steigende Integration von Web-Anbindung, mehr immersive Darstellungsumgebungen, mehr Realtime Modelle, steigender Anteil öffentlicher Beteiligung beim Schaffen und Bewerten von Landschaftsmodellen oder ein besseres Wissen über die menschliche Wahrnehmung von Landschaft. Den computergenerierten Standbildern und Animationen steht die gesamte Bandbreite der Realtime Visualisierung gegenüber, die es nun erlauben soll, dass der Anwender sich nun wirklich intuitiv und systematisch durch die Landschaft bewegen und jeden Ausschnitt aus einem beliebigen Blickwinkel betrachten kann. Verfahren, die eine „echte“ 3D Visualisierung ermöglichen, versprechen einiges für die Zukunft (vgl. JOBST, 2004; BUCHROITHNER, 2001; ZEHNER und KÜMPEL, 2001) sind aber zumeist noch in Entwicklungsstadien und werden wohl aus Kostengründen auch in naher Zukunft kaum breitenwirksam zur Anwendung kommen, im Gegensatz zu weit verbreiteten VR (Virtual Reality) Anwendungen auf herkömmlichen Grafikbildschirmen, nicht zuletzt durch das Internet. Mittlerweile sind die technischen Voraussetzungen für Echtzeitanimation weit fortgeschritten, zumindest die Anwendung über Computerbildschirme und Internet wird intensiv genutzt. In Zusammenhang mit Visualisierung in der Landschaftsplanung bzw. Beteiligung der Öffentlichkeit stellt sich für Bishop (2005) daher eher die Frage der Notwendigkeit als der Möglichkeit. Wann reicht eine einfache Animation aus? Welcher Nutzen entsteht durch die Möglichkeit einer Realtime Analyse? Sollte man Echtzeitanimation immer verwenden, wenn möglich? Als Planungsinstrument der Zukunft werden auch 3D-Realtime-Engines bezeichnet, die ihren Ursprung aus der Computerspieleindustrie haben. Mittels 3D-Engines wird der Raum, den man später betrachtet, konstruiert, d.h. alle Planungsdetails werden in 3D erstellt. Dem daraus abgeleiteten Realtime-3DExploring wird prophezeit, dass es in naher Zukunft zum Standard wird und 3D Animation ablösen könnte (KRETZLER, 2003). 1.2 Zielsetzung Mit dieser Arbeit wurde versucht, den Schritt zwischen herkömmlicher Methodik und „echter“ 3D Darstellung zu vollziehen und mittels raster- und vektorbasierter Grundlagen möglichst automatisiert eine entsprechende Landschaftsvisualisierung durch geeignete Software zu ermöglichen. In erster Linie wurde die Möglichkeit der Einbindung amtlicher GIS-Daten untersucht, nämlich des Digitalen Landschaftsmodells (DLM) bzw. der Digitalen Katastralmappe (DKM), zu Verfügung gestellt vom Bundesamt für Eich- und Vermessungswesen (BEV). 3 Für eine 3D-Landschaftsvisualisierung muss grundsätzlich eine flächendeckende Information für das gesamte Arbeitsgebiet vorhanden sein. Bei amtlichen GIS-Daten, wie eben dem DLM oder der DKM, ist dies nur teilweise bzw. unvollständig der Fall. Das DLM beinhaltet in erster Linie punkt- und linienförmige Information für Anwendungen in der Geovisualisierung im kleineren bzw. mittleren Maßstab. Eine flächenhafte Information der Bodenbedeckung ist zu Zeit noch nicht vorhanden. Die DKM dagegen ist auf einen sehr großen Maßstab ausgelegt und auf Grund der Informationsfülle nur bedingt im Sinne automatisierter Landschaftsvisualisierung einsetzbar, wie an anderer Stelle noch ausführlicher behandelt wird. Die Software VNS (Visual Nature Studio) wurde ganz bewusst als Mittel der Visualisierung gewählt, weil sie von allen derzeit am Markt befindlichen fotorealistischen Renderern die größte Kompatibilität bezüglich GIS-Daten aufweist und daher vielfach verwendet wird. GIS-Daten sind also nicht die einzige Voraussetzung für eine flächendeckende Landschaftsvisualisierung durch alle Maßstabsbereiche hindurch. Speziell für großflächige Gebiete muss eine andere Lösung gefunden werden. Hier kommt der Aspekt der Fernerkundungsdaten ins Spiel, die genau diese Lücke füllen können. Fernerkundungsbilder ergänzen die verschiedenen GISDaten ideal und bilden praktisch eine homogene, flächendeckende Grundlage, auf der die, meist thematisch spezielleren, Vektordaten aufbauen können. Ausgehend von der Überlegung, dass in Zukunft für ganz Österreich eine homogene Bodenbedeckungsinformation mit 7 Klassen im Digitalen Landschaftsmodell vorhanden sein könnte, könnte „per Mausklick“ eine realistische 3D-Visualisierung in Form von 3D-Ansichten, 3D-Panoramen und virtuellen Flügen erfolgen. Ein weiterer Gesichtspunkt ist die Umsetzung der Ergebnisse in eine interaktive Realtime Umgebung, wie z.B. VRML oder Nature View. 1.3 Workflow Zur Diskussion standen 2 verschiedene Testgebiete. Mit der Bearbeitung des ersten Testgebietes (vgl. Kap. 4.1) wurde ein Konzept und eine Methodik entwickelt, die in einem Bottum-Up Prinzip basierend auf den flächendeckenden Fernerkundungsdaten ein großflächiges Gebiet abdecken sollte. Nach dem Aufbau von einer bestimmten Klasse von Landschaftselementen (Ecosystems) stand die Integration verschiedener GIS-Daten im Mittelpunkt. Die daraus gewonnenen Erkenntnisse und Ergebnisse wurden dann auf ein zweites, wesentlich kleineres, Testgebiet umgelegt, für das amtliche GIS-Daten zu Verfügung standen (vgl. Kap. 4.2). Dabei wurde besonderes Augenmerk darauf gelegt, das Pre- und Postprocessing des gesamten Arbeitsablaufs möglichst gering zu halten und die Kompatibilität der Fernerkundungs- und GIS-Daten zu analysieren. 4 1.4 Begriffe 1.4.1 Visualisierung Sichtbarmachen von Objekten, Daten und Phänomenen durch Darstellung in graphischer Form z.B. durch ein Bild, die Hervorhebung einer Information durch eine Graphik oder die Sichtbarmachung eines räumlichen Phänomens in einer Karte. In den wissenschaftlichen Disziplinen wird Visualisierung hauptsächlich als digitale Methode für die Analyse großer Datenmengen eingesetzt1. Wie viele andere Begriffe verfügt auch die Visualisierung über eine Vielzahl an Definitionen, die aber eine gleichsam intuitive gemeinsame Eigenschaft aufweisen, nämlich das Darstellen/Sichtbarmachen eines bestimmten Inhaltes. „Visualisierung“ taucht als Forschungsbereich in der Kartographie auf (FUHRMANN und KRAAK, 2001) im Zuge neuer, veränderter Ansätze und Systeme der traditionellen kartographischen Darstellung bzw. kartenverwandten Darstellungen (HAKE et al., 2002). Neben der Tradition in der Kartographie fand der Begriff der „Visualisierung“ aber auch zusehends Einzug in andere Disziplinen und Forschungsbereiche. Damit entwickelte sich der Forschungsbereich der wissenschaftlichen Visualisierung (ViSC, Visualization in Scientific Computing). Für die Geowissenschaften ergab sich aus den verschiedenen Forschungsansätzen der Begriff „Geovisualisierung“ (Geovisualization od. Geoscientific Visualization), die ihrerseits verschiedene methodische und technische Ansätze aus ViSC, der Kartographie, Bildverarbeitung, Informationsvisualisierung, explorativer Datenanalyse und GIS (Geographisches Informationssystem) integriert (MCEACHREN und KRAAK, 2001). Kraak (2002) bezeichnet Geovisualisierung auch als einen typischerweise multidisziplinären Ansatz für ein besseres Verständnis unserer Umwelt. Die rasche Entwicklung der Computertechnologie, speziell im PC-Bereich, erlaubt zusehends den Einsatz von interaktiver und immersiver 3D Visualisierung, nicht nur für fachbezogene geowissenschaftliche Anwendungen. Visualisierung ist das einfachste, weil intuitivste, und damit auch wirksamste Mittel innerhalb verschiedener Kommunikationsprozesse. Man vergleiche beispielsweise eine Straßenszene, wie sie der menschlichen Perzeption entspricht, mit derselben Information, in Tabellenform. Dieses einfache Beispiele sollte die große Stärke der Visualisierung verdeutlichen, die speziell in der Planung ausgeschöpft werden kann, nicht nur zur Beantwortung der Fragen „was?“, „wo?“ bzw. „was, wenn?“, sondern auch zur Verdeutlichung des Ist-Zustandes bzw. der Erforschung der Daten dienen. Ein typischer Aspekt der Visualisierung ist, dass der Eindruck im Geiste des Betrachters verstärkt wird und daraus ein positives oder negatives Gefühl entsteht (GELDERMANS und HOOGENBOOM, 2001). 1 Definitionen zu Kapitelanfang dieser Art stammen, wenn nicht anders vermerkt, aus BOLLMANN und KOCH, 2001. 5 1.4.2 Landschaft Allgemeine Bezeichnung für einen durch einheitliche Struktur und gleiches Wirkungsgefüge geprägten konkreten Teil der Erdoberfläche von variabler flächenhafter Ausdehnung. Als Landschaft wird gemeinhin ein bestimmter Teil der Erdoberfläche bezeichnet, der sich durch gewisse Charakteristika auszeichnet. Bei genauerer Betrachtung trifft man auf komplexe Gefüge, die einem ständigen Wandel unterworfen sind, insbesondere durch den Menschen. Eine Unterteilung der Elemente einer Landschaft kann in 6 Hauptgruppen erfolgen, nämlich (1) Gelände, (2) Vegetation (Bäume, Sträucher, Rasenflächen etc.), (3) Wasser, (4) Strukturen (einschließlich Infrastruktur - Architektur, Strassen, Stadtmobiliar etc.), (5) Menschen/Tiere, (6) Atmosphäre (Sonne, Wolken, Nebel, Wind etc.) (ERVIN, 1999; SCHAUPPENLEHNER, 2002). 1.4.3 Dimensionen In der Mathematik und Physik festgelegte Größen, die im Rahmen eines Einheitssystems durch keine andere ersetzt werden können. Dementsprechend werden in der wissenschaftlichen Visualisierung die unabhängigen Variablen, die den Beobachtungsraum spezifizieren, auch als Dimension bezeichnet. Dimensionen des Beobachtungsraumes, die Ortsangaben definieren, werden auch als räumliche Dimensionen bezeichnet. Gerade „3D“ ist ein Begriff, mit dem besonders gerne und leicht jongliert wird und der oft zu Schwierigkeiten in der Kommunikation und Auffassung führt. 3D-Grafik, 3D-Bild, 3D-Karte, 3DDarstellung (BUCHROITHNER und SCHENKEL, 2001) oder 3D-Kartografie (JOBST, 2004) sind nur einige Begriffe, die in diesem Zusammenhang genannt werden können. Neben dem altbewährten 2D finden sich auch noch 3D, 4D oder 5D (POCOCK und ROSEBUSH, 2002; GARTZ, 2003) in der zahlreich vorhandenen Literatur. Meist ist 3D streng genommen nicht 3D, je nachdem, aus welcher Perspektive man eben das Phänomen betrachtet. Zur Erzeugung einer künstlichen Raumvorstellung wird auf die so genannten „depth cues“ (Elemente der räumlichen Wahrnehmung) abgezielt. Geschicktes Ausnutzen der cues kann in 2-dimensionalen Bildern einen räumlichen Eindruck vermitteln bzw. künstliche räumliche Bilder erzeugen. Depth cues werden als visuelle Anhaltspunkte verstanden, auf denen die konkrete räumliche Perzeption beruht (BUCHROITHNER und SCHENKEL, 2001). Eine Zusammenstellung psychologischer bzw. physiologischer depth cues gibt Tab. 1 6 Physiologisch Psychologisch Retinale Disparität Retinale Bildgröße Konvergenz Lineare Perspektive Akkomodation Luftperspektive Bewegungsparallaxe Verdeckung, Überlagerung Chromostereopsis Schatten (Beleuchtung) Texturgradient Tab. 1:.Elemente der räumlichen Wahrnehmung (Quelle: Buchroithner, 2001 (nach Okoshi 1976, Albertz 1997) Eine Auflistung der Verfahren zur Erzeugung von depth cues führt unter wahrnehmungspsychologischen Gesichtspunkten zu 4 Gruppen („echt 3D“, pseudo 3D, dynamisch 2D, statisch 2D), wobei es immer Technologien geben wird, die Übergangsbereiche belegen. Wichtig dabei ist, dass die Bezeichnung der Gruppen sich danach richtet, wie der Raumeindruck erzeugt wird, und nicht nach dem Darstellungsinhalt. Tab. 2 gibt einen detaillierten Überblick über gängige Verfahren zur Raumbilderzeugung. Verfahren Gruppe Freiheitsgrad Ig Pg B Status Statisches Volumen echt 3D F, G, M, H, R, Fa h h f exp. 3-Dtl-Type (Stanford) Scannendes Volumen echt 3D F, G, M, H, R, Fa h h f prot. Helix F, G, M, H, R m h f exp. Matrix Holographie echt 3D F, G, M, H, R, Fa h h f exp., anw. MultiStereoskopie pseudo 3D Stereoskopie pseudo 3D Chromostereoskopie pseudo 3D Animation dynam. 2D (Computer) Grafik statisch. 2D Displaytyp Hologramme F, G, M, H, R, Fa h m f anw. Hologr. Stereogramme F, G, M, H, R, Fa h m f anw. Barrier Stripes F, G, M, H, R, Fa h m f anw. Lenticular Lenses F, G, M, H, R m m u anw. Anaglyphen F, G, M, H, R, Fa m m u anw. Polarisation F, G, M, H, R, Fa m m u anw. Shutter F, G, M, H, R, Fa n n f anw. Image Splitter F, G, M, H, R, Fa h m u anw. Head Mounted Display F, G, M, H, R, Fa m n u anw. Stereoskope F, G, M, H, R, Fa n n f anw. Autostereogramme F, G, M, H, R, Fa n m u anw. Chromadepth F, G, M, H, R, Fa m n f anw. Animated GIF, Movies F, G, M, H, R, Fa m n u anw. Pulfrich Display F, G, M, H, R, Fa n n f anw. Perspective F, G, M, H, R, Fa n n f anw. Depth Cueing Tab. 2: Verfahren zur Raumbilderzeugung (Quelle: Buchroithner und Schenkel, 2001) Erläuterung zu den Abkürzungen: Freiheitsgrade: F (Form), G (Größe), M (Muster), H (Helligkeit), R (Richtung), Fa (Farbe) Immersionsgrad (Ig): h (hoch), m (mittel), n (niedrig) Perzeptionsgrad (Pg): h (hoch), m (mittel), n (niedrig) Betrachtung (B): f (frei), u (unterstützt – z.B. Brillen, Betrachtungsgeräte) Status: exp. (experimentell), prot. (Prototyp), anw. (anwendungsreif) Displaytyp: Fettgedruckt bedeutet auch als Hartkopien anwendbar 7 Unter „Raumbild“ versteht man eine künstlich erzeugte Erscheinung, die vom visuellen Wahrnehmungssystem als räumlich erkannt wird (Raumeindruck), ohne dass diese körperlich dreidimensional existiert. Ein Raumbild wird als perzeptiv optimal betrachtet, wenn das Wahrnehmungssystem in derselben Weise arbeitet wie beim Betrachten der natürlichen Umwelt. Als Maß der „Natürlichkeit“ wird der Perzeptionsgrad herangezogen (BUCHROITHNER und SCHENKEL, 2001). Innerhalb der Geowissenschaften wird der Begriff der Dimension auf die Geodaten bezogen, um die Objektdimension geometrisch zu beschreiben, d.h. anders, als beim wahrnehmungspsychologischen Ansatz wird hier der Inhalt der Darstellung beschrieben. 2D: Geometriebeschreibung durch x,yKoordinaten (Planimetrie) 2D + 1D: Ergänzung der Planimetrie durch DGM, keine Verknüpfung mit Lagegeometrie 2,5D: Lagegeometrie + Höhe (z) als Attribut jedes Punktes 3D: vollständige Beschreibung durch x,y,zKoordinaten mit hinreichender Dichte 4D: Ergänzung der x,y,z-Koordinaten durch Zeitparameter (t) Abb. 1: Objektdimensionen von Geodaten (Quelle: Asche, 1999) 3D-Visualisierung bedient sich also dreidimensionaler Geodaten um einen subjektiven Raumeindruck auf einem zweidimensionalen Medium, wie einem herkömmlichen Grafikbildschirm, entstehen zu lassen. Die zumeist perspektivische, realitätsnahe Darstellung, basierend auf einem DGM (Digitales Geländemodell), wird innerhalb der Geowissenschaften gemeinhin als „3D“ bezeichnet. Doch besitzen verschiedene Disziplinen der Geowissenschaften auch ein variierendes Verständnis von „3D“. Ein Landschaftsplaner sieht beispielsweise ein Geländerelief als 3D-Darstellung, ein Klimatologe benutzt dieses als zweidimensionales Bezugssystem für seinen dreidimensionalen Kaltluftkörper und interagiert dementsprechend damit. Das bedeutet, dass in den einzelnen Fachdisziplinen die Domän8 spezifische Betrachtung von Interaktionsansätzen erforderlich ist, wobei allen Domänen aber eines gemein ist: der dreidimensionale Darstellungsraum (FUHRMANN et al., 2001). „Echte“ 3D Systeme erreichen natürlich einen wesentlich höheren Immersionsgrad, da der Nutzer vor dem flachen Bildschirm gleichsam durch ein Fenster auf die virtuelle Welt blicken kann, womit sich der Begriff „pseudo 3D“ wieder anbietet. „Echt“ 3D wird sich (in erster Linie aus Kostengründen) vermutlich auch in nächster Zukunft am PC-Sektor kaum verwirklichen lassen und nur einigen kostendeckenden Spezielanwendungen vorbehalten bleiben. Flache Bildschirme stellen sicherlich noch den weit größeren Anteil innerhalb der Geovisualisierung gegenüber semi - immersiven Systemen (z.B. Einsatz mehrerer Schirme, die kurvenförmig angeordnet sind) bzw. immersiven „echt 3D“-Systemen. 1.4.4 Geodaten Daten, die einen Raumbezug aufweisen, über den ein Lagebezug zur Erdoberfläche hergestellt werden kann. Zur digitalen Beschreibung unserer Welt sind Daten notwendig, die auch einen entsprechenden Bezug zur Realwelt herstellen können. Die Verfügbarkeit an Geodaten (als Raster- oder Vektordaten) nimmt ständig zu und erfasst zusehends mehr wissenschaftliche Disziplinen und Anwendungsbereiche. Geodaten sind die Grundlage raumbezogener Informationssysteme zur Speicherung, Verwaltung, Analyse und Ausgabe, wie z.B. der Geovisualisierung. 9 2 Datengrundlagen 2.1 Digitales Geländemodell (DGM) Ein DGM bezeichnet die digitale Darstellung der Geländeoberfläche durch räumliche Koordinatentripel einer Menge von Flächenpunkten, z.B. in Form von Dreiecksnetzen oder Gittern. Digitale Geländemodelle beschreiben die 3-dimensionale reale Welt und sind somit ein wesentlicher Grundbaustein für eine Visualisierung im 3-dimensionalen Raum. Die Elemente eines DGM können Punkte, Linien oder Flächen sein. Im ersten Fall handelt es sich um Koordinaten (x, y, z) von gewissen ausgezeichneten Punkten. Die Berechnung der Höhenwerte für die dazwischen liegenden Punkte erfolgt im Allgemeinen über eine Dreiecksvermaschung mit anschließender linearer Interpolation. Im zweiten Fall dienen Raumkurven als Grundbausteine, die im Allgemeinen konstante Höhenwerte (Isolinien) haben. Auch hier müssen die Höhenwerte der dazwischen liegenden Punkte durch Interpolation aus diesen Linien errechnet werden. Als dritte Möglichkeit der Modellierung bieten sich auch Flächenstücke an, wodurch die Höhenwerte für beliebige Flächenpunkte durch einfaches Einsetzen ermittelt werden können (vgl. BARTELME, 1998, S. 93 ff). Eine gängige Form von DGMs ist eine regelmäßige Anordnung der Daten in einem quadratischen Gitter (Raster–DGM), wobei die Maschenweite solcher Modelle sehr unterschiedlich sein kann. Allgemein ist festzuhalten, dass der Raster des Modells um so dichter sein muss, je topographisch bewegter das Gelände ist. Eine präzise Darstellung des Geländes mit einem Raster-DGM bedingt eine kleine Maschenweite (z.B.: einige Meter), was wiederum mehr Speicherplatz, und in der Weiterverarbeitung einen hohen Rechenaufwand mit sich bringt. Eine High-End Visualisierungssoftware (wie Visual Nature Studio – VNS von 3D Nature LLC) bietet daher z.B. die Möglichkeit eines Resamplings des ursprünglichen DGM auf eine kleinere Maschenweite bzw. das Teilen des Gesamtausschnittes in sinnvolle Kacheln. Die bildliche Darstellung eines DGM kann in unterschiedlicher Weise erfolgen. Eine geläufige Methode ist die Darstellung als Grauwertbild, wobei der Bereich der Höhenwerte auf die darstellbaren Grauwerte 10 (0 – 255) reduziert wird. Die Höhenwerte werden dann durch Grauwerte repräsentiert, wobei helle Töne, große Höhen und dunkle Töne niedere Höhen darstellen. 2.1.1 Verwendete DGMs: Im Zuge dieser Arbeit wurden verschiedene DGMs für die jeweiligen Testgebiete verwendet, nämlich das DGM des BEV, das SRTM Modell bzw. ein DGM, das vom Joanneum Research generiert wurde. 2.1.1.1 DGM des BEV Das DGM des Bundesamtes für Eich- und Vermessungswesen liefert eine Beschreibung der Topographie für das gesamte österreichische Staatsgebiet in Form eines Höhenrasters. Die Erfassung der Daten erfolgt durch photogrammetrische Auswertungen von Luftbildern in einem fixen Raster von 50 m. Mittels markanten Geländestrukturen (z.B. Bruchkanten) wird das DGM lokal zusätzlich noch verdichtet. Die Höhengenauigkeit ist von der Geländeform, Bodenbedeckung und der Erfassungsmethode abhängig. In flachen Bereichen wird eine Genauigkeit von +/- 1 bis 3 m, in offenen, hügeligen Bereichen +/- 3 bis 5 m bzw. im Wald und im Hochgebirge +/- 5 bis 20 m erreicht. Neben dem 50 m DGM bietet das BEV auch 25 m bzw. 10 m DGMs an. Derzeit liegt für ganz Österreich ein 10 m DGM vor, wobei die Maschenweite durch ein mehrstufiges Verfahren unter Beibehaltung der Strukturinformation dementsprechend interpoliert wird. (Quelle: http://www.bev.gv.at) 2.1.1.2 SRTM (Shuttle Radar Topography Mission) Ein Ergebnis der 11-tägigen SRTM Mission aus dem September 1999 ist ein globales konsistentes, homogenes DGM mittels Radarinterferometrie. Um die direkte Messung der Weglängen zu bestimmen, wird beim interferometrischen SAR die Kohärenz des Signals ausgenutzt sowie die Tatsache, dass sich die Phase einer mono-chromatischen elektromagnetischen Welle proportional zur zurückgelegten Weglänge verhält. Eine Phasendifferenzmessung, wie sie in der SAR-Interferometrie letztendlich durchgeführt wird, ermöglicht über die Bestimmung des Wegunterschiedes die Ermittlung der gewünschten Höheninformation. Die SRTM-Mission liefert global für jedes Gebiet von 30 mal 30 Meter einen bis auf 6 Meter genauen Höhenpunkt für die digitale Höhenkarte. Eine absolute Genauigkeit wird angegeben mit: horizontal < 20 m < 20 m (90% circular error WGS) vertikal < 16 m < 16 m (90% linear error WGS) Relative Genauigkeit: horizontal < 15 m < 15 m (90% circular error WGS) Relative Genauigkeit vertikal < 10 m < 6 m (90% linear error WGS). 11 Eckdaten zu den Radarsystemen Radarsysteme SIR-C Inboard-Antennenfläche 12 m x 80 cm Outboard-Antennenfläche 8 m x 80 cm Wellenlänge 5,6 cm Frequenz 5,3 GHz Horizontale Auflösung 30 m Relative Höhengenauigkeit 10 m Breite des Aufnahmestreifens 225 km Kartierte Landfläche 100% X-SAR 12 m x 40 cm 6 m x 40 cm 3,1 cm 9,6 GHz 30 m 6m 50 km 40% Tab. 3: Parameter der SRTM Systeme Das SRTM Geländemodell liegt in 2 Versionen vor, nämlich dem SRTM-1 bzw. SRTM-3. Die Maschenweite der Modelle beträgt 1 Arc-Sekunde bzw. 3 Arc-Sekunden, das entspricht etwa 30 m bzw. 90 m Ausdehnung in horizontaler Richtung am Äquator. Aus diesem Zusammenhang werden die beiden DGMs auch mit „30 m“ bzw. „90 m“ bezeichnet. Die SRTM DGMs werden als 16 bit signed integer Daten bereitgestellt. Alle Höhenangaben erfolgen in Metern bezogen auf das Ellipsoid WGS84 EGM96. Für das Testgebiet Hohe-Tauern/Mallnitz wurde u.a. das SRTM 90 m verwendet. (Quelle: http://www.op.dlr.de, ftp://edcftp.cr.usgs.gov/pub/data/srtm) 2.1.1.3 DGM Joanneum Research Die Nutzung von exakten Geländemodellen, wie sie vom BEV hergestellt werden, ist mit Kosten und Nutzungsrechtseinschränkungen verbunden. Daher bietet sich die Alternative an, DGMs selbst zu erstellen. Dazu stehen grundsätzlich zwei Möglichkeiten zur Verfügung: 1) Ableitung von Geländedaten aus Stereobildpaaren 2) Digitalisierung der Geländedaten von topographischen Karten Am Institut für Digitale Bildverarbeitung des Joanneum Research wurde 1985 für die gesamte Steiermark ein eigenes Raster-DGM erstellt, in dem die Höhenschichtenlinien sowie wichtige Bruchkanten aller betroffenen ÖK 50 – Blätter am Digitalisiertisch erfasst wurden. Aus diesen Vektordaten wurde ein Raster-DGM mit einer Auflösung von 30 m abgeleitet. Die Genauigkeit dieses DGM entspricht der des Geländemodells vom BEV. 12 2.2 Vektordaten Vektordaten beschreiben ein Datenmodell, das auf der Darstellung von geographischen Objekten durch kartesische Koordinaten basiert und im Allgemeinen zur Darstellung linearer Merkmale verwendet wird. Jedes Merkmal wird durch eine Reihe von Koordinaten dargestellt, die seine Form definieren und verknüpfte Informationen besetzen können. (Quelle: ESRI, 2000) In Geoinformationssystemen wird diese graphische Information als Vektormodell bezeichnet. Analog dazu spricht man vom Rastermodell (als 2. Ansatz, um diese graphische Information in eine Form zu übertragen, die computergestützt verarbeitet werden kann). In Verbindung mit raumbezogenen Daten findet die beiden Modelle ihre Bezeichnung als Raster- bzw. Vektordaten. Vektordaten werden aufgrund gewisser Vorzüge (geringerer Speicherbedarf, kürzere Rechenzeiten, schneller Bildaufbau, im Prinzip maßstabsunabhängig, einfacheres Selektieren, Zuordnen von Eigenschaften zu Objekten) vor allem in der Kartographie bevorzugt eingesetzt. (OLBRICH, 2002, S. 129) Grundlegende Unterschiede zwischen den beiden Datenstrukturen sind in folgender Tabelle beschrieben: Vektordaten Rasterdaten Grundelemente Geometrische Elemente - Punkt, Linie, Fläche Pixel - Zeilen- u. spaltenweise Matrix Objektbezug einfach eingeschränkt Datengewinnung Digitalisierung -manuell, automatisch Fernerkundung, Scannen Speicherbedarf niedrig hoch Genauigkeit Beliebig genau (maßstabsunabhängig) Grenze nach geometrischer Auflösung Abdeckung Meist nicht flächendeckend flächendeckend Tab. 4: Vergleich der Datenstrukturen Vektor – Raster (Nach Olbrich, 2002, verändert) 13 2.2.1 Verwendete Vektordaten 2.2.1.1 DLM – Digitales Landschaftsmodell Das Digitale Landschaftsmodell des BEV ist ein Vektordatensatz aus originären Messdaten (maßstabsfrei und nicht durch kartographische Bearbeitung verändert), die durch Name und Attribute näher beschrieben sind. Das DLM ist in 7 Objektbereiche (vgl. Tab. 5) gegliedert, nämlich Verkehr, Siedlung, Raumgliederung, Gewässer, Bodenbedeckung, Gelände und Namen. Diese Objektbereiche sind weiter untergliedert in Objektgruppen und Objektarten. Die Gesamtstruktur ist in einem Objektartenkatalog festlegt. Objektbereich Objektgruppe Objektart Straßen Autobahn; Schnellstraße; Rampen; Landesstraße B; Landesstraße L; Gemeindestraße; Raststättenzufahrt und –abfahrt; Parkplatzzufahrt und –abfahrt; Nebenfahrbahn; Kfz_Fährverbindung Linie Wege Fahrweg; Wirtschaftsweg Linie Bahnen Normalspurbahn 2gleisig; Normalspurbahn 1gleisig; Schmalspurbahn; Zahnradbahn; Schrägaufzug, Linie Bahnhof_Gebäude Punkt Rollfläche; Start- und Landebahn; Flugplatzbegrenzung Linie Flugverkehr Flugplatz_Bezugspunkt; Flugplatz_Gebäude; Hubschrauberlandeplatz Punkt Schiffsverkehr Fähre (Anlegestelle); Schiffstation Punkt Anlagen und Bauwerke für Verkehr, Transport, Kommunikation und Versorgung Zollstation; Mautstation; Raststätte; Tankstelle; Pannendienst; Straßenmeisterei Punkt Siedlung Kommunale Einrichtungen, Betriebseinrichtungen, Kultur, Freizeit und Sport Apotheke; Exekutive; Feuerwehr; Krankenanstalt; Sanitätseinrichtung; Schule; BEV-Standort; Gemeindeamt; Bezirkshauptmannschaft; Forstamt, Forsthaus; Kraftwerk; Raffinerie; Staumauer; Umspannwerk, Schutzhütte; Biwakschachtel; Jagdhaus, Jagdhütte; Kläranlage_Betriebsgebäude, Kirche; Kapelle; Kloster, Stift; Kultstätte; Golfplatz_Clubgebäude; Bad; Campingplatz_Rezeption Punkt Raumgliederung Verwaltungsgrenzdatenbank von Österreich: Katastralgemeindegrenzen; Gemeindegrenzen; Grenzen der politischen Bezirke; Verwaltungsbezirksgrenzen; Grenzen der Bundesländer; Staatsgrenze Verkehr Feature Linie 14 Fließende Gewässer Gewässer Stehende Gewässer Fluss/Bach (Breite: > 20m); Fluss/Bach (Breite: 5- 20m); Fluss/Bach (Breite: < 5m); Fluss/zeitw. wasserführend; unterirdischer Gewässerverlauf; fiktiver unterird. Gewässerverlauf; imaginäre Achse v. F Fluss/Bach (Breite: > 20m); imaginäre Achse v. Fluss/Bach (Breite: 520m); imaginäre Achse v. Fluss/Bach (Breite: < 5m); imaginäre Achse v. Bach, zeitw. wasserführend Linie Quelle; Wasserfall Punkt See, Teich (> 10km Längenausdehnung); See, Teich (410km Längenausdehnung); See, Teich (2-4km Längenausdehnung); See, Teich (< 2km Längenausdehnung); imagin. Ufer; Insel; Schwimmbecken Linie Wasserleitung/oberirdisch, Wasserleitung/unterird. Linie Bauwerke für Wasserversorgung Brunnen, Zisterne, Wasserturm, Reservoir, Pumpwerk, Wasserwerk Punkt Bodenbedeckung Noch nicht vorhanden Namen Siedlungsnamen Stadt (> 100 000 Einwohner); Stadt (50 000 - 100 000 Einwohner); Stadt (10 000 - 50 000 Einwohner); Stadt (2 000 - 10 000 Einwohner); Stadt (< 2 000 Einwohner); großer Stadtteil; mittelgroßer Stadtteil; kleiner Stadtteil; Markt (> 10 000 Einwohner); Markt (2 000 - 10 000); Einwohner); Markt (< 2 000 Einwohner); Dorf (> 2 000 Einwohner); Dorf (300 - 2 000 Einwohner); Dorf (< 300 Einwohner); Einzelgebäude und Gehöft; Objekt von historischer Bedeutung; Objekt mit nichtdeutscher Orthographie; Gemeindename und Namen von Stadtbezirken (nicht in ÖK50); Punkt Gebietsnamen Gebiet (> 10km Längenausdehnung); Gebiet (5 - 10km Längenausdehnung); Gebiet (2 - 5km Längenausdehnung); Gebiet (< 2 km Längenausdehnung) Punkt Bergnamen Gebirge, Tal (> 30km Länge); Gebirge, Tal (< 30km Länge); Berg, Tal (bedeutend); Berg, Tal (geringer bedeutend); Berg, Tal (lokal bedeutend); Punkt Gletschernamen Gletscher (>6 km Länge); Gletscher (2 - 6km Länge); Gletscher (< 2km Länge) Punkt Gewässernamen Fluss (> 300km Länge); Fluss (50 - 300km Länge); Fluss, Bach (10 - 50km Länge); Bach (< 10km Länge); Quelle Wasserfall; Brunnen; See (> 10km Längenausdehnung); See (4 - 10km Längenausdehnung); See (2 - 4km Längenausdehnung); See, Teich (< 2km Längenausdehnung); sonstiges Gewässerobjekt (gering bedeutend); sonstiges Gewässerobjekt (bedeutend) Punkt Tab. 5: Inhalt des DLM, Stand November 2005 (Quelle: www.bev.gv.at) 15 Alle DLM-Objekte umfassen gewisse Standard-Attribute. Weitere Sach-Attribute sind mit den jeweiligen Objektarten verspeichert. Punktförmige Elemente werden zu Zeit in Form einer Access-Datenbank verwaltet, können aber auch als ASCII Format abgegeben werden. Linienförmige Elemente sind als MicroStation Format DGN erhältlich, wobei die extern gespeicherten Attribute über eine eindeutige Table-ID zugeordnet werden können. Inhalte aus dem Objektbereich „Verkehr“ können auch als ESRI Shape oder ArcInfo/e00 Files erworben werden. 2.2.1.2 DKM – Digitale Katastralmappe Der digitale Kataster entstand u.a. aus direkter Auswertung von Luftbildern, wobei die Fortführung der Katasterpläne in Österreich nur mehr auf digitaler Basis geschieht, d.h. auf Basis digitaler Orthophotos. Die DKM ist der graphische Datenbestand des Katasters im Koordinatensystem der Österreichischen Landesvermessung in digitaler Form in einem exakt definierten Format, wobei die Daten der DKM mit den Datenbanken des Katasters (Grundstücksdatenbank, Koordinatendatenbank) konsistent sind. Die Abgabe der DKM erfolgt im AutoCAD Format DXF. 2.2.2 Datenformat: ESRI Shape Shape- und CAD-Files zählen im Vergleich zu anderen Datentypen wie Geodatabase und Coverages zu den nicht topologischen Formaten, d.h. räumlichen Beziehungen zwischen einzelnen Features werden im Shape-File nicht explizit gespeichert. Der Vorteil gegenüber topologischen Formaten liegt in einer schnelleren Darstellung bzw. Editierbarkeit. (Quelle: http://www.esri.com/library/whitepapers/pdfs/shapefile.pdf). Ein Shape-File ist eine Sammlung von homogenen Features des Typs „Point“, „Multipoint“, „Polyline“ oder „Polygon“. Im Shapeformat werden die Geometrie- und Attributinformationen in mindestens 3, maximal bis zu 7 Dateien abgespeichert. Immer vorhanden sind die Dateien *.dbf (Attributinformationen), *.shp (Geometrie), *.shx (Index der Objektgeometrie). Zusätzlich gibt es noch Dateien des Typs *.sbn, *.sbx (raumbezogener Index) und *.ain, *.aih (Attributindex). Eine *.dbf-Datei (dBase–Format) kann mit jedem datenbankfähigen Programm oder auch mit MS-Excel (z.B. für besondere statistische Auswertungen) verwendet werden. Die ursprüngliche Tabellenstruktur darf jedoch keinesfalls verändert werden. Shape-Files enthalten keine Informationen über ihre Darstellung. Es ist jedoch möglich über ein ArcMap-File eine Symbolisierung zu definieren - z.B. ein *.lyr (Layer)–File. (Für genauere Informationen sei verwiesen auf: www.esri.com.) Shape-Files werden auf Grund der weiten Verbreitung bereits auch außerhalb der ESRI Produktfamilie unterstützt, so auch in der Visualisierung mit VNS. 16 2.2.3 Fernerkundung – das „Missing Link?“ Die Fernerkundung umfasst den Komplex der berührungsfreien quantitativen und qualitativen Aufzeichnung, Speicherung, thematischen Verarbeitung und Interpretation bzw. Klassifikation von objektbeschreibender elektromagnetischer Strahlung mittels geeigneter Sensoren. Ziel dieser Arbeit ist es, möglichst automatisiert eine 3D-Visualisierung basierend auf Geodaten durchzuführen. Automatisierung bezieht sich sowohl auf das gesamte Preprocessing, den Einsatz unterschiedlicher Sofwarepakete bzw. auch das Postprocessing. Es stellte sich die Frage, inwiefern sich amtliche GIS-Daten in Verbindung mit geeigneter Visualisierungssoftware für eine ansprechende Landschaftsvisualisierung eignen, wobei auch der Aufwand vertretbar sein sollte. Als GIS-Daten wurden jeweils kleinere Teilausschnitte des DLM bzw. der DKM herangezogen. Speziell am Beispiel des DLM zeigt sich, dass das wichtigste Kriterium für eine Landschaftsvisualisierung nicht erfüllt ist, nämlich eine flächenhafte Information über die Bodenbedeckung eines Arbeitsgebietes. Die DKM erfüllt diese Voraussetzung zwar großteils, lässt sich aber nur bedingt für großflächige Anwendungen verwenden, weil der Dateninput einfach zu umfangreich wird und von Hard- und Softwareseite aus nicht mehr bewältigbar ist. Es muss also nach anderen Möglichkeiten der Datengrundlage gesucht werden. Hier kommt der Aspekt der Fernerkundung ins Spiel, die sehr rasch großflächige Bereiche erfassen kann. Die dabei gewonnene Information kann direkt als natürliche Textur (vgl. Kap. 2.5.1) oder als Basis homogener thematischer Information verwendet und mittels Klassifikation abgeleitet werden. Ersteres bietet für die Visualisierung eine sehr rasche und einfache Möglichkeit, mittels verschiedenster kommerzieller Daten, wie sie großflächig, teilweise global, vorhanden sind. Für Anwendungen im kleinund mittelmaßstäbigen Bereich reichen diese Daten mit Sicherheit aus. Dennoch erscheinen dreidimensionale Objekte, die letztendlich im Fernerkundungsbild zweidimensional abgebildet werden, auch in der perspektiven Ansicht der 3D-Visualisierung als solches, d.h., eine andere Grundlage muss gefunden werden, um dreidimensionale Information zu generieren. Dazu kann eben thematische Information dienen, wie eine Landnutzungsklassifikation aus Satellitenbildern, als Grundlage für die Platzierung von 3D Elementen (vgl. Kap. 3.1). Genauso können auch Vektordaten, wie eben amtliche GIS-Daten, herangezogen werden, um basierend auf der flächenhaften Information der Fernerkundungsdaten spezielle, thematische Information der Landschaft zu ergänzen. D.h. die Stärken aus beiden Datengrundlagen zusammen können eine ideale Kombination für die Landschaftsvisualisierung ergeben. Darüber hinaus sollte auch der Aspekt der Datenverfügbarkeit nicht vergessen werden bzw. die Tatsache, dass bestimmte Funktionalitäten innerhalb von VNS bestimmte Datenformate voraussetzen (vgl. Kap. 3.1). Die Fernerkundung ist ein ideales Instrument für eine großflächige, objektive Datenerfassung mit einer entsprechenden Wiederholungs- und Aktualisierungsrate. Eine höhere geometrische Auflösung erlaubt 17 auch Anwendungen im regionalen Bereich als Basis für Planungsszenarien. Die zusehends automatisierte Extraktion von Information liefert wichtige Daten verschiedenster Thematik. Eine europaweite Datengrundlage bietet das Programm CORINE („Co-ordination of Information on the Environment“) Land Cover (CLC), das derzeit mit dem aktuellen Projekt CLC2000 eine Aktualisierung der Landnutzung und Bodenbedeckung anstrebt. Das erste Programm CLC1990 wurde zwischen 1986 und 1995 mittels visueller Interpretation georeferenzierter Landsat 4/5 Daten durchgeführt. Als Ergebnis entstand ein aggregierter europaweiter Rasterdatensatz. In dieser Arbeit wurde ein kleiner Teilausschnitt der CLC-Daten in vektorisierter Form verwendet (vgl. Kap. 4.1.1.6). CLC2000 basiert auf orthorektifizierten Landsat-7 Daten aus den Jahren 1999-2001. Das Bezugsjahr ist, wie im Namen enthalten, das Jahr 2000. Die Daten werden teilweise visuell bzw. durch automatische Verfahren in einem Erfassungsmaßstab von 1:100.000 verarbeitet. Neuflächen werden ab einer Minimalgröße von 25 ha (vgl.: Ein Fußballplatz mit Zuschauerplätzen entspricht etwa 1 ha) und Veränderungen von Landnutzungsgrenzen ab 5 ha aufgenommen. Flächen mit linienförmiger Ausprägung (z.B. Gewässerläufe) werden ab einer Breite von 100 m erfasst. Insgesamt werden in einer ersten Stufe 5 Klassen (Bebaute Fläche, Landwirtschaft, Wälder und naturnahe Flächen, Feuchtflächen bzw. Wasserflächen), in einer zweiten Stufe 15 Klassen bzw. in einer dritten Stufe 44 Klassen ausgewiesen. (EEA, 2002) Die Daten werden in Form eines Geographischen Informationssystems in verschiedenen Qualitätslevel aufbereitet und stehen jeweils national für nicht kommerzielle Zwecke zur Verfügung. Ziel des Programms ist nicht nur eine aktuelle Bodenbedeckung bzw. Landnutzung, sondern auch deren Veränderung in den letzten 10 Jahren (Change Detection). Die österreichischen CORINE Daten enthalten 28 der 44 Klassen. Daten des Level 2 (13 Landbedeckungsklassen in Österreich) werden zur nichtkommerziellen Verwendung kostenlos abgegeben, die detaillierteren Daten des Level 3 sind gegen Kostenersatz (Österreichweit, Bundeslandweit oder nach dem Blattschnitt der ÖK 50) von der Umweltbundesamt GmbH im Esri Shape-Format erhältlich. (Quelle: http://www.ubavie.gv.at) Mehr noch als das exemplarisch verwendete Programm CLC spielt eine andere Überlegung eine gewichtige Rolle innerhalb dieser Arbeit, nämlich die Ableitung der Bodenbedeckung als Erweiterung des bestehenden DLM, das bisher ja nur die Information „Wald“ als Bodenbedeckung führt. Franzen et al. (1998) beschreiben, wie das DLM mit dem Potential hoch auflösender Fernerkundungsdaten aktualisiert und verfeinert werden kann. Ziel dieser Untersuchung war, aus hoch auflösenden panchromatischen Satellitenbildern (IRS-1C-pan und SPOT-pan) und multispektralen Bildern (Landsat TM, geometrisch resampled auf 25 m) insgesamt 7 Klassen („Wasser“, „Wald“, „Acker“, „Grünland“, „Besiedelt“, „Fels“ und „Gletscher“) mit einer Auflösung von 15 x 15 m und einer Genauigkeit von 93 % abzuleiten. Fernerkundungsdaten können in verschiedener Weise die Grundlage einer Geovisualisierung bilden, ob in Form einer natürlichen Textur (vgl. Kap. 2.5.1) oder thematischer Information. Zweitere kann 18 rasterbasiert vorliegen, oder im Falle objekbasierter Klassifikation (vgl. Kap. 2.4.2) direkt durch GISDaten repräsentiert werden. Die Rasterweite der Erfassung aber gibt im Sinne einer naturnahen Betrachtungsweise eine gewisse Grenze vor, auch wenn die Daten in Vektorform vorliegen. Speziell linienhafte Elemente, wie der Großteil des Straßen- und Wegenetzes bzw. des Gewässernetzes, die in einer anthropogen geprägten Landschaft eine große Rolle spielen, können nicht erfasst werden. Daher drängt sich gleichsam das Nutzen bundesweit vorhandener Vektordatensätze auf, die diese Lücke mittels geeigneter Visualisierungssoftware schließen können. Eine andere Möglichkeit liegt in der Klassifikation hoch auflösender Satellitenbilder, die Geo-Objekte im Meter- bzw. Submeterbereich erfassen können. Inwieweit sich hier das Kosten/Nutzen-Verhältnis in Zukunft entwickeln wird, bleibt abzuwarten. 2.3 Rasterdaten - Satellitenbilder und Sensoren Rasterdaten sind in Matrixform (Zeilen und Spalten) vorliegende digitale Daten mit impliziter räumlicher Positionsangabe durch das Zeilen-Spaltensystem. Diese Datenstruktur nutzt in der Regel quadratische Zellen gleicher Größe. Die einzelnen Bildelemente heißen Pixel (Picture-Elements), die die Bildinformation (bzw. beliebige andere numerische Informationen) tragen. (Quelle: ESRI, 2000) Hochauflösende Sensoren haben in den letzten Jahren neue Möglichkeiten der digitalen Bildverarbeitung eröffnet. Nicht nur im Rahmen der Visualisierung, als natürliche Textur im größeren Maßstabsbereich, sondern auch der Interpretation und Analyse der Daten (vgl. Kap. 2.3.1). Hochauflösende Sensoren erreichen bereits eine geometrische Auflösung von einigen wenigen Metern im Multispektralbereich bzw. im panchromatischen Spektralbereich bereits den Sub-Meterbereich, eine Domäne, die bisher eigentlich gänzlich von Luftbildern eingenommen wurde. Die „neue Generation“ der so genannten 1-m Satelliten (Quickbird, Ikonos und zukünftige Missionen) führt zusammen mit immer höheren Aufnahmen digitaler Luftbildkameras zu neuen Herausforderungen und Aufgabenstellungen mit einer Verschiebung im Maßstabsbereich bzw. einer Verschiebung des Begriffs der Auflösung (BLASCHKE et al., 2002). 19 Für die Arbeit wurden verschiedene Daten unterschiedlicher Sensoren verwendet, die nun etwas genauer beschrieben werden. 2.3.1 QuickBird Von der Vandenberg Air Force Base in Kalifornien aus startete DigitalGlobe im Oktober 2001 die QuickBird Mission, welche erstmals Bilder mit einer Auflösung im Sub-Meterbereich ermöglichte. QuickBird wurde dazu entworfen, große Gebiete mit äußerster Präzision effizient und genau abzudecken. Der QuickBird Satellit ist in der Lage, Bilddaten von jährlich mehr als 75 Millionen Quadratkilometern aufzunehmen (vgl. in etwa 1/7 der Erdoberfläche). Die Genauigkeit wird angegeben mit 23 m circular error bzw. 17 m linear error. Die Umlaufzeit des Satelliten beträgt 93.4 Minuten. Weitere Details können folgender Tabelle entnommen werden: System QuickBird Company DigitalGlobe Orbit 98°, near polar, sun synchronous Orbit height 450 km Revisit frequency: 1 to 3.5 days depending on latitude at 70centimeter resolution Panchromatic multispectral 0.61 m at nadir 2.44 m at nadir Spectral Range (nm) 445 - 900 450 – 520 (b) 520 – 600 (g) 630 – 690 (r) 760 – 900 (nir) Image Swath 16.5 km (Nadir) Accessible ground swath: 544-km centered on the satellite ground track (to ~30° off nadir) Stereo along Image Scene size 16.5 x 16.5 km² Strip - 16.5 km x 165 km Revisit time Appr. 3 days at 1-meter resolution, 40° latitude Dynamic range 11-bits per pixel Resolution Tab. 6: Quickbird Systemparameter (Quelle: http://www.digitalglobe.com/about/imaging.shtml) 20 2.3.2 Spot Das französische System Spot (System Probatoire d'Observation de la Terre) ist seit 1986 operabel mit den Missionen Spot 1 (1986), Spot 2 (1990), Spot 3 (1993), Spot 4 (1998) und der bisher letzten Generation Spot 5 (2002). System Spot 5 Spot 4 Company Spot 1,2,3 Spot Image Operational Life 5 years 5 years Orbit 3 years 98.7°, sun synchronous Orbit height 822 km Revisit time 2-3 days, Orbital period: 101.4 minutes, Orbital cycle: 26 days Resolution Pan 5m Sensor System Ms 10 m IR 20 m Pan 10 m Ms 20 m IR 20 m Pan 10 m Ms 20 m HRS, HRG HRVIR HRV Spectral Range (nm) 480-710 (pan) 500-590 (g) 610-680 (r) 780-890 (nir) 1580-1750 (swir) 610-680 (pan) 500-590 (g) 610-680 (r) 780-890 (nir) 1580-1750 (swir) 500-730 (pan) 500-590 (g) 610-680 (r) 780-890 (nir) Image Swath 600 km x 120 km (HRS) 60 km x 60 km to 80 km (HRG) 60 km x 60 km to 80 km (HRVIR) 60 km x 60 km to 80 km (HRV) Image Scene size Absolute location accuracy (no ground control points, flat terrain) < 15 m (1 σ) (HRS) < 50 m (1 σ) (HRG) < 350 m (1 σ) Equator crossing time (descending) Dynamic range < 350 m (1 σ) 10:30 a.m. 8-bits per pixel Tab. 7: SPOT Systemparameter (Quelle: http://www.spotimage.fr/html/_167_224_555_.php) Spot operiert im Gegensatz zu anderen Systemen mit nur 2 Kanälen im sichtbaren Spektralbereich, dafür aber ab Mission 4 mit einem zusätzlichen Kanal im mittleren Infrarot, weshalb sich die Daten besonders gut für Vegetationsuntersuchungen eignen. Spot 4 ist ein System, das aus zwei nebeneinander angeordneten Zeilenkameras besteht, die in zwei Betriebsarten arbeiten können. Diese Sensoren, mit der Bezeichnung HRVIR (High-Resolution Visible and Infrared Sensor) sind opto-elektronische Abtaster, deren Sensorzeilen mit Detektoren aus Siliziumdioden ausgestattet sind, die nach dem CCD-Prinzip (charge coupled device) arbeiten (vgl. KRAMER, 1996, S. 345 ff). 21 Eine weitere Besonderheit von Spot ist, dass die Aufnahmesensoren quer zur Flugrichtung (across) um bis zu ± 27° verschwenkt werden können, um Stereoaufnahmen zu ermöglichen (vgl. BRANDSTÄTTER, 1997, S. 29 f). Mit dem HRS (High Resolution Stereoscopic) Sensor verfügt Spot 5 über die Möglichkeit, 2 Bilder gleichzeitig aufzunehmen – eines nach vorwärts und eines mit Blickrichtung nach hinten für eine unmittelbare Aufnahme von Stereopaaren (along track). Dieses Verfahren bringt große Vorteile in der Qualität und Genauigkeit von HRS abgeleiteten DGMs, da ein automatisches Korrelationsverfahren durch die identischen radiometrischen Bildinhalte erheblich vereinfacht wird. Mit 1. Mai 2004 waren von mehr als 56 Mio. km² der Landoberfläche der Erde HRS-Stereobilder erhältlich. Über automatische Bildkorrelation wird ein DGM abgeleitet und mittels Resampling eine Bodenauflösung von 20 m erreicht. Die absolute Höhengenauigkeit wird mit 10 bis 20 m (Konfidenzintervall 90 %) angegeben (bezogen auf das vertikale Datum von EGM 96). Über einen Image-Sampling Prozess von 2 panchromatischen Spot 5 Szenen mit 5 m Auflösung (simultan von einem HRG Instrument aufgenommen) kann ein panchromatisches Bild mit 2,5 m Auflösung gewonnen werden mit derselben Aufnahmegeometrie wie die beiden 5 m Bilder. Dieses neue Konzept der Französischen Raumfahrtbehörde CNES wird auch als „Supermode“ bezeichnet. Durch eine weitere Fusion mit einem 3-Band Multispektralbild mit 10 m Auflösung liefert Spot 5 auch Farbbilder mit einer Bodenauflösung von 2,5 m. (Quelle: http://www.spot.com/html/SICORP/_401_444_445_.php) 2.3.3 Landsat Das amerikanische Landsat-Programm war das erste zivile Satellitenfernerkundungssystem, das 1972 mit dem Start des Landsat 1 Satelliten begann. Die Landsat Satelliten 1 bis 3 trugen den Sensor MSS (Multispektral Scanner), der auch auf den jüngeren Satelliten noch eingesetzt wird. Ab Landsat 4, der 1982 gestartet wurde, wurde zusätzlich der Sensor TM (Thematic Mapper) eingesetzt, der eine wesentlich bessere geometrische Auflösung bietet (30 m gegenüber 80 m bei MSS). Landsat 6 erreichte seinen Orbit nicht und ging verloren. Der zu Zeit aktuelle Landsat 7 Satellit trägt eine Weiterentwicklung des TM Sensors, die ETM (Enhanced Thematic Mapper) genannt wird und weitere Verbesserungen in der geometrischen Auflösung bietet (vgl. KRAMER, 1996, S. 185 f). Der Sensor TM ist ein mechanischer Scanner, der mittels eines Rotationsspiegels die Erdoberfläche in 185 km langen Streifen abtastet. Die Aufnahme erfolgt durch Drehung des Spiegels sowohl in OstWest, als auch in West-Ost-Richtung, während der Vorwärtsbewegung des Satelliten. Die spektralen Bereiche des Sensors reichen vom sichtbaren Licht bin zum thermalen Infrarot. Die geometrische Auflösung der gewonnenen Digitalbilder beträgt 30 m für multispektrale, und 120 m für thermale Daten (vgl. KRAMER, 1996, S. 187). 22 System Landsat 5 Landsat 7 Company NASA Operational Life 6 years Orbit 98.2°, sun synchronous Orbit height 705 km Repeat Coverage Resolution 16 d 80 m (MSS) 30 m (TM) / 120 m (TM – IR) 15 m (Pan) 30 m (ETM+) / 60 m (ETM+ IR) B 1: 0.450 - 0.520 B 2: 0.520 - 0.600 B 3: 0.630 - 0.690 B 4: 0.760 - 0.900 B 5: 1.550 - 1.750 B 6: 10.40 - 12.50 B 7: 2.080 - 2.350 0.450 - 0.520 0.520 - 0.600 0.630 - 0.690 0.760 - 0.900 1.550 - 1.750 10.40 - 12.50 2.080 - 2.350 Pan:0.500-0.900 Spectral Range (µm) Image Swath 185 km Stereo Image Scene size Equator crossing time 183 km no 185 x 172 km 09:30 183 x 170 km 10:00 a.m. (± 15 Min.) Tab. 8: Landsat Systemparameter Durch die Spiegeloptik des TM-Sensors wird, wie zuvor erwähnt, die Erfassung von Thermalstrahlung ermöglicht. Mit einer Linsenoptik wäre dies nicht möglich, da Wärmestrahlung nicht durch Linsen abgebildet werden kann. Spiegeloptiken dieser Art werden auch Cassegrain-Systeme genannt und ermöglichen die Abtastung des gesamten Spektralbereiches (vgl. BRANDSTÄTTER, 1996, S. 61). Die durch die Bewegung des Spiegels während des Fluges entstandene Verzerrung des Sensors wird während der Aufnahme durch Kompensationsbewegungen eines zweiten Spiegelsystems korrigiert, so dass die resultierenden Abtastzeilen parallel zueinander und senkrecht zur Satellitenbahn liegen. TM 7, die Weiterentwicklung des TM 5, liefert in folgenden Spektralbereichen verbesserte Daten: Ein zusätzlicher PAN-Kanal mit der doppelten geometrischen Auflösung (15 m), der den Spektralbereich von blau bis zum nahen IR abdeckt, wird angeboten. Weiters stehen die Thermaldaten mit doppelter geometrischer Auflösung (60 m) zur Verfügung. 23 2.4 Klassifizieren von Fernerkundungsdaten Die Klassifizierung ist eine Methode der Bildverarbeitung, die dazu dient, in Rasterbildern Muster, d.h. Flächen mit gleichen Eigenschaften zu ermitteln, z.B. Erkennen von Wald, Gewässer etc. in Satellitenbildern. Wie schon in Kap. 1.2 bzw. Kap. 2.2.3 erläutert, stellen Fernerkundungsbilder eine wichtige Grundlage einer 3D-Landschaftsvisualisierung dar, auf Grund der flächenhaften Information. Fernerkundungsdaten finden nicht nur als natürliche Textur, sondern auch als abstrahierte, thematische Information, über die Art der Bodenbedeckung, Verwendung. Ein guter Grund, sich im Folgenden einen genaueren Einblick in gängige Klassifizierungsmethoden zu verschaffen. Hierbei steht eine möglichst automatisierte Methodik der traditionellen visuellen Interpretation gegenüber, deren Vorteile (Genauigkeit, Vorwissen des Operators) aber einigen empfindlichen Nachteilen gegenüberstehen (Subjektivität, zeit- und kostenintensiv). Klassifikationsverfahren fassen mittels verschiedenster Algorithmen Gleiches oder Ähnliches in einem Bild zu einzelnen Klassen zusammen. Durch die rasche technische Entwicklung der Sensoren und hoch auflösenden Bildern kommen grundsätzlich 2 unterschiedliche Verfahren zum Einsatz, ein pixel-basiertes bzw. ein objekt-orientiertes Verfahren. In der Praxis sind die verschiedenen Vorgänge meist eng verknüpft, sodass ein Endergebnis meist auf Basis hybrider Methodik entsteht. Klassifikatoren werden vereinfacht auch unterschieden nach parametrischen und nicht-parametrischen Verfahren. Erstere benutzen gewöhnlich einen problemspezifischen Modellansatz zur Beschreibung der Klassifizierungsfunktion. Nicht-parametrische Verfahren besitzen keine exakten Modellvorstellungen, sondern basieren auf universellen Regressionsmodellen. Aufgrund ihrer Verwendung innerhalb einer großen Problemvielfalt werden sie auch als „robust“ bezeichnet. (BÄHR, VÖGTLE, 1998) 2.4.1 Pixelbasierte Methodik Innerhalb einer herkömmlichen pixelbasierten Klassifizierung werden mathematisch-statistische Algorithmen bzw. die spektralen Eigenschaften der Rasterdaten herangezogen, um möglichst homogene Klassen zu bilden. Die Multispektral-Klassifizierung unterscheidet verschiedene 24 Objektklassen aufgrund vorliegender Messdaten aufgenommen von Multispektral-Scannern und ist damit auch der menschlichen Wahrnehmung (bzw. der visuellen Interpretation) überlegen. (ALBERTZ, 2001, S. 161). Die unterschiedlichen spektralen Eigenschaften einzelner Objektklassen werden in einem Merkmalsraum (feature space) definiert und bilden einen Punkthaufen vieler einzelner Messwerte. Abb. 2: Feature Space (Quelle: Albertz, 2001, S. 162) Im Idealfall lassen sich die Punkthaufen eindeutig abgrenzen und unterteilen den Merkmalsraum. Jeder weitere Messwert kann nun automatisch einer der definierten Objektklassen zugeordnet werden. Das Ergebnis ist eine vollständige thematische Kartierung des Rasterbildes. In der Regel lassen sich die einzelnen Spektralbereiche aber nicht einfach trennen. Die Punkthaufen im Merkmalsraum überschneiden oder berühren sich, das leidige Problem der Mischpixel tritt nur allzu häufig auf. Die gängigsten Algorithmen einer spektralen Mustererkennung können in eine unüberwachte- bzw. überwachte Klassifizierungstechnik gegliedert werden. 2.4.1.1 Unüberwachte Klassifikation Durch ein rein statistisches Verfahren liefert eine unüberwachte Klassifizierung (Cluster Analyse) eine endliche Anzahl von Klassen ähnlicher spektraler Eigenschaften für das gesamte Bild, ohne dass irgendetwas über die Bedeutung der einzelnen Objektklassen bekannt sein muss. Im seltensten Fall wird eine unüberwachte Klassifizierung bereits das erwünschte Endergebnis bringen, ist aber eine rasch erstellte erste Übersicht, wie viele Objektklassen überhaupt sinnvoll abgegrenzt werden könnten. Somit dient diese, zumeist iterativ verwendete Methodik, zumeist als Vorverarbeitung für eine überwachte Klassifikation. Die Zuordnung der einzelnen Pixel erfolgt meist über nutzerdefinierte Kriterien. Einer der meist verbreiteten Algorithmen für eine unüberwachte Klassifikation ist die „Iterative Self Organizing Data Analysis Technique“ (ISODATA) (BOSSLER, 2002, S. 314). Die softwarespezifischen Eingabeparameter für den Algorithmus können die maximale Anzahl der Cluster, Anzahl der Wiederholungen, maximale 25 Anteil an unveränderten Pixel pro Durchlauf, maximale Standardabweichung innerhalb eines Clusters oder minimale Anzahl von Elementen eines Clusters sein. 2.4.1.2 Überwachte Klassifikation Unter Einbeziehen von Vorwissen über die Zuordnung der einzelnen Objektklassen zu den Punkthaufen im Merkmalsraum kann eine überwachte Klassifikation durchgeführt werden. Diese Vorinformation fließt in Form von gut definierten Trainingsgebieten (zumindest 1 pro Objektklasse), die von einer Feldbegehung oder anderen Datenquellen stammen können, in den Analyseprozess ein. Trainingsgebiete werden als AOIs (Area of Interest) interaktiv am Bildschirm digitalisiert oder durch spektrale- und räumliche Suchkriterien automatisch ermittelt. Sind die statistischen Charakteristika der Trainingsgebiete fixiert, stehen verschiedene Algorithmen zur Klassifizierung zur Auswahl. Die 3 meist verwendeten Methoden sind das Maximum-Likelihood-Verfahren (Verfahren der größten Wahrscheinlichkeit), das Minimum-Distance-Vefahren (Verfahren der nächsten Nachbarschaft) bzw. das Quader-Verfahren (Box Classifier od. Parallelepiped). Ersteres berechnet aufgrund statistischer Kenngrößen der vorgegebenen Klassen die Wahrscheinlichkeit, mit denen die zu klassifizierenden Pixel einer dieser Klassen angehören. Die Wahrscheinlichkeitsfunktionen werden aus den Daten der Trainingsgebiete abgeleitet. Unter der Annahme, dass die Messdaten der Pixel jeder Objektklasse im Merkmalsraum eine Normalverteilung um den Klassenmittelpunkt aufweisen, wird jedes Pixel der Klasse mit der größten Wahrscheinlichkeit zugewiesen. Das einfachere Minimum-Distance-Verfahren berechnet das Mittel der Messwerte in den einzelnen Spektralkanälen für die Trainingsgebiete jeder Objektklasse und anschließend den Abstand zu den Mittelpunkten für jedes zu klassifizierende Pixel. Folgende Abbildungen beschreiben die 3 Verfahren, wobei jeweils ein 2-dimensionaler Merkmalsraum mit Daten aus 2 Spektralkanälen (TM Band 3, TM Band 4) dargestellt wird. (a) Maximum-Likelihood-Verfahren Die Abbildung zeigt Linien gleicher Wahrscheinlichkeit für die Zugehörigkeit von Pixel zu einer der insgesamt 6 Klassen. Der zu klassifizierende Punkt wird in diesem Fall der Klasse „Agricultures“ zugeordnet. Das Maximum-LikelihoodVerfahren ist im Verhältnis rechenaufwendig, weist dafür aber sehr gute Ergebnisse auf. 26 (b) Minimum-Distance-Vefahren Das Bildelement wird jener Klasse zugeordnet, deren Mittelpunkt (+) dem zu klassifizierende Punkt am nächsten liegt, also in diesem Fall der Klasse „Grassland“. (c) Quader-Verfahren Durch die Festlegung oberer und unterer Grenzen der für eine Objektklasse gültigen Messwerte werden rechteckige (bzw. verfeinerte) Abgrenzungen im Merkmalsraum definiert. Das fragwürdige Pixel wird der Klasse „Grassland“ zugeordnet. Fällt der Punkt in keine Box, bleibt er unklassifiziert. Abb. 3: Überwachte Klassifikation (Quelle: Bossler, J. D. , 2002, S.313) Das Maximum-Likelihood-Verfahren, das Minimum-Distance-Verfahren oder auch das MahalanobisDistance-Verfahren zählen zu den parametrischen Verfahren, basierend auf statistischen Parametern. Das Quader-Verfahren wird der Gruppe der nicht-parametrischen Verfahren zugeordnet, die den räumlichen Bezug eines Pixels innerhalb oder außerhalb einer Fläche im Merkmalsraum verwenden. In der Praxis kommt es meist zu erheblichen Überschneidungen der Punkthaufen im Merkmalsraum. Durch eine Hauptkomponenten-Transformation können im Vorfeld besser trennbare Daten abgeleitet werden, speziell bei Daten mit einer größeren Zahl an Spektralkanälen. Ein weiteres Problem liegt darin, dass die einzelnen Objektklassen in der Regel keine homogene Ausprägungsform aufweisen. Eine Klasse (z.B. Waldflächen) kann unterschiedliche Formen (z.B. Wuchshöhe, Dichte, Exposition) auf durchaus kleinem Raum aufweisen, die im Bild zu unterschiedlichen Spektralwerten führen. 27 (a) (c) (a) Landsat TM Ausschnitt mit den Kanälen 2, 4 und 7. Im Bild werden mehrere Trainingsflächen für verschiedene Klassen definiert, die jeweils eine Punktwolke im Merkmalsraum einnehmen (Vgl. (c)). Durch statistische Analyse werden Linien gleicher Wahrscheinlichkeit zur Unterteilung des Merkmalsraumes abgeleitet. Als Ergebnis erhält man eine thematische Karte (b). (b) Abb. 4: Ablauf einer Multispektral-Klassifizierung (Quelle: Albertz, 2001, S. 168) Das Hauptproblem der herkömmlichen Multispektral-Klassifizierung ist nach wie vor das häufige Auftreten von Mischpixel. Für die Zuordnung dieser Pixel zu den Klassen gibt es verschiedenste Möglichkeiten. Viel versprechende Lösungsvarianten finden sich im spectral unmixing Verfahren über so genannte endmembership functions (vgl. BLASCHKE et al., 2000). Insgesamt erzielen pixelbasierte Verfahren bei Daten mit gröberer Auflösung (30 m) sehr gute Resultate mit Genauigkeiten von 85 bis 90 % (BLASCHKE, 2002a, S. 5). 2.4.2 Objekt-orientierte Methodik Hoch auflösende Satellitenbilder stellen auch für die Klassifikation neue Ansprüche, denen die herkömmliche pixelbasierte Methodik nicht mehr entspricht. Zwar ist das Auftreten der Mischpixel nicht mehr so häufig, jedoch hat die Variabilität und das Rauschen innerhalb quasihomogener Klassen stark zugenommen (vgl. SCHIEWE et al. 2001, zitiert in NEUBERT und MEINEL 2002). Darüber hinaus fordert die hohe Auflösung mehr als nur eine statistische Bewertung der spektralen Information. Herkömmliche Methoden lassen sich nicht mehr anwenden, wenn die homogenisierende Grauwertglättung durch eine relativ grobe Auflösung nicht mehr gewährleistet ist. Dies ist dann der Fall, 28 wenn zu erfassende Objekte in den Grenzbereich der Pixelgröße fallen oder sogar darüber (EHLERS, 2002, S.18). Neue, intelligentere Methoden erlauben das Miteinbeziehen von Mehrinformation (wie Textur, Gestalt oder Nachbarschaftsbeziehungen) über den räumlichen Kontext der Bildelemente zueinander als Basis zur Bildung homogener Objekte. Diese „intelligenten“ Verfahren bedienen sich wiederum der Vorteile, die die menschliche Wahrnehmung innerhalb der visuellen Interpretation mit sich bringt, nämlich das intuitive Erkennen von Formen, Mustern und Zusammenhängen aus einem Konvolut von Bildelementen. Eine objektbasierte Klassifizierung besteht aus 2 Schritten – einer Segmentierung der Daten (also die Gliederung des Bildes in Regionen bzw. sinnvoller Einheiten) und einer Klassifizierung. Durch diese Mehrinformation können GIS-Funktionalitäten („grenzt an“, „ist in der Nähe von“) direkt in den Klassifizierungsprozess integriert werden, wodurch schließlich eine echte Integration von GIS und Fernerkundung erreicht werden kann (BLASCHKE, 2002, S.6). Ein weiterer Vorteil dieser Methodik ist, dass durch Softwarelösungen mit entsprechend einfach zu bedienenden Regelbausätzen (z.B. in der Software eCognition mittels Fuzzy Logic), eine Klassifizierung mit gutem Ergebnis auch von einem Nicht-Fernerkundungsexperten getätigt werden kann. Segmentierungsverfahren sind in der Bildverarbeitung keine Neuheit. Neu hingegen ist die Adaptierung der Segmentierung für Anwendungen in der Fernerkundung mit Einbezug einer Klassifizierung. Verschiedene Algorithmen betonen unterschiedliche Kriterien wie Homogenität innerhalb eines Segments, Verschiedenheit/Trennstärke gegenüber räumlich angrenzender Segmente oder Formhomogenität (Einfachheit von Segmentgrenzen vs. Fraktale Ausprägung). Einige der gängigsten Algorithmen sollen im Folgenden kurz erläutert werden: Abb. 5: Vergleich einer Abgrenzung eines Moors Links: Landsat TM (Kanäle 5,4,3), Mitte: Pixelbasierte Klassifikation, Rechts: Segmentierung und Objektorientierte Klassifikation (Quelle: Blaschke, 2000) 2.4.2.1 Clusterbasierte Segmentierung Die einzelnen Bildelemente werden durch Clusterbildung im Merkmalsraum so zusammengefasst, dass innerhalb eines Clusters Homogenität der Pixel besteht d.h. die Pixel einer Klasse unterscheiden sich möglichst wenig voneinander. Statistisch gesehen wird die Summe der Quadrate der Abweichung der Pixelwerte von den Clustermittelwerten minimiert. 29 Der Vorteil der Methode liegt in ihrer Einfachheit. Innerhalb eines Segments wird die spektrale Homogenität der Bildelemente nicht beachtet. Der größte Nachteil besteht darin, dass räumliche Zusammenhänge bei der Segmentierung ebenfalls nicht beachtet werden. 2.4.2.2 Regionsbasierte Segmentierung (region-based) Ähnlich dem Cluster-Verfahren basiert diese Methodik auf Ähnlichkeiten mit dem Unterschied, dass die regionsbasierte Segmentierung nicht im Merkmalsraum, sondern im Bildraum und damit mit räumlichen Zusammenhängen arbeitet. Innerhalb dieses Segmentierungsverfahrens findet man 2 typische Vertreter: Die Region-growing-Methode und Split-and-Merge-Methoden. Region-growing Aus Ausgangssegmenten oder Einzelpixel (seed pixel, seed segments oder seeds [Saatzellen]) wachsen größere Segmente. Alle dem Ausgangssegment benachbarten Pixel werden auf Ähnlichkeit über gewisse Schwellwerte geprüft. Ist die Ähnlichkeit groß genug, wird das Pixel dem Segment zugeteilt. Kann das Pixel keinem Segment zugeteilt werden, beginnt an dieser Stelle eine neue Saatzelle mit einem neuen Segment. Der Bearbeiter beeinflusst den Vorgang durch die Lokalisierung der Saatzellen bzw. das Verfahren, nachdem die Saatzellen gewählt werden und durch die Schwellwerte, die das Ähnlichkeitskriterium bestimmen. Split-and-Merge Diese iterative Methode beruht auf der Zerlegung des Bildes in zunächst unzusammenhängende Initialteile mit einheitlichen internen Eigenschaften und einer Zusammenfügung gleicher Teile. Der Splitting-Prozess folgt der Quadtree-Methode – die Zerlegung des Bildes in Quadranten bzw. Subquadranten. Ein Merge fügt schließlich die unterschiedlich großen Teilchen (Quadranten) gleicher Eigenschaften wieder zusammen. 2.4.2.3 Kantenbasierte Segmentierung (edge-based) Bei kantenbasierten Verfahren wird nicht nach Ähnlichkeiten, sondern nach Unterschieden bzw. starken Gradienten (Diskontinuitäten) gesucht mittels verschiedener Operatoren, wie z.B. dem Sobel-Operator oder Laplace-Operator. Die Kanten werden zu Gruppen zusammengefasst, wobei eine Homogenität der Segmente bei rein kantenbasierter Segmentierung nicht automatisch gegeben ist. (SCHNEIDER et al. 1997, zitiert in BLASCHKE 2000). 30 2.4.2.4 Watershed-Segmentierung Als Ausgangsbild dient ein Kantenbild, das mittels Gradientoperators hergestellt wird. Das Kantenbild wird als dreidimensionale Oberfläche interpretiert. Für jedes Pixel wird in weiterer Folge ein Abflussverhalten eines hypothetischen Regentropfens, der auf das Pixel fällt, simuliert. Die so ermittelten Wasser-Einzugsgebiete werden als die gesuchten Segmente interpretiert. Insgesamt gesehen erzielen objekt-orientierte Methoden bereits sehr gute Ergebnisse bei hoch auflösenden Satellitenbildern, wobei dieser junge Ansatz Ziel zahlreicher Forschungen ist und vermutlich auch in Zukunft sein wird (vgl. BLASCHKE 2000, S. 161 ff.). 2.4.2.5 Weitere Verfahren Hierarchische od. baumförmige Klassifizierung In einer hierarchisch angelegten Methodik (engl. Hierarchical Classification) wird das Klassifikationsergebnis nicht in einem Schritt erreicht sondern entsteht aus einer Abfolge von mehreren Einzelentscheidungen. Zu Beginn wird der Merkmalsraum interaktiv durch den Bearbeiter in einige wenige, häufig nur 2 Klassen, unterteilt und anschließend nach bestimmten Regelwerken weiter untergliedert. Ein wesentlicher Vorteil eines solchen Systems besteht darin, dass für jede Entscheidung ein beliebiger Spektralkanal (d.h. der, für die jeweilige Fragestellung geeignetste) herangezogen werden und somit verschiedene Daten miteinander verknüpft werden können. Als Beispiel für eine hierarchische wissensbasierte Klassifizierung kann der Expert Classifier im Softwarepaket Erdas Imagine genannt werden. Abb. 6: Hierarchische Klassifizierung Links: Trennung des Merkmalsraumes in die 2 Klassen Vegetation – Keine Vegetation, Rechts: Schematische Verzweigung der Hierarchischen Untergliederung der weiteren Klassen (Quelle: Albertz, 2001, S. 167) 31 Neuronale Netze Nach der Definition in Kap. 2.4 gehören Neuronale Netze (NN, engl. Neural Networks) zur Gruppe der nicht-parametrischen Verfahren, da sie aus statistischer Sicht nichtlinearen Regressionsmodellen entsprechen (BÄHR und VÖGTLE, 1998). Als neuen Zweig der Forschung zur künstlichen Intelligenz fanden Neuronale Netze schon in den 80er Jahren Einzug in den Bereich der Fernerkundung. NN arbeiten ähnlich dem natürlichen Vorbild, dem menschlichen Gehirn, wobei mittels Modellierung und Verknüpfung von Einzelkomponenten (Neuronen bzw. Modellneuronen) komplexe Eigenschaften wie Selbstorganisation, Trainierbarkeit, Fehlertoleranz oder Generalisierung angestrebt werden. NN starten mit bestimmten Input-Daten (z.B. bekannte Klasse der Landbedeckung) und erwarteten Outputs. Im Gegensatz zu hierarchischen Systemen müssen NN aber trainiert und kalibriert werden, bis sie in einem Lernprozess als effizient bezeichnet werden können. Abb. 7: Information und Ablauf in einem typischen neuronalen Netz NN können aus mehreren Ebenen bestehen, jede Ebene setzt sich aus mehreren Knoten zusammen. Input und Output-Ebene formen die Initial- bzw. Endknoten mit einer oder mehreren versteckten Ebenen, die die verarbeitenden Knoten beinhalten. (Quelle: Bossler, 2002) Es wird angenommen, dass der Einsatz von NN in der Bildverarbeitung mit leistungsfähigen Computern weiter ansteigen wird. Im Zuge ihrer Lernfähigkeit haben NN einige Vorteile, die in der Bildverarbeitung ausgenützt werden können: Da ein NN Daten mit begrenzter Erfahrung, basierend auf erlernten Beziehungen, verarbeiten kann, kann es auch neu eingebrachte Daten verarbeiten, sofern diese den Originaldaten des Trainingsdatensatzes ähneln. Dadurch, dass NN mittels bestimmten Input- und Output-Parametern trainiert worden sind, funktionieren sie auch trotz fehlender Eingabeparameter und agieren daher auch robuster als andere Verfahren. Eine Klassifikation mit NN beinhaltet auch einen bestimmten Anteil an 32 statistischer Analyse, zum Großteil Cluster-Analysen. In aneinander anschließenden Abläufen gleicher Prozesse und Analysen verfeinern sich NN selbst und werden dadurch genauer und effizienter. NN werden für verschiedene Applikationen verwendet (z.B. Landnutzungsklassifizierung, Change Detection) und erzielen vor allem dort bessere Ergebnisse als herkömmlich statistische Methoden, wo der Merkmalsraum komplexer ist und die Verteilung der Eingangsdaten nicht der angenommenen Normalverteilung entspricht. NN können verschiedene Daten verarbeiten (z.B. von unterschiedlichen Sensoren), a priori Wissen und realistische physikalische Randbedingungen in die Analyse mit einbeziehen (BOSSLER, 2002). Fuzzy Sets Viele Systeme in der Natur weisen Merkmale auf, sodass die reale Situation oft nicht mehr eindeutig zu erfassen und klar abgrenzbar ist. Bei Daten von Unbestimmtheit/Unschärfe nicht-stochastischer Art bietet die Fuzzy-Theorie ein methodisches Werkzeug zu deren Formalisierung und Problemlösung. Die Grundidee dabei ist, eine dem Kontext angemessene Unschärfe mittels einer geeigneten graduellen Differenzierung quantitativ durch eine Menge von reellen Zahlen auszudrücken und damit operationabel zu machen. Fuzzy Sets (unscharfe Mengen) sind das zentrale Element der Fuzzy-Theorie. Jedes Pixel besitzt in dieser Methodik eine unscharfe Zugehörigkeit zu einer Klasse mit Werten zwischen Null (keine Zugehörigkeit) und Eins (volle Zugehörigkeit) (vgl. WOLF, 2001). Der Grundgedanken der Fuzzy-Logik kann auch für Planer sehr interessant sein. Konzepte wie „eher urban“, „eher ländlich“, „gut erreichbar“ oder „ökologisch weniger wertvoll“ scheinen doch in der Praxis aussagekräftig zu sein, obwohl „harte“ Entscheidungskriterien gefordert sein können (vgl. BLASCHKE, 1997). Gängige Ansätze basierend auf Fuzzy Sets sind „possibilistic c-means clustering“ (PCM), „fuzzy cmeans clustering“ (FCM) oder „fuzzy supervised classification“. Fuzzy Klassifikatoren erzeugen Bilder, die den Grad der Zugehörigkeit der Bildelemente zu ausgewiesenen Klassen darstellen. Die Notwendigkeit der Extraktion von Information aus Fernerkundungsdaten brachte eine Vielzahl von verschiedenen Methoden hervor bzw. wird auch weiterhin Gegenstand der Forschung sein, speziell durch die rasche Entwicklung hoch auflösender Sensoren. Ein weiterführender Ansatz, jener der Multiple Classifier Systems (MCS), als Kombination einzelner Klassifikationsstrategien bzw. einzelner Ergebnisse sei an dieser Stelle nur erwähnt. 33 2.5 Texturen Bei der 3D- bzw. Computer-Animation (Computerspiele, Visualisierung, Effekte, usw.) bezeichnet Textur das Bild, welches auf der Oberfläche eines virtuellen Körpers dargestellt wird; man spricht von Mapping. Ein Pixel der Textur wird als Texel bezeichnet. Dabei können Texturen praktisch jede Eigenschaft einer Oberfläche gezielt verändern. Quelle: http://de.wikipedia.org/wiki/Textur Texturen sind ein wichtiges gestalterisches Element, das 2D oder 3D Objekten ein realistischeres Aussehen bzw. eine charakteristische Oberfläche geben kann. Mit der Technik des Texture-Mappings werden Bilder auf eine Oberfläche projiziert, eine weit verbreitete Methodik in der Visualisierung. Die drapierten Bilder lassen die Oberfläche zumeist dennoch als glatt erscheinen, weshalb weitere Techniken entwickelt wurden, wie z.B. das Bump Mapping. Abb. 8: Künstliche Felstextur ohne (links) bzw. mit Bump Mapping (rechts). 34 Durch Bump Mapping wird dem Beobachter ein geometrisch verändertes Erscheinungsbild vorgetäuscht, indem die Richtung der Normalvektoren der Oberfläche mit Hilfe von Zufallsvariablen leicht abgelenkt wird, ohne dass die Geometrie tatsächlich verändert wird. Der räumliche Eindruck entsteht durch Helligkeitsunterschiede auf glatten Oberflächen. Der entscheidende Nachteil liegt in der Speicherintensivität der Technik. Als Texturen können nun verschiedenste Grafiken unterschiedlichster Formate dienen oder auch Vektorelemente (z.B. Isolinien), die auf eine Oberfläche projiziert werden. Allgemein unterscheidet man in der Geovisualisierung 2 Grundtypen der Texturen, nämlich künstliche und natürliche Texturen. 2.5.1 Natürliche Texturen Als natürliche Texturen werden zumeist photographische Aufnahmen oder Fernerkundungsbilder bezeichnet, die den natürlichen Eindruck einer Landschaft, so wie das menschliche Auge sie wahrnimmt, zumindest für einen bestimmten Maßstabsbereich wiedergeben, so, wie sie der Natur entsprechen. Abb. 9: Beispiel einer natürlichen Textur, Kombination Landsat TM/Spot Das Drapieren von natürlichen Texturen auf ein DGM wird auch als „Image Drape“ bezeichnet. 35 2.5.2 Künstliche Texturen Neben Luft- und Satellitenbildern werden in der Visualisierung auch noch zahlreiche künstliche Objekte als Texturen eingesetzt. Gängige Softwareprodukte liefern in einer Objekt-Bibliothek zumeist viele vorgefertigte Texturen für Landschaftsoberflächen, Bewuchs, Gebäude oder Himmelsobjekte. Künstliche Texturen unterliegen zumeist mathematisch definierten Mustern und sind oft hierarchisch aufgebaut. Mit geeigneten Operationen und Musterverläufen lassen sich schier unendlich viele Texturen generieren, wobei einzelne Subelemente einer Textur wiederum selbst eine Textur sein können. Auch natürliche Texturen können als Grundlage künstlicher Texturen fungieren. Zum Beispiel kann ein (möglichst orthogonal aufgenommenes) Foto eines Waldbodens großflächig durch gezielte Wiederholungen in beide Achsenrichtungen als künstliche Bodentextur verwendet werden. Genauso lassen sich kleinräumige landwirtschaftliche Strukturen durch Verschachteln einzelner Bilder gut als künstliche Texturen verwenden (vgl. Abb. 10). Abb. 10: Textur für Ackerflächen Links: künstliche Textur, rechts: Textur aus mehreren Einzelbildern (Orthophotos) Billboard-Objekte Vertikale Vegetationsstrukturen wie Wälder oder Einzelbäume werden innerhalb der gängigen Softwarelösungen gerne als Billboard-Objekte verwendet. Grafiken von Einzelbäumen werden auf die dreidimensionale Geländeoberfläche gesetzt und drehen sich immer mit dem Blickwinkel des Betrachters mit, erscheinen also immer orthogonal zur Blickrichtung. Somit erscheinen die 2-dimensionalen Objekte als 3-dimensional, wobei zusätzlich durch Schattierung der Effekt noch verstärkt werden kann. Besonders im Bereich mittlerer Maßstäbe findet diese TextureMapping Technik ihre Anwendung, wenn der Detailgrad (Level of Detail) noch keine Einzelbäume erkennen lässt. 36 Die Grafikformate, die für ein Billboard verwendet werden, müssen vorher entsprechend ausmaskiert sein bzw. einen Alpha-Kanal unterstützen, der im Rendering transparent erscheint. Abb. 11: 2D-Bilder als Billboard Objekte 2.6 Existierende 3D-Visualisierung basierend auf amtlichen Geodaten am Beispiel der „Austrian Map“ Ein Ausgangspunkt der Überlegungen war die Austrian Map, Version 2.0, ein Produkt des BEV, das für das ganze Bundesgebiet Karteninformation bzw. auch 3D-Inhalte anbietet. Die verschiedenen Möglichkeiten der Darstellung, die unter dem Begriff „Höhendaten“ geführt werden, sind zu folgender Abbildung aufgelistet. 3D-Funktionen der Austrian-Map 2.0 3D-Betrachtung mit Rot-Grün-Brille über Anaglyphenbilder Höhenprofil (Geländeschnitt) einer gewählten Route Plastische Darstellung als Schummerung in der Landkarte (mit Karte) Höhenrelief (Schattenplastische Darstellung) Perspektivansicht der Karte mit Einstellung der Lichtquelle Anzeigen von Höhenschichten in gewünschten Farben und Intervallen Abb. 12: Anaglyphenbild von Graz (Quelle: Austrian Map, BEV) 37 Basis der Höhenangaben ist das DGM des BEV. Die stereoskopische Betrachtung durch eine Anaglyphendarstellung (vgl. Abb. 12) ist die wohl einzige echte 3D-Darstellung im Sinne der menschlichen Wahrnehmung. Schummerung und Höhenrelief sind plastische 2D-Ansichten des DGM, die im Fall der Schummerung der Karte unterlegt werden. Die Höhenschichten sind eine andere Darstellungsform des DGM, abgestuft nach individuellen Wertebereichen. Dem aktuellen Produkt „AMAP Fly“, Version 4.0, wurde der nun als „statisch“ bezeichneten perspektivischen Ansicht auch eine dynamische Ansicht hinzugefügt, die es erlaubt, sich interaktiv über das Gelände zu bewegen. Einer 3D-Visualisierung, wie sie in dieser Arbeit verstanden wird, kommt die Variante der perspektiven Ansicht wohl am nächsten. In einem eigenen Viewer wird ein Kartenausschnitt perspektivisch dargestellt, wobei die Entfernung und Blickrichtung des Beobachters sowie die Beleuchtungsrichtung und die DGM Darstellung variiert werden können. Als Texture-Mapping Element dient die digitale Österreichische Karte, die mit ihrem umfangreichen Inhalt wohl kaum einer wünschenswerten Visualisierung gleichkommt. Die Geländeoberfläche erscheint auffällig glatt, die Karteninformation wird natürlich stark verzerrt abgebildet und somit teilweise unleserlich, vor allem die Situation. Abb. 13: Perspektive Ansicht in der AMAP, Version 2.0 Die Darstellung der vorhandenen Information reicht also nicht aus, um eine geeignete Landschaftsvisualisierung zu erreichen. Wiederum liegt der Gedanke nahe, andere Geodaten als Grundlage zu verwenden, wie eben Fernerkundungsbilder (vgl. Abb. 9) oder GIS-Daten bzw. eine sinnvolle Kombination von beiden. 38 3 Konzept einer Landschaftsvisualisierung Für eine computerunterstützte 3D-Landschaftsvisualisierung mit planerischem Hintergrund steht heute eine Vielzahl an Softwaremöglichkeiten zu Verfügung, die von der klassischen 3D-Anwendung über 3D GIS-Lösungen bis zur High-End Lösung photorealistischer 3D Visualisierung reichen. Die rasche Entwicklung von Systemkomponenten, insbesondere seitens der Computerspieleindustrie, ermöglicht es heute aus technischer Sicht, fotorealistisch wirkende Landschaftsbilder am PC zu generieren. Bisher ließen sich die verschiedenen Softwarelösungen im Wesentlichen danach unterscheiden, ob fotorealistische Standbilder bzw. Animationen oder die Erstellung von Realtime Umgebungen als Ziel gesetzt wurden. Dieser Unterschied wird mit fortschreitender Entwicklung in der Computergrafik und Hardwareleistung zusehends hinfällig (PAAR et al., 2004). Die Integration von GIS, Fernerkundung, hohem Detailgrad und Interaktivität ist heute also technisch möglich. Appleton (2001) unterteilt demnach die Methoden der Visualisierung in 3 Hauptkategorien: Image Draping, Photorealistisches Rendern und Virtuelle Welten. Abgesehen der Methodiken und Techniken innerhalb des Visualisierungsprozesses sind noch einige weitere Überlegungen bezüglich der Software bzw. Stärken und Schwächen in der Umsetzung relevant, wie: Import von GIS Daten (als wichtige Grundlage der Geovisualisierung), Formate und Datentypen Datenmanipulation und Zuweisen von Eigenschaften Einfachheit um einen bestimmten Standpunkt zu simulieren Zeiterfordernis für das Generieren eines erwünschten Outputs Notwendigkeit der Nachbearbeitung Vorhandensein von vordefinierten Elementen (Objektbibliotheken etc.) Weitere Aspekte gelten natürlich den Anschaffungskosten, der Einarbeitungszeit, der geforderten Hardware bzw. notwendiger anderer Software. Besonders interessant erscheinen die Produkte von 3D Nature (vgl. PAAR et al, 2004; DUNBAR, 2003, FELDES, 2003; APPLETON, 2001), das World Construction Set (WCS) bzw. Visual Nature Studio (VNS). Diese Arbeit wurde mittels VNS 2 durchgeführt, weshalb im Folgenden die Software kurz vorgestellt werden soll: 39 3.1 VNS - Softwarefunktionalität Das aktuelle Produkt der amerikanischen Herstellerfirma 3D Nature LLC, das Visual Nature Studio 2 (VNS 2), ist zusammen mit den vorherigen Versionen wohl das weit verbreitetste Instrument zur 3D Landschaftsvisualisierung, speziell in Kombination mit GIS Daten (GEIER at al, 2001). DUNBAR et al. (2003) sprechen auch davon, dass nach einer eingehenden Recherche VNS das geeignetste Softwarepaket für photorealistische Visualisierung sei, in diesem Fall speziell für forstliche Anwendungen. Weiters wird festgehalten, dass in herkömmlichen GIS- und Fernerkundungssystemen die Mittel der Visualisierung und Animation noch immer vergleichsweise rudimentär ausgeprägt sind. Im Folgenden wird die allgemeine Abkürzung „VNS“ für das Produkt VNS 2 verwendet. Begriffe, wie sie in der Terminologie von VNS gebraucht werden, sind (ausgenommen in Überschriften und Tabellenund Abbildungsbeschriftungen) in der gesamten Arbeit kursiv gehalten und können in einem Glossar als Anhang bei Bedarf nachgeschlagen werden. Visualisierung in VNS basiert auf einem digitalen Geländemodell, das mit verschiedenen Formaten (ASCII, Binary, DXF – nicht aber ERDAS Imagine) importiert (bzw. als 3D Studio oder LightWave3D auch wieder exportiert) oder künstlich hergestellt werden kann. VNS kann mittels einer Vielzahl an implementierten Projektionen, Datum und Ellipsoiden einen direkten Bezug zur Erdoberfläche herstellen. VNS eignet sich daher besonders gut für Anwendungen in der Geovisualisierung, wobei die Softwarefunktionalität die Möglichkeit bietet, beim Import die Maschenweite des DGMs (und somit auch den Detailliertheitsgrad des Geländemodells) zu verändern. 3D Nature bezeichnet VNS in einem Handbuch sogar als GIS, wobei aber nur wenige GIS-Funktionalitäten vorhanden sind (keine Analyse etc.), sondern vielmehr GIS Daten optimal integriert (bzw. teilweise manipuliert) und schließlich auch visualisiert werden können. VNS unterstützt den Import von dxf-Dateien bzw. Esri Shapes, wobei die GIS Komponente in einer interaktiven Abfrage der Attribute (Search Query), die direkt auf die Attribute, die beim Import von VNS übernommen werden können, liegt. Es kann also statisch und dynamisch auf Attributdaten von Vektoren zugegriffen werden, auch ein automatisches Update geänderter Dateien ist möglich. Großflächige Daten (DGMs wie auch 2D Bilder) können in sinnvolle Teilstücke gekachelt werden, um die Rechenzeit möglichst klein zu halten. Das Herzstück der Visualisierung sind die so genannten Ecosystems, die auf verschiedenen Regeln basierend auf einer bestimmten Grundlage einzelne Elemente einer Landschaft bilden. Als Grundlage können Vektoren oder Rasterbilder (Color Maps) dienen, wie z.B. eine Landnutzungsklassifikation aus einem Satellitenbild, wobei jede ausgewiesene Klasse ein Ecosystem darstellt. Werden „nur“ gewisse globale Regeln zur Platzierung eines Ecosystems eingesetzt (Rules of Nature), d.h., diese Regeln gelten nicht nur für einen ausgewählten Bereich (wie z.B. einer bestimmten Klasse einer Kartierung), werden die Ecosystems in einer Environment verwaltet, die globale Gültigkeit besitzt (d.h. für den gesamten Bereich des DGMs). Neben dieser 3. Möglichkeit, ein Ecosystem zu platzieren gibt es noch eine 4., nämlich über Terraffectors, das sind Vektoren, die direkt in das DGM eingerechnet werden und es somit interaktiv verändern können. 40 Abb. 14: Ecosystem „Nadelwald“ Abb. 15: Detailansicht Ein Ecosystem kann nun verschiedene Regeln, verschiedene Materials beinhalten die von unterschiedlichen Objekten als Overstory besetzt werden können. Rules of Nature (exemplarisch): Max. Slope: 45° Min. Slope: 0° Materials: Pine forest leaf litter Spruce Bare Ground Overstory: Pine forest leaf litter 3 verschiedene Typen von Nadelbäumen als 2D Grafiken Abb. 14 und Abb. 15 zeigen die Funktionalität eines Ecosystems am Beispiel der Klasse „Nadelwald“. Die ausgewiesene Klasse „Nadelwald“ wird vereinfacht durch folgende Parameter definiert: Jedem Material kann nun eine Overstory (bzw. auch Understory) zugeteilt werden, die selbst wieder aus verschiedenen Objekten (2D Billboards oder 3D Objekten) bestehen können. Der auf das DGM drapierte Grund der Materials (Ground Overlay) kann ein diskreter Farbwert oder eine Textur sein, wie in diesem Fall. Die räumliche Verteilung der beiden Materials erfolgt entweder über einen Prozentwert (zw. 0 und 100, wobei 0 nur das 1. Material zur Gänze beinhalten würde bzw. 100 nur das 2.) oder über eine Textur, wie in obigem Beispiel. Texturen werden in einem Texture Editor generiert, einem hierarchisch aufgebautem, komplexen Werkzeug, das innerhalb VNS an sehr vielen Stellen eingesetzt werden und unterschiedlichste Komponenten und Effekte (z.B. Farbe, Transparenz, Glanz, Reflexion etc.) steuern kann. Verschiedene Komponenten (wie z.B. Terrafectors, Cloud Models, DEMs, Ecosystems, Lakes, Lights, Skies, Snow Effects oder auch Search Queries) werden einzeln verwaltet und sind somit übersichtlich editierbar. Neben den bereits angesprochenen Vektordaten unterstützt VNS auch eine Vielzahl an gängigen Rasterformaten, standardmäßig wird Amiga .iff verwendet. Das fertige Produkt einer Landschaftsvisualisierung mit VNS kann dann entweder eine 3D-Ansicht eines unbewegten Standbildes oder eine 3D-Animation (über eine Animation der Kamera entlang eines Flugpfades) sein. Mit Version 2 (bzw. WCS 6) liefert 3D Nature „Scene Express“ mit, ein weiteres 41 Feature, das den bisher größten Kritikpunkt an VNS verstummen lassen soll, nämlich die fehlende Interaktivität. Nun sollte es möglich sein, die erstellte 3D Landschaft zu exportieren, z.B. als VRML, Nature View, 3D Studio oder Lightwave. Es existiert eine Vielzahl an speziellen Softwareprogrammen zur 3D-Landschaftsvisualisierung, die Palette der Software-Familien (Gruppen existierender Produkte mit weitgehend ähnlicher Funktionalität) reicht von integrierten 3D-GIS Visualisierungssystemen, „Terrain Viewer“ über Systeme zur geologischen Modellierung und CAD-Systemen bis zu fotorealistischen Landschafts-Renderer. (FUHRMANN et al., 2001). Viele Software-Lösungen weisen aber gewisse Mängel auf, die in der Landschaftsvisualisierung aber als essentiell betrachtet werden müssen. Nach JÜNEMANN et al. (2001) genügen die Produkte oft den fachlichen Ansprüchen nicht, es können keine großen Datenmengen in Echtzeit abgebildet werden, es gibt keine überzeugende Vegetationsrepräsentation, es sind keine Schnittstellen zu GIS und Datenbanken implementiert, es gibt keine Weiterentwicklung oder wie so oft sind zu hohe Investitionskosten erforderlich. 3D Nature stellt mit WCS bzw. insbesondere VNS in gewisser Weise eine Ausnahme dar, auch wenn der Renderer meist sehr zeitintensiv ist und eine geeignete Hardware-Umgebung eine beinahe essentielle Voraussetzung darstellt. 42 3.2 Datenaufbereitung Daten, die für den Visualisierungsprozess verwendet werden, müssen natürlich in einem Schritt der Vorverarbeitung aufbereitet werden, je nach Anwendung und erwünschtem Qualitätsgrad der Ergebnisse. Für eine detaillierte Darstellungen der Datenaufbereitung für die Visualisierung sei auf andere Arbeiten verwiesen (STELZL, 2001; FELDES, 2003). Dieses Kapitel dient eher einer kurzen Zusammenfassung der erforderlichen Daten und ihrer Aufbereitung. Für den Einsatz von Fernerkundungsbilddaten ist es notwendig, diese in eine bestimmte Referenzgeometrie zu entzerren. Dies wird üblicherweise durch ein parametrisches Abbildungsmodell der Satellitenbildaufnahme bewerkstelligt. Das initiale Abbildungsmodell wird mit den mitgelieferten Sensordaten erstellt und mit Hilfe von Passpunkten optimiert. Mit einem DGM wird die Satellitenbildszene in die gewünschte Kartengeometrie entzerrt (vgl. RAGGAM et al., 1999, S.31). Digitale Geländemodelle werden nicht nur für die Entzerrung von Fernerkundungsdaten benötigt, sondern spielen auch in der 3D-Visualisierung eine zentrale Rolle. Sie sind das Kernstück jeden 3DModells, gleichgültig ob 3D-Ansichten, virtuelle Flüge, Panoramen oder gar zeitabhängigen Animationen von Gebirgen berechnet werden. Gegebenenfalls müssen DGMs von einem Koordinatensystem in ein anderes transformiert werden bzw. mehrere DGMs zusammengefügt oder auch in ihrer Auflösung verändert werden. Als weiterer Schritt der Datenaufbereitung erfolgt die Klassifikation der Fernerkundungsbilder bzw. eine Verifizierung der Ergebnisse, um damit eine möglichst effektive und sinnvolle Visualisierung durchführen zu können. Neben Fernerkundungsbildern gibt es auch noch andere Rasterbilder, die es gilt, entsprechend aufzubereiten, wie z.B. digitale Kartenwerke oder Fotos, die als Texturen oder 2D Billboard-Objekte eingesetzt werden. Schließlich sollte an dieser Stelle noch das Erfassen der Vektordaten erwähnt werden, die eine nicht unwesentliche Rolle im Visualisierungsprozess spielen. Im Nahbereich werden in erster Linie individuelle 3D-Modelle eingesetzt werden, die im Allgemeinen erst in einer externen Software erstellt werden müssen, ein arbeits- und zeitintensiver Prozess. Die Visualisierung steht somit am subjektiven Ende der digitalen Bildverarbeitung, da sie sich vorprozessierter Daten bedient, die ihrerseits bereits fertige Produkte im Verarbeitungsprozess darstellen. Genau da liegt aber auch die Herausforderung der Softwareentwickler bzw. der Nutzer, diese Vielfalt an Daten zusammenzuführen und entsprechend darzustellen. 43 Abb. 16: Konzept einer Landschaftsvisualisierung mit VNS 44 3.3 Rasterbasierte Visualisierung Grundlage jeder 3D-Visualisierung ist ein DGM, das zumeist als regelmäßiges Raster mit Höheninformation vorliegt. Als rasterbasierte Visualisierung wird hier jene Vorgangsweise bezeichnet, die rein auf Rasterdaten basiert, d.h. Fernerkundungsbilder aller Art als natürliche Texturen bzw. thematische Information (z.B. als Klassifikationsergebnissen von Satellitenbildern) als Grundlage zur Landschaftsvisualisierung. Eine rasterbasierte Methodik stößt natürlich unweigerlich an gewisse Grenzen, insbesondere an jene der geometrischen Auflösung der Daten. Weniger problematisch erscheint dies, wenn Rasterbilder als thematische Grundinformation vorliegen, entweder als GIS Datensatz einer objektorientierten Klassifikation oder in Rasterform. Schwieriger gestaltet sich das Problem bei den natürlichen Texturen, die nur gewisse Betrachtungshöhen in ausreichender Qualität zulassen, sodass der 3-dimensionale Eindruck des 2-dimensionalen Bildinhaltes erhalten bleibt. Abb. 17: Image Drape mit Satellitenbild (Auflösung 10 m). Kameradistanz im Vordergrundbereich ca. 5 km, Hintergrund ca. 25 km. Kamerahöhe ca. 3200 m. Die einfachste Form stellt ein Image Drape (vgl. Abb. 17) dar, das sich sehr gut für einen kleinen Maßstab als Überblick einer Landschaft eignet und einen, für das menschliche Auge gewohnten Raumeindruck erzeugt. 45 3.4 Vektorbasierte Visualisierung Moderne Software wie VNS arbeitet nicht nur rasterbasiert, sondern unterstützt auch Vektordaten unterschiedlicher Formate. Vektoren bringen eine Reihe von Vorteilen mit sich, die in der Visualisierung mit VNS eingesetzt werden können. Besonders lineare Strukturen, die auch in der Natur als solche wahrgenommen werden, wie Strassen oder Flüsse, lassen sich sehr gut mit Vektoren veranschaulichen. In der VNS Terminologie sind sie für derartige Anwendungen sogar essenziell, da viele Komponenten nur vektorbasiert sinnvoll verwendet werden können. Punkte, beispielsweise, können Stützpunkte eines DGMs sein oder die Lage von 3D Objekten repräsentieren. Linien werden speziell für Strassen und Flüsse eingesetzt und können so direkt ins DGM eingerechnet werden um entsprechende Profile bzw. Laufflächen zu generieren. Schließlich können mittels Polygonen Hebungen und Senkungen auf Basis eines DGM simuliert und somit auch anthropogene Geländeformen einfach visualisiert werden. Abb. 18: Vektorbasierte Visualisierung Landnutzungsinformation kann ebenso bereits in Vektorform bereitgestellt sein (z.B. DKM, CLC2000) und großflächig zur Visualisierung eingesetzt werden. Auch wenn die Bodeninformation flächendeckend in Vektorform vorliegt, muss das nicht bedeuten, dass eine rein vektorbasierte Visualisierung das Allheilmittel ist. Die Verwaltung der Vektoren in VNS erfordert einige Überlegungen im Vorhinein bzw. erweist sich bei steigender Datenmenge als schwer 46 überschaubar. Mit steigender Datenmenge steigt auch die Rechenzeit und die Ergebnisse erscheinen teilweise nur unerheblich besser, als bei der Verwendung von Rasterbildern als Grundlage. Wie bei vielen anderen Anwendungen erscheint auch hier die Kombination der Daten, also eine hybride Visualisierung, als ideale Lösung. In der Praxis richtet sich die Arbeitsweise nach der Verfügbarkeit der Daten, die natürlich nur im Ausnahmefall mit der Wunschliste des Bearbeiters übereinstimmen. Man kann also davon ausgehen, dass im erforderlichen Zeitraum nur bestimmte Daten zur Verfügung stehen und alles weitere in erster Linie nach Kosten und Zeit bewertet wird. 3.5 „Automatisierte“ Visualisierung Ziel vieler individueller Arbeitschritte ist es, diese möglichst automatisiert ablaufen zu lassen. Die Visualisierung stellt hier keine Ausnahme dar, wobei sich der Aspekt der Geovisualisierung anbietet, um Daten ähnlicher Struktur (im Idealfall standardisierte Daten) auf ähnliche Art darzustellen. In der Praxis kann der Automatisierungsgrad im Normalfall nicht vollständig ausgeschöpft werden. Einerseits gibt es keine Software, die über alle notwendigen Schritte verfügt, die im Vorfeld gemacht werden müssen, um die Daten schließlich in gewünschter Weise zu verarbeiten. Dazu gibt es zu viele Schnittstellen, die im Verarbeitungsablauf überwunden werden müssen bzw. eine sich konkurrierende Industrie, die gerade davon lebt, sich von anderen zu unterscheiden. Auch wenn gewisse Standards und Normen erreicht worden sind, wird noch genug Freiraum bleiben, der auch für zukünftige Kompatibilitätsfragen sorgen wird. Allein für diese Arbeit, nur den Teil der praktischen Umsetzung der Visualisierung betreffend, wurden folgende Softwarepakete verwendet: VNS 2, ArcGIS, ArcInfo, Erdas Imagine, Photoshop und Adobe Premiere. Daten, die für eine Visualisierung eingesetzt werden, kommen aus verschiedenen anderen Arbeitsprozessen und sind im Regelfall für eine direkte Verwendung nicht gerade maßgeschneidert. Die andere Seite betrifft die menschlichen Ressourcen, die in vielen Fällen zumeist stark eingeschränkt sind. Damit ist weniger die fachliche Kompetenz gemeint, sondern die beschränkte Zahl von Bearbeitern, die natürlich Nachteile mit sich bringt. Geovisualisierung beruht meist auf Einzelplatz GISund Visualisierungssoftwarekonzepten, so dass potentielle methodische bzw. technische Möglichkeiten moderner Geovisualisierung nicht voll ausgeschöpft werden (MACEACHREN, BREWER, 2001) Somit kann eine primäre Automatisierung nur bis zu einem gewissen Grad erreicht werden und wird daher in der Kapitelüberschrift unter Anführungszeichen gesetzt. Ziel dieser Arbeit ist es aber auch, einmal generierte Elemente (Ecosystems) auf homogene Klassen aus verschiedenen Klassifikationen zu übertragen und somit in jedem weiteren Schritt einen erheblich größeren Grad der Automatisierung zu erreichen. 47 3.6 Arbeitsumgebung VNS ist für verschiedene System-Plattformen konzipiert. Tab. 9 zeigt die von 3D Nature empfohlenen Systemvoraussetzungen bzw. die für diese Arbeit verwendete Hardware. Mindestanforderungen VNS 2 System Prozessor IBM-PC oder kompatibel, Windows 95, Mac OS 8 Intel Pentium, AMD Athlon, PowerMac Empfohlene Spezifikation - Verwendete Konfiguration Windows 2000 Prozessor mit 1 GHz Taktrate (oder mehr) AMD Athlon XP, 2.2 GHz RAM Display / Graphikkarte Speicherplatz 256 MB 1024x768 Pixel Auflösung, 16-24 Bit Farbtiefe (true color) 5 MB auf jeder Partition bzw. zusätzlich jeweils 1 GB zur Datenspeicherung 512 MB bis 1 GB (oder mehr) Beschleunigte Open GL Video Card Einige GB an freiem Speicherplatz 1.5 GB Nvidia Quadro4 550 XGL, 64 MB > mehrere GB Tab. 9: Systemvorsaussetzung und verwendete Arbeitsumgebung Es wurde schon davon gesprochen, dass innerhalb dieser Arbeit auf externe Software zurückgegriffen werden musste, um den eigentlichen Prozess der Visualisierung zu komplettieren. Eine Auflistung der dazu verwendeten Software gibt Tab. 10. Software: Arbeitsbereich Verwendete Software Betriebssystem Windows 2000 (PC) Bearbeiten von Fernerkundungsdaten, DGM Modifikation Erdas Imagine 8.6 Editieren von GIS Daten, DGM Modifikation Arc GIS 9.0, Arc Info 9.0 Bereitstellung von Texturen, Pre- und Postprocessing von 2D Rasterdaten Photoshop CS 3D Visualisierung, virtuelle Flüge, Realtime Export VNS 2.55 Postprocessing, Generieren von Animationen Adobe Premiere 6.0 VRML Viewer Cortona 4.2 Nature View 1.60 Tab. 10: Zusammenfassung der verwendeten Software 48 4 Visualisierungsergebnisse der einzelnen Testgebiete 4.1 Dachstein-Tauern Region Abb. 19: Gebietsabgrenzung Region Dachstein-Tauern (Quelle: GIS Steiermark, verändert) Das Testgebiet umfasst 2 Blätter der ÖK 1:50.000, nämlich Schladming (Blattnr.127) und Gröbming (Blattnr. 128). Die genaue Abgrenzung in Bundesmeldenetz-Koordinaten, M31, kann folgender Tabelle entnommen werden: x y LL 468.500 234.000 UR 507.000 263.000 Tab. 11: Abgrenzung des Testgebietes Dachstein Tauern Region in BMN Koordinaten Ausgangspunkt für die Visualisierung ist ein Klassifikationsergebnis von Satellitenbildern (Landsat-TM, Spot) innerhalb des internationalen Projekts „ALPMON“ (Alpine Monitoring System) aus dem Jahr 2000. Im Zuge der digitalen Bildverarbeitung erfolgten eine Geokodierung, eine radiometrische Korrektur, topographische Normalisierung bzw. atmosphärische Korrekturen. Weiters wurde eine Bildfusion der multispektralen Landsat-Daten mit den höher auflösenden panchromatischen Spot-Daten durchgeführt, wobei das Endergebnis eine Auflösung von 10 m darstellt. Die anschließende Klassifikation bediente sich aufgrund heterogener Charakteristika der unterschiedlichen Testgebiete verschiedener Verfahren, in diesem Fall wurde eine überwachte Klassifikation mittels Maximum-Likelihood-Verfahren angewandt. In manchen Testgebieten kamen Hilfsmittel zum Einsatz, wie z.B. ein DGM oder verschiedene GIS Layer, einerseits, weil die geometrische Auflösung der Satellitendaten für bestimmte Klassen ungenügend war, andererseits, um den Klassifikationsprozess regelbasiert zu gestalten. Wasserkörper und Flüsse gestalteten sich als problematisch. Erstere wurden aus der digitalen topographischen Karte extrahiert, Zweitere konnten 49 nicht klassifiziert werden aufgrund des hohen Anteils an Mischpixel in Zusammenhang mit der Ufervegetation. Aus der Klassifizierung der fusionierten Satellitendaten entstand ein Grauwertbild (16 bit) mit insgesamt 17 Klassen. Für die Visualisierung wurden 10, teilweise aggregierte, Klassen herangezogen, wie in folgender Tabelle aufgelistet: ALPMON classes Sealed surfaces Broad-leaved forest (aggregated) Coniferous forest (aggregated) Mixed forest (aggregated) Grassland Shrubs (juniperus, rhododendron) rock/gravel/soil Snow/ice Wet land Water CORINE classes 1.1 Urban fabric 3.1.1 Broad-leaved forest 3.1.2 Coniferous forest 3.1.3 Mixed forest 2.3.1 Pastures 3.2.1 Natural grassland 3.2.4 Transitional woodland shrub 3.3.2 Bare rock 3.3.3 Sparsely vegetated areas 3.3.5 Glaciers and perpetual snow 4.1.1 Inland marshes 5.1 Inland waters Tab. 12: Aggregierte Klassen und ihre Vergleichbarkeit mit CORINE-Klassen CLC_ALPMON classes 112 Nicht durchgängig städtische Prägung 131 Abbauflächen 231 Wiesen und Weiden 243 Überw. Landw. Genutztes Land 311 Laubwälder 312 Nadelwälder 313 Mischwälder 321 Natürliche Grünflächen 322 Heiden und Moorheiden 324 Wald-Strauch-Übergangsstadien 332 Felsflächen ohne Vegetation 333 Flächen mit spärlicher Vegetation 335 Gletscher und Dauerschneegebiete Tab. 13: CLC Klassen, wie sie tatsächlich im Testgebiet vorkommen 50 4.1.1 Visualisierung 4.1.1.1 Konzeption & Work Flow Kap. 4.1 zeigt die grundlegende Methodik bzw. die praktische Umsetzung der Visualisierung mittels VNS basierend auf Fernerkundungsdaten bzw. GIS-Daten. Bestimmte Softwarefunktionalitäten erfordern bestimmte Datenformate. Allein diese Tatsache legt nahe, dass sowohl Fernerkundungsdaten als auch GIS-Daten in gleicher Weise zur 3D-Visualisierung herangezogen werden sollten. Kap. 4.2 baut auf den Ergebnissen von Kap. 4.1 auf und analysiert nun speziell die Möglichkeiten, die in den amtlichen GIS-Daten liegen. Ausgangspunkt der Überlegung war der Einsatz von amtlichen GISDaten hinsichtlich automatisierter 3D-Landschaftsvisualisierung. In der Praxis stellte sich heraus, dass vielmehr ein Bottom-Up als ein Top-Down Prinzip ans Ziel führt, d.h. man geht von der flächendeckenden Information der Fernerkundungsdaten aus und überlagert diese mit den GIS-Daten (vgl.Abb. 57). 4.1.1.2 Grundlagen DGM Für das gesamte Testgebiet wurde ein DGM mit einer Auflösung von 20 m verwendet. Detailansichten bzw. gewisse vektorbasierte Elemente wie Terrafectors verlangen eine feinere Auflösung. In diesen Bereichen wurden die jeweiligen DGM Kacheln entweder im VNS verdichtet oder kleinere Ausschnitte des gesamten DGM mit höherer Auflösung als Teil des Importvorganges neu resampelt. Color Map Für die rasterbasierte Visualisierung kam die Klassifizierung der Satellitenszene zum Einsatz. Für den Einsatz im VNS wurde ein 8bit Graustufenbild mit 18 Klassen generiert, die für die Visualisierung zu den 10 Klassen, wie in Tab. 12 angeführt, zusammengefasst wurden. Für perspektivische 3D Darstellungen im kleinen Maßstab wurde ein Satellitenbild aus einer Kombination aus Landsat TM und Spot mit 10 m Auflösung verwendet. 4.1.1.3 Aufbau & Konzept der Ecosystems Für jede ausgewiesene Klasse wurde ein entsprechendes Ecosystem generiert, das die Landschaftselemente im Testgebiet möglichst gut widerspiegeln sollte. Ziel dieser Arbeit war es aber, nicht nur auf die lokalen Gegebenheiten einzugehen sondern vielmehr Ecosystems zu schaffen, die in Zukunft rasch auf andere, ähnlich strukturierte Landschaftsausschnitte (speziell in Österreich) anwendbar sind. 51 VNS verfügt über eine Palette an vorgefertigten Ecosystems und Texturen, die aber insbesondere auf den Nordamerikanischen Kontinent zugeschnitten sind. Teilweise konnten einzelne Objekte verwendet werden, modifiziert oder unmodifiziert, teilweise wurden eigene Objekte erstellt, speziell 2D Texturen zur Vegetationsdarstellung. Im Folgenden soll das Konzept eines Ecosystems anhand der zusätzlich generierten Klasse „Unclassified“ exemplarisch genauer betrachtet werden: „Unclassified“ beinhaltet alle jene Gebiete, die innerhalb der automatischen Klassifizierung keiner Klasse zugeordnet werden konnten. Als Grund dafür kann in erster Linie Bewölkung bzw. Schlagschatten durch Wolken oder hohe Reliefenergien genannt werden. Um diese Lücken zu füllen wurde ein eigenes Ecosystem geschaffen, das in Höhenabhängigkeit die potentielle Landschaft simuliert. Ein Ecosystem ist ein zentrales Element innerhalb der Komponenten von VNS, das einen bestimmten Typ von Bodenbedeckung (wie z.B. einer ausgewiesenen Klasse einer Landnutzungsklassifizierung) repräsentiert. Dabei kann stockwerksartig ein Landschaftselement generiert werden, ausgehend von einer untersten Schicht der Bodenbedeckung (Ground Overlay) und mehreren darauf aufgesetzten Objekten (Understory, Overstory). Dies können verschiedene 2D Images oder 3D Objekte sein. Abb. 20: Ecosystem Editor, VNS 2 Ecosystems können auf verschiedene Weise auf dem DGM platziert werden: • Mittels einer Environment und Rules of Nature • Auf Basis einer Color Map • Gebunden an Vektoren • Entlang eines Profil eines Terrafectors 52 Eine Environment ist die einfachste Art, Ecosystems zu platzieren. Alle ausgewählten Ecosystems werden über das gesamte DGM verteilt (sofern die Environment nicht an einen Vektor gebunden ist), nach den Regeln der Rules of Nature. Gibt es eine vordefinierte Verteilung von verschiedenen Ecosystems, wie z.B. eine Landnutzungsklassifizierung, kann diese sinnvoller Weise als Color Map verwendet werden. Der Farbwert (bzw. eine Wertespanne) der einzelnen Pixel dient als Bezug zur Platzierung der Ecosystems. Als dritte Möglichkeit kann ein Ecosystem an einen oder mehrere Vektoren geknüpft sein, als Hard Link oder als Ergebnis einer gefilterten Suchoperation (Search Query). Überlappen sich die verschiedenen Techniken innerhalb eines Projektes werden die Ecosystems in einer vordefinierten Hierarchie gerendert. Vektorgebundene Ecosystems haben Vorrang gegenüber Color Maps, die Environment bildet die unterste Stufe. Die Rules of Nature ermöglichen eine natürliche Verteilung von Objekten und Texturen auf dem Gelände. Basierend auf den Faktoren der Höhe, relativen Höhe (konkave und konvexe Geländecharakteristika) und Hangneigung kann das Auftreten von Ecosystems sinnvoll eingeschränkt werden. Abb. 21: Ecosystems – Rules of Nature Auf Ecosystems, die von einer Environment gesteuert werden, können sämtlich Rules angewandt werden. Vektorgebundene Ecosystems und jene als Teil einer Color Map reagieren nur auf die Lateral Limits. Ecosystems werden von verschiedenen Materials aufgebaut, zumindest 1 Material muss pro Ecosystem existieren. Der Material Gradient Driver regelt die Verteilung der einzelnen Materials, bestimmt also, wo welches Material auf dem DGM erscheinen wird. Die Verteilung erfolgt entweder diskret zwischen 2 Werten, zweier Prozentangaben (z.B. 0% und 100%) oder textur-bedingt. In diesem Fall wurde eine Textur gewählt, die den dynamischen Parameter der 53 Höhe widerspiegelt, wobei der untere Wert auf 600 m, der obere auf 3000 m gesetzt wurde. Diese Spannweite umfasst die gesamte Bandbreite der im DGM existenten Höhenwerte. Abb. 22: Ecosystem – Material Gradient. Von unten nach oben werden die 4 Materials „Wiese“, „Laubwald“, „Nadelwald“ und „Fels“ platziert mit fließendem Verlauf (Full blend). Sämtliche Charakteristika der einzelnen Materials entsprechen denjenigen des jeweiligen eigenständigen Ecosystems. Den einzelnen Materials kann in Folge eine unterste Schicht der Bodenbedeckung (Ground Overlay) mit verschiedenen Parametern bzw. eine Under- und Overstory zugeteilt werden. Abb. 23: Ecosystems – Material & Foliage Das Ground Overlay der einzelnen Materials besteht in diesem Fall aus einer zumeist einfachen Textur, teilweise in Kombination mit detaillierten 2D Bildern, teilweise aus rein mathematisch definierten Mustern als künstliche Textur. Texturen werden üblicherweise im eigenen Texture Editor generiert, einem komplexen Werkzeug, dessen Komponenten teilweise selbst wiederum von Texturen gesteuert werden können. (Überhaupt 54 können Texturen auf sehr vielseitige Weise im VNS eingesetzt werden. Wo immer das Symbol bbbberscheint, kann die entsprechende Funktion durch eine Textur gesteuert werden.) Generell bedeutet der Einsatz bzw. eine höhere Komplexität von Texturen auch höhere Renderzeit. Es wurde daher versucht möglichst effizient mit Texturen zu arbeiten. Im selben Fenster wird dem Material eine Over- und Understory zugeteilt. Als Overstory dienen typischerweise 2D Images von Pflanzen und Bäumen oder echte 3D Objekte. Die Understory kann z.B. den Unterwuchs bilden und verstärkt die räumliche Komponente eines Ecosystems. Gerade in dicht bewachsenen Waldgebieten kommen die Komponenten der Understory und des Ground Overlays aber erst im Bereich großer Maßstäbe bzw. aus entsprechender Perspektive zur Geltung, d.h. ausgehend von der Zielssetzung kann mit diesen Elementen sehr sparsam umgegangen werden. Abb. 24: Darstellung der Klasse „Unclassified“. Nadelwald dominierend im unteren bis mittleren Hangbereich, nach oben hin auflösend mit alpiner Grasmatte bzw. kahlem Fels. Kameradistanz im Vordergrundbereich ca. 1800 m. Abb. 25: Ecotype Editor der Overstory für das Material „Laubwald“ 55 Mit dem Ecotype Editor werden Over- und Understory editiert. Als Ecotypes werden die tatsächlichen 2D oder 3D Objekte bezeichnet, die einem Ecosystem zugeordnet werden. Ein Ecotype kann aus einem einzelnen Objekt bestehen oder aus ganzen Gruppen (Groups), die wiederum verschiedene Objekte enthalten können. Im Ecotype Editor können Parameter wie Dichte oder minimale und maximale Höhe des Ecotypes gesetzt werden, Ecotype oder Gruppen-abhängig, mittels Texturen oder anderen Parametern. Jedes vorhandene Objekt innerhalb einer Gruppe kann auch selbst noch u.a. in Höhe und Dichte modifiziert werden. Weiters kann jedem Ecotype eine Dissolve Color zugeteilt werden, in diesem Fall nach gewünschter Objekthöhe in Pixel, um die Renderzeit zu minimieren. Im obigen Beispiel werden alle Images für die Overstory des Materials „Laubwald“ kleiner einer gerenderten Größe von 2 Pixel nicht mehr als 2D Image dargestellt. Anstelle der 2D Grafiken tritt die Dissolve Color, die in diesem Fall aus einer einfachen Textur besteht und für das Auge in diesem Größenbereich nicht mehr von einem Image unterscheidbar ist. Basiert die Platzierung von Ecosystems auf einer Color Map kann entweder ein diskreter Farbwert oder ein Wertespanne dafür herangezogen werden. Abb. 26: Ecosystem – Color Map Ecosystems können auch einzeln oder als gesamte Environment in der VNS Component Gallery abgelegt und so für weitere Projekte wieder verwendet werden. Anhand der gezeigten Optionen und natürlicher Gesichtspunkte wurde jede Klasse mittels zumindest eines Ecosystems modelliert. Basierend auf den 10 Klassen (plus der 11. Klasse „Unclassified“) konnte das gesamte Arbeitsgebiet flächendeckend visualisiert werden. 56 Ein wichtiger Grundgedanke dabei war, dass mit dieser Grundlage großflächige Gebiete, die einer ähnlichen oder im Idealfall sogar identen Klassifizierung unterliegen, sehr rasch und auf einfache Weise visualisiert werden können, raster- oder vektorbasiert. Ergebnisse, Probleme und weiterführende Gedanken aus der rasterbasierten Visualisierung sollen im Folgenden ausführlicher behandelt werden: 4.1.1.4 Rasterbasierte Visualisierung Ausgangsprodukt für die rasterbasierte Visualisierung war wie schon erwähnt die thematische Information einer Satellitenbild-Klassifikation mit einer geometrischen Auflösung von 10 m. Bei einer Visualisierung, die ausschließlich auf dieses Bild als Color Map zurückgreift, bedeutet das auch, dass diese Grenze der Auflösung sich unweigerlich im Landschaftsbild widerspiegeln wird. Je nach Maßstab, Kameradistanz und Blickwinkel ist der Effekt der Pixelgröße sichtbar. Dennoch hat diese einfache Art der Landschaftsvisualisierung deutliche Vorteile. Im kleinen Maßstabsbereich reicht es vielleicht noch aus, eine natürliche, aber eben 2-dimensionale Textur über das DGM zu legen. Durch die relativ geringe Auflösung von 10 m aber wird hier recht rasch eine Grenze erreicht, die nun mittels künstlicher Texturen bzw. 3D Objekten überwunden werden kann. Nicht nur im Vordergrundbereich, sondern besonders am Horizont bzw. entlang markanter Geländelinien wird mittels künstlicher Texturen der dreidimensionale Raumeindruck verstärkt bzw. wieder hergestellt. Ein anderes Grundmerkmal der Visualisierung wird ebenso deutlich, wenn man die Ecosystems mit der Rasterdarstellung der Klassifikation vergleicht, nämlich das intuitive Verständnis des Sachverhaltes. Egal, ob die Klassifikation nun ein Graustufen- oder Farbbild ist – niemand außer den verantwortlichen Sachbearbeitern selbst könnte ohne weitere Angaben (wie z.B. einer Legende) wohl sagen, worum es sich hierbei eigentlich handelt. Die Visualisierung der entsprechenden Landschaft jedoch ermöglicht es jedem Betrachter sofort einen Bezug zu dem Gezeigten herzustellen, auch wenn der Detaillierungsgrad nicht der Wirklichkeit entspricht. Intuitiv können verschiedene Klassen erkannt und vielleicht sogar richtig zugeordnet werden. Bis zu diesem Zeitpunkt hätte es sich genauso gut um mikrogenetische Zellstrukturen oder einen Designvorschlag für ein neues Brettspiel handeln können. Durch die entsprechende Visualisierung aber bekommen die einzelnen Werte eine konkrete Bedeutung. 57 Abb. 27: Landnutzungsklassifikation als Image Drape. Unterschiedliche Grauwerte lassen verschiedene Inhalte erahnen. Ohne weitere Anhaltspunkte aber kann keine konkrete Aussage über den Bildinhalt getroffen werden. Abb. 28: Satellitenbild als natürliche Textur. Im Vordergrundbereich beginnt das Bild schon deutlich zu „pixeln“, der dreidimensionale Effekt geht verloren. Abb. 29: Visualisierung mittels künstlicher Texturen. Vegetation, die scheinbar auf dem DGM wächst, und 3D Gebäude verleihen der Landschaft ein 3-dimensionales Aussehen. Die limitierende Rastergröße spielt noch keine große Rolle. 58 Diskussion der Ergebnisse Anhand obiger Beispiele wird bei genauerer Betrachtung deutlich, dass eine Landschaftsvisualisierung nur so gut sein kann, wie die Daten, auf denen sie beruht. Trotz verschiedener Techniken wird die Bildauflösung bzw. der Bildinhalt vom bereits verwöhnten Auge, gängige 3D Technologien betreffend, bemängelt werden. Lautet die Zielsetzung, einen möglichst naturgetreuen virtuellen Blick auf die Landschaft zu ermöglichen, dann wird sie in diesem Fall wohl kaum erreicht werden können. Lautet sie aber, einen bisher abstrakten Bildinhalt leicht verständlich darzustellen, dann wurde dieses Ziel mit relativ geringem Aufwand mit Sicherheit erreicht. Man sieht also, dass die Wahl der Datengrundlage eine entscheidende im Visualisierungsprozess ist, was wiederum zum Anfang dieses Absatzes zurückführt. Stellt man nun die Frage, „Kann man eine derartige Datenbasis zur Landschaftsvisualisierung heranziehen?“, reicht ein einfaches „Ja“ sicherlich nicht als Antwort. Neben der Datengrundlage und der Zielsetzung tritt vor allem die Frage des Maßstabes immer wieder in den Vordergrund. Innerhalb der Geovisualisierung spricht man generell von kleinen, mittleren und großen Maßstäben. (Eine genauere Betrachtung des Faktors Maßstab wird noch in Kap. 5.3 erfolgen.) Die jeweiligen Bezeichnungen decken jeweils auf eine gewisse Spannweite von Bildmaßstäben mit verlaufenden Grenzen ab, wobei es kein allgemeines Regelwerk gibt, sondern vielmehr wiederum die Datengrundlage eine Rolle spielt. Satellitenbilder als Texturen werden je nach geometrischer Auflösung vor allem in kleinen und mittleren Maßstäben Anwendung finden. Gerade bei perspektiven Ansichten ist die Frage des Maßstabes ohnehin nicht leicht zu beantworten. Diesbezügliche Angaben müssen auf einen bestimmten Bildbereich, z.B. den Bildvordergrund, bezogen werden. Wichtiger oder aussagekräftiger erscheint in diesem Zusammenhang die Angabe von Kameraparametern, insbesondere Kamerahöhe über Grund oder Distanzangaben. Abb. 30: Natürliche Textur im kleinen Maßstab Kameraposition: Höhe über Grund: 1820 m Distanz Vordergrund: 3950 m 59 Abb. 31: Künstliche Textur, kleiner Maßstab Abb. 30 und Abb. 31 zeigen einen Vergleich von natürlicher und künstlicher Textur eines Landschaftsausschnittes im Bereich eines kleinen Maßstabes. Raumeindruck ist subjektiv und wird von jedem Menschen anders empfunden. Man könnte vermutlich lange darüber diskutieren, ob die Darstellung mittels künstlicher Texturen hier einen Mehrwert darstellt, oder an sich in diesem Maßstabsbereich ein qualitativ ausreichendes Fernerkundungsbild die bessere Lösung ist. Verglichen mit dem „Soll-Zustand“ des Satellitenbildes liefert das einfache Modell aber eine sehr anschauliche Nuance der Realwelt. Anders verhält es sich mit Darstellungen im mittleren Maßstab. Mit abnehmender Kameradistanz oder auch abnehmender Kamerahöhe über dem Grund erreicht das Fernerkundungsbild die natürliche Grenze der 2-Dimensionalität bzw. der geometrischen Auflösung. Künstliche Texturen können vor allem den Effekt der 3. Dimension ausnutzen und den Raumeindruck verstärken. Die Grenze der geometrischen Auflösung der Datengrundlage kann zwar in einer rein pixelbasierten Visualisierung in VNS mit verschiedenen Techniken verwischt werden, dennoch bleibt diese limitierende Größe natürlich auch in den künstlich generierten Ecosystems erhalten. Abb. 32: Natürliche Textur, mittlerer Maßstab Kameraposition: Höhe über Grund: 310 m Distanz Vordergrund: 370 m 60 Abb. 33: Künstliche Textur, mittlerer Maßstab Besonders an Klassengrenzen oder anhand von Streupixel fällt unweigerlich die orthogonale Ausrichtung der Grenzlinien auf. Die einzige Alternative liegt in einer dementsprechenden Wahl der Kameraposition und des Blickwinkels bei statischen 2D Bildern bzw. eines geeigneten Flugpfades bei Animationen. Abb. 32 und Abb. 33 verdeutlichen besonders die Grenzen der natürlichen Textur. Speziell im Vordergrundbereich bzw. in der gesamten unteren Bildhälfte pixelt das Bild bereits stark. Im gesamten Talbereich wird auch deutlich, dass es sich um ein 2-dimensionales Bild handelt. Die künstliche Textur hält einer genaueren Betrachtung noch problemlos stand. Bei einer Kameraposition wie dieser stellen auch Klassengrenzen kein Problem dar. Augenfällig werden sie aber je orthogonaler der Blickwinkel auf das Gelände gerichtet wird. Die Datengrundlage der Klassifikation hat gegenüber dem Fernerkundungsbild einen entscheidenden Nachteil für die Ecosystems, nämlich die Grenzen zwischen den Klassen verlaufen hart und diskret. Die Pixelwerte des Fernerkundungsbildes zeigen selbst in dieser Auflösung üblicherweise Mischfarben die den Grenzen einen sanfteren Verlauf geben. Die Ansicht in Abb. 33 scheint gegenüber Abb. 32 eigentlich sogar noch sehr weitläufig und distanziert, die horizontale Entfernung zu der etwas dichteren Besiedelung etwas links der Bildmitte beträgt noch ca. 2,5 km. Abb. 34: Künstliche Textur, großer Maßstab Kameraposition: Höhe über Grund: ca. 1 m Distanz Vordergrund: 1,5 m 61 Abb. 34 wurde mit denselben Einstellungen und denselben Ecosystems gerendert, wie die Abbildungen zuvor. Man kann also mit einer universalen Grundlage durch alle Maßstabsbereiche vernünftige Ergebnisse erzielen. Bisher wurde auf andere Komponenten von VNS (z.B. Shadows oder Cloud Models), die für eine fotorealistische Darstellung konzipiert sind, verzichtet, nicht nur, um die Renderzeit zu verkürzen, sondern auch, um auf möglichst einfache Weise ein qualitativ ansprechendes Ergebnis erzielen zu können. Klarerweise wird aber aus dieser menschlichen Perspektive die Frage des Blickwinkels und der Kameraposition eine essentielle. Abb. 35: Künstliche Textur, großer Maßstab Kameraposition: Höhe über Grund: ca. 2 m Distanz Vordergrund: 25 m In Abb. 35 war die 20 m Auflösung des DGM nicht mehr ausreichend, um ein ansehnliches Bild zu erzeugen. Die Dreiecksvermaschung wurde maximal verdichtet, der Blickwinkel zeigt erstmals echte Einblicke in das Konzept der Under- und Overstory im bewaldeten Gebiet. Im gesamten Arbeitsprozess zeigten sich besonders 2 Problembereiche der Geovisualisierung, nämlich eine entsprechende Darstellung der Vegetation bzw. eine repräsentative Auswahl an 3D Objekten. Die Darstellung der Vegetation wird in VNS zumeist mittels möglichst hochqualitativen 2D Images in der altbewährten Billboard-Technik umgesetzt. Gerade für den Ostalpinen Raum aber gibt es in der VNS Component Gallery wenig artentypische Bilder. Für diese Arbeit wurden einige typische Baumarten generiert bzw. bestehende Bilder modifiziert. Um also die natürliche Vegetation bzw. das morphologische Erscheinungsbild von Pflanzen gut abzudecken, wären idealer Weise mehrere Bilder derselben Art in unterschiedlichen Wachstumsstadien (bzw. bei Bedarf auch in verschiedenen Jahreszeiten) notwendig. Das Erstellen einer dementsprechenden Datengrundlage ist aber ein relativ zeit- und arbeitsintensives Unternehmen. Vegetation könnte auch mittels unterschiedlicher 3D Objekte visualisiert werden. Hierbei gilt selbiges, wie schon zuvor erwähnt, und weiters noch der nicht unwesentliche Faktor der stark ansteigenden Renderzeit bzw. Bedarf an Arbeitsspeicher, die eine solche Vorgangsweise sicher nur im Bereich 62 großer Maßstäbe mit Einzelobjekten zulassen. Auch die besten 2D Bilder von Bäumen und Sträucher werden im Nahbereich irgendwann auch als solche enttarnt werden. Auf den Ankauf von Drittprodukten bzw. vorgefertigten Objekten wurde in dieser Arbeit bewusst verzichtet. Was für die Vegetationsdarstellung (Im Sinne einer Billboard-Technik) gilt, gilt für 3D Objekte in noch stärkerer Weise. Die vorhandenen Objekte sind zumeist sehr einfach aufgebaut und texturiert. Es ist daher illusorisch und auch nicht Sinn der Software ein annähernd reelles Stadtmodell zu erzeugen. Innerhalb dieser Arbeit wurden nur wenige einfache Modelle verwendet, die aber natürlich in keinster Weise die lokalen Bauformen widerspiegeln. Die rasterbasierte Visualisierung stößt unweigerlich auf zusätzliche Probleme, bebaute Strukturen zu visualisieren, nämlich jene der Platzierung bzw. Ausrichtung der Objekte. Innerhalb eines Ecosystems bilden 3D Objekte die Overstory. Dabei kann keinerlei Einfluss genommen werden, auf welches der DGM-Dreiecke ein Objekt gesetzt wird. Weiters kann man den zuständigen Algorithmus auch nicht davon abhalten, mehrere 3D Objekte auf dasselbe Dreieck oder benachbarte Dreiecke zu setzen, und somit ineinander zu verschachteln. Die Ausrichtung erfolgt nach verschiedenen Faktoren, in diesem Fall aber immer zufallsbestimmt. Ohne jegliche Ausrichtung sind alle Objekte in eine definierbare Richtung orientiert. Abb. 36: 3D Objekte zur Darstellung bebauter Flächen Schematische Darstellung mit 2 Gebäudetypen. Willkürliche Platzierung auf dem DGM erzeugt verschachtelte Strukturen. Typ 1 (dunkelrotes Dach) ist nach Zufallsvariablen ausgerichtet, Typ 2 konstant Richtung Norden. Selbst wenn eine ausreichende Sammlung an 3D Objekten vorhanden wäre, könnten mit dieser rein rasterbasierten Methodik bebaute Flächen immer nur schematisch und abstrahiert dargestellt werden. Neben den Aspekten der Vegetation und 3D Objekten verdeutlicht dieses Beispiel besonders einen schon angesprochenen Punkt, nämlich dass eine Visualisierung immer nur so gut sein kann, wie die Daten, auf denen sie beruht. Bei einer Datengrundlage mit einer geometrischen Auflösung von 10 m werden Objekte, die eine kleinere räumliche Ausdehnung besitzen, klarerweise nicht erkannt. In erster Linie betrifft dies 63 linienhafte Elemente wie den Großteil des Verkehrs- bzw. Gewässernetzes. Selbst breitere Strukturen, wie Autobahnen oder Hauptflüsse, zeigen unzusammenhängende Bänder von Pixel und können ohne weitere Zusatzinformation nur rudimentär dargestellt werden. Ecosystems, die auf einer Grundlage wie der verwendeten Klassifikation aufbauen, sind zumeist Kompromisslösungen. Mittels möglichst wirklichkeitsnaher Wahl von Parametern wie den Rules of Nature oder Texturen, die auf Geländehöhe oder Hangneigung basieren, wurde versucht, die Inhalte der einzelnen Klassen der Realität anzupassen. Die Klasse „Rock/Gravel/Soil“ kann eben nicht gleichgesetzt werden mit blanker Felsstruktur, weshalb mehrere Materials, wie z.B. unterschiedliche spärliche Vegetation, in Abhängigkeit der Hangneigung verwendet wurden. „Sealed Surfaces“ beinhaltet die Gesamtheit an versiegelten Flächen, d.h. Teile von Straßenzügen, Gebäude und umliegende Flächen und andere Freiflächen. Die Limitierung des Einsatzes der Parameter für ein einzelnes Ecosystem würde in manchen Fällen 2 oder mehrere Ecosystems für 1 Klasse erfordern, um die Qualität der Ergebnisse in Richtung realistische Landschaftsvisualisierung zu steigern. Ein generelles Problem tritt auch in der Klasse „Wetland“ zu Tage, nämlich jenes der Streupixel in Fernerkundungsklassifizierungen. Besonders in abgeschatteten Gebieten und nordexponierten Hanglagen im alpinen Bereich begegnet man Pixel, deren Grauwert fälschlicherweise am ehesten der Klasse „Water“ oder „Wetland“ zugeordnet wird. Mittels einer geeigneten Wahl der Parameter in VNS können diese aber relativ leicht ausgefiltert werden. Dennoch verdeutlicht all dies, dass eine „einfache“ Visualisierung nicht immer das gewünschte Resultat erzielt, man könnte in diesem Zusammenhang auch von „wissensbasierter Geovisualisierung“ sprechen, d.h. also, mit entsprechendem Vor- oder Zusatzwissen an eine Geovisualisierung heranzutreten. Dadurch wird der an sich relativ einfache Prozess arbeits- und zeitintensiv, weil die Datengrundlage meist nicht den Anforderungen der Visualisierungssoftware entspricht. Speziell durch das Fehlen von linienhaften Elementen liegt es nahe, andere, besser geeignete Daten mit einzubeziehen, nämlich Vektoren. 4.1.1.5 Hybride Visualisierung Der Begriff „hybrid“ wird im Zusammenhang mit Geovisualisierung eigentlich nicht verwendet, soll hier aber stellvertretend für die Methodik und Technik der verwendeten Datengrundlage stehen, ähnlich der Bedeutung eines „hybriden GIS“. Gerade die Eigenschaft, Kartenprojektionen und Geokoordinaten richtig zu interpretieren bzw. eine Kompatibilität mit GIS Daten macht VNS zu einem oft gewählten Werkzeug in der Geovisualisierung. 64 Neben CAD Formaten ist es in erster Linie das gängige Shape-Format, das in VNS verwendet wird, speziell aus dem Grund, weil auch Attribute mit importiert werden und viele Elemente und Parameter nicht nur textur-, sondern auch attribut-basiert gesteuert werden können. In der VNS Terminologie wird dies als Thematic Map bezeichnet. Ähnlich der Platzierung von Ecosystems mittels Vektoren (vgl. Kap. 4.1.1.6) ist eine Thematic Map entweder als Hard Link oder als Ergebnis einer gefilterten Suchoperation (Search Query) an einen oder mehrere Vektoren und Attribute gebunden. Abb. 37 und Abb. 38 zeigen einen Teilausschnitt der rasterbasierten Methodik im Vergleich mit Vektoren. Flussläufe werden im linken Bild überhaupt nicht erfasst, Straßenzüge erscheinen nur andeutungsweise, wenn man mittels Zusatzinformation eben weiß, dass dort ein Straßenzug vorhanden sein sollte. Abb. 37: Rasterbasierte Ecosystems Abb. 38: Ergänzende Vektordaten für ein Verkehrs(gelb) und Gewässernetz (blau) Kameraposition: Höhe über Grund: ca. 450 m, Distanz Vordergrund: 320 m Aus einer Kameraposition wie dieser würde es vielleicht ausreichen, Vektoren nur mit einfacher Farbe und entsprechender Linienstärke zu rendern, wobei die Renderhierarchie voraussetzten müsste, dass 3D Objekte zumindest lagetreu platziert werden, um sich nicht mit Linien zu schneiden. Im Nahbereich großer Maßstäbe werden linienförmige Vektoren mit Hilfe von Terrafectors gerendert. Ein Terrafector ist ein Effekt der mittels eines Profiles direkt das DGM modifizieren kann. Damit lassen sich konvexe und konkave Geländeformen erzeugen, wie ein Flussbett oder Straßendamm. Die Bereiche zwischen 2 Profilpunkten können mit Ecosystems besetzt und somit dem künstlich generierten Gelände z.B. eine Wasseroberfläche oder Straßenbelag aufgesetzt werden. Abb. 39: Terrafectors Kameraposition: Höhe über Grund: ca. 40 m, Distanz Bildmitte: 80 m 65 In Abb. 39 wurden exemplarisch für ein Strassen- und Flussnetz jeweils Terrafectors in gleicher Weise benutzt. Das leicht u-förmige Flussprofil ist 20 m breit und ca. 2,5 m tief. Bis zu einem Profilpunkt in etwa 2 m Tiefe wurde dem Terrafector ein relativ einfach texturiertes Ecosystem für die Wasseroberfläche zugeordnet. Analog dazu das Straßenprofil mit einem leichten Damm von 4 m Breite und 30 cm Höhe. Die ebene Oberfläche ist mit einer Textur, die einer 2-spurigen Fahrbahn nachempfunden ist, überzogen. Für diese Dimensionen ist das unterliegende DGM zu grob auflösend, die Dreiecksstruktur wurde wiederum maximal verdichtet. Für stehende und fließende Gewässer gibt es in VNS eigene Komponenten Streams bzw. Lakes, die mittels Terrafectors (bzw. Area Terrafectors im Fall von Polygonen als Vektorgrundlage) fotorealistische Effekte der Wasseroberfläche liefert. Terrafectors wirken sich stark auf die Renderzeit aus, insbesondere in Kombination mit einem hoch auflösenden DGM und Fractal Depth, Komponenten, die bei Visualisierung im großen Maßstabsbereich eine wesentliche Rolle spielen. Verschiedene Versuche haben gezeigt, dass ein sinnvoller Einsatz von Terrafectors nur für kleine, ausgewählte Gebiete möglich ist, also für dementsprechend große Maßstabsfragen. Detailvisualisierung ist zwar technisch möglich, effektiv aber zumeist eine Frage der Prozessorleistung und geht prinzipiell genau entgegen der Zielsetzung einer möglichst automatisierten Visualisierung. Eine Möglichkeit den Bedarf an Arbeitsspeicher beim Rendern zu limitieren ist Terrafectors fix in das DGM einzurechnen (Freeze). Dadurch müssen die Terrafectors nicht jedes Mal beim Initialisieren berechnet werden. Zu bedenken bleibt aber, dass die Qualität der „gefreezten“ Terrafectors allein der DGM Auflösung entspricht, also ein möglichst hoch auflösendes DGM verwendet werden muss, was wiederum den Vorgang des „freezens“ je nach Größe des Arbeitsgebietes und Anzahl an Vektoren erheblich beeinträchtigt. Das modifizierte DGM ist folglich geometrisch hoch auflösend und beansprucht seinerseits wiederum viel an Renderspeicher, d.h. eine derartige Vorgangsweise ist eher auf Detailvisualisierung für kleinere Gebietsausschnitte anwendbar. Abb. 40: Render Preview Detailvisualisierung, großer Maßstab Für obige Abbildung wurde ein kleiner Teilausschnitt des ursprünglichen DGM importiert und auf eine Auflösung von 1 m resampelt. Für eine vernünftige Darstellung der Strasse (bzw. des Terrafectors und 66 seinen 2 Ecosystems) musste eine Fractal Depth von mindestens 5 gewählt werden, d.h. die tatsächliche Auflösung im gerenderten Bild beträgt etwa 3 cm. Rendern bedeutet in der Praxis meist eine Kompromisslösung hinsichtlich Qualität und Rechenaufwand, daher beschränkten sich die dargestellten Komponenten auf Strassen- und Gewässernetz bzw. DGM Kacheln im Blickfeld. In der Praxis werden im Nahbereich nur jene Bildbereiche bzw. bildgebenden Elemente im Vordergrund möglichst detailliert visualisiert. Auf Detailvisualisierung wurde im Rahmen dieser Arbeit aus bereits genannten Gründen nicht weiter eingegangen. Für das Testgebiet wurde exemplarisch ein GIS Datensatz für das Gewässernetz erstellt, ebenso ein Teilausschnitt des Verkehrsnetzes. Vektordaten und DGM-Kacheln werden in der Database verwaltet und können nach verschiedenen Kriterien zu einem Layer zusammengefasst werden, d.h. die einzelnen Vektoren wurden ähnlich der Shape-Grundlage zu einem Layer „Gewässernetz“ zusammengefasst. Vektorgebundene Komponenten können in Folge über eine Search Query, die diesen Layer beinhaltet, allen Vektoren in einem Schritt zugeteilt werden. In der Praxis zeigte sich immer wieder, dass zwar VNS nicht der limitierende Faktor ist, aber die Prozessorleistung. (VNS hat theoretisch kein Limit seitens der Anzahl an importierten Vektordaten. Ein absolutes Limit gibt es nur für die Anzahl an Knoten pro Vektorlinie, nämlich 32.000). Ein anderes Kriterium stellte die Qualität der GIS Daten dar. GIS Daten werden meist individuell für bestimmte Zwecke in einem bestimmten Maßstab erhoben. Das Gewässernetz wurde auf Basis der ÖK, also einem Erfassungsmaßstab von 1:50.000, erstellt. Viele Vektoren weisen für eine Verwendung in VNS zu wenige Einzelpunkte auf, um sich bei der Visualisierung optimal ans DGM anzupassen. Abb. 41: Vektoren und Terrafectors 67 Beim Gewässernetz fällt dies besonders in Bereichen von Flussunterläufen auf, wo Flüsse aus dem steileren Hangbereich in einen flacheren Talbereich gelangen und teilweise in einen anderen Fluss oder See münden. Abb. 41 zeigt einen See bzw. mehrere Flüsse (vektorgebunden und aufgebaut mit den Komponenten Lakes und Streams), die von umliegenden Hängen im Tal entweder direkt in den See oder einen Vorfluter münden. Jeweils auf der linken und rechten Seite des Sees kommen 2 Vektoren (mit roter Farbe gekennzeichnet) zu liegen, die über der DGM-Oberfläche „schweben“. Die dazugehörigen Terrafectors werden zwar richtig ins DGM eingerechnet, der Effekt Streams aber wird entlang des dazugehörigen Vektors gerendert. Der Vektor auf der rechten Seite besteht aus nur 2 Punkten über eine Länge von 514 m und liegt somit in allen Bereichen über dem DGM. Vektoren können in VNS verdichtet werden, aber nur einzeln und nicht als beliebige Menge gleichzeitig. D.h. um einen automatisierten Arbeitsprozess zu erhalten, müssten die Vektoren im GIS verdichtet werden, wobei ein Mehr an Punkten auch ein Mehr an Renderzeit bedeutet. Eine andere Möglichkeit wäre, zumindest fließende Gewässer auf einfachere und render-extensivere Weise wie zuvor beim Straßennetz zu visualisieren, mittels Ecosystems entlang der Terrafectors. Im mittleren und teilweise auch kleinen Maßstab ist diese Methodik durchaus zufrieden stellend, im Detailbereich bringen die fotorealistischen Effekte der Komponente Streams qualitativ wesentlich bessere Ergebnisse. Vektoren des Gewässernetzes sollten auch nicht physisch durch die Polygone der stehenden Gewässer verlaufen, weil sich ansonst die beiden Effekte überlagern und die entsprechenden Vektoren der Flüsse entlang der Wasseroberfläche des Sees gerendert werden (vgl. Abb. 42). Die Methodik mittels Ecosystems auf den Terrafectors anstatt Streams bietet den Vorteil, dass nun die Textur der Wasseroberfläche direkt im Flussbett verläuft. Die nun „unterirdisch“ verlaufenden Flussabschnitte innerhalb des See-Polygons lassen sich zwar weit besser kaschieren, sind aber immer noch keine optimale Lösung (vgl. Abb. 43). Abb. 42: Terrafector und Area Terrafector mit den Komponenten Streams und Lakes Abb. 43: Terrafectors ohne Streams, Area Terrafector mit Lakes Die besten Ergebnisse lieferten modifizierte GIS Daten, die jene Vektorabschnitte innerhalb von SeePolygonen nicht mehr beinhalteten. 68 Um einen optimalen Mündungsbereich zu visualisieren, sollten die Vektoren der Flüsse leicht überständig in die Polygone der Seen münden. Wiederum ist dafür der Datensatz im GIS dementsprechend für den Zweck einer Geovisualisierung aufzubereiten. Die Variante der exakten Abgrenzung mittels Polygongrenzen (der Seen) liefert aber auch zufrieden stellende Ergebnisse, wenn keine Darstellung im Nahbereich gefordert ist. Zur Modellierung der Seehöhe der Seeoberfläche (Elevation) musste im GIS ein entsprechendes Attribut generiert werden, auf das dann mit einer Thematic Map zugegriffen werden kann. Auf diese Weise kann jedem Polygon derselbe Typ Lakes zugeordnet, mit individueller Elevation. Beim Verkehrsnetz fiel auf, dass mit zunehmender Kameradistanz bzw. abnehmenden Neigungswinkel Vektoren zusehends lückenhaft gerendert werden. Mit zunehmender DGM-Auflösung steigt auch die Renderqualität der Terrafectors. Zusätzlich kann eine manuelle Verdichtung problematischer Vektoren ebenfalls das Resultat verbessern. Abb. 44: Vektoren & Terrafectors (1) (Kameraposition: Höhe über Grund: ca. 3035 m, Distanz Bildmitte: 3920 m) Abb. 45: Vektoren & Terrafectors (2) (Kameraposition: Höhe über Grund: ca. 785 m, Distanz Bildmitte: 1450 m) 69 Abb. 46: Vektoren & Terrafectors (3) (Kameraposition: Höhe über Grund: ca. 296 m, Distanz Bildmitte: 405 m) Obige Abbildungen wurden mit denselben Renderparametern basierend auf unterschiedlicher DGM Auflösung erzeugt. Die linken Abbildungen basieren auf einem 20 m DGM, die rechten auf einem höher auflösenden 5 m DGM. Abb. 46 zeigt auch, dass das 20 m DGM zu grobmaschig ist, um den Terrafector der Strassen einzurechnen bzw. zusätzlich auch die Fractal Depth erhöht werden muss. Abb. 47: Renderergebnis, hybride Methodik Rasterklassifikation als Datengrundlage. Vektordaten zur Platzierung von 3D Objekten bzw. Visualisierung eines Gewässer- und Verkehrsnetzes. 70 Ein anderer Aspekt der Datenqualität betrifft die Kanten-Knotenstruktur von Vektoren gleicher Ordnung. Umgelegt auf das Verkehrsnetz bedeutet das, dass der Kreuzungspunkt 2er Vektoren ein eigener Knoten sein sollte, um zu gewährleisten, dass in diesem Punkt beide Vektoren die gleiche Höhe besitzen. Ist dies nicht der Fall, werden Unregelmäßigkeiten beim Rendern auftreten und eine Art Treppeneffekt generiert. In der Praxis stellte sich aus heraus, dass es für den Einsatz von Vektoren in VNS nicht sinnvoll erscheint, diese möglichst zusammenhängend zu digitalisieren, sondern in kleinen, sinnvollen Einzelabschnitten. Weniger die Limitierung der 32.000 Knoten pro Vektor, sondern die Möglichkeit, Vektoren für ein bestimmtes Detailgebiet mittels einer Search Query zu selektieren, ist hierbei die entscheidende Überlegung. Ist dies nämlich nicht möglich, werden beim Initialisieren des Rendervorganges für alle aktivierten Vektoren Terrafectors gerechnet, und zwar unabhängig von der darunter liegenden DGM Ausdehnung, was die Renderzeit und den Bedarf an Arbeitsspeicher drastisch erhöht. 4.1.1.6 Vektorbasierte Visualisierung Die Verwendung von Vektoren zur Platzierung von Ecosystems bringt den entscheidenden Vorteil mit sich, dass die qualitative Darstellung (im Sinne der Visualisierungs-Methodik) nicht mehr an einen Maßstab gebunden ist, was die Datengrundlage betrifft. Als Beispiel dafür wurden die CORINE Landcover Daten für das Testgebiet verwendet. Die vordefinierten Ecosystems sind relativ leicht auf die Klassen der CLC Daten übertragbar. Inhaltlich, vom Bildinhalt bzw. Realitätsgrad der Geovisualisierung, sind die beiden Datensätze natürlich in keinster Weise vergleichbar, da die CLC Ergebnisse Landnutzung ab einer Größenordnung von 5 ha (d.h. umgerechnet einer geometrischen Auflösung von ca. 223 m) enthalten. Gegenüber pixelbasierter Visualisierung bieten vektorgebundene Ecosystems auch die Möglichkeit eines Verlaufs der Intensität, d.h. mittels eines Edge Feathering Profile (einem Profil, das die Entfernung vom Polygonrand bis zum Mittelpunkt auf der X-Achse bzw. die Intensität des Ecosystems auf der Y-Achse repräsentiert) kann das Ecosystem, natürlichen Grundlagen nachempfunden, „wachsen“. Auf diese Weise wurden z.B. Nadelwälder nicht hart von Grünflächen getrennt oder Alpine Grasflächen gehen verlaufend in vegetationsfreien Fels über. 71 Abb. 48: Open GL View, VNS2 Overhead Ansicht eines Teilausschnittes. CLC Vektordaten (hellgrün) Fliessgewässer (Türkis) Seen (Dunkelblau) Zu beachten ist dabei aber, dass der Verlaufs-Bereich nicht wie vielleicht vermutet in das angrenzende Ecosystem übergeht, sondern einer gewissen Renderhierarchie folgt und die nächste vorhandene Komponente zu Tage treten lässt, wie z.B. eine Environment oder einen Ground Effect. Eine Alternative dazu ist die Polygonstruktur so zu verändern, dass sich die Polygone entsprechend überlappen. Die Option der hierarchischen Renderstruktur setzt voraus, dass die darunter liegende Komponente in ihren Materials gut mit jenen des angrenzenden Ecosystems übereinstimmt. Mittels eines Ground Effects lässt sich dieses Vorhaben nicht immer global umsetzen, weil zumeist die vorhandene Understory (z.B. bei Waldtypen) sich nicht mit dem Ground Overlay des Ground Effects deckt und für die Materials eines Ground Effects keine Understory vorgesehen ist. Abb. 49: Konzept eines Edge Feathering Profile Ecosystems mit angepassten Materials Kameraposition: Höhe über Grund: ca. 750 m, Distanz zur Ecosystemgrenze, Bildmitte: 900 m 72 Ecosystems ohne angepassten Materials Ecosystems ohne Profile In Abb. 49 ist das Konzept eines Edge Feathering Profile dargestellt. Zwischen den beiden Ecosystems (in rot und blau) kommt im Bereich, in dem das Profil wirksam wird, der Ground Effect (gelb) durch. In diesem Fall wurde ein Profil von 250 m Länge gewählt. In der Abbildung links unten setzt sich die Overstory des Ecosystems im Talbereich gegenüber dem Ground Effect im Profilbereich deutlicher durch, als in der Abbildung rechts oben. Die Abbildung rechts unten zeigt zum Vergleich das Ergebnis, wenn kein Profil verwendet wird. Neben Linien und Polygonen wurden auch Punktdaten verwendet, exemplarisch zur Platzierung von 3D Objekten. 3D Objekte können entweder als Foliage Effect oder direkt über eine Search Query, basierend auf den Vektorpunkten, platziert werden. Im Gegensatz zur rasterbasierten Methode wird durch Vektorpunkte die lagerichtige Platzierung eines Objektes gewährleistet, der Nebeneffekt von willkürlich ineinander verschachtelten Gebäuden wird eliminiert. Ein Foliage Effect hat ähnlich einem Ecosystem einen eigenen Ecotype (Foliage Effect Ecotype). Für die Abb. 50 und Abb. 51 wurden verschiedene Foliage Effects generiert mit jeweils einer Group mit einem 3D Objekt, das nun verschiedene Parameter des 3D Objekts steuern kann, ohne das eigentliche Objekt selbst zu verändern. Eine direkte Platzierung der Objekte mittels Search Queries „hardcodiert“ die Objekte zusehends, d.h. für jede spezifische Fragestellung muss eine eigener Klon desselben Objektes verwendet werden. Ein anderer entscheidender Vorteil der vektorbasierten Platzierung ist die Möglichkeit der Ausrichtung der 3D Objekte. Ein Objekt kann z.B. nach einem bestimmten Vektor ausgerichtet sein, eine Methodik, die aber nur für Einzelobjekte oder eine kleinere Anzahl sinnvoll gruppierter Objekte angewandt werden kann. Für großflächige Gebiete mit vielen Punkten, die dasselbe 3D Objekt repräsentieren, macht dies im Ausnahmefall vielleicht Sinn, kann aber im Sinne automatisierter Vorgehensweise nicht eingesetzt werden. Die Möglichkeit ähnlich einer GIS Abfrage, z.B. jedes Objekt entlang des nächstliegenden Vektors des Layers mit dem Straßennetz auszurichten, bietet die Software nicht. Einige Eigenschaften der 3D Objekte selbst können über eine Thematic Map mittels Attributdaten gesteuert werden, so auch die Rotation entlang der drei Achsen. Enthält die Datengrundlage der Punkte 73 ein Feld, das der tatsächlichen Ausrichtung des Objektes entspricht, kann über die Rotation ein möglichst naturgetreues Ergebnis erzielt werden. Abb. 50: Platzierung von 3D Objekten (1) Ausrichtung über Rotation mittels einer Thematic Map mit den Werten 90 (Nord-Süd) bzw. 0 (West-Ost) Kameraposition: Höhe über Grund: ca. 744 m, Distanz Bildmitte: 1198 m Abb. 51: Platzierung von 3D Objekten (2) Zufallsgesteuerte Ausrichtung der einzelnen Objekte im jeweiligen Foliage Effect Ecotype. Zufällige Rotationsparameter können auch in den Eigenschaften der 3D Objekte selbst definiert werden. Sind beide Rotationseffekte aktiv, ist keiner dominant, vielmehr vermischen sich die Parameter. Neben der Ausrichtung wurde auch der Gebäudetyp über ein entsprechendes Attribut gesteuert. In diesem Fall wurden 6 verschiedene 3D Modelle verwendet, wobei jeder Foliage Effect mit einer Search Query verbunden wurde. Abb. 52 zeigt ein Renderergebnis basierend auf rein vektorieller Datengrundlage. Der gesamte Talbereich entspricht einer einzigen Klasse aus den CLC Daten. Die Klasse Waldbedeckung wurde mittels eines Edge Feathering Profiles an den Grenzlinien aufgelockert (vgl. Abb. 47). 74 Abb. 52: Renderergebnis, Vektorbasierte Methodik Eine Zusammenfassung der Ergebnisse für die verwendeten Daten gibt folgende Tabelle: Rasterbasierte Visualisierung: Vorteile Nachteile Sehr einfach und schnell (wenn einmal eine dementsprechende Anzahl an Ecosystems erstellt wurde). Grenze der Visualisierung ist rasch erreicht mit der geometrischen (Pixel-) Auflösung Datengrundlage. Linienhafte Elemente gehen verloren, je nach Grundlage, oder sind nur rudimentär vorhanden. Für kleine und mittlere Maßstäbe sehr gut geeignet, für große Maßstabsfragen nur bedingt. Im Nahbereich meist wenig realistisch, kritischer Punkt dabei sind bebaute und besiedelte Flächen. „Landschaft“ kann unter Umständen noch zufrieden stellend dargestellt werden. Denkbare Optimierung: Datengrundlage der Visualisierung optimieren. Diverse Optimierungen sind oft mit relativ großem Zeit- und Arbeitsaufwand verbunden. Hybride Visualisierung: Vektoren ergänzen linienhafte Landschaftselemente wie z.B. ein Gewässernetz (plus stehende Gewässer) oder Verkehrsnetz. Datengrundlage muss für VNS optimiert werden. GIS Daten werden meist zu einem best. Zweck in einem dafür geeigneten Maßstab generiert. D.h. sie sind meist nur bedingt zum Zweck der Visualisierung nutzbar. 75 Gewisse Komponenten und fotorealistische Parameter sind auf Vektoren ausgerichtet und können ohne sie gar nicht eingesetzt werden. Wiederum muss eine entsprechende Datenqualität vorausgesetzt werden. Kritische Aspekte treten z.B. auf bei: Seen (Polygone) - Mündungsbereich mit Flüssen. - Höhenwert für die Ausbreitung der Wasseroberfläche notwendig. Flüsse (Linie) - Oft zu wenig Punkte einzelner Vektoren, um Flusslauf dem DGM anzupassen. - Kreuzungspunkt mit Strassen oft ungenaue Geometrie. Strassen (Linie) - Kreuzungspunkte müssen eigener Knoten sein. - Terrafector verlangt feineres DGM bzw. max. Fractal Depth. Realistischere Ergebnisse. Höhere Renderzeiten bzw. bei zu großer Datenmenge (im Sinne der Prozessorleistung) wird ein Rendern unmöglich. Hohe Hardware-Anforderungen. Denkbare Optimierung: Vektordaten optimal aufbereiten (Geometrie, Attributierung). Diverse Optimierungen sind oft mit relativ großem Zeit- und Arbeitsaufwand verbunden. Vektorbasierte Visualisierung: Verwendung unterschiedlichster GIS Daten, CAD Daten. Datengrundlage muss für VNS optimiert werden. Große bzw. detaillierte Datensätze bedeuten meist „Overkill“ für die Visualisierung. Lagegenaue Platzierung von Einzelobjekten. VNS ist in erster Linie auf den nordamerikanischen Raum ausgerichtet, d.h. es besteht ein Mangel an passenden 3D Objekten (bzw. auch 2D Bildern) in der Component Gallery, insbesondere an Gebäuden. Die Erstellung passender 3D Objekte in externer Software ist sehr zeitaufwändig. Keine „Rasterisierung“ mehr im Grenzbereich von Klassen, Verlauf mittels Profilen möglich. Teilw. problematisch, wenn auch eine Color Map verwendet wird. Abstimmung im Verlaufsbereich schwierig. Tab. 14: Zusammenfassung der verschiedenen Visualisierungs-Methoden 76 4.2 Mallnitz – Hohe Tauern Abb. 53: Übersichtskarte Mallnitz – Hohe Tauern (Quelle: Kagis, Kärnten Atlas, verändert) Das zweite Testgebiet beinhaltet Teile des Mallnitzbach- bzw. Winkelbachtales mit der Ortschaft Mallnitz etwa im Ausschnittsmittelpunkt. Das gesamte Gebiet umfasst knapp 70 km², die genaue Abgrenzung in Bundesmeldenetz-Koordinaten (M31) kann folgender Tabelle entnommen werden: x y LL 434.405 202.235 UR 442.455 210.835 Tab. 15: Abgrenzung des Testgebietes Mallnitz - Hohe Tauern in BMN Koordinaten Abb. 54 zeigt einen Überblick über das Testgebiet. In der Bildmitte die Ortschaft Mallnitz mit Blickrichtung Norden. Als Overlay dient ein auf 1 m resampeltes Geo-Tiff der originalen „pan-shaped“ Quickbird-Szene (resampelt auf 0,5 m Auflösung). Abb. 54: 3D Ansicht des Testgebietes Natürliche Textur mit einer Quickbird-Szene Kameraposition: Höhe über Grund: ca. 1170 m, Distanz Bildmitte: ca. 4000 m 77 Die zu verwendende Datengrundlage entstammt einem Projekt zur Sicherung von Alpentransversalen mittels Einsatz von Erdbeobachtung und GIS, namens „Hannibal“. Die Zielsetzung definierte sich in einer Ergänzung der DLM und DKM Daten durch Fernerkundungsdaten bzw. einem Konzept zur Integration der verschiedene Raster- und Vektordaten für die Visualisierung. Für des gesamte Testgebietes standen Daten aus 4 der 7 Objektbereiche des aktuellen DLM zur Verfügung, nämlich „Verkehr“, „Siedlung“, „Gewässer“ und „Namen“. Die Bereiche „Siedlung“ und „Namen“ beinhalten zu Zeit jeweils ausschließlich punktförmig definierte Objekte in einer Access Datenbank. Neben anderen Attributen sind auch Rechts- und Hochwert als Gauß-Krüger Koordinaten verspeichert. Namen Verkehr F_CODE ID NAME FEATURE_CODE NAME VW_BEZ BUNDESLAND ART ÖK VERW_BZ_NM KURZBEZ UTM POL_GEM_NR UTM50 HÖHE POL_GEM_NM ÖK50 ERFASS_ART PLZ MERIDIAN AKTUAL_DATUM ADRESSE RECHTSWERT BEARB_DATUM HAUSNR HOCHWERT RECHTSWERT(X) HAUSNR2 AKTUAL_DATUM HOCHWERT(Y) VORWAHL ERFASS_ART MERIDIAN TELEFON BEARB_DATUM Tab. 16: Attribute des DLM der Objektbereiche „Namen“ und „Verkehr“ Die insgesamt 113 Features aus dem Objektbereich „Namen“ bzw. 48 Features des Objektbereiches „Verkehr“ können in Form eines Punkt-Shapes für die Visualisierung herangezogen werden zur Platzierung von entsprechenden 3D Objekten (wie z.B. auch 3D Schriften) oder 2D Billboards. Eine direkte Anwendung von Attributen in VNS (z.B. in Form von Thematic Maps) erscheint als wenig sinnvoll. Je nach Untersuchungsgebiet und –gegenstand können aber der Großteil der Attribute für Search Queries verwendet werden, um z.B. alle Elemente einer bestimmten ÖK auszuwählen. Interessanter im Sinne einer Landschaftsvisualisierung sind die Objektbereiche „Gewässer“ und „Verkehr“, die nicht nur punktförmige, sondern auch linienförmige Elemente enthalten. Objektbereich: Verkehr Objektgruppe Objektart Straßen Bahnen Feature Anz. an Features Anz. d. Attribute Bundesstraße Linie 6 15 Landesstraße Linie 16 15 Bezirksstraße Linie 12 15 Normalspurbahn Linie 20 13 78 Objektbereich: Gewässer Objektgruppe Objektart Feature Anz. an Features Anz. d. Attribute Fließende Gewässer Fluss, Bach (Breite: > 20m) Linie 2 12 Fluss, Bach (Breite: 5-20m) Linie 30 12 Fluss, Bach (Breite: < 5m) Linie 145 12 Bach, zeitweise wasserführend Linie 129 12 fiktiver unterirdischer Gewässerverlauf Linie 13 12 Imaginäre Achse von Fluss (Breite: > 20m) Linie 1 12 Imaginäre Achse von Fluss (Breite: < 5m) Linie 1 12 Quelle Punkt 16 12 Wasserfall Punkt 5 12 Stehende Gewässer See, Teich ( < 2km Längenausdehnung) Linie 38 11 Insel Linie 1 11 Bauwerke für Wasserversorgung Wasserleitung, oberirdisch Linie 1 12 Wasserleitung, unterirdisch Linie 2 12 Reservoir Punkt 10 12 Tab. 17: Attribute des Objektbereichs „Verkehr“ Alle DLM Daten lagen im Esri-Shape Format in Gauß-Krüger Koordinaten vor. Es wurde versucht, das Preprocessing der Daten bzw. manuelles Editieren zu minimieren. Einige Arbeitsschritte waren im Vorfeld aber unerlässlich, wie im Folgenden verdeutlicht. - Transformation aller Daten auf ein einheitliches Koordinatensystem (Bundesmeldenetz M31), ausgehende vom DGM bzw. den vorhandenen Fernerkundungsdaten. Gewässer: - Generieren einer Polygonstruktur für stehende Gewässer. - Bereinigen der Fließgewässer hinsichtlich Überschneidung der Vektoren mit Polygonen der stehenden Gewässer (vgl. Kap. 4.1.1.5, Seite 73). - Ableiten eines Höhenwertes für jedes Polygon der stehenden Gewässer. - Verschneidung zwischen Fließgewässern und Straßen zum Generieren von VektorPunkten für die Platzierung von Brücken. Die Erfassung der Features erfolgte großteils durch das BEV mittels Digitalisierung von Orthophotos und Satellitenbildern mit einer Auflösung von > 2m (Attribut ERFASS_ART: 41) bzw. Digitalisierung von KM-Unterlagen im Maßstab 1:25.000 und 1:50.000 (Attribut ERFASS_ART: 31). Die Überlagerung beider Datensätze zeigte, dass sich durch den unterschiedlichen Maßstab der Erhebung (die Genauigkeit der DKM entspricht grundsätzlich jener der analogen Katastralmappe 79 [Quelle: www.bev.gv.at]) auch Lageungenauigkeiten ergeben. Die Daten des DLM wurden im Einzelfall manuell an die DKM angepasst. Abb. 55: Lageungenauigkeiten zwischen DLM und DKM Eine Überlagerung der QuickbirdSzene mit DLM (gelb) und DKM (weiß) Layern zeigt teilweise markante Ungenauigkeiten im Bereich einiger Meter. Die DKM Daten standen nur für einen bestimmten Teilausschnitt des Testgebietes rund um den zentralen Ort Mallnitz zur Verfügung (vgl. Abb. 56, kleines Bild links oben) Alle DKM Daten wurden als AutoCAD DFX Files geliefert. VNS kann zwar DXF Daten direkt importieren, doch ist der Import und Zugriff auf Attribute auf das Esri-Shape Format beschränkt, weshalb eine Konvertierung der Daten vorgenommen werden musste. Die Konvertierung wurde von der Firma Synergis mit der Software GeoOffice GIS Engine durchgeführt. Insgesamt wurden 16 einzelne DFX Files in 11 verschiedenen Shape-Files überführt. Die GIS Engine übernimmt alle Eigenschaften (ausgenommen Objektdaten) und Attribute aus den AutoCAD Daten und filtert diese speziell nach den Attributen „Layer“, „Block“ und „Objekttyp“. 80 Abb. 56: Ausdehnung der DKM Daten Überlagerung der Quickbird-Szene mit Daten der DKM (gelb). Die kleinere Abbildung links zeigt die Ausdehnung der DKM Daten im Bezug auf das gesamte Testgebiet. Die 11 Shape-Files gliedern sich in 4 Polygon-, 2 Linien- bzw. 5 Punkt-Shapes mit einer unterschiedlichen Anzahl an Attributen. Neben der schon angesprochenen Konvertierung in das Format Esri Shape wurden ähnlich den DLM Daten noch einige andere Schritte im Preprocessing durchgeführt: - - Transformation aller Daten auf ein einheitliches Koordinatensystem (Bundesmeldenetz M31), ausgehende vom DGM bzw. den vorhandenen Fernerkundungsdaten. Erweiterung der Attribute um ein namensgebendes Feld für die Database im VNS. Beim Import von Vektordaten kann ein bestimmtes Attribut gewählt werden, dass für die Benennung der einzelnen Vektorelemente der Database herangezogen wird. In der Praxis zeigte sich, dass ohne ein gewisses System die Database mit der Anzahl der enthaltenen Objekte rasch unübersichtlich wird. Editieren von Attributen, die direkt als Thematic Map verwendet werden sollen. Limitieren der Vektordaten (z.B. der Grundstücksgrenzen auf sinnvolle räumliche Einheiten) Ableiten von Mittelpunkten der Gebäude-Polygone zur Platzierung von 3D Objekten. Entsprechend der Render-Hierarchie in VNS bzw. einem 3-dimensionalen Aufbau der Realwelt wurde ausgehend von der modifizierten Vektorgrundlage die Modellierung folgendermaßen konzipiert: 81 Abb. 57: Bottom-Up-Konzept der Modellierung für das Testgebiet Mallnitz Ausgangsbasis bildete ein DGM bzw. davon abgeleitete Modelle mit unterschiedlicher geometrischer Auflösung. Für Overviews und kleinmaßstäbige Ansichten kam ein 50 m DGM bzw. das 90 m SRTMDGM zum Einsatz. Im mittleren Maßstab wurde ein 10 m DGM verwendet, für Detailansichten ein auf 2 m resampeltes DGM. 82 Der nächste „Layer“, praktisch der Bildhintergrund für jenen Bereich, der nicht von den Vektordaten abgedeckt wird, bestand aus den bereits vordefinierten Ecosystems basierend auf der flächendeckenden Klassifikation von Fernerkundungsdaten. Die Spot 5-Klassifikationsergebnisse lieferten insgesamt 18 Klassen (inkl. einer Klasse „Unclassified“), die nun an die vorhandenen Ecosystems angepasst werden mussten, im Sinne einer möglichst automatisierten Anwendung. Für die Zuordnung der Ecosystems in der Color Map wurde letztlich ein 24 bit Graustufenbild verwendet. Das in Abb. 58 verwendete Overlay ist eine äquivalente 24 bit Farbdarstellung der Klassifikationsergebnisse. Detailinformation kam in weiteren Stufen von den Daten der DKM bzw. DLM. Als zentraler Layer der DKM wurde die darin enthaltene Bodennutzungsinformation der einzelnen Polygone zur Definition der Ecosystems verwendet. Ergänzend dazu lieferte die DLM Daten zu linienförmigen Elementen, wie dem Straßen- und Gewässernetz, bzw. auch davon abgeleitete flächenhafte Information der stehenden Gewässer. Als letzte Stufe könnte nach der eigentlichen Modellierung noch alle Komponenten und Parameter zusammengefasst werden, die für einen fotorealistischen Effekt der fertigen Renderergebnisse verantwortlich sind, wie z.B. die selbstredenden Komponenten Cloud Model, Lights, Shadows oder Skies. 4.2.1 Diskussion der Ergebnisse 4.2.1.1 Fernerkundungsdaten Die Klassifikationsergebnisse der Spot 5 Szene weisen eine Pixelauflösung von 10 m auf, so, wie schon die Klassifikation im Testgebiet zuvor. Aus diesem Grund ist die Anwendung dieser Grundlage innerhalb von VNS auch für beide Testgebiete gut vergleichbar. Es zeigten sich im Prinzip dieselben Vor- und Nachteile dieser Methodik, wie schon in Kapitel 4.1.1.4 erläutert. Nach der Evaluierung der 18 Klassen (bzw. einer Homogenisierung hinsichtlich der weiteren Datengrundlagen des DLM und der DKM) und der Anpassung an die bestehenden Ecosystems kann sehr rasch mit wenig Aufwand eine flächendeckende Visualisierung im kleinen und auch mittleren Maßstabsbereich erfolgen. Ähnlich der Daten des ersten Testgebietes weist auch die Klassifikation des zweiten Gebietes großflächige Lücken auf, einerseits durch begrenzte Area of Interests, d.h. nicht der gesamte Ausschnitt des Testgebietes unterlag der Klassifikation, andererseits durch Einflüsse wie direkte Bewölkung oder Wolkenschatten. 83 Abb. 58: Spot 5 Klassifikation, 24 bit Farbdarstellung Mittels einer geeigneten Environment lässt sich aber auch diese fehlende Informationen (in Abb. 58 mit schwarzer Farbe dargestellt) sinngemäß sehr einfach ergänzen. Das Fernerkundungsbild wurde als flächendeckende thematische Grundlage zur Platzierung der bereits generierten Ecosystems herangezogen. Durch die Einbindung von Vektoren wurden einige Problembereiche ausgeschlossen, wie die Modellierung bebauter Flächen oder das unzusammenhängende Auftreten linienhafter Landschaftselemente, wie einem Straßenoder Gewässernetz (vgl. Kap. 4.1.1.4) Tab. 18 zeigt die Attribute der Rasterwerte. Für die Color Map wurde ein 24 bit Graustufenbild bzw. die File Pixel Werte verwendet. Genauso gut könnten aber auch die RGB Werte bzw. das 24 bit Farbbild verwendet werden. Histogramm 199040 254336 3968 15296 7936 38656 77376 0 10880 20800 20736 0 10496 19072 2624 4864 512 11520 Color R 0 0 255 255 255 175 209 255 255 158 255 255 160 0 193 160 0 0 G 0 99 0 255 214 48 178 255 181 158 181 165 81 255 255 33 0 255 B 0 0 0 0 0 96 140 255 193 158 193 0 43 0 132 239 255 255 File Pixel 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Klasse Unclassified Wald Veränderungen Weide Alpines Gras Zwergstrauchheiden Spärlich bewachsen Schnee/Eis Lockermaterial1 Fels Lockermaterial2 Moor Acker brach Wiese/Acker Wiese spärlich bewachsen Versiegelte Flächen Wasser Diverse (Wege, Böschung, etc.) Tab. 18: Rasterattribute der Klassifikation der Quickbird-Szene Gegenüber den Alpmon-Daten weist diese Klassifikation andersartige Klassen auf, so z.B. eine einzige Klasse „Wald“ oder mehrere spezifische Klassen im Hochgebirge wie „Lockermaterial“ oder „Spärlich bewachsen“. 2 Klassen kommen im Testgebiet überhaupt nicht vor, nämlich „Schnee/Eis“ und „Moor“. Hinter den Waldflächen ist die Klasse „Unclassified“ am häufigsten vertreten. 84 4.2.1.2 Vektordaten der DKM Von den 4 Polygon-Shapes ist besonders jenes für die Visualisierung interessant, das unter anderem auch die Flächennutzung beinhaltet. FLAECHE 33,87 3685,14 762,65 4143,10 7,71 6429,30 21014,17 17415,26 4779,87 3580,92 5,86 1919,70 225,50 6118,17 UMFANG 23,29 263,51 109,78 404,03 13,69 355,87 1178,75 3222,69 312,87 459,01 18,03 204,42 130,64 503,21 BLOCK FIG041 FIG047 FIG048 FIG051 FIG052 FIG054 FIG056 FIG059 FIG060 FIG062 FIG083 FIG086 FIG095 FIG096 NS 41 47 48 51 52 54 56 59 60 62 83 86 95 96 BEZ Gebäude Weide Landw. gen. Grundfläche (LN) Hutweide Baufläche begrünt Alpen Wald Gewässer fließend Gewässer stehend Ödland Baufläche befestigt Sonstige Straßenanlage Erholungsfläche NS_RECHT 41 47 48 51 52 54 56 59 60 62 83 86 95 96 Anz. Polygone 344 2 347 9 318 5 105 4 3 12 38 5 101 4 Tab. 19: Auszug der Attribute für das Shape „Nfl.shp“ inkl. Summe der Polygone Insgesamt enthält das Shape-File 1297 Features. Die Vektoren wurden in der VNS Database wieder zu einem Layer zusammengefasst und nach dem Attribut „NS“ mittels Search Queries den einzelnen Ecosystems zugeteilt. Wie schon in Kap. 4.1.1.5 bemerkt, ist nicht die Database der limitierende Faktor für den Einsatz von Vektoren, sondern die Prozessorleistung. Die Platzierung von Ecosystems erfordert (im Gegensatz zu Terrafectors oder anderen Komponenten) nur geringe Rechenleistung, daher stellen die knapp 1300 Polygone kein Problem im Arbeitsprozess dar. Gegenüber der Methodik der Platzierung von 3D Objekten basierend auf einem Punkt-Shape (vgl. Kap. 4.1.1.6) bietet die Klasse der Gebäude als Polygone andere Möglichkeiten, besiedelte Flächen zu modellieren. Mittels Linien oder Polygonen können mit der Komponente Walls dreidimensionale Oberflächen generiert werden. Eine Wall besteht aus 2 „Bauelementen“, dem Panel, das vertikale Oberflächen aufzieht, und dem Roof für horizontale Flächen. Die Höhe der Panels kann mit einer Thematic Map direkt aus der Attributtabelle entnommen werden, sofern ein solches Attribut vorhanden ist. Für das Testgebiet wurde dafür manuell ein Attribut angelegt (vgl. Abb. 59). Standardmäßig haben alle Panels dieselbe Farbe bzw. Eigenschaften, wie sie dem Material zugeordnet werden. Aber auch die Diffuse Color des Panel Material kann auf eine Thematic Map zurückgreifen. Eine Thematic Map kann, wie bisher verwendet, nicht nur mittels der Option Single Value auf einen einzelnen Wert abzielen (wie z.B. ein Attribut „Höhe“ für die Gebäudehöhe), sondern auch auf mehrere Data Channels. Somit könnte für jedes Polygon in der Attributtabelle ein bestimmter RGB Farbwert (als 3 einzelne Attribute) verspeichert sein und als Thematic Map dem Panel übergeben werden. Solche Attribute existieren natürlich in der DKM nicht und wurden ebenfalls manuell für einige ausgewählte Polygone generiert (vgl. Abb. 60). Die Lage des Roofs kann ebenfalls über eine Thematic 85 Map gesteuert werden, sinnvoller Weise über dieselbe, die auch die Höhe der Panels bestimmt. Roofs werden als horizontale Ebene zwischen den Vektorpunkten aufgebaut. Abb. 59: Walls aus Gebäudepolygonen. Gebäudehöhen werden aus Attributen übernommen, Schlagschatten im Vordergrund erhöhen die Raumwirkung. Eine andere Möglichkeit, ein Gebäude mit Walls aufzubauen, geht den umgekehrten Weg, nämlich ausgehend vom Roof zum Boden. Hat man beispielsweise Vektoren der Dachlinien zur Verfügung bzw. auch ihre Höhe, kann dies die Basishöhe sein und Panels erzeugt werden bis zum Schnitt mit dem DGM. Auf diese Weise lassen sich auch andere Dachformen kreieren (vgl. Abb. 61), wenn z.B. auch Punkte der Firstlinie bekannt sind oder automatisch abgeleitet werden können. Der entscheidende Vorteil der Methodik, einen Gebäudegrundriss mit Polygonen und Walls zur Modellierung zu verwenden, ist, dass sich die Grundgeometrie des Gebäudes in der 3D Ansicht widerspiegelt. Das bedeutet also, dass sowohl Größe und Form wie auch Ausrichtung annähernd der realen Situation entsprechen und daher einen wesentlich höheren Wiedererkennungswert besitzen, als schematisch verwendete 3D Objekte. Für klein- und mittelmaßstäbige Ansichten zeigte diese Methodik weit bessere Ergebnisse als jene in Kap. 4.1.1.6, nicht zuletzt, weil Walls wesentlich geringere Renderzeiten erfordern, als 3D Objekte. Für großmaßstäbige Detailansichten würde eine naturgetreue Darstellung ohnehin individuelle 3D Modelle und Texturen verlangen. 86 Abb. 60: Farbzuordnung über eine Thematic Map Die Polygone der Gebäude sind in gelb dargestellt. Abb. 61: Modellieren von Walls ausgehend von einer dreidimensionalen Dachform Ebenfalls mittels Walls wurden entlang von Linienvektoren, die die Grundstücksgrenzen repräsentieren, Zäune als künstliche Texturen platziert. Wiederum wurde manuell ein passendes Attribut angelegt, das verschiedene Zauntypen unterscheidet. Abb. 62: Walls als Zaun entlang von Grundstücksgrenzen. Unterschiedliche Typen werden mittels geeigneter Attribute und Search Queries gesteuert. Zusammenfassend kann man sagen, dass die Daten aus der DKM sehr rasch und einfach in die Visualisierungssoftware VNS integriert und verwaltet werden können. Aufbauend auf passenden Ecosystems und anderen Komponenten kann ein ansehnliches Ergebnis mit relativ geringem Aufwand in relativ kurzer Zeit erzielt werden. Nicht zu vernachlässigen ist aber das Preprocessing der Daten, um eine optimale Nutzung in VNS zu gewährleisten. Für kleinere Testgebiete kann das mitunter teilweise manuell und ohne großen Aufwand geschehen, für großflächige Gebiete kann das aber wohl nicht mehr gelten. Im Zuge dieser Arbeit wurde versucht, das Preprocessing möglichst automatisiert abzuwickeln, was zumindest für verschiedene Verschneidungen einzelner GIS Layer möglich ist. Schwieriger gestaltet sich die Aufgabe aber bei der Verwendung von Attributen. Beinahe alle Attribute können in VNS zur Filterung der Daten (Search Query) herangezogen werden um z.B. aus einer Menge von Polygonen eine Teilmenge nach bestimmten Eigenschaften zu erhalten, mit der dann individuell weitergearbeitet werden kann. Ein direkter Zugriff auf Attribute als konkreter Wert für bestimmte VNSParameter (über eine Thematic Map) setzt eine dementsprechende Struktur voraus, die im Falle herkömmlicher GIS Daten kaum vorhanden ist. Alles, was manuell editiert werden muss, kann sehr zeitintensiv sein, je nach Datenmenge und Zielsetzung. 87 4.2.1.3 Vektordaten des DLM Wie schon in Kap. 4.1.1.5 dienten auch hier die linien- und flächenhaften Vektordaten als Grundlage für Terrafectors bzw. Area Terrafectors, wobei wiederum gewisse Attribute zu Suchabfragen genutzt werden konnten. Ein Überblick über die Verwendbarkeit der Layer und ihre Anwendung im VNS zeigt folgende Tabelle. Verw. VNS Search Query Thematic Map Komponenten Bundestraße x x - Tfx (Terrafector) Landesstraße x x - Tfx Bezirksstraße x x - Tfx Normalspurbahn x x - Tfx Fluss, Bach (Breite: > 20m) x x - Tfx, Stream Fluss, Bach (Breite: 5-20m) x x - Tfx, Stream Fluss, Bach (Breite: < 5m) x x - Tfx, Stream Bach, zeitweise wasserführend x x - Tfx, Stream fiktiver unterirdischer Gewässerverlauf x x - - Imaginäre Achse von Fluss (Breite: > 20m) x x - - Imaginäre Achse von Fluss (Breite: < 5m) x x - - Quelle - - - - Wasserfall - - - - See, Teich ( < 2km Längenausdehnung) x x - Area Tfx, Lake Insel x x - Ecosystem Wasserleitung, oberirdisch x x - 3D Object DLM Objektart Wasserleitung, unterirdisch - - - - Reservoir x x - 3D Object Tab. 20: Zusammenfassung der Objektarten und ihre direkte Anwendbarkeit in VNS „Verw. VNS“: „Search Query“: „Thematic Map“: x…Daten wurden letztendlich für die Visualisierung verwendet - …Daten wurden ins VNS importiert, waren aber für eine Visualisierung nicht geeignet x…Die Attribute eigneten sich für Search Queries x…Die Attribute eigneten sich direkt (ohne Preprocessing) für Thematic Maps Wie schon bei den Daten der DKM konnte für alle verwendeten DLM Daten mittels Search Queries entsprechendes Datenmanagement betrieben werden. 88 Von den amtlichen GIS Daten eignete sich aber keines der vorhandenen Attribute als direkte Grundlage einer Thematic Map. Einzig die Wasseroberfläche für stehende Gewässer wurde aus einem Attribut berechnet, das in derselben Art generiert wurde, wie schon in Kap. 4.1.1.5 angesprochen. Vektordaten aus dem DLM stellen eine geeignete Ergänzung zu den flächenhaften Daten aus der DKM und den Fernerkundungsdaten dar. Besonders die linienförmigen Elemente eines Landschaftsbildes werden in VNS auch am effektivsten als solche modelliert. Fließgewässer und das Verkehrsnetz wurden mit entsprechenden Terrafectors modelliert. Dabei konnten bestimmte Attribute indirekt verwendet werden, die z.B. Aufschluss geben über die Breite eines Flusses oder ein Normprofil eines Straßentyps. Für eine Search Query war z.B. auch die Lage einer Strasse, ob ein Straßenabschnitt terrestrisch, auf einer Brücke oder in einem Tunnel liegt, interessant. Abb. 63: DLM Daten mit Terrafectors modelliert Mit den Vektorlinien als Overlay fungieren Polygone gleicher Nutzung der DKM (Gewässer fließend, Gewässer stehend, Straßenanlage) in gleicher Weise als Hintergrund für die DLM Daten, wie die Klassifikation der Satellitenszene für die DKM. Der Klasse „Gewässer fließend“ kann z.B. ein Ecosystem, das entsprechende Ufervegetation, Steine oder Sand beinhaltet, zugeordnet werden. Überall dort, wo der vom Terrafector modellierte Flusslauf aus dem DLM nicht die gesamte Fläche des gleichartigen Polygons der DKM einnimmt, wird dieses Ecosystem dann auftreten (vgl. Abb. 64). 89 Abb. 64: Überlagerung der DKM mit DLM Daten Terrafector rendert über der Nutzungsart „Gewässer fließend“. Im linken Bild ist das darunter liegende Polygon der DKM rot eingefärbt, im rechten Bild wurde ein entsprechendes Ecosystem für ein Bachufer verwendet. Das Verkehrsnetz des DLM enthält nur bestimmte Straßentypen. Im gesamten Ortsgebiet von Mallnitz sind keine Daten vorhanden, d. h. hier bilden die Polygone der DKM mit der Nutzungsart „Straßenanlage“ das Verkehrsnetz. Teilweise spiegeln sich Straßenanlagen im DGM selbst wider und erzeugen ein natürliches Hindernis für den Verlauf von Terrafectors, wie z.B. eine Unterführung der Bahnlinie, die den Effekt des darüber laufenden Terrafectors unterbricht (vgl. Abb. 65). Abb. 65: Natürliche Unterbrechung eines Terrafectors Die Form des DGM lässt eine Bahnunterführung vermuten, tatsächliche Vektoren existieren im DLM nicht. Abb. 66: Plazieren eines 3D Objektes Brücke basierend auf einem Vektorpunkt. Abb. 65 und Abb. 66 zeigen die Notwendigkeit der Visualisierung von Brücken, die als Verschneidung verschiedener GIS Layer als Punkt-Shape generiert wurden. 3D Objekte müssen individuell behandelt werden und können nicht automatisiert für alle Punkte gleichzeitig dargestellt werden. Jedes Objekt muss im Endeffekt manuell an die bestehende Situation angepasst werden, speziell in der Ausrichtung und Dimension. Die wichtigsten Parameter könnten aber wiederum über Thematic Maps gesteuert werden. Wenn also ein entsprechendes Shape-File der Punkte aller Brücken existieren würde, könnte auch dieser Vorgang automatisiert werden. 90 Schwierigkeiten in der Visualisierung ergeben sich dort, wo Polygone auf Terrafectors treffen, also Straßen unterschiedlicher Methodik aufeinender treffen. Polygone lassen sich schwer mit den Profilen der Terrafectors vereinbaren. Zusätzliche treten Ungenauigkeiten der Datensätze durch die unterschiedliche Erfassungsmethode auf (vgl. Abb. 55). Im Einzelfall wurden die Straßenvektoren des DLM and die DKM Daten angepasst. Die unterschiedlichen Straßentypen des DLM wurden mittels passender Terrafectors modelliert, wobei besonders im Bereich von Schnitt- und Kreuzungspunkten auf die Hierarchie bzw. Priority der jeweiligen Profile und Profilpunkte zu achten ist. Schwieriger ist die Modellierung entlang von Vektoren, wenn z.B. eine Bundesstrasse in eine Landesstrasse übergeht. Parameter der Profildimensionen von Terrafectors erlauben keine Anwendung von Thematic Maps, allein mittels der vorhandenen Daten lässt sich kaum ein naturgetreuer, fließender Übergangsbereich für Detailvisualisierung erreichen, vielmehr eine Mischung aus beiden Straßentypen innerhalb des Wirkungsradius des gemeinsamen Vektorpunktes. Die DLM Vektordaten ergänzen die flächenhafte Information aus der DKM im Regelfall sehr gut. Für das Testgebiet wurden insgesamt 306 Vektoren für Fließgewässer und 54 Vektoren des Verkehrsnetzes mit Terrafectors modelliert bzw. 31 Polygone mittels Area Terrafectors für stehende Gewässer. Mit dieser vergleichsweise geringen Anzahl gab es keinerlei Probleme mit der Prozessorleistung, auch nicht bei Verwendung des 2 m DGM und aller Terrafectors bzw. anderer speicherintensiver Komponenten. Ausgehend von der Überlegung, dass sich die Daten in ihrer Geometrie und Lagegenauigkeit ergänzen, ist eine Landschaftsvisualisierung für ein Gebiet dieser Größe durch alle Maßstäbe hin sicher denkbar. Einzig die oft fehlenden Attributdaten, die wohl allein für die Visualisierung wichtig wären, erschwert die Aufgabe. Abb. 67: Fertiges Renderergebnis mit Cloud Models und Shadows im Bildvordergrund 91 4.2.1.4 Animation Eine Animation kann als eine konstruierte Bewegtbildsequenz beschrieben werden, die dadurch entsteht, dass Objekte in aufeinander folgenden Bildern derart variieren, dass bei entsprechender Bildrate (24 - 30 Bilder pro Sekunde) der Eindruck einer fließenden Bewegung entsteht. Der Begriff wird häufig synonym mit Video, Simulation oder Film gebraucht, wobei diese synonyme Verwendung jedoch ungenau ist. In der Grafik spricht man jedenfalls von der Erzeugung von bewegten Bildern (vgl. BUZIEK et al., 2000). Das Prinzip der Erzeugung von Animationen liegt in so genannten Keyframes, einzelnen Bildern, die als Stützpunkte einzelner Animationsparameter dienen. Die Animationsparameter der Bilder zwischen den einzelnen Keyframes werden im VNS entsprechend interpoliert. Abb. 68: Konzept einer Keyframe-basierten Animation Keyframes Kf1 – Kf5…gelb, Kamerapfad…rot Obige Abbildung zeigt das Konzept einer Animation in VNS. Entlang eines Vektors kann ein Kamerapfad definiert werden, die Vertices dienen als Keyframes. An den Keyframes werden nun verschiedene Parameter der Kameraposition bzw. des jeweiligen Target gesetzt. Der virtuelle Flug startet bei Keyframe 1 (KF 1), mit dem Bild Nummer 1, und bewegt sich entlang der definierten Keyframes (Nummer 2 bis 5) auf einer Spline-Kurve. Alle zeitabhängigen Parameter werden zwischen 92 den Keyframes entsprechend interpoliert. Als Einheit auf der Zeitachse dienen dazu entweder Sekunden oder Frames. Neben den Parametern der Kamera- und Targetposition verfügt VNS noch über eine Vielzahl anderer Parameter, die zeitabhängig animiert werden können, wie z.B. Größe und Position von 3D Objekten, Cloud Models, Maximale Höhe von Ecotypes, Höhe der Wasseroberfläche von Lakes, Lights oder Snow Effects, um nur einige zu nennen. Eine einfache und render-extensive Animation wurde mittels der Quickbird-Szene als natürliche Textur durchgeführt. Durch die relativ hohe Auflösung des Satellitenbildes von 1 Meter genügt in diesem Maßstabsbereich ein grob auflösenderes DGM, um die Geländeoberfläche passend anzubilden. Es gibt auch sonst keine Komponenten, die eine Verdichtung des DGM verlangen, daher können die Terrain Parameter vernachlässigt werden. Ein Vorteil gegenüber künstlichen Texturen ist auch, dass natürliche Beleuchtung bereits im Bild abgebildet ist und daher nicht animiert werden muss bzw. auf renderintensive Shadow Maps verzichtet werden kann. Abb. 69: Ausschnitt der fertigen Animation (AVI Format, Windows Media Player, Version 9.0) 93 Das Testgebiet ist mit seinen rund 8 km Seitenlänge relativ klein für virtuelle Flüge, weshalb der Kamerablick leicht über die DGM Grenze hinausgehen kann. Animieren von Haze als atmosphärischer Parameter in entsprechender Entfernung kann dem mit unter auf einfache Weise entgegenwirken. Die gesamte Animation (vgl. Abb. 69) besteht aus 850 Einzelbildern mit einer Bildrate von 25 Bildern pro Sekunde (Gesamtzeit: 34 Sekunden) und benötigte auf einem etwas leistungsschwächeren Rechner etwa 24 Stunden zum Rendern. Frames dieser Art benötigen auf dementsprechenden Rechnern üblicherweise einige Minuten an Renderzeit. Anders die Lage, wenn es sich um künstliche Texturen handelt. Je nach Kamerablickwinkel und Qualität des zu erzielenden Ergebnisses kann die Renderzeit erheblich größer sein, speziell, wenn 3D Objekte oder Shadow Maps eingesetzt werden. Terrafectors verlangen meist ein genaueres DGM bzw. eine weitere Verdichtung der Terrain Parameter, ein wesentlicher Faktor hoher Renderzeiten. Animationen mit künstlichen Texturen benötigen nicht selten 45 Minuten oder mehr für ihre Einzelbilder. VNS kann eine Vielzahl an verschiedenen Bildformaten generieren oder direkt Video-Formate erstellen, wie das Windows Standard Format AVI oder das von Apple lizenzierte Quick Time Format. Die Animationen in dieser Arbeit wurden als unkomprimierte Einzelbilder gerendert und mittels Adobe Premiere und verschiedener Codecs in ein entsprechendes Ausgabeformat umgewandelt. Abb. 70: Ausschnitt einer Animation mit künstlicher Textur (AVI Format, Windows Media Player, Version 9.0) 94 4.2.1.5 Realtime Animation Gegenüber der aufgezeichneten Animation, also einzelne Bilder, die nach dem Rendern auf einem Datenträger gespeichert werden, stellt die Echtzeitanimation ganz andere Anforderungen und Ansprüche an Hard- und Software bzw. auch den User. Bei Echtzeitanimation erfolgt die Berechnung der Einzelbilder praktisch zeitgleich mit der Betrachtung der Sequenz. Jedes Einzelbild muss innerhalb von 33 bis 40 Millisekunden erzeugt werden, um eine übliche Bildrate von 24 bis 30 Bildern pro Sekunde zu erzielen (vgl. BUZIEK et al., 2000). Der große Vorteil dieser Methodik liegt in der Interaktivität des Systems, das dem Anwender erlaubt, sich auf individuelle Art und Weise durch die virtuelle Landschaft zu bewegen, nahezu in Echtzeit. Abhängig vom jeweiligen Realtime Viewer bzw. dessen Benutzerfreundlichkeit kann dieser Vorteil für ungeübte Anwender oft von Nachteil sein, gegenüber Animationen, und man verliert sich leicht irgendwo im Modell. Echtzeitanimationen können daher natürlich auch nicht über Komplexität und Fotorealismus von Animationen verfügen. Um die Anwendung zu optimieren gilt vielmehr der Grundsatz: Keep it simple. Ein entscheidender Kritikpunkt an fotorealistischen Landschaftsgeneratoren und speziell VNS war bisher, dass es keine Möglichkeit gab, die generierten Landschaften zur Echtzeitanimation zu nutzen. Mit dem Release von VNS 2 (bzw. World Construction Set 6) wurde auch das Zusatzmodul „Scene Express“ angeboten, das nun genau dies ermöglichen soll, wobei folgende Datenformate unterstützt werden: Realtime Formate: VRML (Virtual Reality Modeling Language) VTP (Virtual Terrain Project) NV (NatureView) FLT (OpenFlight ) TXP (TerraPage) Rapid Prototyping Formate: STL (Stereo Lithography) VRML-STL (Stereo Lithography as VRML) 3D Integrations-Formate: 3DS (3D Studio) LWS (Lightwave) MA (Alias Wavefront Maya) DSC (Avid Softimage) 95 Von den Realtime Formaten ist VRML das einzige Format, das auch webbasiert eingesetzt werden kann, als mittlerweile internationaler Langzeit-Standard. Ein Export in X3D ist seitens 3D Nature LLC zu Zeit nicht vorgesehen, da man im Moment keinen entscheidenden Vorteil gegenüber VRML in der Darstellung und Performance sieht. Nature View wurde von 3D Nature LLC entwickelt, zur optimierten Darstellung von Echtzeitanimation in einem eigenen Viewer NVE (Nature View Express). Rapid Prototyping Formats wurden zur Herstellung von Modellen im Ingenieurswesen entwickelt, z.B. zur Produktion von physischen Modellen der digitalen Oberfläche. Export in gängige 3D Formate gab es auch schon zuvor mit der Komponente Scene Export. Scene Express greift diese Funktionalitäten auf und erlaubt darüber hinaus weitere Optionen und Formate, um ein Landschaftsmodell in andere 3D-Systeme zu exportieren und weiter zu bearbeiten. Von besonderem Interesse in dieser Arbeit war der Export in die Formate VRML, nicht so sehr aus dem Gesichtspunkt der Webapplikation, als der grundsätzlichen Möglichkeit und weiten Verbreitung des Standardformates VRML, und NV. Ein wesentlicher Vorteil des NVE-Viewers ist, dass er lizenz- und kostenfrei verwendet und auch weiterverteilt werden kann. Scene Express exportiert die wesentlichen Landschaftselemente und Komponenten wie das DGM, Textur, Foliage, Sky, 3D Objekte, Walls, Vektoren, Cameras. Lights und Haze – je nach Exportformat mit unterschiedlichen Optionen. Des Weiteren gibt es noch Optionen, die Darstellung des Viewers betreffend, z.B. die Einschränkung der Bewegung in Richtung der DGM Oberfläche oder Verwendung von individuellen Bildern als Overlay, z.B. Firmenlogos oder Informationen über den Bearbeiter. Abb. 71 und Abb. 72 zeigen unterschiedliche Ausschnitte (aus dem Testgebiet Mallnitz – Hohe Tauern) und Exporteinstellungen. Abb. 71 beinhaltet ein relativ grob auflösendes DGM und ein entsprechendes Flussnetz mit Terrafectors bzw. Gebäuden und umzäunte Grundstücksgrenzen als Walls im NVE. Abb. 72 zeigt einen kleinen Detailausschnitt mit höherer Auflösung des Terrain (ca. 1 m) und der Textur (ca. 0,2 m) mit den Ecosystems der DKM bzw. Gebäuden und Zäunen als Walls im Viewer Cortona, Version 4.2. 96 Abb. 71: Teilausschnitt in Nature View Express (NVE), Version 1.60 Abb. 72: VRML Szene in Cortona 4.2 In der Softwaredokumentation von VNS wird darauf hingewiesen, dass zwar bereits herkömmliche Grafik-Arbeitsplätze mehrere hundert-tausend texturierte Polygone in Echtzeit bewältigen können, 97 wobei von einer Bildrate von 15 Bilder pro Sekunde gesprochen wird, als Minimum zur Betrachtung in Echtzeit. Weiters wird festgehalten, dass Realtime-Export ungleich mehr an Einschränkungen gebunden ist, als andere Formate. Als grundsätzliche Überlegungen zur Performance-Optimierung werden folgende Punkte empfohlen: Minimierung der Komplexität des Geländemodells bzw. von 3D Objekt-Modellen. Je weniger Details, desto schneller die Bildrate. Minimieren der 2D Bilder als Foliage. Kompromiss zwischen Realismus und Interaktivität. Minimieren der Texturauflösung, wo immer möglich. Testen der Szenen auf verschiedenen Clients und Optimieren des Ergebnisses für den Zielclient. Insgesamt wurden über 100 verschiedene Versuche mit VRML und NV-Export durchgeführt. Es empfiehlt sich, ein eigenes VNS Projekt für den Export zu verwenden, da einige Komponenten für den Realtime Export teilweise erheblich modifiziert werden müssen. VRML-Export funktionierte generell recht zufrieden stellend. Abhängig von Gebietsausschnitt und den genannten Export-Parametern variiert die Performance und Dateigröße beträchtlich. Der Ausschnitt, wie in Abb. 72 gezeigt, umfasst ca. 300 x 300 m und erreicht mit den hoch auflösenden Einstellungen eine Dateigröße von rund 6 MB, für Webdarstellung natürlich kaum geeignet. Das gesamte Gebiet von 8 km Seitenlänge produziert mit denselben Einstellungen ein File von rund 67 MB und ist selbst offline mit dem verwendeten Rechner eigentlich nicht mehr zu bewältigen. Mit entsprechenden Qualitäts- und Detailabstrichen lassen sich aber durchaus brauchbare Echtzeitmodelle generieren. Scene Express ermöglicht mit dem Export nach VRML eine (beliebige) Anzahl an LODs (Level of Detail), abhängig von der Kameradistanz, die sich auch auf die Dateigröße auswirkt. Das Nature View Format zeigt im Vergleich zu VRML geringere Dateigrößen als Ergebnis und eine unterschiedliche Darstellung hinsichtlich Texturen, die, je näher der Blickpunkt dem DGM kommt, verschwommen wirken, gegenüber eines „Pixelns“ im VRML Modell, je nach Texturauflösung. Ein NVExport des gesamten Gebietes mit dem Satellitenbild als natürliche Textur lieferte ein Ergebnis mit guter Performance im NVE und einer Dateigröße von etwa 8 MB. Auch der VRML Export mit denselben Einstellungen brachte ähnliche Ergebnisse, auch hinsichtlich der Dateigröße. Der Export von Walls erwies sich als problematisch und führte sehr oft dazu, dass die Szene im NVE nicht geladen werden konnte. Die Verwendung von 3D Objekten anstelle von Walls für Gebäude funktionierte dagegen problemlos. Gerade aber die Verbauung rund um den zentralen Ort Mallnitz aus der DKM erscheint als besonders interessant in der Echtzeitanimation, vor allem als Modellierung mittels Walls. Das Exportproblem, das anderen User-Erfahrungen nach kein Einzelfall ist, konnte bis Beendigung dieser Arbeit auch seitens der VNS Usergroup nicht eruiert und behoben werden. Es bleibt abzuwarten, ob eine nächste Version von NVE Abhilfe bringt. 98 5 Grenzen und Zielsetzung Diese Arbeit befasst sich mit verschiedenen Geodaten und deren Nutzung zu einer möglichst automatisierten Visualisierung mittels der High-End Visualisierungssoftware Visual Nature Studio 2. Dabei wurde auf bereits bestehende Daten zurückgegriffen und versucht, diese im Sinne einer automatisierten Anwendung mit vordefinierten Landschaftselementen, wie z.B. so genannten Ecosystems, mit einem Minimum an Pre- und Postprocessing zu visualisieren. Einige Dinge wurden im Zuge der Arbeit immer wieder augenfällig, die im Folgenden kurz behandelt werden. 5.1 Systemvoraussetzung Tools wie VNS, speziell das Rendern von fotorealistischen Bildern, stellen bestimmte Ansprüche an die Soft- und Hardware eines Rechners. Der für diese Arbeit verwendete Computer ist zwar nicht mehr der neuesten Generation zugehörig, entspricht aber dennoch den Anforderungen, wobei man aber immer wieder erkennen muss, dass gar nicht genug Rechenleistung vorhanden sein kann, um alle erwünschten Resultate zu erzielen. Speziell das Rendern von Animationen ist besonders zeitintensiv, selbst, wenn die Möglichkeit besteht, den Prozess auf mehrere Rechner aufzuteilen. Zeitdruck und Abgabetermine können ein nicht unwesentlicher Faktor zur Qualitätssenkung sein. Einige Grenzen, an die man innerhalb der Arbeit mit VNS stößt, entspringen nicht der Softwarefunktionalität selbst, sondern gehen vielmehr auf die Leistungsfähigkeit des Rechners zurück. 5.2 Daten & Zielsetzung Für diese Arbeit wurden verschiedene Fernerkundungs- und GIS Daten eingesetzt. Ausgehend von der Überlegung, dass es für große Gebiete (z.B. bundesweit) homogene Datensätze gibt, ist der Gedanke, diese weitgehend automatisiert zu visualisieren, nahe liegend. Grundvoraussetzung für eine Landschaftsvisualisierung ist eine lückenlose, flächendeckende Information. Es hat sich gezeigt, dass die amtlichen GIS-Daten diese Information nur bedingt liefern können. Das DLM umfasst in erster Linie punkt- und linienförmige Objekte, der Ausbau auf einen mehrklassigen Objekbereich „Bodenbedeckung“ ist noch Zukunftsdenken. Die DKM hingegen enthält eine Vielzahl an Information, die aber gerade deshalb für Hard- und Software eine Art „Overkill“ darstellt. Die Kombination von Fernerkundungsdaten mit amtlichen GIS-Daten brachte deshalb sehr anschauliche Ergebnisse, gemessen am Arbeitsaufwand und der Rechenleistung. Fazit hierbei bleibt aber, dass eine Visualisierung nur so gut sein kann, wie die Daten, auf denen sie beruht. Wichtig ist es, dass man sich bewusst ist, welche Daten man einsetzt (oder zu Verfügung hat) und was für Output man davon erwartet bzw. vielmehr erwarten kann. Das Wesen der Visualisierung liegt darin, Inhalte in graphischer Form sichtbar zu machen, also intuitiv verständlich. Geht man von einer Fernerkundungsklassifikation aus, kann diese sehr rasch auf einfache Weise visualisiert werden, allerdings mit der Limitierung der „natürlichen“ geometrischen Auflösung des Bildes. Im Grunde aber passiert genau das, was die Aufgabe der Visualisierung ist. Jedes Pixel wird mit einem entsprechenden 99 Landschaftselement bestückt, Klassengrenzen bleiben im Allgemeinen scharf abgetrennt. Die Zielsetzung, mittels derselben Daten eine möglichst realistische Landschaftsvisualisierung zu erreichen, wird nur unzureichend mit entsprechenden Abstrichen erreicht werden können, wie es eben im Wesen der Datengrundlage liegt. VNS verfügt zwar über verschiedene Techniken und Effekte, doch wird sich an den grundlegenden Grenzen kaum etwas ändern. Eine eigentlich ideale Ergänzung zu den Rasterdaten bieten nun Vektoren, die speziell linienhafte Landschaftselemente modellieren und der Landschaft ein wesentlich realistischeres Aussehen verleihen. Der Einsatz von Vektoren hat aber gezeigt, dass man oft gezwungen ist, Kompromisslösungen zu finden, um das Datenvolumen hinsichtlich des Renderns noch bewältigen zu können. Allein die Tatsache, dass es flächendeckend sehr genaue Vektordaten gibt, bedeutet eben nur theoretisch, dass diese dementsprechend flächendeckend visualisiert werden können. Je nach Verwendung der Vektoren, z.B. Linienvektoren als Terrafectors zur Modellierung des Gewässernetzes, oder Polygone zur flächenhaften Platzierung von Ecosystems, wird irgendwann einmal eine die Grenze der Rechenleistung erreicht werden. Lange (2001) weist auch darauf hin, dass bei computergestützten dreidimensionalen Visualisierungen üblicherweise mit einem nicht zu unterschätzendem manuellen Aufwand ein ganz spezifischer Landschaftsausschnitt modelliert wird. Es wurde gezeigt, dass verschiedene Geodaten zu einem bestimmten Zweck generiert werden und im Normalfall, vor allem von ihrer Attributstruktur, keine ideale Voraussetzung für die Möglichkeiten in VNS darstellen. Es müssten also bestimmte Voraussetzungen erfüllt sein, wie z.B. Homogenisierung unterschiedlicher Datensätze hinsichtlich Geometrie- und Lagegenauigkeit, um die GIS-Kompatibilität von VNS möglichst effizient nutzen zu können. Geht man aber von einer idealisierten Datenstruktur aus, dann wird auch die Visualisierung befriedigende Ergebnisse liefern. Für großflächige Gebiete müssten die Daten wohl in mehrere kleinere Projekte aufgeteilt werden, um das Datenvolumen in VNS noch verarbeiten zu können. Ein Aspekt, der in all diesen Überlegungen mitspielt, aber noch nicht erwähnt wurde, ist das immanente Problem des Maßstabes. Büscher (2004) bemerkt in einer Arbeit mit WCS, dass die Qualität der erreichten Visualisierung oft von der Perspektive und dem Maßstabsbereich der Abbildung abhängt. 5.3 Maßstab Alles, was für das Datenvolumen und die Zielsetzung gilt, steht natürlich in engem Zusammenhang mit der Frage nach dem Maßstab. In der Geovisualisierung trifft man eigentlich kaum auf konkrete Maßstabszahlen, was ja bei perspektivischen Darstellungen nicht unbedingt zielführend ist. Vielmehr wird von einem großen-, mittleren- und kleinen Maßstab gesprochen. Diese drei Maßstabsebenen lassen sich in der 3D-Visualisierung in Abhängigkeit von der Sichtweite auch als Vordergrund, Mittelgrund und Hintergrund dominierte Szene beschreiben (PAAR et al., 2004). Je größer aber der Maßstab, desto mehr Details benötigen die bildgebenden Elemente und der Rechenaufwand steigt beträchtlich. 100 Innerhalb dieser Arbeit wurde gezeigt, dass mit den verwendeten Daten eine recht anschauliche Landschaftsvisualisierung im kleinen und mittleren Maßstab möglich ist, teilweise auch im großen Maßstab. Zielt man jedoch wirklich auf fotorealistische Ergebnisse im großen Maßstab ab, braucht es vor allem dementsprechend detaillierte 3D Modelle. Ein besonders schwieriger Punkt ist jene Klasse der verbauten Flächen, wenn eben nur eine geringe Anzahl schematischer 3D Objekte zu Verfügung steht. Hier bietet aber besonders der Einsatz von Walls in Zusammenhang mit Gebäudegrenzen aus der DKM sehr gute Alternativen. Generell kann man nicht davon ausgehen, dass ein Datensatz das gesamte Arbeitsgebiet durch alle Maßstäbe hindurch abdeckt. Je nach Blickwinkel und Aufgabenstellung muss selektiert werden, was bei Einzelbildern kein Problem ist, sehr wohl aber bei Animationen. Immer wieder wird die nun schon viel strapazierte Grenze der Rechenleistung erreicht werden, die sich mit der Weiterentwicklung der gängigen Computersysteme aber immer weiter noch oben schieben wird. Der Begriff des Maßstabes spielt auch noch in anderen Überlegungen eine Rolle. In Zusammenhang mit hoch auflösenden Satellitenbildern wie IKONOS findet man auch Begriffe wie „personal-scale“ (L. JORDAN, 2000) oder „menschlicher Maßstab“ (PAAR et al., 2004). Lange (2003) spricht auch von einem „ethischen Maßstab“ in Beziehung mit der Verantwortung gegenüber ungewollten oder gar beabsichtigten Missbrauch, die mit einer bestimmten Darstellung eines Raumes verbunden sein kann. Weiters betont Lange (2005), dass sich die Bearbeiter dessen bewusst sein müssen, dass Visualisierungen kaum jemals für sich selbst sprechen, ungeachtet dessen, was sie selbst glauben. Es wird oft vernachlässigt, dass begleitende Worte, geschrieben oder gesprochen, einen hohen Einfluss darauf haben, wie visuelle Information wahrgenommen wird. Danahy und Hoinkes (1999) sprechen in diesem Zusammenhang von kulturellen und gesellschaftlichen Werten, die damit bewusst transportiert bzw. ausgeblendet werden können. 6 Diskussion und Ausblick Im Zuge dieser Arbeit hat sich gezeigt, dass für automatisierte Abläufe bestimmte Voraussetzungen gegeben sein müssen. Einerseits betrifft dies eine geeignete Arbeitsumgebung, Faktoren, die relativ leicht beeinflusst werden können. Andererseits betrifft es die Datengrundlage, auf der die Visualisierung aufbaut. Geodaten werden für bestimmte Zwecke generiert und auch meist dafür optimiert. Eine Visualisierung, im Sinne einer High-End Software wie VNS, steht meist am Ende des gesamten Verarbeitungsprozesses und ist weniger das Primärziel. Von allen derzeit am Markt erhältlichen Softwareprodukten bietet VNS sicher die größte GIS-Kompatibilität und findet dadurch auch vielseitige Verwendung in Planungsprozessen. Mit den zugrunde liegenden Daten stellt sich natürlich auch die Frage der Zielvorstellungen, also welcher Betrachtungsmaßstab angestrebt wird, ob Standbilder, Animationen oder Echtzeitanimation produziert werden sollten oder welcher Grad an Realismus dafür notwendig ist. 101 Im Idealfall richten sich die Datengrundlagen nach den Ansprüchen der Zielsetzung, und nicht umgekehrt. In dieser Arbeit stellte sich die Frage, welche Ergebnisse mittels Fernerkundungsdaten erzielt werden können bzw. welche Möglichkeiten GIS-Daten bieten, wie eben das DLM bzw. die DKM, die theoretisch für eine Visualisierung für große Gebiete flächenhaft vorhanden wären. Bei den verschiedenen Daten hat sich gezeigt, dass der unterschiedliche Erhebungsmaßstab und die damit einhergehende Qualität hinsichtlich Geometrie und Topologie bei näherer Betrachtung zu Problemen in der praktischen Umsetzung führen. Ein anderes Problem liegt in der Attributstruktur herkömmlicher Geodaten, die im Normalfall nicht in der Form vorliegen, dass sie sinnvoll und vor allem effektiv für Thematic Maps in VNS verwendet werden können. Geht man von einer idealisierten Datengrundlage bzw. von einem Minimum an manuellem Aufwand im Preprocessing aus, kann der Prozess einer Geovisualisierung durchaus sehr rasch und teilweise automatisiert erfolgen. Die letztliche Grenze liegt derzeit wohl bei der jeweiligen Leistung des verwendeten Rechners. Die Verwendung von Polygonen zur Platzierung von Ecosystems mit der DKM hat sich als relativ render-extensiv präsentiert. Die Fortführung des DLM hinsichtlich einer flächendeckenden Bodenbedeckungsinformation mittels Polygonen ließe hierbei einige neue Möglichkeiten offen, großflächige Gebiete mit GIS-Daten anstatt (oder in Kombination mit) Fernerkundungsdaten zu visualisieren. Mit der kontinuierlich fortschreitenden Entwicklung der Rechnerleistung von herkömmlichen Computern sollten sich auch die Möglichkeiten mit VNS für größere Datenmengen umsetzen lassen. Eine 3D-Visualisierung mittels VNS kann aber nicht als Black-Box verstanden werden, die per Knopfdruck aus einer Summe an Input-Daten den gewünschten Output erzielt. Automatisierung lässt sich nur für bestimmte Arbeitsschritte unter eben in dieser Arbeit gezeigten Voraussetzungen erzielen. Die Vor- und Nachteile der verschiedenen Datengrundlagen wurden klar aufgezeigt. In der praktischen Umsetzung zeigte sich auch deutlich, dass, nicht nur durch die Softwarefunktionalität bedingt, Rasterund Vektordaten in Kombination eine ideale bzw. sinnvolle Datengrundlage bilden. Gleichzeitig wurde auch aufgezeigt, dass Fernerkundungsdaten ein sehr einfaches Mittel darstellen, eine 3DLandschaftsvisualisierung durchzuführen, mit gewissen Qualitätsabzügen auch für großmaßstäbige Fragestellungen. GIS-Daten sind aber für bestimmte Elemente gleichsam unerlässlich, auch wenn sich das volle Potential der GIS-Funktionalitäten mit VNS durch die Struktur der bestehenden amtlichen GISDaten, ohne entsprechendes Preprocessing, nicht ausschöpfen lässt. Der Nutzen und die Anwendung von Geodaten für 3D-Visualisierung, speziell in Kombination mit VNS, ist in vielfältiger Weise dokumentiert (vgl. APPLETON, 2001; FUHRMANN, 2001; BUCKLEY und HUBER, 2002; MENG, 2003; ERVIN, 2003; DUNBAR et al., 2003; LOVETT et al., 2003; FELDES, 2003; BÜSCHER, 2004; VAN DER MAAREL, 2005). Es ist zu erwarten, dass mit der ständig wachsenden Menge an Geodaten und der gleichzeitigen Entwicklung der Möglichkeiten künftiger Computergenerationen, auch die Nachfrage bzw. der Nutzen 102 an einer entsprechenden Visualisierung steigen wird. Vor nicht allzu langer Zeit hat Google mit dem Release von „Google Earth“ einen beachtlichen Schritt in Richtung Breitenwirksamkeit von Geovisualisierung gesetzt. Jordan (2000) meinte recht treffend, dass gegenüber jenem viel zitierten Bild, das mehr als tausend Worte sagt, eine dreidimensionale Ansicht wohl ein ganzes Buch wert sein muss. 103 7 Literaturverzeichnis 3D-Nature, LLC (2001): Visual Nature Studio. Using VNS. 3D Nature LLC, Arvada, Colorado 80002, USA. 3D-Nature, LLC (2003): Visual Nature Studio 2. Using VNS. 3D Nature LLC, Arvada, Colorado 80002, USA. Albertz, J.. (2001): Einführung in die Fernerkundung – Grundlagen der Interpretation von Luft- und Satellitenbildern, Wissenschaftliche Buchgesellschaft, Darmstadt, 249 S. Andresen, T., Mott, C., Schüpferling, R., Zimmermann, S., Schneider, T. (2002): Objektorientierte Analyse von Fernerkundungsdaten zur Erfassung aquatisch/terrestrischer Parameter, In: Blaschke, T. [Hrsg.]: Fernerkundung und GIS – Neue Sensoren – innovative Methoden, Wichmann Verlag, Heidelberg, S. 1-8 Appleton, K., (2001): Rural Landscape Visualisation from GIS Databases: A Comparison of Approaches, Possibilities and Problems, In: GIS Research UK, 9th Annual Conference (Quelle: http://enva2.env.uea.ac.uk/e173/papers/gisruk01/gisruk2001.html) Appleton, K., (2001): Computer visualisation of planning proposals – comments from interviews with local authority planning officers and others, IBG Conference 2001 – Whitlingham path project (Quelle: http://www.uea.ac.uk/~e173/planners.html) Asche, H., (1999): Geoinformatik, unveröffentlichtes Vorlesungsskriptum, Universität Potsdam, Institut für Geographie: Abteilung Geoinformatik (Quelle: http://www.unipotsdam.de/u/Geographie/geoinfo/lehre/download/download.html) Bähr, H. P., Vögtle, T. (Hrsg.) (1998³): Digitale Bildverarbeitung – Anwendung in Photogrammetrie, Kartographie und Fernerkundung, Wichmann Verlag, Heidelberg, 360 S. Bill, R. und Zehner M. L. (2001): Lexikon der Geoinformatik – Herbert Wichmann Verlag, Heidelberg, 312 S. Bishop, D., (2005): Visualization for Participation: The Advantage of Real-Time? Paper zur 6. Internationalen Konferenz zu Neuen Technologien in der Landschaftsarchitektur – “Trends in Realtime Landscape Visualization and Participation”, Anhalt, 2005, 13 S. (Quelle: http://www.masterla.de/conf/) Blaschke, T. (1997): Unschärfe und GIS: "'Exakte'" Planung mit unscharfen Daten? Schrenk, Manfred (Hg): Computergestützte Raumplanung - Beiträge zum Symposium CORP 97; Selbstverlag des Institutes für EDV-gestützte Methoden in Architektur und Raumplanung der TU Wien. S. 39-51. 104 Blaschke, T. (2002): Fernerkundung und GIS – Neue Sensoren – innovative Methoden, Wichmann Verlag, Heidelberg, 264 S. Blaschke, T. (2002b): Objektextraktion und regelbasierte Klassifikation von Fernerkundungsdaten: Neue Möglichkeiten für GIS-Anwender und Planer, In: 5. Symposium „Computergestützte Raumplanung“ – CORP 2000, S. 153-162 Blaschke, T., Gläßler, C., Lang, S. (2002a): Bildverarbeitung in einer integrierten GIS/Fernerkundungsumgebung – Trends und Konsequenzen, In: Blaschke, T. [Hrsg.]: Fernerkundung und GIS – Neue Sensoren – innovative Methoden, Wichmann Verlag, Heidelberg, S. 1-8 Blaschke, T., Lang, S., Lorup, E., Strobl, J., Zeil, P. (2000): Object-oriented image processing in an integrated GIS/remote sensing environment and perspectives for environmental applications, In: Cremers, A. & Greve, K. (Hrsg.): Environmental Information for Planning, Politics and the Public, Metropolis, Marburg, Volume II, S. 555570. Bollmann, J. und Koch W. G. (2001): Lexikon der Kartographie und Geomatik, Band 1 und 2, Spektrum Akademischer Verlag, Heidelberg, Band 1: 451 S., Band 2: 455 S. Booth, B., Mitchell, A. (2000), ESRI, Inc. (Hrsg.): ESRI ArcGIS Handbücher zur Software, USA. Bossler, J. D. (2002): Manual of Geospatial Science and Technology. London: Taylor & Francis, 623 S. Brandstätter, G. (1996): Digitale Bildverarbeitung. Unveröffentlichtes Vorlesungsskriptum. Institut für Angewandte Geodäsie – Abteilung für Photogrammetrie und Fernerkundung der Technischen Universität Graz. Buchroithner, M. F., Schenkel, R. (2001): Kartographische Echt-3-D-Visualisierung – eine Ergänzung zu flachen Karten, in: Buzin/Wintges (Hrsg.): Kartographie 2001 – multidisziplinär und multidimensional, Beiträge zum 50. Deutschen Kartographentag, Wichmann Verlag, Heidelberg, S. 55-64 Buckley, D., Huber, G., (2002): 3-D Visualization Supports Natural Reource Management at Fort AP Hill, A Space Imaging White Paper, Colorado/USA, 2002, 10 S. Büscher, O., (2004), Institut für Geoinformatik, Universität Münster (Hrsg.): Die 3DVisualisierung einer Lippeauen-Renaturierung mit dem World Construction Set (WCS) – Möglichkeiten und Grenzen einer Visualisierungssoftware, Beitrag zur GIO „3DGeovisualisierung“. Münster, Online Publikation (Quelle: http://gio.uni-muenster.de/) Buziek, G. / Dransch, D. / Rase, W. (Hrsg.), (2000): Dynamische Visualisierung. Grundlagen und Anwendungsbeispiele für kartographische Animationen. Berlin / Heidelberg: Springer-Verlag, 234 S. 105 Crawford, C., (2000): Virtualising the 3D Real World (6) – Effective Communication by Realistic Representation, In: GIM International, 9/2000, S. 37-39 Danahy, J., Hoinkes, R., (1999): Visual Landscape – Schauen, Bewegen und Verknüpfen, In: Garten + Landschaft, 11/1999 S.22-27 Dransch, D., (1997): Computeranimation in der Kartographie – Theorie und Praxis, Springer- Verlag, Berlin – Heidelberg, 145 S. Dunbar, M. D., Moskal, M. L., Jakubauskas, M. E., Dobson, J. E., Martinko E. A., (2003): Computer visualization of forest cover change: Human impacts in northeastern Kansas and natural disturbance in Yellowstone National Park, Paper zur 69. ASPRS Konferenz in Anchorage, Alaska, 2003, 12 S. (Quelle: www.kars.ukans.edu/projects/visualization/ Papers/ASPRS2003_MDunbaretal.pdf) Ehlers, M.. (2002): Fernerkundung für GIS-Anwender – Sensoren und Methoden zwischen Anspruch und Wirklichkeit, In: Blaschke, T. [Hrsg.]: Fernerkundung und GIS – Neue Sensoren – innovative Methoden, Wichmann Verlag, Heidelberg, S. 10-23. Ervin, S. M., (1999): Agenda für Landschaftsmodellierer – Steine auf dem Weg zum Weltmodell, In: Garten + Landschaft, 11/1999 S. 18-21 Ervin, S. M., (2003): Trends in Landscape Modeling, In: Buhmann, E., Ervin, S. M. [Hrsg.]: Trends in Landscape Modeling, Proceedings at Anhalt University of Applied Sciences 2003, Wichmann Verlag, S. 2-8 European Environment Agency (2002): CORINE Land Cover update I&CLC2000 project – Technical Guidelines, 69 S. (Quelle: http://terrestrial.eionet.eu.int/CLC2000/#StatusMap) Feldes, J. (2003): Vergleichsanalyse verschiedener Softwarepakete zur 3D-Visualisierung von Geodaten. Unveröffentlichte Diplomarbeit. Institut für Angewandte Geodäsie – Abteilung für Photogrammetrie und Fernerkundung der Technischen Universität Graz, 107 S. Franzen, M., Kohlhofer, G., Jansa, J., Sindhuber, A., (1998): Ergänzung und Fortführung des Digitalen Landschaftsmodells des BEV mit Fernerkundung, In: VGI – Österreichische Zeitschrift für Vermessung und Geoinformation, 3/1998, S. 161-166 Fuhrmann, S., Kraak, M. J., (2001): Geovisualisierung – Einführung in das Thema, In: Kartographische Nachrichten, 4/2001, S. 173 f., Fuhrmann, S., Schmidt, B., Berlin, K., Kuhn, W., (2001): Anforderungen an 3DInteraktionen in geo-virtuellen Visualisierungsumgebungen, In: Kartographische Nachrichten, 4/2001, S. 191-195 106 Gartz, K. H., (2003): 3D Visualisierung und Interaktion, (Quelle: http://www.lichtfalle.de) (Quelle:www.lichtfalle.de/Kino/grundlagen/pdf%B4s/05%203DVisualisierung%20und%20Interaktion.pdf) Geier, B., Egger, K., Muhar, A. (2001): Integrierte 3D-Visualisierungs-Systeme für die Landschaftsplanung: Konzepte und Marktrealität, In: 6. Symposium „Computergestützte Raumplanung“ – CORP 2001, S. 231-235, Geldermans, S., Hoogenboom, M., (2001): GIS Visualization – The Killer Application?, In: Geoinformatics, October 2001, S. 6-9 Hake, G., Grünreich, D., Meng, L., (2002): Kartographie – Visualisierung raum-zeitlicher Informationen, 8. Auflage, de Gruyter, Berlin, 604 S. Hirschmugl, M. (2002): Automatisierte Bildsegmentierung von Nutzungsstrukturen in der Fernerkundung, Unveröffentlichte Diplomarbeit. Institut für Geographie und Raumforschung der Karl Franzens Universität Graz. Jensen, R. J. (2000): Remote Sensing of the environment – an earth resource perspective, Prentice-Hall, Inc., New Jersey, 544 S. Jobst, M., (2004): Benutzerschnittstellen in der multimedialen 3D Kartografie – eine Gegenüberstellung, In: 9. Symposium „Computergestützte Raumplanung“ – CORP 2004, S. 579-584 Jordan, L., (2000): Virtualising the 3D Real World (4) – Web Accessible Viewing Next Step for GIS, In: GIM International, 7/2000, S. 38-41 Jünemann, P., Paar, P., Rekittke, J., (2001): Landschaftsplanung: Verbreitung und Einsatz von 3D-Visualisierungswerkzeugen in der Planungspraxis, In: Kartographische Nachrichten, 4/2001, S. 200-204, Koch, B., Harm, J., (2001): Remote Sensing and spatial data for the establishment and visualisation of 3D computer landscape models as basis for visual impact assessment, In: GeoBIT/GIS – Zeitschrift für raumbezogene Informationen und Entscheidungen, 12/2001, S. 41-48 Kraak, M. J., (2002): Some Aspects of Geovisualization, In: Geoinformatics, December 2002, S. 26 Kretzler, E., (2003): Nah an der Realität, In: Garten + Landschaft, 9/2003 S 38-39. Lange, E., (2001): Prospektive 3-D-Visualisierungen der Landschaftsentwicklung als Grundlage für einen haushälterischen Umgang mit der Ressource Landschaft, In: Natur und Landschaft, 12/2001, S. 513-519 107 Lange, E., Schroth, O., Wissen, U., Lange, E., Schmid, W., (2003): Anforderungen an Visualisierungstools zur Partizipation der Öffentlichkeit bei der Bewertung der Landschaftsentwicklung, In: 8. Symposium „Computergestützte Raumplanung“ – CORP 2004, S. 553-556 Lange, E., (2005): Issues and Questions for Research in Communicating with the Public through Visualizations, Paper zur 6. Internationalen Konferenz zu Neuen Technologien in der Landschaftsarchitektur – “Trends in Realtime Landscape Visualization and Participation”, Anhalt, 2005, 11 S. (Quelle: http://www.masterla.de/conf/) Lovett, A., Hermann, S., Appleton, Katy., Winter, T., (2003): Landscape Modeling and Visualisation for Environmental Planning in Intensive Agricultural Areas, Paper zur 4. Internationale Konferenz zu Neuen Technologien in der Landschaftsarchitektur – “Trends in Landscape Modeling”, Anhalt, 2003, 9 S. (Quelle: http://www.masterla.de/conf/) MacEachren, A. M., Brewer, I. (2001): Kollaborative Geovisualisierung zur Wissensgenerierung und Entscheidungsunterstützung, In: Kartographische Nachrichten, 4/2001, S. 185-191 McEachren, M., Kraak, M. J., (2001): Research Challenges in Geovisualization, In: Kartographische Nachrichten, 4/2001, S. 204-207 Meng, L., (2003): Rahmenbedingungen beim Einsatz von Geovisualisierungsmethoden und -techniken, In: Deutsche Gesellschaft für Kartographie e.V. (Hrsg.): Kartographische Schriften, Band 7 – Visualisierung und Erschließung von Geodaten, Seminar GEOVIS 2003, Kirschbaum Verlag, Hannover, S. 3-11 Neubert, M., Meinel, G. (2002): Segmentbasierte Auswertung von IKONOS-Daten – Anwendung der Bildanalyse-Software eCognition auf unterschiedliche Testgebiete, In: Blaschke, T. [Hrsg.]: Fernerkundung und GIS – Neue Sensoren – innovative Methoden, Wichmann Verlag, Heidelberg, S. 109-117 Olbrich, G., Quck, M., Schweikart, J. (2002): Desktop Mapping – Grundlagen und Praxis in Kartographie und GIS, 3. Auflage, Springer Verlag, Berlin, 309 S. Paar, P., Schroth, O., Wissen, U., Lange, E., Schmid, W., (2004): Steckt der Teufel im Detail? Eignung unterschiedlicher Detailgrade von 3D-Landschaftsvisualisierung für Bürgerbeteiligung und Entscheidungsunterstützung, In: 9. Symposium „Computergestützte Raumplanung“ – CORP 2004, S. 535-541 Palmer, J., (2003): Research Agenda for Landscape Perception, In: Buhmann, E., Ervin, S. M. [Hrsg.]: Trends in Landscape Modeling, Proceedings at Anhalt University of Applied Sciences 2003, Wichmann Verlag, S. 163-172 Pocock, L., Rosebush, J., (2002): The Computer Animator´s Technical Handbook, Morgan Kaufmann Publishers, San Francisco, 464 S. 108 Raggam, J. et al. (1999): RSG in ERDAS IMAGINE. Remote Sensing Software Package Graz. Field Guide. RSG Release 3.23. JOANNEUM RESEARCH Forschungsgesellschaft mbH. Graz. Reed, C., (2000): Virtualising the 3D Real World (5) – Importance of Data Integration and Rendering to Map Visualisation, In: GIM International, 8/2000, S. 50-53 Sallet, E. (2002): Fachwörterbuch Fernerkundung und Geoinformation, Wichmann Verlag, Heidelberg, 350 S. Schauppenlehner, T. (2002): Interaktive Landschaftsvisualisierung auf Basis von VRML in Entwurfs- und Entscheidungsprozessen, Unveröffentlichte Diplomarbeit. Institut für Freiraumgestaltung und Landschaftspflege der Universität für Bodenkultur Wien Schiewe, J., Tufte, L. (2002): Potenzial regionen-basierter Verfahren für die integrative Auswertung von GIS- und Fernerkundungsdaten, In: Blaschke, T. [Hrsg.]: Fernerkundung und GIS – Neue Sensoren – innovative Methoden, Wichmann Verlag, Heidelberg, S. 43-52 Stelzl, H. (2001): Der multimediale digitale Wanderführer. Unveröffentlichte Diplomarbeit. Institut für Angewandte Geodäsie – Abteilung für Photogrammetrie und Fernerkundung der Technischen Universität Graz. Stelzl, H., Raggam, H., Sacherer, O., Almer, A., (2004): Automatisierte 3D-Visualisierung von Geoinformation zur Unterstützung der Feuerprävention im mediterranen Raum, In: Strobl/Blaschke/Griesebner (Hrsg): Angewandte Geoinformatik 2004 – Beiträge zum 16. AGIT-Symposium Salzburg, Wichmann Verlag, Heidelberg, S.644-649 Van der Maarel, H., (2005): Building and Modelling a City in 3-D – Visualisation of Apeldoorn, The Netherlands, In: Geoinformatics, Januar/Februar 2005, S. 14-17 Wolf, W., (2001): Raumbezogene Bewertungsmöglichkeiten auf der Grundlage von Fuzzy Sets und ihre Implementierung im GIS SPANS, Online-Publikation am Geographischen Institut der Humboldt-Universität zu Berlin. (Quelle: http://www.geographie.hu-berlin.de/) Zehner, B., Kümpel, H. J. (2001): Immersive Visualisierungstechniken bei der geophysikalischen Erkundung des Untergrundes In: Kartographische Nachrichten, 4/2001, S. 196-200 109 Internetlinks Link Zugriffszeitraum http://terrestrial.eionet.eu.int/CLC2000 08/2004, 11/2005 http://www.caf.dlr.de/caf/anwendungen/projekte/projekte_nutzung/corine/ 08/2004, 11/2005 http://www.umweltbundesamt.at/umwelt/raumordnung/flaechennutzung/corine/ 08/2004, 11/2005 http://www.unipotsdam.de/u/Geooekologie/forschung/landschaftsplanung/projekt_3dvisu.html 08/2004 ftp://edcftp.cr.usgs.gov/pub/data/srtm 05/2004 http://www.dlr.de/srtm 05/2004 http://www.op.dlr.de/~hounam/srtm-website_de/beschreibung.html 05/2004 http://www.digitalglobe.com/about/imaging.shtml 05/2004 http://www.spot.com/html/SICORP/_401_444_445_.php 05/2004 http://www.spotimage.fr/html/_167_.php 05/2004 http://landsat.gsfc.nasa.gov/ 05/2004 http://geo.arc.nasa.gov/sge/landsat/landsat.html 05/2004 http://www.eduspace.esa.int/eduspace/subtopic/default.asp?document=299&la nguage=de 05/2004 http://www.bev.gv.at 04/2004, 11/2005 http://www.esri.com 04/2004, 08/2004 http://www.gis.steiermark.at/ http://www.3dnature.com http://de.wikipedia.org/ 05/2004 02/2004, 11/2005 05/2004 110 8 Anhang Abkürzungsverzeichnis ASCII American Standard Code for Information Interchange BEV Bundesamt für Eich- und Vermessungswesen BMN Bundesmeldenetz CAD Computer Aided Design CLC Corine Land Cover DKM Digitale Katastralmappe DLM Digitales Landschaftsmodell DXF Drawing Exchange Format GIS Geographisches Informationssystem NN Neuronale Netze ÖK Österreichische Karte SAR Synthetic Aperture Radar SRTM Shuttle Radar Topography Mission ViSC Visualization in Scientific Computing VNS Visual Nature Studio VR Virtual Reality VRML Virtual Reality Modeling Language WCS World Construction Set VNS Glossar Area Terrafector VNS Component. Verschiebungseffekt, der eine Änderung der DGM Oberfläche bewirkt, also mittels eines definierbaren Vertikalprofiles direkt in das Geländemodell eingerechnet wird. Grundlage für den Effekt eines Area Terrafectors sind geschlossene Polygone. Cloud Models VNS Component zum Generieren von natürlicher Bewölkung. Color Kombination von 3 Werten aus einer Attributtabelle zur Steuerung einer Thematic Map. Color Map VNS Component. 2D Bilder, die zur Platzierung von Farbe oder Textur auf einem DGM verwendet werden. Jedes Pixel repräsentiert einen bestimmten Bereich auf dem Geländemodell. Component Jeder Effekt, der für sich alleine steht und als solcher gespeichert werden kann, wird in VNS als „Component“ 111 bezeichnet. Component Gallery Sammlung von allen verfügbaren Components. VNS weist eine gewisse Menge an vorgefertigten Components in einer Bibliothek auf, die geladen werden können und sofort verwendbar sind. Data Channels Art des Inputs, wie auf Attribute in einer Thematic Map zugegriffen wird (entweder als Single Value oder Color) Database Menü zur Verwaltung von Vektoren und DGM Kacheln. DEMs Digital Elevation Model, VNS Component, die alle DGMKacheln enthält. Dissolve Color Farb- oder Texturwert, der einem Ecotype zugeordnet wird und diesen ab einer vordefinierten Darstellungsgrenze (z.B. kleiner 3 Pixel) beim Rendern ersetzt. Ecosystem VNS Component. Grundelement der Visualisierung in VNS, bestimmtes Landschaftselement bzw. Bodenbedeckung. Ecotype Over- oder Understory eines Materials eines Ecosystems. Ein Ecotype kann aus einzelnen Foliage-Elementen oder Groups bestehen. Ecotype Editor Menü zum Bearbeiten von Ecotypes. Edge Feathering Profile Profil, das die Intensität (bzw. den Effekt) von vektorgebundenen Components steuert, ausgehend vom Rand hin zum Mittelpunkt des Vektors. Elevation Parameter zur Steuerung der Seehöhe der Oberfläche der VNS Component Lakes. Environment VNS Component. Sammlung von Ecosystems, die nach den Rules of Nature auf das gesamte DGM angewandt wird, sofern sie nicht an bestimmte Vektoren gebunden ist. Foliage Als Foliage werden 2D Bilder oder 3D Objekte bezeichnet, die auf dem Geländemodell platziert werden können. Foliage Effect VNS Component zur Platzierung von Foliage. Foliage Effect Ecotype Ecotype eines Foliage Effects, vergleichbar mit einem Ecotype eines Ecosystems. Fractal Depth Konzept zur Verdichtung der DGM Maschenweite innerhalb der Terrain Parameter. Fractal Depth 0 bedeutet, dass beim Rendern die geometrische Auflösung verwendet wird, die das gerade aktive DGM aufweist. Eine Erhöhung der Fractal Depth um 1 bewirkt das Teilen eines DGM-Quadrates (Pixels) in 2 Dreiecke und verfeinert somit das Modell. Absolutes Maximum ist eine Fractal Depth von 7. Je höher die Fractal Depth gesetzt wird, desto mehr Rechnerleistung benötigt das Rendern. Freeze Option bei Terrafectors und Area Terrafectors, den Verschiebungseffekt dauerhaft in das DGM einzurechnen und 112 nicht mit jedem Render aufs Neue berechnen zu lassen. Freeze verwendet automatisch eine Fractal Depth von 0. Ground Overlay Farb- bzw. Texturgebung verschiedener VNS Components, zu unterst liegende Schicht bei z.B. Ecosystems. Ein Ground Overlay kann ein einfacher Farbwert oder eine Textur sein bzw. auf einer Thematic Map basieren. Group Element eines Ecotypes. Ein Ecotype kann aus einzelnen Foliage-Elementen oder Groups bestehen. Eine Group kann eine beliebige Anzahl an Foliage-Elementen enthalten. Hard Link Option einer Search Query, die die gefilterten Objekte mit einem oder mehreren Vektoren verknüpft, also starr verbindet. Haze Parameter der Component „Atmosphere“ zur Erzeugung von Nebel- und Dunsteffekten. Keyframe Schlüsselbild in einer Animation. Lakes VNS Component zum Generieren von stehenden Gewässern, oft in Verbindung mit Area Terrafectors. Layer Zusammenschluss von unterschiedlichen Elementen in der Database zu einer funktionellen Einheit. Lights VNS Component, die die Ausleuchtung der Landschaft kontrolliert. Material Grundelemente von verschiedenen VNS Components, z.B. Ecosystems. Ein Ecosystem kann aus mehreren Materials bestehen, die nach bestimmten Kriterien innerhalb des Ecosystems verteilt platziert werden. Material Gradient Driver Der Material Gradient Driver spezifiziert, welche Materials innerhalb einer Component wie verwendet werden. Nature View (NV) Format zur Echtzeitanimation, entwickelt von 3D Nature LLC zur optimierten VR Darstellung von VNS Szenen. Nature View Express (NVE) VR Viewer von 3D Nature LLC zur Darstellung von NV Szenen. Overstory Eine Overstory (oder Understory) ist ein Material Ecotype, dass Foliage auf einem Material „wachsen“ lassen kann. Panel “Bauelement” einer Wall. Priority Priorität zwischen einzelnen Elementen derselben Component, die eine Hierarchie beim Rendern festlegen. Roof “Bauelement” einer Wall. Rules of Nature Methode, wie VNS Foliage und Texturen auf natürlich Art und Weise auf dem DGM verteilt. Scene Express Erweiterung von 3D Nature LLC zu VNS 2 bzw. WCS 6, das verschiedene Optionen zum Export von Echtzeitformaten ermöglicht. Search Query Suchabfrage zur Filterung von Daten, die in der VNS Database enthalten sind. 113 Single Value Einzelner Wert aus einer Attributtabelle, der eine Thematic Map steuert. Skies VNS Component zur Generierung eines natürlichen Himmels. Snow Effects VNS Component, die verschiedene Schneeeffekte steuert. Streams VNS Component zum Generieren von fließenden Gewässern, oft in Verbindung mit Terrafectors. Target Ziel, auf das eine Kamera gerichtet sein kann. Terrafectors (Tfx) Verschiebungseffekt, der eine Änderung der DGM Oberfläche bewirkt, also mittels eines definierbaren Vertikalprofiles direkt in das Geländemodell eingerechnet wird. Grundlage für den Effekt eines Terrafectors sind Vektorlinien. Terrain Parameter VNS Component, das verschiedene Optionen enthält, die die Darstellung des DGM beim Rendern beeinflussen, wie z.B. Fractal Depth. Texture Editor Komplexes Werkzeug zum Generieren von Texturen, die auf vielfältige Weise bei verschiedenen eingesetzt werden können. Thematic Map Eine Thematic Map erlaubt einen direkten Zugriff auf Attribute von Vektoren, um bestimmte Elemente (wie z.B. Wuchshöhe oder Dichte von Ecotypes) von Components dynamisch zu steuern. Understory Eine Overstory (oder Understory) ist ein Material Ecotype, dass Foliage auf einem Material „wachsen“ lassen kann. Walls VNS Component zum Generieren von dreidimensionalen Oberflächen mittels Vektoren. 114