Loidl, Claus: Wearable Computer und Unorthodoxe Ein
Transcription
Loidl, Claus: Wearable Computer und Unorthodoxe Ein
Technische Universität Graz Institut für Informationsverarbeitung und Computergestützte neue Medien Diplomarbeit aus Telematik Wearable Computer und Unorthodoxe Ein-/Ausgabegeräte Ing. Claus Loidl Betreuer Dipl. Ing. Christof Dallermassl Begutachter Dr. Dr. h. c. mult., O. Univ. Prof. Hermann Maurer Graz, März 2004 Widmung Diese Arbeit ist meinen Eltern Inge und Hannes Loidl für Ihre jahrelange Unterstützung gewidmet. i I hereby certify that the work reported in this thesis is my own and that work performed by others is appropriately cited. Signature of the author: Ich versichere hiermit wahrheitsgemäß, die Arbeit bis auf die dem Aufgabensteller bereits bekannte Hilfe selbständig angefertigt, alle benutzten Hilfsmittel vollständig und genau angegeben und alles kenntlich gemacht zu haben, was aus Arbeiten anderer unverändert oder mit Abänderungen entnommen wurde. ii Danksagung Ich danke den Mitarbeitern des IICM um Professor Hermann Maurer für ihre stets sehr freundliche und tatkräftige Unterstützung in der Zeit am Institut. Besonderer Dank gebührt dabei Christof Dallermassl, der mich bei meiner Diplomarbeit ausgezeichnet unterstützt und motiviert hat und von dessen Wissen ich sehr profitieren konnte. Außerdem bedanke ich mich bei der Firma Puls-Elektronic , die sofort bereit war, uns ein GPS-Gerät (E-Trex Summit) für die Projektumsetzung zu leihen, welches wir anschließend für das Institut auch noch günstig erwerben konnten. Meinen Eltern, Inge und Hannes Loidl, möchte ich an dieser Stelle für ihre Liebe und finanzielle Unterstützung während des Studiums meinen innigsten Dank aussprechen. Derselbe Dank gilt auch meiner Schwester Sylvia. Schließlich bedanke ich mich bei meiner Freundin Birgit, die mich im Laufe dieser Arbeit sehr oft motiviert hat, und immer ein Ohr für meine Probleme offen hatte, auch wenn es manchmal anstrengend war. iii Kurzfassung Das Diplomarbeitsthema besteht eigentlich aus zwei unterschiedlichen Teilgebieten der Computerwelt, welche jedoch sehr stark miteinander verbunden sind. Als Erstes wird das Thema ”Unorthodoxe Ein-/Ausgabe-Geräte” behandelt. Hier stellt sich gleich die Frage, wann man eigentlich von einem ”normalen” (herkömlichen) E/AGerät spricht und wann von einem ”unorthodoxen” (ungewöhnlichen) E/A-Gerät die Rede ist. Im Grunde ist es eine zeitveränderliche und wohl auch subjektive Definition. Da ja bekanntlich die heute ungewöhnlichen Geräte, morgen schon fast Altertumswert besitzen. Deshalb ist es sehr interessant, einige Entwicklungen und Forschungsthemen näher zu betrachten und mögliche Tendenzen zu diskutieren. Das zweite Thema mit dem sich diese Arbeit auseinandersetzt, ist der sogenannte ”Wearable Computer”. Mann darf jedoch nicht irrtümlicher Weise die wörtliche Übersetzung ”Tragbarer Computer” darunter verstehen. Es ist viel mehr als nur ein einfacher PC in Miniaturausführung gemeint. Es werden oft auch die Begriffe ”Ubiquitous (allgegenwärtig) Computing” oder ”Pervasive (überall vorhanden) Computing” verwendet. Ein Wearable Computer ist ein allgegenwärtiges, unauffälliges und natürlich intelligentes Gerät. Die Aufgabe der Hard- und Software liegt nicht nur darin, dem Benutzer die richtige Information zum richtigen Zeitpunkt zu liefern. Vielmehr soll einem der Wearable Computer lästige Aufgaben abnehmen, ebenso werden neue Anwendungen von ihm übernommen, wie zum Beispiel die Kontrolle der Vitalfunktionen, um bei Auffälligkeiten automatisch den Arzt zu informieren. Durch all diese Hilfestellungen wird man sich mehr auf die wesentlichen Dinge konzentrieren und diese besser erledigen können. Über diese und weitere Anwendungen, Probleme die dabei auftreten, bekannte Lösungen Hardware die angeboten wird und über Zukunftsvisionen wird diese Arbeit Informieren. Zur praktischen Veranschaulichung und zur besseren Einsicht in die Problemwelt des ”Ubiquitous Computing” wurde der sogenannte ”VTG - Virtual Tourist Guide” entwickelt. Dieser besteht aus einem ”Global Positioning System (GPS)”, einem tragbaren Computer sowie einer Anbindung an das Internet. Der ”VTG” bekommt dabei Position und Richtung vom GPS, schickt diese Daten an einen Server, der seinerseits Objektdaten die er durch Scannen einer Karte erhält, an den Client zurückschickt. Dieser hat neben ersten Informationen über Objekte in seiner Blickrichtung nun die Möglichkeit direkt Information über diese im Internet abzufragen. Der Prototyp wird mit einem einfachen Laptop getestet an dem ein ”ETrex Summit” GPS von Garmin angeschlossen ist, und die geographischen Daten liegen zum Testen lokal in einer MySql–Datenbank. iv Abstract Everyday computing without interfering the user respectively not be perceived, is the aim of many development– and research–departments. To get from a normal desktop PC to a ”Wearable Computer” and achieving also a compact format it requires unconventional input and output devices. This thesis will give a brief overview about existing input and output devices and then go into more detail about recent developments and their applications. Basically you can split the work into two sections. The first part gives an overview about ”Unorthodox InputOutput Devices”. Different ways of input or output data and the applied technologies of using them will be discussed. The second part of the thesis will expand on the ”Wearable Computing” concept in more detail with the main emphasis on the basic ideas and developments. In addition examples of applications and projects developed in this area will be given, such as the practical use of a portable information system with position and direction dependent information processing. For an example of ”Wearable Computing”, problems and possible solutions for a Virtual Tourist Guide (VTG) will be analysed and the technologies used to implement it will be explained. v Inhaltsverzeichnis 1 Einleitung 1 1.1 Ziel der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Persönliche Motivation der Thematik . . . . . . . . . . . . . . . . . . . . . 2 1.3 Vorausgehende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.4 Kapitel-Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2 Unorthodoxe Ein-/Ausgabegeräte 2.1 4 Eingabegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.1.1 Tastatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.1.2 Zeigegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.1.3 Handschrifterkennung 2.1.4 Spracherkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.5 Datenhandschuhe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.1.6 Dexterous manipulators . . . . . . . . . . . . . . . . . . . . . . . . 22 2.1.7 Datenanzug . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.1.8 Elektronische Stoffe und Sensoren . . . . . . . . . . . . . . . . . . . 22 2.1.9 Elektronischer Schmuck . . . . . . . . . . . . . . . . . . . . . . . . 26 . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.1.10 Video . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.2 Ausgabegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.1 Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 HMD mit Display . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 HMD mit Retinaprojektion . . . . . . . . . . . . . . . . . . . . . . 30 Display-Folien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 Weitere Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.2.2 Haptische Geräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 Force Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 vi INHALTSVERZEICHNIS vii Tactile Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.3 2.2.3 Audio–Ausgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.2.4 Gerüche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 Forschung und Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3 Wearable Computing 3.1 37 Einführung Wearable Computing . . . . . . . . . . . . . . . . . . . . . . . 37 3.1.1 Was ist Wearable Computing? . . . . . . . . . . . . . . . . . . . . . 37 3.1.2 Die Betriebsarten des Wearable Computing 3.1.3 Die Eigenschaften des Wearable Computing . . . . . . . . . . . . . 40 . . . . . . . . . . . . . 39 3.2 Geschichtlicher Rückblick . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.3 Tragbarkeit: Tragekomfort . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.4 Energie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.4.1 Energiespeicher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.4.2 Energieerzeugung und Energieverbrauch . . . . . . . . . . . . . . . 46 3.5 Störfaktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.6 Projekte im Wearable Computing . . . . . . . . . . . . . . . . . . . . . . . 50 3.6.1 Wearable im Tourismus . . . . . . . . . . . . . . . . . . . . . . . . . 51 Cyberguide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 ArcheoGuide – Virtueller Reiseführer . . . . . . . . . . . . . . . . . 56 Deep Map . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 Mobiles GEO-WWW . . . . . . . . . . . . . . . . . . . . . . . . . . 58 Touring Machine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Mobile Journalist Workstation . . . . . . . . . . . . . . . . . . . . . 60 Indoor/Outdoor Collaboration . . . . . . . . . . . . . . . . . . . . . 61 REAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 3.7 3.6.2 Wearable Computing als Produktivitätsfaktor . . . . . . . . . . . . 64 3.6.3 Wartung von Flugzeugen . . . . . . . . . . . . . . . . . . . . . . . . 64 Forschung im Bereich ”Wearable Computing” . . . . . . . . . . . . . . . . 65 3.7.1 Digital Life Consortium . . . . . . . . . . . . . . . . . . . . . . . . 65 3.7.2 Technische Universität Darmstadt . . . . . . . . . . . . . . . . . . . 65 3.7.3 Universität Bremen (TZI) . . . . . . . . . . . . . . . . . . . . . . . 67 3.7.4 Technische Universität Linz (Software Group) . . . . . . . . . . . . 69 3.7.5 Frauenhof IPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 INHALTSVERZEICHNIS 3.8 viii Philosophische Betrachtung . . . . . . . . . . . . . . . . . . . . . . . . . . 81 4 Projekt - Virtual Tourist Guide (VTG) 83 4.1 Projektidee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.2 Bildformate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.2.1 DXF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.2.2 Shapefile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.2.3 SVG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 4.3 Kartenmaterial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 4.4 Positionsbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.4.1 GPS–Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 Historisches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 Grundprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 Messmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Fehlereinflüsse und Genauigkeit . . . . . . . . . . . . . . . . . . . . 99 Galileo - Europäisches Satellitennavigationssystem . . . . . . . . . . 103 4.5 Realisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4.5.1 Objektdatenaufbereitung . . . . . . . . . . . . . . . . . . . . . . . . 104 4.5.2 VTG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 4.5.3 GPSTool . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 4.5.4 Mapserver . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Algorithmus für Objektsuche 4.5.5 . . . . . . . . . . . . . . . . . . . . . 113 Testumgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 5 Schlußworte 116 6 Anhang 117 6.1 Linkliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 6.1.1 Akademie & Forschung . . . . . . . . . . . . . . . . . . . . . . . . . 117 6.1.2 Arbeitskreise & Symposien . . . . . . . . . . . . . . . . . . . . . . . 118 6.1.3 Unorthodoxe Ein-Ausgabegeräte . . . . . . . . . . . . . . . . . . . . 118 Tastatur und Maus . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Spracherkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Display . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 GPS und Karthografie . . . . . . . . . . . . . . . . . . . . . . . . . 119 INHALTSVERZEICHNIS ix Kleidung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Verschiedenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 6.1.4 Bibliography Wearable Computer . . . . . . . . . . . . . . . . . . . . . . . . . . 120 121 Abbildungsverzeichnis 2.1 Verschiedene ungewöhnliche E/A-Geräte . . . . . . . . . . . . . . . . . . . 5 2.2 Twiddler Einhandtastatur . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.3 Flexible Tastatur aus Stoff als PDA Keyboard verwendet . . . . . . . . . . 9 2.4 Tastatur auf einer Krawate . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.5 Wasserdichte flexible Keyboards . . . . . . . . . . . . . . . . . . . . . . . . 10 2.6 Ergonomische Tastatur ”Professional II” von Datahand . . . . . . . . . . . 10 2.7 Scheibentastatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.8 Trackball . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.9 Eine Ringmaus mit Dreipunkt–Bewegungserkennung . . . . . . . . . . . . 12 2.10 Eine weitere Version der Ringmaus, jedoch mit Kabel . . . . . . . . . . . . 12 2.11 Funktionsweise und Handhabung des Finring . . . . . . . . . . . . . . . . . 13 2.12 Kopfmaus ”HDMaster” und Stirnbandmaus ”Mousamatic” . . . . . . . . . 13 2.13 Beispiele von Touchscreen-Anwendungen . . . . . . . . . . . . . . . . . . . 15 2.14 Handschrifterkennung mit Stift und mit Sensorleiste . . . . . . . . . . . . . 15 2.15 Arbeiten mit einem Tablett . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.16 Datenhandschuh mit Fingernagelsensor . . . . . . . . . . . . . . . . . . . . 21 2.17 Nicht nur eine tragbare Tastatur ist der sogenannte Scurry . . . . . . . . . 21 2.18 Computer als Parka getarnt . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.19 Pullover mit Kopfhörer am Kragen und Bedientasten am Ärmel . . . . . . 24 2.20 Schmuck als Versteck für E/A–Geräte . . . . . . . . . . . . . . . . . . . . . 26 2.21 Schmuck als Versteck für E/A–Geräte . . . . . . . . . . . . . . . . . . . . . 27 2.22 Thad Starner mit einem HMD von MicroOptical [Mic99] . . . . . . . . . . 29 2.23 HMD von MicroOptical . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.24 Direkte Retinaprojektion von Microvision [Mic03] . . . . . . . . . . . . . . 31 2.25 Einer der ersten Foliendisplays . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.26 Foliendisplay mit Farbdarstellung . . . . . . . . . . . . . . . . . . . . . . . 32 x ABBILDUNGSVERZEICHNIS xi 2.27 Blu; Konzept von Lunar Design [Des01] . . . . . . . . . . . . . . . . . . . . 33 2.28 Displays verschiedenster Art . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.29 Designsstudie eines Bedufters . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.1 Modell MA-IV von Xybernaut mit HMD und Armtastatur . . . . . . . . . 38 3.2 Schuh mit eingebauten Piezzoelement und Rotationsgenerator als Energieerzeuger. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.3 Körperenergiequellen im Überblick. Die Gesamtenergie je Aktion ist in Klammern angegeben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.4 Designermodell eines Kleidungsstückes und eines HMD . . . . . . . . . . . 50 3.5 Ausschnitt eines Gebäudeflügels mit verschiedenen Sensoren bzw. Zellen . . 54 3.6 Teil einer hierarchischen Struktur für Gebiete . . . . . . . . . . . . . . . . 54 3.7 Darstellung eines virtuellen Denkmals in der realen Umgebung . . . . . . . 56 3.8 Aufbau des Archeoguide–Systems . . . . . . . . . . . . . . . . . . . . . . . 57 3.9 MARS System im Einsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3.10 Aufbau des MARS Prototypen . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.11 Der mobile Journalist mit Informationsanzeigebeispiel . . . . . . . . . . . . 62 3.12 Ansicht des Campus mit Flaggen, Information und Links, sowie einer Routenanzeige . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 3.13 Ausrüstung der Navigationshilfe . . . . . . . . . . . . . . . . . . . . . . . . 63 3.14 Reparatur eines Flugzeuges mit Hilfe eines Wearable Computers . . . . . . 64 3.15 Modell des Talking Assistant . . . . . . . . . . . . . . . . . . . . . . . . . . 66 3.16 Systemarchitektur des Talking Assistant . . . . . . . . . . . . . . . . . . . 67 3.17 Schema der Infrastruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.18 Elemente der Infrastruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.19 Forschungsbereiche der Software Group . . . . . . . . . . . . . . . . . . . . 70 3.20 Räume mit Anzeige der anwesenden Personen . . . . . . . . . . . . . . . . 72 3.21 Räume mit Anzeige der anwesenden Personen . . . . . . . . . . . . . . . . 73 3.22 Schema des Systems von CONTEXT . . . . . . . . . . . . . . . . . . . . . 77 3.23 Der ”Context–Aware” Internetkoffer . . . . . . . . . . . . . . . . . . . . . 78 3.24 Komponenten von ROOMWARE . . . . . . . . . . . . . . . . . . . . . . . 80 4.1 Ablauf einer Objekterkennung . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.2 Zylindrische Abbildung [HG94] . . . . . . . . . . . . . . . . . . . . . . . . 89 4.3 Transversale Zylinderprojektion [Wer95] . . . . . . . . . . . . . . . . . . . 89 ABBILDUNGSVERZEICHNIS xii 4.4 Die 3 Meridianstreifen des Gauß-Krüger-Systems [Wer95] . . . . . . . . . . 90 4.5 GKM und BMN im Vergleich [Wer95] . . . . . . . . . . . . . . . . . . . . . 91 4.6 Ein Ausschnitt der Katasterdaten der Grazer Innenstadt . . . . . . . . . . 91 4.7 Schematischer Aufbau eines GPS Empfängers. [See89] . . . . . . . . . . . 96 4.8 Mehrwegeffekt [See96] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4.9 Unterschiede in der Satellitengeometrie [Wel86] . . . . . . . . . . . . . . . 102 4.10 Erreichbare Genauigkeiten der unterschiedlichen Mess– und Auswerteverfahren [Sch94] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 4.11 Architektur der Softwareumgebung . . . . . . . . . . . . . . . . . . . . . . 105 4.12 Objektdaten Definition mit Hilfe von ”AutoCAD Map” . . . . . . . . . . . 106 4.13 ”GPS–Daten” und ”Viewing Range” (links); ”Objekt–Information” (rechts) 108 4.14 Darstellung der Daten einer Abfrage im Browser . . . . . . . . . . . . . . . 109 4.15 Aufbau der Datenbank für den VTG . . . . . . . . . . . . . . . . . . . . . 111 4.16 Datenbank mit angezeigten Propertyeinträgen . . . . . . . . . . . . . . . . 113 4.17 Approximation des Blickfeldes durch Rechtecke . . . . . . . . . . . . . . . 114 4.18 Ablauf einer Objekterkennung . . . . . . . . . . . . . . . . . . . . . . . . . 115 Tabellenverzeichnis 3.1 Werte von herkömmlichen Energiequellen und dem Energieverbrauch einzelner Rechner. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.2 Energieverbrauch bei verschiedenen Aktivitäten. 4.1 Datenbankfiles die aus den Shapefiles erzeugt werden. 4.2 Fehlerquellen und Fehlergößen bei der GPS–Positionsbestimmung. xiii . . . . . . . . . . . . . . 47 . . . . . . . . . . . 92 . . . . 101 Kapitel 1 Einleitung Der Computer als ständiger Wegbegleiter ohne störend aufzufallen bzw. gar nicht bemerkt zu werden, ist schon seit längerem das Ziel einiger Forschungs- und Entwicklungsabteilungen. Um jedoch von einem PC am Schreibtisch zu einem wearable Computer zu gelangen, bedarf es außer einer kompakteren Bauweise auch noch unkonventioneller Ein- und Ausgabegeräte, neuer Software und vor allem vieler neuer Ideen zur Anwendung dieser innovativen Technologien. Mit dieser Arbeit soll ein Überblick über bereits am Markt befindlicher Geräte und Applikationen verschafft werden, aber auch weitere Entwicklungen in diesem Bereich sollen gezeigt werden. Weiters wird die Frage gestellt, welche Einsatzgebiete denkbar wären und welche bereits Realität sind. 1.1 Ziel der Arbeit Die vorliegende Arbeit versucht einen möglichst breiten, theoretischen sowie praxisorientierten Überblick der zu diesem Zeitpunkt bekannten Entwicklungen und Forschungen im Bereich des Umbiquitous Computing zu geben. Der Überblick soll dabei folgende Punkte umfassen: Geschichtlicher Rückblick Produkte die bereits Kommerziell erhältlich sind Prototypen von neuen Entwicklungen Zukunftsvisionen Praktische Anwendungen Veranschaulichung anhand des Projektes ”VTG - Virtual Tourist Guide” Schlußfolgerungen Es soll in den angeführten Punkten auf praxisbezogene Problemstellungen eingegangen werden. Auftretende Schwierigkeiten, sowie Stärken und Schwächen der angesprochenen 1 KAPITEL 1. EINLEITUNG 2 Produkte und Anwendungen sollen diskutiert werden und als Grundlage für den Einstieg in diese Thematik dienen. Ein Resümee, der aus der Untersuchung und praktischen Arbeit gewonnenen Erkenntnisse sowie ein Ausblick auf die zu erwartenden Entwicklungen werden diese Arbeit beschließen. 1.2 Persönliche Motivation der Thematik Neben der Faszination die der weite Bereich des Umbiquitous Computing bietet, war für mich die hervorragende Unterstützung von Seiten des Institutes (IICM) und im besonderen von Christof Dallermassl ein wesentlicher Motivationsfaktor. Die vielen, zum Teil sehr unterschiedlichen Anwendungsmöglichkeiten und die damit verbundenen Problemstellungen mit denen man immer wieder konfrontiert wird, machen das Arbeiten in diesem Bereich der Computertechnologie sehr abwechslungsreich. Alleine im Praktischen Teil dieser Arbeit war man einer Vielzahl von sehr unterschiedlichen Problemen gegenübergestellt. Schon die Überlegung, welche sinnvollen Anwendungen denn realisiert werden könnten, führte zu der Erkenntnis, dass zwei Köpfe gemeinsam, mehr Ideen hervorbringen als zwei Personen die für sich selbst darüber nachdenken. Neben programmiertechnischen Problemen, trugen auch noch theoretische Fragestellungen wie Koordinatensysteme und deren Transformation, zu einem interessanten Arbeitsalltag bei. ”Diese Technologien haben nicht nur eine Zukunft, sie haben auch eine Gegenwart, und dies impliziert ihre Geschichte” 1.3 Vorausgehende Bemerkungen Es wurde versucht immer eine Referenz zu den angeschnittenen Thematiken zu geben, um eine Vertiefung in gewisse Bereiche durch weitere Literatur zu ermöglichen. Die deutschsprachige Begriffswelt der Telekommunikation und Informationstechnologie orientiert sich sehr stark an den äquivalenten englischen Begriffen. Aufgrund der rasanten Entwicklung der beiden Bereiche ist die Rechtschreibung vieler neuer Begriffe im Deutschen noch nicht geklärt. Soweit der DUDEN bereits eine genaue Rechtschreibung für ein verwendetes Wort vorsieht, wird sie in dieser Arbeit berücksichtigt. Im Zweifelsfall wird auf die englischsprachige Form des Wortes eins-zu-eins zurückgegriffen, wie etwa beim Begriff Wearable Computer. Englischsprachige Begriffe wurden ohne spezielle Anpassung an die deutsche Sprache übernommen, da sie die Sache naturgemäß vom Ursprung her besser beschreiben. Diese Arbeit versucht sehr sachbezogen an die diskutierten Themen heranzugehen und persönlich gemachte Erfahrungen einzubringen. Im Falle der theoretischen Untersuchung wurden die Dokument-Adressen zitierter Autoren und Verweise auf allgemeine Informationsquellen angegeben. Die Leser der PDF-Version dieser Arbeit kommen in den zusätzlichen Genuß, gewohnter Hyperlinks und eines mit PDF-Bookmarks realisierten Inhaltsverzeichnisses. KAPITEL 1. EINLEITUNG 3 Erklärung zum Programmcode: Der Kommentar zu den abgedruckten Listings behandelt immer die wesentlichen Punkte der diskutierten Problemstellung und nimmt keinen Bezug auf allgemeine Eigenschaften der eingesetzten Programmiersprache. Diese Arbeit setzt ein grundsätzliches Verständnis der Programmentwicklung und Kenntnisse in zahlreichen Programmiersprachen voraus. Zu den Sprachen zählen etwa Java, JavaScript und HTML. 1.4 Kapitel-Übersicht Kapitel 1 Einleitung: Allgemeine Erklärung des Diplomarbeits-Themas. Begründung der Motivation zu diesem Projekt. Und vorausgehende Bemerkungen über den Inhalt und den Aufbau dieser schriftlichen Arbeit. Bezug auf Arbeiten welche sich mit den hier behandelten Themen befassen. Kapitel 2 Unorthodoxe Ein-/Ausgabegeräte: Für verschiedene Anwendungen, in unterschiedlichen Umgebungen, bei anderen Voraussetzungen braucht man immer wieder spezielle Eingabegeräte und Ausgabegeräte. Welche Arten es gibt und vor allem die unorthodoxen Ausführungen sind Thema dieses Kapitels. Ebenfalls werden Technologien die man dabei verwenden kann vorgestellt. Kapitel 3 Wearable Computing: Es gibt bereits unendlich viel an Information und Arbeiten im Bereich ”Wearable Computing”. In diesem Kapitel wird eine kleine Einführung und ein Überblick über die wesentlichen Bereiche dieses Themas gegeben. Was man eigentlich unter ”Wearable Computing” versteht und wie die geschichtliche Entwicklung in diesem relativ jungen Forschungsgebiet aussieht. Auf Technologien die man dabei einsetzt wird hier ebenfalls eingegangen. Kapitel 4 Projekt - Virtual Tourist Guide (VTG): Dieses Kapitel beschreibt das Projekt VTG – Virtual Tourist Guide. Es werden der Aufbau des Projektes und die aufgetretenen Schwierigkeiten angesprochen. Auch eingesetzte Technologien werden aufgezeigt und kurze Erläuterungen der Spezialgebiete wie GPS, Karthographie und verwendete Bildformate werden erläutert. Kapitel 6 Anhang: Hier findet man eine Linkliste mit URLs für alle angesprochenen Themenbereiche. Diese Liste stelle die während dieser Arbeit gesammelten Bookmarks dar, wobei darauf geachtet wurde, daß nur die zum Zeitpunkt der Fertigstellung dieser Arbeit erreichbare Links angeführt sind. Kapitel 2 Unorthodoxe Ein-/Ausgabegeräte Es stellt sich gleich einmal die Frage, wann ein E/A–Gerät eigentlich unorthodox ist. Liegt es daran, daß es selten verwendet wird, oder ist der Grund weshalb man es als ungewöhnlich bezeichnet der, daß es neu ist und anders funktioniert als bisher verwendete Geräte. Das Aussehen ist mit Sicherheit ein Bestandteil der einem zu der Bezeichnung unorthodox führt. Somit ist jedoch gezeigt, daß ungewöhnliche E/A-Geräte bei häufiger Verwendung zu gewöhnlichen Gegenständen werden. Es ist also eine Gewohnheitssache, denn schon das häufige Sehen eines Gerätes macht es für uns zu einem gewöhnlichen Gegenstand. Damit soll gezeigt werden, daß einige der in Folge angeführten unorthodoxen E/A-Geräte nur zum Zeitpunkt des Verfassens der Arbeit auch als solche bezeichnet werden können. In naher Zukunft werden wohl einige dieser Geräte als eher gewöhnlich bezeichnet werden. Deshalb sollte man die Bezeichnung ”unorthodox” für diese Geräte auch als zeitlich begrenzt ansehen. Zu Beginn der Computer–Programierung war eine Tastatur noch eine Zukunftsvision, es wurden Verbindungen gesteckt oder Schalter umgelegt, um einen Code einzugeben. Eine Spracheingabe klang wohl damals ziemlich futuristisch, um nicht zu sagen utopisch. Nach der Tastatur als Eingabegerät und einem Monitor als Anzeigegerät, war die Maus ein willkommenes Hilfsmittel um schnell und einfach in graphischen Oberflächen zu navigieren. Heutzutage ist es gar nicht mehr so einfach sich einen Überblick über die verschiedensten Keyboards, Maus-Arten, Joysticks, usw. zu machen. Auch eine durch die Spieleindustrie sehr bekannt gewordene Technologie, das so genannte Force–Feedback, wird bereits vielseitig eingesetzt. Es kann jedoch durch spezielle Einsatzgebiete immer noch als unorthodox bezeichnet werden. Bei dieser Technik wird eine Gegenkraft oder ein Vibrieren erzeugt. Dies kann man für verschiedenste Anwendung nutzen. Zum Beispiel um für Blinde das Navigieren am Desktop zu erleichtern oder überhaupt zu ermöglichen. Eine Vibration kennzeichnet dabei das Bewegen über ein Objekt und mit einer Gegenkraft läßt sich der Bildschirmrand erkennen. Ein unorthodoxen E/A–Gerät zu erzeugen ist auch möglich indem man eine bekannte Funktionalität (Mikrofon, Display, Tastatur,...) in einen ebenso alltägliche Gegenstände integriert. Ein Beispiele dafür währen das Mikrofon in einer Halskette, ein Miniaturlautsprecher in einem Ohrring, ein Display in der Armbanduhr oder eine Tastatur am Ärmel einer Jacke aufgenäht. 4 KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 5 In weiterer Folge werden einige dieser Möglichkeiten gezeigt (Twiddler, Stofftastatur, Fingermaus, Foliendisplay, HMDs,. . . ) Abbildung 2.1: Verschiedene ungewöhnliche E/A-Geräte 2.1 Eingabegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.1.1 Tastatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.1.2 Zeigegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.1.3 Handschrifterkennung 2.1.4 Spracherkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.1.5 Datenhandschuhe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.1.6 Dexterous manipulators . . . . . . . . . . . . . . . . . . . . . . . . 22 2.1.7 Datenanzug . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.1.8 Elektronische Stoffe und Sensoren . . . . . . . . . . . . . . . . . . . 23 2.1.9 Elektronischer Schmuck . . . . . . . . . . . . . . . . . . . . . . . . 26 . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.1.10 Video . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 2.2 6 Ausgabegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.1 Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 HMD mit Display . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 HMD mit Retinaprojektion . . . . . . . . . . . . . . . . . . . . . . 30 Display-Folien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 Weitere Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.2.2 Haptische Geräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Force Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Tactile Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.3 2.1 2.2.3 Audio–Ausgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.2.4 Gerüche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 Forschung und Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Eingabegeräte In nicht all zu ferner Zukunft wird eine Maschine seinem Nutzer die Wünsche von den Lippen oder den Augen ablesen oder nur der Berührung des Nutzers folgen, bevor dieser in der Lage ist sein Anliegen überhaupt auszudrücken. Ein wirklich ”intuitives” User Interface eines Computers oder Kommunikationsgerätes wird es dem Nutzer ersparen, eine Sprache zu finden, die dem Gerät verständlich ist. Die intuitivste Art, wie wir mit einer Maschine kommunizieren wird sich stark unterscheiden bei Nutzern (bedingt durch z.B. Kultur, Erziehung und mögliche Behinderungen), Anwendungen (z.B. einfache Befehle oder Texteingaben, Auswahlmöglichkeiten sowie komplexe Kombinationen) und Umwelteinflüsse (z.B. mobil oder stationärer Einsatz, Störeinflüsse, Rauschen sowie Lichtverhältnisse). User Interfaces wurden auf verschiedenste Weise verbessert, um die Mensch–Maschine Interaktion zu vereinfachen. Nachdem DOS Applikationen die ersten Pull–down Menüs und Dialoge anboten, ermöglichen Windows verwandte User Interface bereits einen umfassenderes Portfolio von grafischen Elementen, wie z.B. Icons, Scrollbars, überlappende Fenster, und der grafischen Eingabe über die Standard Maus. Erst in letzter Zeit wird die Spracheingabe eine vertretbare Option, um Wünsche von den Lippen der Nutzer abzulesen. Dennoch ist die Spracheingabe nur brauchbar für ganz bestimmte Steuerungs– und Eingabeaspekte. Beispielsweise eignet sich die Spracheingabe nicht wirklich für grafische Eingaben, wie die Cursorsteuerung. Genauso wenig funktioniert die Spracheingabe in überfüllten Räumen, da Hintergrundgeräusche das sichere Erkennen von Sprache behindern. Auch die unterschiedliche Aussprache und Akzente stellen eine Herausforderung an die Entwicklung dar. Joysticks und andere haptische Geräte erhöhten die Vielseitigkeit von Eingabenmedien ohne einer Komplettlösung für Jedermann oder jeder Anwendung gerecht zu werden. Die Verwendung der Blickposition und Blickbewegungen auf dem Computermonitor ergänzen eine weitere Dimension von Eingabemodi. Es ist aber gerade das Zusammenspiel mehrerer Eingabegeräte in einem multi–modalen Verbund, welches das User Interface wirklich intuitiv macht. Dies wird unterstützt durch die Abänderung des KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 7 GUI oder Operationssystems.[Tei01] Eingabegeräte dienen zur Kommunikation mit dem Computer, der die Eingaben des Benutzers entgegennimmt, diese auswertet und entsprechend darauf reagiert. Alle benutzten Eingabegeräte zusammen sollten dem Benutzer eine möglichst realitätsgetreue und intuitive Steuerung ermöglichen. Dabei sollten die Steuerungsmodule praktisch ”unsichtbar” sein, das heißt sie sollten den natürlichen Bewegungsablauf so wenig wie möglich behindern und nicht zu spüren sein. Leider erlaubt dies der heutige Stand der Technik noch nicht. Eine ”Natürlichkeit” ist nur in einem sehr begrenzten Rahmen möglich. Gedankeneingabe durch einen Computerchip unter der Haut ist wohl eine Vision. Ohne Visionen wäre Amerika wohl nie entdeckt worden und der Mensch nie auf den Mond geflogen. Viele Projekte werden sehr geheim gehalten bzw. die Details der Funktionsweise wird aus geschäftlichen Gründen nicht immer an die Öffentlichkeit weitergegeben. Da sich jedoch sehr viele Menschen darüber den Kopf zerbrechen wie Mensch–Maschiene–Kommunikation funktionieren könnte, sind wohl die grundsätzlichen Möglichkeiten bekannt. Welche Art von Information kann der Mensch erzeugen bzw. verarbeiten? Bilder Schrift Zeichen Gerüche Ton (Sprache, Musik, Geräusche) Tastsinn Gedanken ... Der Computer kann nur digitale Zustände verarbeiten, das heißt es ist ihm egal wie die Information aufgenommen wird, er braucht nur das passende Interface dafür, das ihm die Daten richtig aufbereitet. Solche Interfaces, in diesem Fall Eingabegeräte, können verschiedenste Informationen aufnehmen und in digitale Signale umwandeln. Eine Tastatur zum Beispiel wandelt das Drücken auf eine Taste in einen Zahlenwert um, der in digitaler Form an den Computer gesendet wird. Dieser wiederum interpretiert dieses digitale Signal, mit Hilfe einer Treibersoftware, zum Beispiel als Buchstaben ”X”. Die Kunst liegt also darin, die in beliebiger Form vorliegende Information in digitale Information umzuwandeln. In weiterer Folge, werden einige ”Informationswandler”, wenn man sie so bezeichnen möchte, vorgestellt. KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 2.1.1 8 Tastatur Ein sehr einfaches und sehr oft eingesetztes Eingabegerät ist die Tastatur. Ursprünglich verwendet um geistige Information mit Hilfe einer mechanischen Tastatur (Schreibmaschine) auf Papier zu verewigen. Nach vielen Jahren in denen diese Technologie verwendet wurde, kam es erst duch den Elektronikboom zu wirklichen Neuerungen in der Entwicklung von Texteingabegeräten. Um zumindest eine Hand für weitere Tätigkeiten frei zu haben wurde die sogenannte ”Einhandtastatur” entwickelt. Es gibt viele Varianten, wobei der Twiddler wohl die bekannteste Version darstellt. Der Twiddler ist eine Kombination aus Tastatur und Maus, der mit einer Hand bedient werden kann. Er erlaubt die Bedienung bei jeder Handposition und eine ausreichend hohe Eingabegeschwindigkeit (bis zu 60 Wörter pro Minute). Die Tastenbelegung ist gänzlich konfigurierbar und somit auf individuelle Vorlieben einstellbar. Beim Twiddler können Tastenkombinationen zur Eingabe von ganzen Strings definiert werden. Es stehen über 4000 dieser Kombinationen zur Verfügung. Das Standardmapping des Twiddlers beinhaltet gebräuchliche englische Buchstabenkombinationen wie ”ing”, ”ed”, ”the”, ”ion”, etc. . Dies kann mit gebräuchlichen Wörtern, einer Email–Adresse, oder der URL der eigenen Homepage belegt werden. Zusätzlich zur Tastenbelegung kann auch die von manchen Programmen verwendete Worterkennung nach Eingabe weniger Buchstaben verwendet werden. Diese und weitere Hilfsmittel ermöglichen eine schnelle Eingabe (siehe Abbildung 2.2). Abbildung 2.2: Twiddler Einhandtastatur Beim ”flexiblen Keyboard” werden dünne Sensoren und die zugehörige Elektronik in einen wasserfesten, verformbaren Stoff eingearbeitet (siehe Abbildung 2.3). Somit kann man die Tastatur zusammenlegen oder zum Beispiel auf ein Kleidungsstück aufnähen. Es kann mit dieser Methode die Tastatur auch direkt in Kleidung eingearbeitet werden (siehe Abbildung 2.4). Es kann zum Beispiel auch Kunststoff verwendet werden um die Tastatur gegen Wasser und Schmutz zu schützen (siehe Abbildung 2.5). KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 9 Abbildung 2.3: Flexible Tastatur aus Stoff als PDA Keyboard verwendet Abbildung 2.4: Tastatur auf einer Krawate Näheres zu elektronischen Stoffen wird in Abschnitt 2.1.8 gezeigt. Die folgende Variante einer ergonomischen Tastatur ist jedoch relativ klobig und in dieser Form eher nicht zur Verwendung bei Wearable Systemen geeignet (siehe Abbildung 2.6). Die ”Professional II” ist eine Tastatur–Maus–Kombination. Die genaue Funktionsweise des Produktes kann man auf der Webseite der Firma ”Datahand”1 finden. Es ist auch ein etwas teures Spielzeug und wird deshalb auch kaum ein Massenprodukt werden. Eine andere Art Text einzugeben ist die in Folge beschriebene ”Scheibentastatur” (siehe Abbildung 2.7). Die Zeichen und Symbole sind in Kreisform angegeben. Nun kann zum Beispiel mit einem Stift, Text auf einem Touchscreen eingegeben werden, ohne dass dazu eine herkömmliche Tastatur benötigt wird. Durch diese Anordnung der Zeichen ist es möglich, von einem Zeichen zum Anderen zu gelangen, ohne den Eingabestift anzuheben oder ungewollt falsche Zeichen einzugeben. Dadurch ist eine schnellere Eingabe möglich als dies mit der Abbildung einer herkömmlichen Tastatur zu schaffen ist. 1 http://www.datahand.com/flashsite/home.html KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 10 Abbildung 2.5: Wasserdichte flexible Keyboards Abbildung 2.6: Ergonomische Tastatur ”Professional II” von Datahand 2.1.2 Zeigegeräte Die ”Maus” war die logische Entwicklung zur Navigation in einem GUI (Graphical User Interface). Graphische Benutzer–Schnittstellen ermöglichen eine schnelle Interaktion mit dem Computer. Über die alltäglichen Formen einer Maus auch wenn sie kabellos ist oder statt der Rolle über einen Infrarotaufnehmer zur Bewegungserkennung verfügt, muß man hier wohl keine Worte verlieren. Weil man mit der Maus doch einen gewissen Platz auf dem Schreibtisch zum Hin- und Herschieben benötigt, wurde der sogenannte ”Trackball” entwickelt. Dieser hat die gleiche Funktion wie eine Maus und ist ebenso konstruiert, bis auf den beweglichen Teil (ein kleiner, drehbar gelagerter Ball) der beim Trackball nach oben weist. Der Zeiger auf dem Bildschirm wird durch Drehung des Balls mit der Hand verschoben. Vor allem bei tragbaren Computern ersetzt man damit die Maus. Für hohe Präzision sorgt Beispielsweise der TrackMan Marble FX von Logitech. Der VierTasten-Trackball basiert auf der patentierten, optischen Marble-Technologie die eine hohe Präzision und eine wartungsfreie Handhabung ermöglicht. Auf dem großen Trackball sind Punkte in einem willkürlichen Muster angeordnet. Dieses Muster wird durch eine kleine Linse auf einem Sensor erfaßt und übertragen. Das Bild wird von 93 unabhängigen Zellen, KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 11 Abbildung 2.7: Scheibentastatur die durch ein neuronales Netzwerk verbunden sind, über 1000mal/Sekunde analysiert. Die Informationen über die Bewegung werden dann an einen Mikroprozessor übertragen, der die Cursor-Bewegungen auf der x- und y-Achse berechnet. Das System arbeitet auch noch wenn Teile des Sensors verschmutzt oder beschädigt sind. Das neue Design ermöglicht die Steuerung des Balles von zwei Seiten: wahlweise mit den Fingern oder mit dem Daumen und Zeigefinger. Zusammen mit der Software ”MouseWare” wird unter anderem das Scrollen und Zoomen mit einem einzigen Mausklick möglich (siehe Abbildung 2.8). Abbildung 2.8: Trackball Interessanter ist hingegen schon die sogenannte ”Ringmaus” wie sie in den folgenden Bildern zu sehen ist (siehe Abbildung 2.9, 2.10 und 2.11). Durch das Tragen am Finger ist auch eine dreidimensionale Auswertung möglich. In Abbildung 2.9 ist ein System zur dreidimensionalen Positionsbestimmung der Maus durch drei Sensoren zu sehen. Diese Methode könnte man natürlich auch bei Wearable Computern einsetzen, indem man die Sensoren am Körper positioniert und die Maus vor sich bewegt. Eine andere Version ist die kabelgebundene Ringmaus mit Bewegungssensoren in der Maus integriert. Noch einfacher in der Anwendung ist eine Neuentwicklung welche die Bewegung der Maus mit Beschleunigungssensoren abnimmt und die Informationen via RF–Interface an die Empfangseinheit schickt, die ihrerseits am USB–Port angeschlossen wird. Der Empfangsbereich liegt bei 1–3 Meter, mit der optionalen Antenne sogar bis zu 8 Meter. Der mittlere Button dient zum Aktivieren und Deaktivieren der Maus, die beiden anderen haben die KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 12 Abbildung 2.9: Eine Ringmaus mit Dreipunkt–Bewegungserkennung Abbildung 2.10: Eine weitere Version der Ringmaus, jedoch mit Kabel selbe Funktion wie der linke und rechte Button einer herkömmlichen Maus (siehe Abbildung 2.11). Um die Maus zu verwenden, hält man sie in horizontaler Position und durch kurzes drücken des mittleren Button wird die Maus aktiviert. Nun wird eine Drehbewegung zur Seite bzw. nach Vorne oder Hinten erkannt und der Cursor am Bildschirm bewegt sich entsprechend. Je größer der Drehwinkel, desto schneller bewegt sich der Cursor. Um die Mausbewegung zu beenden klickt man erneut auf den mittleren Button. Auch optisch ist diese Maus durch ihre verschiedenen farblichen Ausführungen recht annehmlich (siehe Abbildung 2.11). Mehr Information zum Produkt Finring–Maus erhält man auf der Webseite der Firma Bosswave 2 . Noch näher am Begriff ”Ringmaus” ist die in einem echten Ring integrierte Maus. Diese wird später im Abschnitt ”Elektronischer Schmuck” 2.1.9 gezeigt. Eine andere Variante ist die sogenannte ”Hands Free Mouse”. Cursersteuerung mit einfachen Kopfbewegungen ist eine Grundidee dieser Mausgattung. Durch eine Kontrolleinheit am Monitor (Signalsender und Schnittstelle zum PC) und Sensoren am Kopf (drei Sensoren erkennen unterschiedliche Signalstärken), kann eine Bewegung aufgenommen und interpretiert werden. Die Maustaste kann durch einen Druckluftschalter (ausgelöst durch ein kurzes blasen in ein Röhrchen zum Drucksensor) oder durch einen beliebigen Taster, welcher an der Kontrolleinheit angeschlossen wird, ersetzt werden. Dies ist eine Möglich2 http://www.bosswave.com/mouse/finring/index.shtml KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 13 Abbildung 2.11: Funktionsweise und Handhabung des Finring keit wie man ohne Hände den Curser am Computerbildschirm steuern kann (siehe Abbildung 2.12). Zum Beispiel können Körperbehinderte mit einer am Bildschirm dargestellten Tastatur einen Computer vollständig bedienen. Es gibt auch Produkte die man wie einen Kopfhörer oder ein Stirnband am Kopf tragen kann. Somit ist die Verwendung mit einem Wearable Computer ebenfalls möglich (siehe Abbildung 2.12). NaturalPoint TrackIR, Mousamatic und HeadMaster Plus sind Beispiele für kommerziell erhältliche Produkte 3 . Abbildung 2.12: Kopfmaus ”HDMaster” und Stirnbandmaus ”Mousamatic” Es ist nicht nötig überall am Bildschirm die gleich hohe Auflösung zu benutzen, da das Auge nur im Fokus scharf sieht. Man könnte also vom Brennpunkt startend nach außen 3 http://www.worklink.net/mice.htm KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 14 hin immer geringere Auflösung benutzen, ohne daß dies der Benutzer merken würde. Das bedeutet wiederum Performancegewinn. Um diesem Problem entgegenzukommen wurde das ”Eye tracking” entwickelt, das in vier Grundtechniken eingeteilt wird: limbus tracking: Die Grenzlinie zwischen Iris und Limbus ist sehr scharf und kann deshalb leicht identifiziert werden. Auf der Brille des Benutzers sind Infrarot-LEDs und Photo-Transistoren angebracht, um durch Reflexion an der Iris und des Limbus auf die Blickrichtung zu schließen. Dieses System ist ziemlich genau (Fehlerquote zwischen 1o und 3o ). image tracking: Hier werden Kameras die das Auge filmen verwendet. Die Bilder werden miteinander mit verschiedenen Techniken verglichen und bearbeitet um auf die Blickrichtung zu schließen. (Fehlerrate ca. 1o ) electro–oculography (EOG): Seitlich an den Augen sind Elektroden positioniert, um das Potential zwischen Cornea und Retina zu messen (15 Mikrovolt – 200 Mikrovolt). Dieses System ist sehr unzuverlässig, weil es Muskelzuckungen und externe elektrische Interferenzen nicht berücksichtigen kann. corneal reflection: Photo–Transistoren analysieren die Reflexion von abgestrahltem Licht an der konvexen Cornea. Dieses System verspricht eine ziemlich hohe Genauigkeit (Abweichung 0,5o – 1o ) ist jedoch sehr aufwendig zu kalibrieren. Ein weiteres Problem ist die Augenflüssigkeit, die die Reflexion beeinflußt. Das Eye Tracking kann natürlich auch zur Navigation am Desktop benutzt werden. Für die direkte Eingabe mit den Fingern oder ähnlichem auf dem Bildschirm selbst gibt es sogenannte Touchscreens. Diese Monitore können die Stellen wo sie berührt werden lokalisieren und ein entsprechendes Signal an den Rechner weiterleiten. Mit speziell dafür ausgelegten Programmen kann eine sehr einfache Benutzerführung aufgebaut werden. Unangenehm ist die permanente Verschmutzung solcher Bildschirme, auch bei Bauarten wo ein Kontakt des Fingers mit der Oberfläche gar nicht nötig ist. Die Abgrenzung der Eingabefelder muß auf die Größe der Finger abgestimmt sein (also nicht zu klein), um Fehleingaben zu vermeiden. Touchscreens sind häufig staub– und wasserdicht ausgeführt und eignen sich daher für eine rauhe Umgebung wie zum Beispiel in der Gastronomie oder in der industriellen Fertigung. Die Bedienung ist so einfach, daß auch völlig unerfahrene Benutzer Informationen damit abrufen können (siehe Abbildung 2.13). Viele Details zu diesem Thema sind unter der Webadresse der Firma 3M zu finden4 . Der ”Lichtgriffel” oder besser bekannt unter dem englischen Begriff ”Light-Pen”, ist vor allem für Anwender die nur gelegentlich am Computer arbeiten gut geeignet. Es ist leichter Eingaben zu machen indem man direkt auf bestimmte Stellen des Bildschirms zeigt, als sie mit der Maus anzuwählen. Diese Lichtgriffel sind nicht größer als ein Kugelschreiber. In ihrer Spitze befinden sich optische Sensoren, deren Meßwerte zum Computer geschickt werden. Der kann aus einem Vergleich der vom Lichtgriffel eintreffenden Signale und den Signalen die er zum Bildschirm sendet berechnen, auf welche Stelle des Bildschirms der Lichtgriffel deutet. Mit einer kleinen Taste am Lichtgriffel kann dem Computer signalisiert werden, daß er den Befehl ausführen soll, auf dessen Symbol der Lichtgriffel gerade deutet. 4 http://www.3m.com/3MTouchSystems/ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 15 Abbildung 2.13: Beispiele von Touchscreen-Anwendungen 2.1.3 Handschrifterkennung Eine moderne Variante der Dateneingabe sind Systeme bei denen mit einem besonderen Stift auf eine Unterlage geschrieben wird, die den Weg des Stifts auf der Oberfläche darstellen und digital umsetzen kann. Es gibt auch Stifte die bereits Sensoren integriert haben und die Bewegung direkt aufnehmen und verarbeiten können, sowie via Bluetooth oder ähnlichem die Daten gleich an den Computer, PDA, Wearable Computer oder ans Faxgerät schicken (siehe Abbildung 2.14 links). Ähnlich wie bei der Spracheingabe ist eine Art Lernprozess hilfreich, um die Erkennung einer Handschrift zu verbessern. Vor allem für kleine, tragbare Rechner ist diese Art der Eingabe günstig, weil man dabei auf eine Tastatur völlig verzichten kann. Die Schreibfläche ist dann gleichzeitig der Bildschirm. Abbildung 2.14: Handschrifterkennung mit Stift und mit Sensorleiste Eine weitere Variante ist die Sensorleiste, welche die Bewegung eines Stiftes in einem bestimmten Arbeitsbereich erkennt und die Information zur Verarbeitung an den PDA schickt, oder direkt eine Nachricht über das Mobiltelefon versendet (Siehe Abbildung 2.14 rechts). Ähnlich funktionieren auch die sogenannten Digitalisiertabletts, auf denen mit einem Stift oder einer speziellen Maus verschiedenste Eingaben gemachen werden können (Siehe Abbildung 2.15). Sie können zur Auswahl von bestimmten Befehlen genutzt werden, die auf eine Schablone (Menüfeld) aufgemalt sind. Das Digitalisiertablett lokalisiert dabei, an welcher Stelle auf dem Tablett eine Berührung mit einem besonderen Stift stattgefunden hat. Eine andere Rolle spielen Digitalisiertabletts bei der direkten Eingabe von Daten, vorzugsweise von geographischen Karten. Man zielt dabei einzelne Punkte mit einer Art Fadenkreuz an und drückt dann eine Taste. Die X– und Y–Koordinaten dieses Punkts werden dann automatisch auf mehrere Stellen genau gespeichert. Vorher muß allerdings KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 16 Abbildung 2.15: Arbeiten mit einem Tablett eine entsprechende Justierung stattfinden. Am häufigsten verwendet wird eine derartige Eingabe bei Konstruktionsbüros, Grafikfirmen, oder Architekten. 2.1.4 Spracherkennung Bis vor kurzem war Spracherkennung (engl. speech recognition) nur Realität in Science– Fiction Filmen. Für Mister Spok vom Raumschiff Enterprise ist es selbstverständlich, seine Anweisungen dem Bordcomputer im wahrsten Sinne des Wortes zu diktieren. Der legendäre Computer HAL aus ”2001 – Odyssee im Weltall” entwickelte seine Fähigkeiten sogar so weit, dass er von den Lippen lesen konnte. Zugegeben – ganz so weit ist es noch nicht. Dennoch haben Spracherkennungssysteme in der letzten Zeit gewaltige Fortschritte gemacht und sind mittlerweile neben Maus und Tastatur zum gleichberechtigten Eingabeinstrument geworden. Das gilt sowohl für das Erfassen von Texten und Daten wie auch für das Steuern des PC. Die neue Generation der Spracherkennungsprogramme ermöglicht auch Otto–Normalverbraucher eine völlig neue Arbeitswelt. Der Ausspruch ”Computer – bitte zum Diktat” ist heute bereits Realität geworden. Ein kurzer geschichtlicher Rückblick zeigt die rasche Entwicklung dieser interessanten Mensch–Maschine–Schnittstelle. Seit den sechziger Jahren wird in den Labors unterschiedlichster Firmen intensiv an Spracherkennungssystemen geforscht und entwickelt. Bis zu Beginn der achtziger Jahre reichten das Wissen und die technischen Möglichkeiten gerade aus, um Systeme zu konstruieren die maximal einige hundert Einzelwörter erkennen konnten. Danach ist die Entwicklung so rasant vorangekommen, dass eine Erfolgsmeldung die andere ablöste. 1984 wurde ein Spracherkennungssystem vorgestellt, das mit Hilfe eines Großrechners in einem mehrere Minuten dauernden Rechenvorgang etwa 5.000 englische Einzelwörter erkennen konnte. Im Jahre 1986 haben Wissenschaftler des IBM Forschungslabors in Yorktown Heights, USA, den Prototyp ”Tangora 4 für Englisch, entwickelt. Bei diesem System war es durch spezielle Mikroprozessoren möglich, die komplizierten Verarbeitungsschritte der gesprochenen Sprache auf einem Arbeitsplatzrechner in Echtzeit durchzuführen. Das bemerkens- KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 17 werte an diesem System war, dass es bereits eine Kontextprüfung beinhaltete. Seit 1988 wurde im Wissenschaftlichen Zentrum Heidelberg der Prototyp für die deutsche Version von ”Tangora” entwickelt. Einsatz fand dieses System in der Medizin zum Diktieren von radiologischen Befunden, im Gerichtswesen für juristische Gutachten und im Büro für die allgemeine Geschäftskorrespondenz. Im Dezember 1992 wurde die ”Tangora–Technik” erstmals in einem Produkt unter dem Namen ”ISSS” (IBM Speech Server Series) verfügbar gemacht. Ende 1993 wurde ein neues Produkt, das auf der ”Tangora–Technologie” basiert, angekündigt. Der Preis war geradezu eine Sensation. Während alle bisherigen Lösungen über 10.000¿ gekostet hatten, wurde das IBM Personal Dictation System, das kurze Zeit später in IBM VoiceType Diktiersystem umbenannt wurde, für unter 1.000¿ auf den Markt gebracht. Dieses System war eine reine PC-Lösung und damit auch für den breiten Massenmarkt bestimmt. Eine andere Lösung und das erste Spracherkennungssystem für den tragbaren PC wurde 1984 von der Firma Dragon Systems in Newton, Massachusetts, entwickelt. Die erste kontinuierliche Philips Spracherkennung wurde 1993 vorgestellt und 1994 implementiert. Es folgte 1997 das Produkt Speech Magic, welches Client/Server fähig ist, und 1998 ein Konsumentenprodukt namens FreeSpeech98. Lernout & Hauspie ist der vierte Spracherkennungshersteller. Die ersten Produkte in deutscher Sprache sind seit Ende November 1998 verfügbar. Große Technologieunternehmen wie IBM oder Philips haben das riesige Marktpotential erkannt und investieren seit Jahren beträchtliche Summen in die Perfektionierung der Spracherkennung. Gleichzeitig kommen neue Anbieter wie Dragon Systems und Lernout & Hauspie auf den Markt und beschleunigen das Innovationstempo weiter. Der eigentliche Gewinner dieses Wettlaufs ist der Verbraucher, der für immer weniger Geld eine immer bessere Software erhält. Umfragen zeigen das überwältigende Interesse an diesem Thema. Ein Großteil der PC–Anwender kann sich vorstellen, in der nächsten Zeit ein Spracherkennungssystem anzuschaffen. Interessanterweise setzen aber nur sehr wenige eine Spracherkennung im produktiven Alltag bereits ein. Woher rührt diese beträchtliche Diskrepanz zwischen einerseits breitem Interesse und andererseits nur geringer Verwendung? Es wird für viele Interessenten immer schwieriger, sich angesichts der Vielzahl der angebotenen Systeme einen aktuellen und objektiven Überblick zu verschaffen. Und selbst die Lektüre eines noch so umfangreichen Testberichts ist kein Ersatz für das eigene Ausprobieren und Testen der verschiedenen Programme. Nur so kann jeder selbst entscheiden, ob sich Spracherkennung nutzbringend einsetzen lässt. Die jahrzehntelange Grundlagenforschung in der Spracherkennung ist in letzter Zeit wesentlich vorangekommen. Für die allgemeine Textverarbeitung, die Telekommunikation und den Zugriff auf Datenbanken sowie beim Dialog mit Expertensystemen wird zur Zeit an besonders leistungsfähigen Spracherkennungssystemen geforscht. Gesprochene Sprache ist eines der wichtigsten menschlichen Kommunikationsmittel. Da die Sprache für uns selbstverständlich ist, machen wir uns über sie normalerweise keine Gedanken. Für uns Menschen ist es einfach, Wörter und Sätze zu verstehen. Könnte die KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 18 natürlich gesprochene Sprache von Computern verstanden werden, würde dies nicht nur den Mensch-Maschine-Dialog erleichtern, sondern auch neue Einsatzgebiete des Computers erschließen. Am Entwicklungsprozess einer Spracherkennungslösung sind unter anderem beteiligt: Programmierung und Computertechnik Phonetik Linguistik Mustererkennung künstliche Intelligenz Mit einem automatischen Spracherkenner wird versucht, das menschliche Sprachverstehen nachzuahmen. Neben Tastatur und Maus dient nun das Mikrofon als weitere direkte Eingabemöglichkeit dazu, Daten in den Computer einzugeben. Spracherkennungssysteme lassen sich in zwei grundsätzlich verschiedene Gruppen unterteilen. Die eine dient zur Steuerung von Maschinen durch ”Sprachbefehle”, die andere wird zum Erfassen von ”gesprochenem Text” eingesetzt. Die Spracherkennung zur ”Steuerung und Befehlseingabe” bildet die Eine Gruppe von Systemen. Steuerungssysteme verfügen in der Regel über einen stark beschränkten Wortschatz, da meist nur wenige Befehle zur Steuerung benötigt werden und kein direkter Kontakt zum spracherkennenden Computer bestehen muss. Somit sind auch indirekte Eingaben wie zum Beispiel über ein Telefon möglich. Sie finden vor allem Anwendung beim sogenannten ”Telefon-Banking”. Es sind aber auch Datenbankrecherchen via Telefon möglich. Sprachsteuerungen mit Kontakt zum Computer finden vor allem Anwendung als Steuerungssysteme, die mittels sprachlich gegebener Befehle Geräte und Maschinen bedienen beziehungsweise steuern. Die andere Gruppe bilden Spracherkennungssysteme zur ”Texterfassung”. Bei der Spracherkennung werden gesprochene Wörter in geschriebenen Text umgewandelt. Diese Systeme müssen in der Regel über einen sehr großen Wortschatz verfügen, damit zufriedenstellende Erkennungsergebnisse erreicht werden können. Manche Systeme können den Text in Echtzeit erfassen, bei anderen muss der Vorgang der Umwandlung von Sprache in Text in einem sogenannten ”Stapel-Betrieb” (Batch-Job) erfolgen. Systeme die in Echtzeit arbeiten, können den Text unmittelbar nachdem er gesprochen wurde, auf dem Bildschirm des Spracherkennungscomputers anzeigen. Ein weiteres Unterscheidungskriterium befasst sich mit der Frage, ob zur Spracherkennung eine diskrete Sprechweise erforderlich ist, also jedes Wort für sich gesprochen werden muss, oder ob der Text kontinuierlich diktiert werden kann, wie es beim normalen Sprechen üblich ist. Beim kontinuierlichen Sprechen sind fast alle Wörter lückenlos aneinandergereiht. Dem Menschen fällt es beim Zuhören leicht, die einzelnen Wörter zu unterscheiden. Für eine Maschine ist es um ein Vielfaches schwieriger einen zusammenhängenden Redefluss KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 19 zu strukturieren und in einzelne Wörter zu zerlegen. Das System muss in Echtzeit entscheiden, an welcher Stelle Wörter zu Ende sind. Der schon bei Systemen für diskret gesprochene Sprache sehr hohe Rechenaufwand wird bei Systemen die kontinuierlich gesprochene Sprache erkennen sollen, um ein Vielfaches übertroffen. Durch die kontinuierlich steigende Leistungsfähigkeit der PCs ist es den Labors jedoch gelungen ein System zu entwickeln, welches das Diktieren ohne Pausen zwischen den einzelnen Wörtern zulässt. Diese Systeme sind mittlerweile mit einem riesigen Gesammtwortschatz und ebenfalls sprecherunabhängig verfügbar. Ein sprecherunabhängiges System kann von jeder beliebigen Person ohne Training genutzt werden. Bei Texterfassungssystemen muss differenziert werden, ob sich die Sprecherunabhängigkeit auf den Wortschatz oder auf das gesamte Spracherkennungssystem bezieht. Bei einem Spracherkennungssystem ohne mitgelieferten sprecherunabhängigen Wortschatz, muss jeder Benutzer der mit dem System arbeiten möchte seinen persönlichen Wortschatz erst aufbauen. Aus jedem Wort das der Benutzer diktiert, muss der Rechner ein Referenzmuster erzeugen. Erst wenn der selbst aufgebaute Wortschatz repräsentativ genug ist, können ausreichend gute Erkennungsergebnisse erreicht werden. Dadurch dauert die Einarbeitungszeit für jeden Benutzer sehr lange und die Produktivität wird zunächst stark absinken. Solche Systeme sind heute nicht mehr üblich. Ein mitgelieferter sprecherunabhängiger Wortschatz ist somit sehr sinnvoll, da dieser nur noch an die Sprechweise des Benutzers angepasst und nicht erst eingegeben werden muss. Die am häufigsten verwendeten Wörter sind in solch einem Wortschatz bereits enthalten und mit Referenzmustern hinterlegt. Sie werden nur noch an den Sprecher adaptiert. Zum Beispiel lernt das System ob der Sprecher ”wichtig”, ”wichtich”, oder gar ”wischtisch” sagt. Man stelle sich einmal vor, ein Österreicher, ein Deutscher und ein Schweizer sollten vom System sofort und ohne Initialtraining erkannt werden. Dies ist selbst für einen Menschen schwierig, da die regionalen sprachlichen Eigenheiten der Sprecher sehr verschieden sein können. Ein System das nicht auf die zusätzlichen Kommunikationsmittel des Menschen (z. B. Gestik, Mimik), zurückgreifen kann, wäre hoffnungslos verloren. Ein Anpassungstraining ist aufgrund der heutigen sprecherunabhängigen Systeme zwar nicht mehr notwendig, aber aufgrund unserer individuellen Aussprache sehr empfehlenswert. Man erzielt dadurch von Anfang an eine weitaus höhere Erkennungsgenauigkeit. Bereits heute können auf dem PC basierende Diktiersysteme in vielen Bereichen effektiv eingesetzt werden, wobei die Arbeit noch folgenden Beschränkungen unterliegt: Ein Kopfbügelmikrofon (Headset), durch das man an den Computer gebunden ist, ist immer noch notwendig. Ein Training der Systeme ist wegen der unterschiedlichen Dialekte und Akzente fast unumgänglich. Es ist unmöglich eine 100%–ige Erkennungsgenauigkeit zu erreichen. Es gibt viele Spekulationen wie Spracherkennungssysteme in der Zukunft implementiert und realisiert werden können. Das große Ziel wird natürlich sein, die oben genannten Beschränkungen zu beseitigen. Die Dialekte und Akzente scheinen die Programme immer besser in den Griff zu bekommen: Bei einigen neuen Spracherkennungsprogrammen wird KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 20 der Benutzer in sogenannte Cluster eingeteilt. Durch ein ”Mini-Training” mit einigen wenigen Sätzen zum Nachsprechen wird der Benutzer in das Cluster männlich, weiblich, Jugendlicher, Kind usw. eingeteilt. Zur Verbesserung der Erkennungsgenauigkeit trägt sicherlich auch ein größeres Vokabular bei. Bringt ein Spracherkennungshersteller ein neues Produkt auf den Markt, enthält dieses gegenüber der Vorgängerversion meist auch ein größeres Vokabular. Außerdem wird daran gearbeitet, die PC-Steuerung so effektiv zu gestalten, dass Tastatur und Maus durch die Sprache völlig ersetzt werden können. Die Spracherkennung wird in Zukunft eine noch wichtigere Rolle spielen. Kann ein Computer Sprache wirklich verstehen, so sind Dialoge zwischen Mensch und Computer möglich. Denkbare Anwendungen wären zum Beispiel der elektronische ”Kiosk” oder die automatische Übersetzung in beliebige Sprachen, wie es das mit dem Europäischen IT–Preis ausgezeichnete ”Talk&Translate” von Linguatec gezeigt hat. Die Einführung der Spracherkennung ist in gewisser Weise mit der Integration der Maus vergleichbar. Als die ersten Computer mit einer Maus ausgerüstet wurden, gab es kaum Software die durch eine Maus bedient oder gesteuert werden konnte. Auch die Integration in das Betriebssystem verursachte zunächst Probleme. Heute ist praktisch jede Anwendung mit der Maus zu bedienen. In den modernen Betriebssystemen mit grafischer Oberfläche wird die Maus standardmäßig voll unterstützt. In einer ähnlichen Situation befindet sich derzeit die Spracherkennung auf dem PC. Zunächst noch skeptisch betrachtet und kaum in einer Anwendung integriert, wird in Zukunft die Bedeutung der Spracherkennung stark zunehmen und bald nicht mehr aus dem täglichen Arbeiten mit dem Computer wegzudenken sein. Doch nicht nur auf allen PCs wird diese Lösung realisiert. Spracherkennung ist auch für viele andere Geräte denkbar. Man stelle sich einmal vor, man könnte einem elektronischen Notizbuch einen Texte einfach diktieren ohne einen PC zu benutzen. Oder Sie bräuchten die Bedienungsanleitung des Videorecorders nicht mehr auswendig zu lernen, weil Sie ihm sagen können wann er einen Film aufnehmen soll. Auch das ”connected car”, eine Autostudie bei der fast alles mit der Sprache zu bedienen und zu steuern ist, wird bald keine Zukunftsmusik mehr sein. Beim Autofahren sind Hände, Augen und Beine beschäftigt. Die Sprache ist das einzige freie Medium dem keine Grenzen gesetzt sind. Körperlich schwerbehinderten Menschen, die keine Tastatur bedienen können, ermöglicht sie schon heute eine Erweiterung ihrer Arbeits– und Kommunikationsmöglichkeiten. Besonders die Hersteller von Betriebssystemen arbeiten intensiv an der Verbesserung von Spracheingabesystemen [LH02]. Für eine genauere Studie der Funktionsweise und Problematiken bei der Spracheingabe siehe Linkliste im Anhang unter Punkt 6.1.3 . 2.1.5 Datenhandschuhe Zu den wirklich tragbaren Eingabegeräten zählt der sogenannte Datenhandschuh. Es gibt verschiedenste Ideen, die Hand– bzw. Fingerbewegungen als Steuerung oder Dateneingabe zu verwenden. Einige Datenhandschuhe sind mit fiberoptischen Sensoren ausgestattet die es ermöglichen, alle Bewegungen der Finger aufzufangen. Zusätzlich kann ein Tracker an der Brust des Benutzers befestigt werden, um die Position und Orientierung der Hand KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 21 berechnen zu können. Ein Vertreter dieser Art von Dateneingabe ist der sogenannte ”Nailglove”. Sensoren am Fingernagel erkennen quasi einen Tastendruck ohne das wirklich eine Tastatur benötigt wird (Siehe Abbildung 2.16). Abbildung 2.16: Datenhandschuh mit Fingernagelsensor Der Scurry ist ein tragbares Eingabegerät von Samsung, das es dem Benutzer ermöglicht in der Luft zu schreiben. Biologische Feedback–Schemas (Visuelles, Kraft– und Sound– Feedback) sind in den Scurry integriert. Es besitzt sogenannte ”MEMS” Bewegungssensoren, mit denen beim Tragen des Scurry die Winkelgeschwindigkeit der Hand und die Beschleunigung der Fingerbewegung gemessen werden. Die dadurch erhaltenen Sensorsignale werden dann, wie bei anderen Eingabegeräten, als Handbewegung bzw. Finger–Klick Information verarbeitet. Die Technologie des Scurry ist anwendbar bei Wearable Computer, Handheld Gerät, virtuellen Anwendungen, Tele–Operationen, Computerspiele, Remote–Controller, als Zeigegerät, INS (Inertial Navigation System) und als Eingabegerät (Motion–Translator) für beeinträchtigte Personen. Die folgende Abbildung 2.17 zeigt zwei varianten des Scurry. Ein funktionstüchtiges Gerät (links) sowie ein Studie wie dieses Gerät noch aussehen könnte (rechts). Abbildung 2.17: Nicht nur eine tragbare Tastatur ist der sogenannte Scurry Links zu weiteren Informationen findet man unter ”Tastatur” in der Linkliste im Anhang unter Punkt 6.1.3 . KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 2.1.6 22 Dexterous manipulators Für einige Anwendungen wird höchste Präzision gefordert. Da der Datenhandschuh oft nicht effizient genug ist, wurde zum Beispiel der Hand Master entwickelt. Mit Hilfe von Potentiometern werden Winkelbewegungen der Finger aufgefangen. Pro Finger sind 4DOF5 möglich, für die ganze Hand also 20DOF. Weiters sind diese Geräte mit einem Force Feedback ausgestattet. Sie sind weit genauer als Datenhandschuhe. Die Fehlerquote liegt bei ca. 1o ; beim Datenhandschuh 5o -10o . Schließlich sind jedoch die derzeitigen Systeme relativ unbequem und man kann die Hände auch nur sehr eingeschränkt für andere Arbeiten einsetzen. 2.1.7 Datenanzug Zu einer Weiterentwicklung des Datenhandschuhes zählt der Datenanzug. Wie der Name schon sagt, ist der Benutzer mit einem mit Sensoren bestückten Anzug bekleidet. Mit einer minimalen Anzahl von Sensoren ist das Festhalten aller Bewegungen des ganzen Körpers möglich. Auch hier ist der Tragekomfort nicht wirklich für den Alltag zu gebrauchen, außerdem dauert das Anlegen eines solchen Datenanzuges länger als das Anziehen einer handelsüblichen Jacke und Hose. Anwendungen gibt es relativ viele, zum Spielen, aber auch zum Produzieren von Computerspielen, Filmen oder Trainingsgeräten. Zum Beispiel könnte man mit einem Datenanzug die Schlagbewegung eines Golfspielers aufnehmen und sie mit der Bewegung einem Profispielers vergleichen. Damit kann man Fehler leicht erkennen und korrigieren. Eine moderne Art eines Datenanzuges wird im nächsten Abschnitt gezeigt. Mit Hilfe von neuen Technologien und speziellen Stoffen, werden nicht nur einzelne Sensoren sonder auch Ein/Ausgabegeräte und bald auch ganze Computer in Kleidungsstücke integriert. Trotz der ganzen Technik die in so einem Kleidungsstück steckt, soll der gewohnte Tragekomfort erhalten bleiben. 2.1.8 Elektronische Stoffe und Sensoren Eine Tastatur eingenäht in die Hose, ein Handy in der Krawatte, eine Fernbedienung in der Couchlehne. Dies alles soll demnächst dank des Elektro–Stoffes des britischen High– Tech Unternehmens Electrotextiles6 Realität werden. Der leitende Elektro–Stoff sei laut Hersteller strapazfähig, waschbar, leicht und kostengünstig. Dass bestimmte Elektro–Stoff–Geräte nur benutzbar sein werden, wenn man das passende Kleidungsstück trägt, ist laut Aussage des Unternehmens nicht von Bedeutung. ”Langfristig werden sowieso alle Kleidungsstücke mit persönlichen Elektrogeräten ausgestattet sein.” Spielzeuge mit weichen Elektroteilen zum Beispiel wären für Kinder weniger gefährlich. In einem mit Elektro–Stoff ausgestattetem Flugzeug könnte die Besatzungsmannschaft auf 5 Dreidimensionale Objekte haben 6 Freiheitsgrade (DOF–degrees of freedom): Die drei Positionskoordinaten (x, y und z) und Angaben zur Orientierung (z.B. neigen, schwenken und drehen von Winkeln). 6 http://www.electrotextiles.com KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 23 einem Bildschirm sofort erkennen, ob alle Passagiere den Sicherheitsgürtel angeschnallt hätten. Darüber hinaus gibt es viele Möglichkeiten im Bereich des Gesundheitswesens. Der Elektro–Stoff könnte etwa bei Krankenbetten das Wundliegen verhindern, indem Sensoren mögliche Wundstellen im Voraus identifizieren. Manches davon lässt sich schon kaufen, beispielsweise eine Sportjacke mit aufblasbaren Luftkammern. Wem zu kalt wird, der legt sich damit schnell eine zusätzliche Isolierschicht zu. Die Notärzte der Universitätsklinik Regensburg tragen bereits eine Weste, die mit Mikrofon, Computer und einer Sendeeinheit verbunden ist. Der Arzt kann die Patientendaten schon am Ort diktieren und sie direkt in die Notaufnahme senden. Die Eidgenössisch–Technische Hochschule Zürich hat ein Armband entwickelt, das Blutdruck und Temperatur erfasst und in kritischen Fällen gleich an das Krankenhaus übermittelt. Ideal zum Beispiel für Skifahrer ist eine Art Kragen mit Mobiltelefon, das sich über einen kleinen Griff einschalten lässt. Gewählt wird mit Spracherkennung. Die vom Bochumer Klaus–Steilmann–Institut entwickelte ”Smart Wear Weste” mit Taschencomputer und Sendeeinheit wurde schon von Journalisten bei der Deutschen Leichtathletik– Meisterschaft in Wattenscheid getestet. ”Denkbar ist, dass die Fans während der Fußballweltmeisterschaft 2006 mit einer solchen Weste in den Stadien die Ergebnisse der anderen Spiele erhalten”. Einen ernsteren Hintergrund hat die vom selben Institut entwickelte Kinderkleidung mit SOS-System. Wenn ein Kind in eine Notsituation kommt, kann es mit einem Klettverschluss einen Sender aktivieren, der die Eltern auf dem Mobiltelefon benachrichtigt. Purer Luxus ist schließlich das ”Joy Dress” der römischen Designerin Alexandra Fede. In einem eleganten violetten Abendkleid sind Vibrationsflächen eingearbeitet, die auf Knopfdruck den Rücken der Trägerin massieren – und auf diese Weise lange Stehpartys erträglicher machen sollen. 7 Computer zum Anziehen, das ist ein Stichwort, bei dem man schnell an Bilder aus Science–Fiction–Filmen denkt. An Menschen mit installierten Maschinen, merkwürdigen Sichtgeräten vor den Augen und drahtlosen Steuerknüppeln in der Hand. All dies wurde nun tatsächlich in vielen Variationen beim internationalen Symposium für Wearable Computers in Seattle präsentiert. Für die Forscherelite dieses Fachgebiets gab es beim alljährlichen Treffen auch eine Modenschau. Auf einem improvisierten Laufsteg wurde ein ganz unscheinbarer Parka präsentiert, der von Ingenieuren des Unternehmens Infineon entwickelt wurde und nicht nur wärmt, sondern mit dem integrierten MP3–Player auch digitale Unterhaltung bietet. In die Fasern der Jacke sind Drähte verwoben, die alle Einzelelemente verbinden: Player, Kopfhörer, dazu die Bedienungstasten und Lautstärkeregler auf dem linken Jackenärmel. Viel Beifall gab es bei der Präsentation für den Musikparka auch deshalb, weil er sich von anderen eher bizarren Kleidungsstücken und Accessoires abhob. Und die Digitalkleidung ist nicht nur tragbar, sondern auch optisch erträglich. (siehe Abbildung 2.18) Abbildung 2.19 zeigt eine änliche Variante als Pullover. Was bisher noch Wunschvorstellungen sind, könnte schon bald Wirklichkeit werden. Kleidung, die mitdenkt und ihren Besitzern das Leben erleichtert. 7 http://www.stern.de/index.html?id=325102 KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 24 Abbildung 2.18: Computer als Parka getarnt Abbildung 2.19: Pullover mit Kopfhörer am Kragen und Bedientasten am Ärmel An ”intelligenten” Textilien wird eifrig getüftelt, wie ein Forschungsprojekt des ChipHerstellers Infineon und der Deutschen Meisterschule für Mode in München zeigt. Techniker und angehende Designerinnen entwickelten gemeinsam Sportbekleidung mit integriertem MP3–Player. Nanoelektronik mache dies möglich, erläutert Sönke Mehrgardt, Technologie–Vorstand von Infineon. Ein Chip mit atomfeinen Kohlestoff–Fasern, die nur einen zehnmillionstel Millimeter messen, wird mit einer Schutzhülle ummantelt, mit elektrisch leitfähigem Gewebe verbunden und dann eingenäht. Im Bereich von Nanometern geht es um Größenverhältnisse von Molekülen, also der Verbindung von Atomen. Ein Kohlenstoffatom hat einen Durchmesser von etwa 0,15 Nanometern. In einem Pullover versteckt sich ein Audio–Modul mit einem Multimedia Card Platz für Musikdaten. Am linken Ärmel findet sich unter aufgenähten Stoffstreifen das Bedienfeld, auf der Brust ist ein Mikrofon zur Sprachsteuerung angebracht. Und aus dem bunt geringelten Rollkragen baumeln Kopfhörer. Die Energie stammt aus einem winzigen Thermogenerator, der Körperwärme in Strom umwandelt. Diese und weitere Ideen schwirren in den Köpfen der Forscher. KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 25 Es wird geschätzt, dass solche ”smart textiles” zuerst für Freizeit und Unterhaltung zum Einsatz kommen. Schon bald wird man solche Produkte auf den Markt erwerben können. Die Chips bringen zwar hohe Leistung, aber auch praktische Probleme, wie Hitzeerzeugung und hohen Stromverbrauch mit sich. Das technische Material ist extrem empfindlich und bruchgefährdet. Um Technik sinnvoll mit Mode zu verknüpfen, muss ein normaler Umgang mit der ”tragbaren Elektronik” möglich sein. Dazu gehören Waschen und Reinigen ebenso wie bequemes Sitzen oder Liegen. Und auch ”kluge” Kleidung muss es aushalten, mal in den Rucksack gestopft zu werden. Die Technik ist zwar schon sehr klein, aber noch nicht als textile Faser verfügbar. Trotz Elektronik braucht die Kleidung die gewohnten Eigenschaften wie luftdurchlässig und atmungsaktiv zu sein. Außerdem darf die Technik nicht vor dem Stoff den Geist aufgeben. Ein anderes Problem ist derzeit noch der Preis. Die Prototypen kosten rund fünf Millionen Euro. Aber in der Chipbranche schmelzen die Preise rasch auf ein erschwingliches Niveau zusammen. Für die Marktreife sicherte sich Infineon bereits zwölf Patente auf elektronische Textilien. Es gibt unzählig viele Anwendungsmöglichkeiten für ”wearable electronics”. Textilien, die Blutdruck oder Puls messen, Kinder–Kleidung die den Eltern zu Hause anzeigt wo die Kleinen herumtollen, T-Shirts die darüber informieren welche Laune der Träger hat, oder Kleider die auf Wunsch die Farbe wechseln. Möglich wäre auch, Hemd oder Bluse mit Sicherheits– und Identitätskarten auszurüsten. Die Tür zum Büro ginge morgens nur auf, wenn der richtige Mitarbeiter davor steht. Der Computer schaltete sich schon ein, während man noch die Jacke ablegt. Dabei wären allerdings noch ein paar unangenehme Begleiterscheinungen aus dem Weg zu räumen. Als Besitzer möchte man sich nicht jeden Morgen gegenüber seinem Hemd ausweisen. Viele elektronische Kleidungsstücke wären nötig, um nicht jeden Tag dasselbe tragen zu müssen. Eine Lösung dafür wäre nur ein Hemd, das sich selbst wäscht – und hoffentlich auch bügelt ([Pre02]). Wenn man noch eine Schritt weiter geht, könnte man sich auch folgende Situationen vorstellen. Die Sonne brennt. Keine Sorge, das neue T-Shirt macht Eincremen überflüssig. Das Herz rast. Ruhig Blut, das Hemd zeigt an, welche Tablette einzunehmen ist. Die Waschmaschine läuft. Kein Problem, der Wollpullover regelt die Temperatur in der Trommel selbst. Unendlich viele Ideen wie diese schwirren in den Köpfen von Visionären, einige davon wird man bestimmt einmal in den Boutiken wiederfinden. Links zu weiteren Infomationen findet man in der Linkliste im Anhang unter punkt 6.1.3 . KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 2.1.9 26 Elektronischer Schmuck Schmuck, der im weiteren Sinne ja auch zur Kleidung gehört, ist ein ideales Versteck für Eingabegeräte sowie Ausgabegeräte. Die Miniaturisierung elektronischer Geräte ist bereits in Bereiche vorgestoßen in denen es kein Problem mehr darstellt, zum Beispiel einen Kopfhörer in einen Ohrring, ein Mikrophon in eine Halskette oder eine Kamera in einer Brosche unter zu bringen. Abbildung 2.20: Schmuck als Versteck für E/A–Geräte Mit der sogenannten Nanotechnologie werden künftig immer mehr Geräte in unseren Alltagsgegenständen platz finden, und das mit bei weitem weniger Energiebedarf als bisher. Das größte Problem ist dabei die drahtlose Übertragung der Information von und zu den Geräten. Die Übertragung bedingt immer eine Sende– bzw. Empfangselektronik mit dazugehöriger Sende– und Empfangseinheit (Antenne, IR–LED,. . . ), welche einen relativ hohen Energieverbrauch aufweisen. Beispiele für ”Elektronischen Schmuck” sind in Abbildung 2.20 zu sehen, wobei man ihn rein optisch nicht wirklich von ”normalen” Schmuck unterscheiden kann. 2.1.10 Video Kameras als Eingabegeräte werden immer kleiner und besser, aber wichtig ist auch, was man mit dem Bild/Ton Informationen anstellt. Daten sind nur so gut wie ihr Informationsgehalt und die nötige Information aus Videodaten zu bekommen ist eine große Herausforderung für die Forschung. Nicht das Herausfiltern von Information, sondern die Aufzeichnung von bereits vergangenem Geschehen, ist der Dienst den das Produkt ”DejaView” leistet. Eine tragbare Kamera zeichnet auf Knopfdruck die jeweils vergangenen 30 Sekunden auf. Durch die DejaView CAMWEAR 100 können Websites mit Hoppala–Videos gespeist werden, oder Videos von Verkehrsunfällen können zur Beweissicherung beitragen. Man kann aber auch einfach das elektronische Familienalbum erweitern. Die Anwendungsmöglichkeiten sind schier unbegrenzt. Das Objektiv des Gerätes ist so klein und leicht, dass es an Brillengestellen oder KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 27 Kopfbedeckungen angebracht werden kann. Ein Kabel führt zu einem zirka Zigarettenschachtel großen Gerät, das man zum Beispiel am Gürtel befestigen kann oder einfach in die Tasche steckt (siehe Abbildung 2.21). Abbildung 2.21: Schmuck als Versteck für E/A–Geräte Das kleine Gerät schreibt ununterbrochen Daten in einen Zwischenspeicher, wobei die jüngste Information die jeweils älteste ersetzt. Betätigt der User einen Knopf, wird der Zwischenspeicher auf eine im Gerät enthaltene Speicherkarte im MPEG-4 Format geschrieben. Es werden 30 Bilder pro Sekunden mit 320x240 Pixel Auflösung und 24 Bit Farbtiefe gemacht, und auch der Ton wird dazu aufgezeichnet. Eine Akkuladung soll laut Hersteller DEJA VIEW acht Stunden Betrieb ermöglichen.8 Das Gerät verfügt auch über einen USB-Anschluss, über den die kleinen Videos auf Computer überspielt werden können. Mit dem Modell 200XP können bis zu vier Stunden Video und Ton aufgezeichnet werden. Die Bildqualität ist aber dabei nicht besser. Wer über einen entsprechend ausgerüsteten PDA verfügt, kann auch nur das Objektiv mit eingebautem Mikrofon samt Kabel erwerben und seinen tragbaren Computer als Aufnahmegerät nutzen. 2.2 Ausgabegeräte Genau wie bei den Eingabegeräten, wird auch bei den Ausgabegeräten eifrig geforscht und entwickelt. Von Lampen als Informationsanzeigeinstrument bei Computern ist man schon weit entfernt, obwohl in vielen Bereichen die Lampen oder LED–Anzeigen noch einen hilfreichen Dienst verrichten, und vor allem durch ihre Leuchtkraft und günstigen Produktionskosten überzeugen. Nach dem TFT–Bildschirme bereits für jederman erschwinglich geworden sind, ist der letzte schrei wohl der ”flexible Bildschirm”. Dazu aber etwas später. Neben der optischen Anzeige von Information, gibt es eine reihe anderer Ausgabeformen die der Mensch als nützliche Information aufnehmen kann. Zum Beispiel die akustische 8 http://www.mydejaview.com KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 28 Ausgabe von Tönen, Musik oder Sprache. Auch die Erzeugung von verschiedensten Düften wird bereits mit viel eifer erforscht. 2.2.1 Displays Die bekanntesten Vertreter werden grundsätzlich in zwei Technologien eingeteilt. CRT(cathode ray tube–Kathodenstrahlröhre) Displays basieren auf der konventionellen Fernsehertechnologie. LCD (liquid crystal diode) Displays sind eine relativ neue Technologie und ihre Produktionskosten daher noch immer relativ hoch. Eine vielversprechende Technologie sind sogenannte Plasmamonitore. Sie vereinigen alle Vorteile der beiden vorher genannten Technologien, sind aber sehr viel teurer. Es gibt Projekte, bei denen versucht wird, mit Hilfe von Lasern das Bild direkt auf die Retina zu projizieren. Ziel ist es, eine Auflösung von 4000 x 3000 und einem FOV9 von 100o zu erreichen (siehe HMD mit Retinaprojektion 10). 3D-Brillen – Auf einem herkömmlichen Monitor werden Stereobilder dargestellt. Mit dem Monitor synchronisiert, öffnet und schließt die 3D-Brille mit hoher Frequenz abwechselnd die rechte und die linke Seite der Brille. So erfährt der Benutzer dreidimensionale Bilder. Alternativ zum Monitor werden auch Projektionswände verwendet. Surround Displays – Eine sehr attraktive Alternative zum normalen Desktop-Monitor sind große Projektionsschirme. Sie bieten keine besseren Bilder, aber ein weitaus größeres Blickfeld. Ein totales Eintauchen in die virtuelle Welt ermöglichen CAVEähnliche Displays. Der Benutzer ist umgeben von vielen Flat Screens. Binocular Omni Oriented Monitors (BOOM) – Entwickelt und kommerzialisiert von den Fake Space Labs, stellen BOOMs eine Vereinigung von mechanischen Trackern und der stereoskopischen Bildwiedergabetechnologie dar. Zwei kleine Monitore sind am Ende eines mechanischen Arms befestigt. Der Benutzer ergreift das Ende des Arms und muß die Monitore immer vor Augen führen. Diese sind jedoch nicht tragbar und führen zu einer eingeschränkten Bewegungsfreiheit des Benutzers. Head Mounted (Coupled) Displays (HMD) – Ein HMD ist ein Gerät das am Kopf des Benutzers befestigt wird. Es besteht aus zwei CRT oder LCD Monitoren die vor den Augen des Benutzers plaziert sind. Für Virtual Rality Anwendungen wird dem Benutzer das Bild in Abhängigkeit seiner aktuellen Position und Orientierung, welche durch einen Tracker ermittelt wird, dargestellt. Der Benutzer sieht also sein Umfeld von seiner Position aus. 9 field of view – Blickwinkel KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 29 HMDs können in opaque und see–through HMDs eingeteilt werden. Opaque HMDs füllen das gesamte Blickfeld mit Bildern der virtuellen Welt aus. Sie können bei Anwendungen benutzt werden, die eine eigene künstliche Welt erschaffen (z.B. Walkthroughs, Spiele, ...). See–through HMDs werden dann benutzt, wenn die Realität mit 3D-Objekten überlagert wird (z.B. Augmented Reality). Name Typ Sim Eye see-through CyberMaxx opaque EyeGen3 opaque i-glasses! opaque/seethrough Art CRT LCD CRT LCD Auflösung FOV (H x V) 1,3M Pixel 60o x 40o 180K Pixel 60o x 53o 123,25K Pixel 35o x 30o 180K Pixel 30o horizontal Preis ( ) 200.000 800 10.000 800 ¿ HMD mit Display Der von MicroOptical Corporation10 entwickelte Head-up Display bedeutet einen weiteren Schritt in Richtung Tragekomfort und Alltagstauglichkeit. Es ist ein unauffälliger Display, welcher auf eine conventionelle Brille aufgesteckt werden kann, oder sogar in das Glas eingeschliffen wird. Es ist wohl eines der leichtgewichtigsten und ein sehr ergonomisches Gerät und somit ein wirklich praktischer HMD (siehe Abbildung 2.22). Abbildung 2.22: Thad Starner mit einem HMD von MicroOptical [Mic99] Man kann diesen Display in normale Augengläser, Sicherheitsbrillen, militärische Brillen, usw. ohne Probleme einbauen. Man benötigt nur ein paar Milimeter Glas, um ein von der Seite (Bügel) pojiziertes Bild in das Auge umzulenken. Der konventionelle HMD positioniert einen Display vor das Auge, MicroOptical jedoch teilt das Problem in zwei Teile, die Bilderzeugung und die Bildpräsentation, um einen möglichst unauffälligen HMD zu erzeugen. Es wird der miniatur LCD in einen der beiden Bügel eingebaut oder in ein Lförmiges Opticmodul welches man auf den Bügel aufsteckt. Das Bild wird auf eine winzige vor dem Auge platzierte LinsenSpiegel Kombination projiziert und von dort direkt in das 10 http://www.microopticalcorp.com/ KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 30 Auge reflektiert. Diese LinsenSpiegel Kombination befindet sich auf einem transparenten Gestänge (siehe Abbildung 2.23 links) oder wird direkt in das Brillenglas integriert (siehe Abbildung 2.23 rechts). Abbildung 2.23: HMD von MicroOptical MicroOptical arbeitet mit acitve-matrix LCDs und active-matrix elektroluminiscierenden Displays. Diese Ausführung wiegt 30 Gramm bei der Ansteck-Version und 100 Gramm bei der integrierten Version. Sie benötigt 50 bis 80 milliwatt, inclusive ihrer LED Lichtquelle. Ihr virtuelles Bild can zwischen 60cm und unendlich eingestellt werden und das diagonale Sichtfeld liegt zwischen 12 und 15 Grad. Anwendungen wären zum Beispiel das Bild einer Nachtsichtkamera eingeblendet in die Brillen eines Soldaten, ein Feuerwehrmann mit einer speziellen Kamera um durch den Rauch zu sehen, ein Taucher um durch verschmutztes Wasser zu tauchen. Oder man sieht einfach seinen Lieblingsfilm oder Computerbildschirm während eines Fluges oder einer Zugfahrt. ”It’s easy to build something you’re going to look at for a minute, but for something you may look at for an hour, that’s a different story.”, sagt Chief Executive Officer Mark Spitzer von MicroOptical. HMD mit Retinaprojektion Der Retina scanning Display ist ein HMD mit direkter Retinaprojektion. Hierbei wird das virtuelle Bild über lichtbrechende und lichtreflektierende Elemente direkt in die Retina des Auges projiziert. Mann kann dabei auch das virtuelle Bild dem reellen Bild überlagern und das resultierende ins Auge einblenden. Drei Strahlen mit den Grundfarben werden dabei fokusiert um ein farbiges Bild zu erhalten. Der resultierende Lichtstrahl wird dann wie beim Fernseher punktweise, Zeile für Zeile, direkt in das Auge projiziert. Bei der Lichtquelle handelt es sich natürlich um eine sehr leistungsarme Quelle, um das Auge nicht zu verletzen (siehe Abbildung 2.24). Display-Folien Eine neue Errungenschaft ist der sogenannte ”Foliendisplay”. Diese Art von Display besteht aus einer dünnen, biegsamen Folie und ist deshalb für ganz neue Einsatzgebieten verwendbar. Einen der ersten dieser Gattung zeigt Abbildung 2.25, dieser hat nur die Möglichkeit schwarze Farbe auf grauen Hintergrund darzustellen. Aufregender sind da schon die nächsten zwei Prototypen eines Farb–Foliendisplays. Abbildung 2.26 zeigt links einen Röhren–Rechner mit aufrollbaren Bildschirm und Sprachein- KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 31 Abbildung 2.24: Direkte Retinaprojektion von Microvision [Mic03] gabe anstatt einer Tastatur. Rechts ist die Verwendung als Landkarte dargestellt. Hier stehen alle Funktionen einer GIS–Anwendung zur Verfügung, von der Zoom–Funktion bis zum Anzeigen aktueller Daten via Internetverbindung. Mit dieser Technologie können natürlich auch Plakatwände bestückt werden, um bequem über das Internet die Werbeeinschaltung steuern zu können. Oder man stelle sich vor dieser Stoff kann in Kleidungsstücke eingearbeitet werden. Das Militär hätte eine ideale Tarnbekleidung, durch eine Kamera wird die Umgebung analysiert und das entsprechende Tarnmuster auf der Kleidung angezeigt. Wenn man vom Golfplatz zum Abendessen geht, wählt man anstatt des Poloshirts einfach den Abendanzug ohne sich um zu ziehen. Ein Kreislaufproblem kann direkt optisch angezeigt werden. Zum Beispiel als rasendes Herz auf der Brust. Auch zum Anzeigen einer Straßenkarte auf einer Jacke wäre ein solcher Stoff geeignet (siehe Abbildung 2.27). Diese und noch viel mehr neue Anwendungsgebiete wird man mit dieser Technologie finden. Weitere Displays Es können bereits eine Vielzahl von Displays auch für kommerzielle Zwecke produziert werden. Kleine, flexible, leichte, elegante,. . . einige Displays mit diesen Eigenschaften zeigt Abbildung 2.28). KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 32 Abbildung 2.25: Einer der ersten Foliendisplays Abbildung 2.26: Foliendisplay mit Farbdarstellung 2.2.2 Haptische Geräte Zwei Typen von haptischen Eindrücken die vom Menschen wahrgenommen werden können sind: kinesthetic (Force) Feedback – Muskeln, Gelenke und Sehnen werden Kräften ausgesetzt. tactile Feedback – beinhaltet Feedback über die Haut, wie zum Beispiel den Tastsinn. KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 33 Abbildung 2.27: Blu; Konzept von Lunar Design [Des01] Force Feedback Um das Natürliche in VR–Systemen hervorzuheben und zu unterstützen, wurden viele Geräte (Datenhandschuh, Dexterous Manipulators, Joysticks, ...) mit Force Feedback ausgestattet. Zusätzlich wurden Geräte entwickelt, die bestimmte Körperteile stimulieren sollen. Tactile Feedback Tactile Feedback ist viel sensibler als Force Feedback. Deshalb ist natürlich auch die Herstellung und Entwicklung viel aufwendiger. Die Simulation kann zum Beispiel durch vibrierende Module, aufblasbare Blasen oder electrorheological fluids (Flüssigkeiten, deren zähflüssiger Zustand sich bei Erhöhung eines angelegten elektrischen Feldes erhöht), die sich zum Beispiel direkt unter der Oberfläche eines Datenhandschuhes befinden. Zur Zeit ist es leider noch nicht möglich die gesamte Bandbreite an Informationen, die wir über die Haut aufnehmen können, zu manipulieren. Es ist zum Beispiel möglich die Oberfläche virtueller Gegenstände zu simulieren, aber nicht deren Struktur. 2.2.3 Audio–Ausgabe Der proportionale Anteil des Hörsinns beträgt ca. 20% der menschlichen Wahrnehmung (Tastsinn 1%). Deshalb ist es sehr wichtig, in einem VR-System möglichst reale Soundverhältnisse darzustellen. Dabei müssen folgende Punkte beachtet werden: KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 34 Abbildung 2.28: Displays verschiedenster Art Weg vom geräuschauslösenden Punkt bis zum Ohr eventuelle virtuelle Hindernisse Echos Geometrie virtueller Objekte Oberflächenstruktur der virtuellen Objekte die Form des äußeren Ohres des Benutzers Drei Punkte sind zur erfolgreichen Simulation einer akustischen Umgebung notwendig: Sound Generation – Die Geräusche können entweder generiert oder gesampled sein, die dann playback abgespielt werden. Spatial propagation – Dies ist die teuerste und rechenintensivste Stufe. Hier müssen alle, den Ton beeinflussenden Faktoren, analysiert und berechnet werden (z.B. Echo). Mapping of parameters – Letztendlich müssen die einzelnen berechneten Geräusche mit Hilfe von Filtern kombiniert werden und dann an den Mann gebracht werden. Die Ausgabe geschieht meistens durch ein Dolby Surround System. 2.2.4 Gerüche Das kalifornische Unternehmen DigiScents und der Schweizer Dufthersteller Givaudan arbeiten an der Duftausgabe, die beiden wollen zusammen das Internet mit duftenden E-Mails und Webseiten aufmischen. Nötig ist dazu ein kleines Gerät, dass wie der Drucker an den PC angeschlossen werden kann. Sender von E-Mails und Master von Webseiten lösen durch entsprechende Programmierung beim Öffnen der Post oder der Seite einen Impuls aus, der dem Bedufter KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 35 Abbildung 2.29: Designsstudie eines Bedufters am Empfängergerät meldet, welche Mischung verlangt wird. Eine Düse sprüht dem Leser der eMail den gewünschten Duft ins Gesicht (siehe Abbildung 2.29). Beim Gerät von Givaudan [Giv03] öffnen sich Röhrchen mit verschiedenen Riechsubstanzen, computergesteuert genau nach dem gewünschten Rezept. Ein Gas bläst die verschiedenen Parfumdämpfe zu einem Ventil. Die einzelnen Duftnoten werden gemischt und treten als neue Kreation aus einer Öffnung hervor. Man geht davon aus, dass man mit 20 bis 40 Basisstoffen im Prinzip alle beliebigen Düfte mischen kann. DigiScents [Dig03] arbeitet an einem kleinen Duftverströmer, der in Lautsprechergröße dezent neben dem PC platziert werden kann. Die komplizierte Technologie des automatischen Duftmischers auf Miniaturformat zu bringen, ist eine Aufgabe, die DigiScents sich gestellt hat und bald gemeistert haben will. Die Firma ”TriSenx” hat bereits ein Gerät mit dem Düfte und Geschmäcker ausgedruckt werden können auf den Markt gebracht. Ähnlich wie bei einem Tintenstrahldrucker ist das Gerät mit verschiedenen Patronen ausgerüstet. Diese enthalten verschiedene chemische Substanzen, die dann je nach Bedarf zusammengemixt werden und per Druckkopf die entsprechenden Duftnoten auf Faserkarton auftragen. Damit kann dann bei der Internet– Pizza–Bestellung vorher an der Pizza gerochen werden. ”TriSenx” will den ”Duft-Drucker” auch für essbares Papier tauglich machen, sodass verschiedene Geschmäcker hergestellt werden können. [Tri03] 2.3 Forschung und Entwicklung Eine der wichtigsten Herausforderungen für die Wissensgesellschaft ist derzeit die Schaffung intelligenter Benutzerschnittstellen, die den natürlichen Kommunikationsstil von Computerlaien akzeptieren und so unterstützen, daß eine für den Menschen intuitive und benutzergerechte Mensch-Technik-Interaktion entsteht. Die starke Zunahme an ITAnwendungen in allen Lebensbereichen verursacht einen Bedarf an effektiveren, effizienteren und natürlicheren Schnittstellen, um den Zugriff auf Information und Anwendungen zu erleichtern. Dieser Bedarf wird weiter gesteigert durch die rasch zunehmende Komplexität der IT-Systeme und durch die immer geringere Zeit, welche den Benutzern zum Ausführen von Aufgaben und das Erlernen von Bedienkonzepten zur Verfügung steht. Im Leitprojekt SmartCom (Arbeitskreis zur Schaffung intuitiver User–Maschine Kom- KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE 36 munikation) werden Konzepte für die Entwicklung völlig neuartiger Formen der MenschTechnik-Interaktion erprobt. Diese Konzepte werden die bestehenden Hemmschwellen von Computerlaien bei der Nutzung der Informationstechnologie abbauen und so einen Beitrag zur Nutzerfreundlichkeit und Nutzerzentrierung der Technik in der Wissensgesellschaft liefern. Das Ziel von SmartKom ist die Erforschung und Entwicklung einer selbsterklärenden, benutzeradaptiven Schnittstelle für die Interaktion von Mensch und Technik im Dialog. Das Vorhaben wird von der Vorstellung geleitet, die Vorteile sprachlich dialogischer Kommunikation zu verschmelzen mit den Vorteilen graphischer Bedienoberflächen und gestisch mimischen Ausdrucks. Das Ergebnis soll eine höherwertige Benutzerschnittstelle sein, die die natürlichen menschlichen Sinne in größerem Umfang als bisher berücksichtigt. SmartCom soll damit einen wichtigen Schritt zur Entwicklung einer auf den Menschen zugeschnittenen Informationstechnologie darstellen [Sma03]. Kapitel 3 Wearable Computing 3.1 3.1.1 Einführung Wearable Computing Was ist Wearable Computing? Mobile Computing ist eines der aktuellen Schlagworte moderner Informationstechnologie. Bislang wurde unter diesem Begriff die Mitnahmemöglichkeit von Notebooks und Handhelds mit entsprechend angepasster Software bzw. Betriebssystemen verstanden. Dem gegenüber stehen neueste Entwicklungen, die ein echtes Tragen von Rechnersystemen am Körper ermöglichen und die Metapher ”Wearable Computing” prägen. In diesem Zusammenhang steht der Begriff der Hardwear für eine neue Generation von Computersystemen. Sie ermöglicht den mobilen Einsatz unter extremen Bedingungen und in neuen Anwendungsgebieten. Diese sprachgesteuerten Rechner unterstützen den Benutzer zum Beispiel bei Arbeiten wie Inventur, Inspektion und Wartung komplexer Anlagen oder bei der Aufnahme von Daten im freien Gelände. Also in solchen Bereichen in denen herkömmliche Personal Computer unhandlich und dadurch schlecht zu verwenden sind. Der Einsatz solcher Rechnersysteme ist dann produktivitätssteigernd, wenn der Anwender beide Hände zum Arbeiten frei haben muss, keine Abstellfläche zur Verfügung hat und bei seiner Tätigkeit dennoch auf die Unterstützung durch Computer angewiesen ist. Ein wesentliches Merkmal dieser neuen Computersysteme ist der Umfang der Hardwareausstattung, die bei minimaler Baugröße der Leistungsfähigkeit eines Desktop Computers entspricht. Ihre Leistungsfähigkeit unterscheidet diese Systeme damit erheblich von herkömmlichen PDA oder Handheld Computern und ermöglicht damit eine Fülle neuer Anwendungen. In den USA haben große Unternehmen der Luftfahrtindustrie und der Automobilbranche das Potential dieser Technologie bereits erkannt und setzen diese tragbaren Systeme ein (siehe Abbildung 3.1). Der Nutzen dieser neuen Technologie ist dabei in zwei Ebenen zu sehen. Auf der einen Seite können durch die Erschließung neuer Anwendungsbereiche, neue Wege zur Steigerung der Produktivität erschlossen werden. Auf der anderen Seite bietet diese neue Technologie Raum für die Entwicklung neuer Produkte und Dienstleitungen. Bis heute ist der ”Personal Computer” seinen Namen nicht gerecht geworden. Unter einem 37 KAPITEL 3. WEARABLE COMPUTING 38 Abbildung 3.1: Modell MA-IV von Xybernaut mit HMD und Armtastatur Wearable Computer darf man viel mehr verstehen als ein Gerät zur aktiven Benutzung. Die meisten Computer stehen an einem Arbeitsplatz und werden eine verhältnismäßig kurze Zeit von Ihren Besitzern interaktiv benützt. Notebooks haben uns zwar mobiler gemacht, sind jedoch in ihrer Funktion noch immer sehr stark von der Benutzerinteraktion abhängig. Wearable Computing soll diese Vorstellungen eines Personal Computer ändern. Ein Wearable Computer soll häufiger getragen werden als Augengläser oder Kleidung, und er soll mit dem Anwender situationsabhängig interagieren. Mit Head–Up Displays, unorthodoxen Eingabegeräten, personal wireless local area networks und eine Menge anderer ”context sensing” und Kommunikationswerkzeugen, kann der Wearable Computer als ein intelligenter Assistent agieren. Aufgaben selbstständig durchzuführen und das auch ohne zuvor vom Benutzer dazu aufgefordert zu werden, wird durch Anwendungen wie dem ”Remembrance Agent”, ”Augmented Reality” oder ”Intellectual Collectives” erreicht. Programme die Erinnerungsfunktionalität aufweisen, einem Anwender dadurch viele Nebensächlichkeiten abnehmen können und ihn somit unauffällig viel Zeit und Mühen ersparen, sind Projekten die bereits Entwickelt werden und zum Teil schon im Einsatz sind.[MIT03] Auch in Europa hat ”Wearable Computing” bereits eine Plattform gefunden. Eine Reihe von Anwendern erarbeiten zusammen mit Technologie–Unternehmen und Universitäten innovative Lösungen auf der Basis tragbarer Computer. Diese Arbeit soll dazu dienen, den Nutzen der Technologie in unterschiedlichen Anwendungen aufzuzeigen und eine Übertragbarkeit bereits existierender Lösungen auf neue Problemstellungen zu diskutieren. Steve Mann, einer der Vorreiter im Bereich Wearables, definiert den Begriff ”Wearable Computing” wie folgt.[Man98] Wearable computing facilitates a new form of human–computer interaction comprising a small body–worn computer (e.g. user–programmable device) that is always on and al- KAPITEL 3. WEARABLE COMPUTING 39 ways ready and accessible. In this regard, the new computational framework differs from that of hand held devices, laptop computers and personal digital assistants (PDAs). The ”always ready” capability leads to a new form of synergy between human and computer, characterized by long–term adaptation through constancy of user–interface. 3.1.2 Die Betriebsarten des Wearable Computing Ein Wearable Computer ist also ein Computer der in die Umgebung des Benutzers eingebettet ist, vom Benutzer kontrolliert wird und der immer und überall eingeschalten und funktionsbereit ist. Das wichtigste ist, das der Wearable dem Benutzer immer zur Verfügung steht und zu jeder Zeit und in jeder Situation Kommandos aufnehmen und verarbeiten kann. Notwendig ist auch eine möglichst flexible Konfigurierbarkeit bzw. Erweiterungsfähigkeit dieser Geräte. Das ist der Unterschied zu anderen tragbaren Geräten wie Radios, Uhren, Brillen oder ähnlichem. Wearable Computing wird über seine drei grundsätzlichen Betriebsarten und durch seine sechs fundamentellen Eigenschaften definiert. Constancy: Der Computer läuft ununterbrochen, und ist immer bereit mit dem Benutzer zu kommunizieren. Anders als ein Hand–Held Gerät, Laptop oder PDA, muß ein Wearable nicht zuerst geöffnet und eingeschaltet werden um ihn zu verwenden. Der Signalfluss zwischen Mensch und Computer läuft kontinuierlich um ein ständiges User–interface bereit zu stellen. Augmentation: Bei der traditionelle Anwendung des Computers liegt das Hauptaugenmerk beim Computer. Wearable Computing, wie auch immer, ist darauf ausgerichtet, dass der Computer im Hintergrund steht. Zusammengefasst heißt Wearable Computing, dass der Benutzer ganz unterschiedliche Dinge macht während er mit dem Computer arbeitet, aktiv oder passiv. Somit soll der Computer den Intellekt vergrößern, oder die Sinneswahrnehmungen verbessern. Mediation: Anders als Hand–Held Geräte, Laptops und PDAs, kann uns der Wearable Computer unabhängig machen. Es ist nicht notwendig uns komplett zu verschließen, aber das Konzept erlaubt uns eine viel größere Unabhängigkeit als traditionelle tragbare Computer. Hier gibt es zwei Aspekte dieser Unabhängigkeit: – Solitude: Es kann als Informationsfilter dienen und somit die von uns unerwünschten Dingen abblocken. Ob es ungewollte Werbung ist oder einfach der Wunsch existierende Medien (z.B.: Werbetafeln von Katzenfutter) mit anderen Medien (z.B.: Palmers–Werbung) auszutauschen. Das Wearable Computing erlaubt uns auch auf einfache Weise die Wahrnehmung unserer Umgebung zu ändern. – Privacy: Mann kann auch Information die unseren Privatbereich verlässt, blocken oder verändern. Auch andere Technologien wie zum Beispiel Desktop KAPITEL 3. WEARABLE COMPUTING 40 Computer, können uns dabei helfen unsere Privatsphäre mit Programmen wie Pretty Good Privacy (PGP) zu schützen. Die Achilles–Verse dieser Systeme ist jedoch die Schnittstelle zwischen Benutzer und Gerät. Es ist generell bei weiten einfacher für einen Angreifer diesen Link zwischen uns und dem Computer zu attackieren, als die Verbindung von unserem Computer und einem Anderen. Somit kann das Wearable Computing eine neue Art von Privatsphäre erzeugen, da er quasi ständig getragen wird. Somit besteht schon alleine eine viel geringere Möglichkeit einer Attacke auf die Hardware selbst. Weiters wird durch die Synergien zwischen Mensch und Computer, das direkte Attackieren, wie zum Beispiel das über die Schulterschauen beim Eingeben eines Passwortes via Tastatur, erschwert. Schließlich ist es auch viel einfacher sich gegen das Abhören von Radiofrequenz–Emissionen zu schützen. Zum Beispiel wenn der Wearable in einer Unterwäsche integriert wird und die darüberliegende Kleidung durch eine spezielle Behandlung wie das Aufdampfen einer Metallfolie, das Durchdringen dieser Emissionen verhindert. Durch diesen direkten Kontakt kann der Computer auch eine Vielzahl an physiologischen Daten des Benutzers erfassen und nutzen. 3.1.3 Die Eigenschaften des Wearable Computing Folgende Eigenschaften machen einen Wearable erst zu dem was er sein soll. Keine eingeschränkte Aufnahmefähigkeit des Benutzers: Er schneidet sie nicht von der realen Welt ab, wie es Beispielsweise ein Virtual Reality Game macht. Man kann seine Aufmerksamkeit auf andere Dinge lenken während man den Wearable benutzt. Es ist also eine sekundäre Aktivität, die verbesserte sensorische Möglichkeiten zur Verfügung stellt. Keine Einschränkungen für den Benutzer: Man kann andere Dinge tun während man ihn benutzt. Zum Beispiel kann man Text schreiben während man joggt, etc. Wahrnehmbar vom Benutzer: Er kann jederzeit Ihre Aufmerksamkeit haben wenn sie es möchten. Immer und Überall steht das Gerät zu Ihrer Verfügung. Das Ausgabemedium steht immer für den Benutzer bereit. Kontrollierbar durch den Benutzer: Man kann jederzeit die Kontrolle übernehmen. Aufmerksamkeit gegenüber der Umwelt: Der Wearable reagiert und handelt situationsbezogen (situational awareness). Damit ist gemeint, dass er abhängig von Zeit, Ort und anderen Parametern unterschiedlich Prozesse ausführt. Zum Beispiel wenn man am Abend die Wohnung betritt, schaltet er automatisch das Licht ein und am Tag wenn es hell ist nicht. Wenn ich eine Person treffe, durchsucht er automatisch die Datenbank nach einer Übereinstimmung mit KAPITEL 3. WEARABLE COMPUTING 41 dieser Person und gibt die nötigen Daten wie Name, Beruf, Thema des letzten Gespräches,. . . aus. Kommunikation mit anderen: Er kann als Kommunikationsmittel verwendet werden. Man kann über den Wearable kommunizieren oder ihn als zusätzliche Kommunikationshilfe benutzen (Visitenkartenaustausch; während ich dem Arzt sage was mir weh tut, übermittelt er meine Krankengeschichte und aktuelle physiologische Daten wie Herzrythmus, Sauerstoffgehalt im Blut,. . . ) Immer bereit: Möglicherweise im sleep modus aber niemals abgeschalten. Persönlich: Mensch und Computer sind gänzlich miteinander verbunden. Unauffällig: Man kann ihn so adaptieren, dass er als echte Erweiterung des Gehirns und des Körpers agiert. Nach einiger Zeit vergisst man das man ihn trägt. Privat: Niemand kann ihn beobachten oder kontrollieren wenn man es nicht wünschen. 3.2 Geschichtlicher Rückblick Der erste Versuch einen PC zum ständigen Wegbegleiter zu machen, war der Sprung vom Desktop zum Laptop, von vielen auch als Schlepptop bezeichnet. Anfangs waren diese nur für Betuchte und für Geschäftsleute erschwinglich, heute liegt der Preis eines Laptops annähernd bei dem eines PC’s. 1665 Robert Hooke The next care to be taken, in respect of the Senses, is a supplying of their infirmities with Instruments, and as it were, the adding of artificial Organs to the natural. . . and as Glasses have highly promoted our seeing, so ’tis not improbable, but that there may be found many mechanical inventions to improve our other senses of hearing, smelling, tasting, and touching.[Hoo65] 1960 Heilig patentierte einen stereophonic Television Head–Mounted Display (HMD). Gefolgt von seinem Patent für den ”Sensorama Simulator” (US Patent #3,050,870) 1962.[Rhe91] Manfred Clynes prägte erstmals den Begriff ”Cyborg” in einer Geschichte mit dem Titel ”Cyborgs and Space” erschienen im Astronautics (September 1960). Diese Geschichte wurde im Buch ”The Cyborg Handbook” von Chris Hables Gray nochmals abgedruckt. 1967 Bell Helicopter Company experimentierte mit HMDs die Bilder von servogesteuerten Kameras erhielten. Bei einem war eine Infrarotkamera angeschlossen die sich an der Unterseite eines Militär–Hubschraubers befand, um den Piloten die Möglichkeit zu geben bei Nacht zu landen.[Com67] KAPITEL 3. WEARABLE COMPUTING 42 1968 Douglas Engelbart stellte das NLS System (oN Line System) mit einem ”One– Handed Chording Keyboard” vor. Das System beinhaltet unter anderem eine One– Handed Chording Keyboard, word processing, outline processing, split windows, hypermedia, mouse, shared documents, e–mail filtering, desktop conferencing, annotation of shared documents, interactive sharing, quarter sized video sharing, turn taking, und network information. 1981 Steve Mann packte einen 6502 Computer (wie im Apple–II verwendet) in einen robusten Rucksack um seine Photoausrüstung damit zu kontrollieren. Der Display war ein Kamera–Sucher CRT, der auf einem Helm befestigt war. Dieser konnte 40 Zeilen Text darstellen. Zur Texteingabe benutzte er sieben Mikroschalter die in den Griff des Blitzlichtes eingebaut waren. Das gesamte System wurde von normalen Batterien versorgt. 1984 William Gibson schrieb ”Neuromancer”. Dieses Buch gründete das Genre von Cyberpunk, die düstere Zukunft der Menschen mit Computerimplantaten. 1987 Der Film Terminator zeigt aus der Sicht des Terminator–Cyborg, die Überlagerung von grafischer Information über das Bild der realen Welt. 1989 Private Eye HMD von Reflection Technology wird kommerziell angeboten.[Tec89] 1990 Gerald Maguire und John Ioannidis demonstrierten das ”Elektronische Notebook für Studenten”.[MI90] 1991 Doug Platt baut seinen ”Hip–PC” CMU Team entwickelt den VuMan 1.[Tea91] http://www.cs.cmu.edu/afs/cs. cmu.edu/project/vuman/www/home.html Mark Weiser stellt die Idee von ”Ubiquitous Computing” im Scientifitc American vor. Eine Welt in der die meisten alltäglichen Dinge computerisierte Teile eingebaut haben.[Wei91] 1993 Thad Starner beginnt mit dem dauerhaften Tragen seines Computers. Im Juni haben Doug Platt und Thad Starner begonnen das erste System für Starner, mit einem Private Eye Display und einem Twiddler Keyboard, zu bauen. Einige Ausbaustufen später wurde daraus der Wearable Computer ”Tin Lizzy” des MIT.[PS93] BBN beendete im Herbst das Pathfinder System, ein Wearable Computer mit GPS und einem Strahlungsspür–System. Thad Starner schrieb die erste Version des Remembrance Agent(RA). Der RA war ein automatischer assoziativer Speicherzugriff, der relevante Files, zum gerade eingegebenen Text auf einem Wearable, von einer Datenbank abruft. Dieser RA wurde in den Emacs integriert, und später von Bradley Rhodes noch weiterentwickelt.[Sta93] Feiner, MacIntyre, und Seligmann entwickelten das KARMA (Knowledge–based Augmented Reality for Maintenance Assistance). Der Benutzer trägt einen Private Eye Display über einem Auge und konnte somit die reale Welt mit der virtuellen überlagern. KARMA hat Wireframe Schematas überlagert und legte Instruktionsangaben über alles was zu reparieren war. Zum Beispiel hat ein Wireframe über einem Drucker erklärt wie das Papier zu wechseln ist.[FMS93] KAPITEL 3. WEARABLE COMPUTING 43 1994 Mik Lamming und Mike Flynn Entwickelten ”Forget–Me–Not”, ein Wearable Gerät das Interaktionen zwischen Leuten und Geräten aufnimmt und speichert diese Information in einer Datenbank zur späteren Abfrage. Erster Wrist Computer (Computer am Unterarm) mit Half–Keyboard von Edgar Matias und Mike Ruicci von der Universität von Toronto.[MR94] DARPA begann mit der Entwicklung von Modulen für Wearables. Unter anderem Computer, Radios, Navigationssysteme, Mensch–Computer–Interfaces, usw. welche militärisch als auch kommerziell Anwendbar sind. Im Dezember Entwickelte Steve Mann die ”Wearable Wireless Webcam” und begann das Übertragen von Bildern ins Internet, die er mittels einer Head Mounted Camera machte. 1996 DARPA sponsert ”Wearables in 2005” Workshop. Dieser Workshop brachte Visionäre der Industrie, Universität und des Militärs zusammen. Konferenz für Wearable Computing wo 204 Forscher, Akademiker, unabhängige Laboratorien sowie Leute aus der Industrie teilnahmen. Einige Verkäufer von Displays, Spracherkennungssystemen und voll funktionsfähigen Wearable Computers nahmen ebenfalls teil. 1997 Fashion Show von Studenten der UNI Paris und Prof. Alex Pentland vom MIT Boston, mit dem Ziel den engen Zusammenhang zwischen Kleidung und Wearable Computing zu zeigen. October 13 – 14; Erstes IEEE Internationales Symposium für Wearable Computers in Cambridge1 . 1998 Internationale Konferenz für Wearable Computing. ICWC–982 , Fairfax VA, May 1998 2001 7th Annual International Conference on Mobile Computing and Networking. ACM SIGMOBILE 3 2002 ”Wearable computing to defeat terrorism”. Diese Schlagzeile im ”The Register”4 , löste eine rege Diskussion über die Möglichkeiten des ”Wearable Computer” zur Terrorbekämpfung aus. Spätestens im Jahre 2000 wäre es nicht mehr nötig besondere Entwicklungsschritte im ”Wearable Computing” heraus zu heben, da sich dieser Bereich in der Forschung und Entwicklung bereits wie ein Virus verbreitet hat. Es wird an allen Ecken und Enden über neue Techniken und Anwendungsmöglichkeiten nachgedacht, außerdem werden immer mehr Symposien abgehalten, um sich untereinander auszutauschen. 1 http://iswc.gatech.edu/wearcon97/default.htm http://www.icwc.edu 3 http://www.research.ibm.com/acm sigmobile conf 2001/index.html 4 http://www.theregister.co.uk/content/54/24328.html 2 KAPITEL 3. WEARABLE COMPUTING 3.3 44 Tragbarkeit: Tragekomfort Die heute erhältlichen Wearable Computer Systeme haben bereits ein akzeptierbar geringes Gewicht, wobei noch bei weitem keine Rede von Tragekomfort ist. Neben der CPU– Einheit ist die Stromversorgung ein Teil der das Gesamtgewicht stark erhöht. Der nächste Schritt in Richtung Unauffälligkeit ist die Verwendung der Kleidung als Versteck bzw. zur Komfortsteigerung. Kleidung bietet angefangen von Sensoren (Thermometer zur Messung der Körpertemperatur) über die Energieversorgung (Solarzellen an der Jackenaußenseite) bis hin zu eingebrachten Leiterbahnen (keine Kabeln unterm Hemd) viele Möglichkeiten das Wearable Computing unauffälliger zu machen. Neben der Möglichkeit den Wearable in der Kleidung zu verstecken, liegt auch ein Hauptaugenmert in der Miniaturisierung. Man versucht zum Beispiel einen Kopfhörer in einen Ohrring zu bekommen, einen Ring als Maus zu verwenden, in einer ganz normalen Brille einen Display zu integrieren und vieles andere mehr. Es gibt bereits Versuche Computer–Chips direkt in den Körper zu implantieren, um die Funktionsfähigkeit und die Verträglichkeit zu studieren. Das Einsetzen eines Herzschrittmachers war der erste Schritt in diese Richtung. Man darf also damit rechnen, daß der Benutzer eines Wearable Computer in Zukunft nicht mehr als solcher erkannt wird, da sich die Geräte an unser Aussehen anpassen werden. Die Frage bleibt, ob wir uns nicht selbst verändern werden. Es liegt ja nicht in der Natur des Menschen mit einem nicht erkennbaren Computer zu sprechen, um vielleicht eine e–mail zu diktieren oder ihn zu fragen vor welchen Gebäude man gerade steht und er Information darüber, direkt aus dem Internet als virtuelle Überlagerung vor das Auge projiziert. Aus einfachen Kleidungsstücken werden ”smart objects”, die wegen ihrer spezifischen Position am Körper eine Aufgabe im persönlichen Computernetz zugewiesen bekommen. Die Schuhe werden zur Energieerzeugung oder als Empfänger benutzt. Brillen beherbergen Bildschirme. Kappen bilden als höchster Punkt Sende– und Empfangsstation für die Daten. Smarte Unterwäsche und Oberbekleidung kontrollieren den Gesundheitszustand und regulieren die Körpertemperatur über den Temperaturwechsel der Kleidung. Die Bilder der Beauty–Show zeigen Entwürfe für derartige Kleidungsstücke.[MIT ] 3.4 Energie Wearable Computer Systeme benötigen im Betrieb gespeicherte Energie, die im Normalfall von Akkus bereitgestellt wird. Es ist durch den begrenzten Energievorrat jedoch nötig, die vorhandenen Systeme auf ihren Energieverbrauch hin zu optimieren und die zur Verfügung stehenden Komponenten optimal zu nutzen. Die größten Energieverbraucher sind bei einem Wearable System die CPU, der Bildschirm und die Festplatte. Natürlich sollten daher Strategien zur Optimierung des Energieverbrauches bei diesen Komponenten ansetzen. Bei Sekundärspeichern kann man durch die Verwendung eines DRAM–Cache den Energieverbrauch um bis zu 50% verringern, da ein großer Teil der Energie beim Hochfahren der Festplatte verbraucht wird. Im Gegensatz zu Wearable Systemen, werden Prozessoren bei herkömmlichen Computersystemen (Desktop) vor allem auf Leistung und Taktfrequenz ausgelegt. Erst seit dem Einzug tragbarer Geräte wird auch bei der Entwicklung von Prozessoren auf geringeren Energieverbrauch Rücksicht genommen. Eine Möglichkeit Energie einzusparen besteht KAPITEL 3. WEARABLE COMPUTING 45 darin, die Taktfrequenz zu senken oder unbenutzte Teile des Prozessors ganz wegzuschalten, indem man die Taktfrequenz auf Null setzt. Man kann den Prozessor sogar ganz abschalten wenn er sich im Leerlauf befindet. Dieser Vorgang wirkt sich auch positiv auf die Energiebilanz der restlichen Hardware aus. Auch das so genannte Remote–Prozessing ist hier ein Stichwort. Dabei werden die Daten über ein Netzwerk zu einem Hostrechner verschickt, welcher die Daten auswertet und das Ergebnis zurück sendet. Zu den größten Energieverbrauchern unter den Hardware–Komponenten gehört noch immer der Bildschirm. Hier würde vom Umgebungslicht abhängige Beleuchtungsstärke des Bildschirms viel Energie einsparen. Auch ein Sensorsystem das erkennt, ob ein Benutzer den Bildschirm betrachtet und ihn dann aktiviert, wäre denkbar. Nicht nur bei der Hardware, sonder auch bei der Software gibt es viele Ansätze um Energie einzusparen. Erst durch ein gutes Zusammenspiel zwischen Hard- und Software kann man die besten Ergebnisse erzielen. Prinzipiell wird ein Energiemanagement auf Betriebssystemebene die meisten Vorteile besitzen. Unterstützt wird dies durch eine grobe Vorgabe des Anwenders, welcher eine der möglichen Energiesparmaßnahmen auswählt. Ein weiterer Punkt zur Energieeinsparung ist das sogenannte Remote–Processing. Darunter versteht man die Bearbeitung von einem oder mehreren Tasks durch einen entfernten Server (z.B. Kompilieren eines großen Programms oder das Lösen eines komplexen Gleichungssystems). Der Wearable Computer schickt also den entsprechenden Task zum Server, dieser ermittelt die geforderten Ergebnisse und sendet diese wieder zum Wearable zurück. In der Zwischenzeit kann der Client andere Tasks abarbeiten oder in den Idle–Mode gehen (zum Beispiel die Festplatte und den Bildschirm abschalten). Remote Processing zahlt sich jedoch nur aus, wenn die Applikation mehr als 1% der gesamten Akkuenergie verbraucht. Denn für die Übertragung der Daten wird bereits mehr als 1% der Akkuenergie benötigt. Es kann gezeigt werden, dass durch Remote–Processing von großen Tasks, bis zu 50% und mehr an Energie eingespart werden können.[FPSS01] Die Reduktion des Energiebedarfs durch verminderte Datengenauigkeit ist ebenfalls eine interessante Möglichkeit. Zum Beispiel ist es in manchen Fällen nicht störend , die Farbinformationen bei einem Video wegzulassen. Derartige Möglichkeiten wurden in Form einer Studie am Institut für technische Informatik an der TU–Graz untersucht. Dabei wurden zuerst die gewählten Applikationen getrennt untersucht und im weiteren die Effekte bei gleichzeitigem laufen. Bei der Spracherkennungsanwendung kann durch ein eingeschränktes Vokabular, ein einfacheres Spracherkennungsmodell und Remote Recognition eine Energieeinsparung von bis zu 60% erreicht werden. Beim Remoteverfahren wird am Client ein Wort erfasst und dieses dann zum Server zur Auswertung gesandt und das Resultat wiederum dem Client übergeben. Bei der MapView–Anwendung wurde versucht, durch das weglassen von Detail–Informationen und Detail–Darstellungen sowie einem verwendeten Powermanagement (Disk im Standby), Energie einzusparen. Hier konnte eine Einsparung von bis zu 66% erreicht werden. Einen wesentlichen Unterschied macht auch die Betrachtungsdauer des Users. Durch Powermanagement und JPEG–Kompresion konnten beim Web–Browser der Verbrauch bis zu 26% reduziert werden. Beim Überspielen und Darstellen eines Video in verschiedenen Encoding–Qualitäten wur- KAPITEL 3. WEARABLE COMPUTING 46 de schließlich bei einem Video in mittlerer Qualität, durch Powermanagement und reduzierter Fenstergröße eine Einsparung von 30% möglich. Die Resultate zeigen also ein zum Teil doch erhebliches Einsparungspotential. Da diese Werte unter bestimmten Voraussetzungen im Labor entstanden, ist das Ergebnis der Verringerung der Datengenauigkeit bei Verwendung eines Wearable Computer Systems zu hinterfragen. Bei gewissen Umgebungsbedingungen wird man auf eine gewisse Datengenauigkeit nicht verzichten können, wie zum Beispiel bei der Spracherkennung. Generell ist zu sagen, dass die gleichzeitige Applikationsausführung das Einsparungpotentiale verringert. [FPSS01] Die interne, vom Stromnetz unabhängige, Energieversorgung kann durch Batterien, Akkus, solarzellen oder Brennstoffzellen erfolgen. 3.4.1 Energiespeicher Akkumulatoren verleihen mobilen Geräten eine Unabhängigkeit vom Stromnetz. Die Gebrauchsdauer verringert sich pro Aufladung stetig gegenüber Batterien der gleichen Größe. Am meisten Verbreitete Akkus sind der Nickel–Cadmium (NiCad), Nickel–Metall–Hydrid (NiMH) und die Lithium-Ionen Akkus. Der Nachteil von Nickel–Cadmium Akkus ist der Memory–Effekt bei unvollständig entladenen Akkus. Das bedeutet, dass die Akkus sich merken, wie weit sie entladen wurden und beim nächsten Einsatz sich trotz kompletter Aufladung ihre Gebrauchsdauer verringert. Sie sollten deshalb immer ganz entladen werden, wenn dies möglich ist. Man kann diese bis zu 1000 mal wiederaufladen. Nickel–Metal-Hydrid Akkus haben pro Kilogramm eine 50% höhere Leistungsfähigkeit als NiCad Akkus. Sie sind etwa doppelt so teuer als NiCad Akkus, haben dafür eine 50% längere Gebrauchsdauer und auch keinen Memory–Effekt. Lithium–Ionen Akkus haben eine noch höhere Energiedichte (bis 15% pro Kilogramm über NiMH Akkus) und sind dabei noch sehr leicht. Sie haben ebenfalls keinen Memory– Effekt sind jedoch wesentlich teurer als NiMH Akkus. Verwendet werden sie vor allem in Handys und PDAs. Die Lithium–Polymer Variante ist durch die Bauweise aus Kunststoff (Polymer) variabel formbar. Somit kann bei mobilen Geräten eine kompaktere Bauforme erzielt werden. Der Nachteil steckt in der Vielzahl an unterschiedlichen Akkuformen, dadurch werden diese Akkus teurer als Serienprodukte. 3.4.2 Energieerzeugung und Energieverbrauch Es wird intensiv versucht, auch an nicht ganz so praktischen Methoden wie der Energieerzeugung durch Atem- oder Blutdruck, durch Körperwärme, sowie Finger– und Gliederbewegung zu forschen. Laptops und PDAs sind durch ihre Batteriekapazität in ihrer Betriebsdauer sehr limitiert. Es gibt für derartige Energieverbraucher auch keine alternative Energieerzeugung, um einen längeren Betrieb zu gewährleisten. Durch neue Technologien werden Geräte mit immer geringeren Energiebedarf entwickelt und im gleichen Moment werden die Energiequellen immer leistungsfähiger. Wenn der Verbrauch niedrig genug KAPITEL 3. WEARABLE COMPUTING 47 ist, kann man durch alternative Energieerzeugung eine ununterbrochene Versorgung eines Wearable Computer Systems ermöglichen. Folgende Tabelle 3.1 zeigt verschiedene alltägliche Energiequellen und den Energieverbrauch herkömmlicher Computergeräte.[Sta00] Energie Quellen AA Alkali Batterie: 104 J Camcorder Batterie: 105 J Ein Liter Treibstoff: 107 J Kalorien: 4.19 J (Diät) Kalorien: 4190 J Durchschnitt bei einer Diät: 1.05 x 107 J Computer Energieverbrauch Desktop (ohne Monitor): 102 W Notebook: 10 W Embedded CPU Board: 1 W Niedrigenergie Mikrocontroller Chip: 10−3 W Durchschnittlicher Verbrauch über 24 Stunden: 121 W Tabelle 3.1: Werte von herkömmlichen Energiequellen und dem Energieverbrauch einzelner Rechner. Bei der Energieerzeugung durch Körperwärme spielt die Umgebungstemperatur eine wesentliche Rolle. Bei 20 Grad kann zum Beispiel eine Umwandlungs–Effizienz von 5,5%, bei 27 Grad nur 3,2% erreicht werden. Die mögliche Energieausbeute liegt beim Sitzen etwa bei 3–5 Watt. Tabelle 3.2 zeigt den Energieverbrauch bei verschiedenen Aktivitäten einer Person.[Sta00] Activity Kilocal/hr sleeping 70 lying quietly 80 sitting 100 standing at ease 110 conversation 110 eating meal 110 strolling 140 playing violin or piano 140 housekeeping 150 carpentry 230 hiking 4 mph 350 swimming 500 mountain climbing 600 long distance run 900 sprinting 1400 Watts 81 93 116 128 128 128 163 163 175 268 407 582 698 1048 1630 Tabelle 3.2: Energieverbrauch bei verschiedenen Aktivitäten. Untersucht wird auch die Energiegewinnung durch das Atmen, wo man jedoch nur sehr bescheidene Ergebnisse erzielen kann. Mehr als etwa 0,5 Watt scheint hier nicht möglich zu sein. Um etwa selbstversorgende, medizinische Sensoren zu betreiben, denkt man an die Energiegewinnung durch den Blutdruck. Wahrscheinlich ein schwieriges aber durchaus denkbares Unterfangen. KAPITEL 3. WEARABLE COMPUTING 48 Die maximale Energieerzeugung einer Armbewegung beträgt 60 Watt. In der Energieerzeugung durch Körperbewegung liegt wohl die größte Chance ein selbstversorgendes System zu verwirklichen. Eine innovative Möglichkeit die Bewegungsenergie zu nutzen, ist die Verwendung von piezoelektrischen Materialien. Eine derartige Kleidung wäre nicht viel schwerer als herkömmliche Kleidung. Entsprechend flexible Materialien haben zwar eine noch geringe Effizienz (11%), man kann jedoch gespannt auf die neuen Entwicklungen in diesem Bereich warten. Das Gehen ist eine der Aktivitäten mit dem größten Energieaufwand. Auch hier können piezoelektrische Materialien zum Einsatz kommen die bereits 5 Watt an Energie beim normalen Gehen erzeugen können. Durch die Verwendung von Rotationsgeneratoren verspricht man sich eine Energiegewinnung von bis zu 10 Watt an verfügbarer Energie. Abbildung 3.2 zeigt eine Skizze mit einem in einen Schuh eingebauten Piezzoelement und einem Rotationsgenerator. Abbildung 3.2: Schuh mit eingebauten Piezzoelement und Rotationsgenerator als Energieerzeuger. Eine weitere Möglichkeit ist die Nutzung des Luftwiederstandes während des Gehens. Da jedoch die Effizienz bei maximal 3% liegt, im Vergleich zur zuvor erwähnten Möglichkeit, die eine Effizienz von 50% erreicht, ist die Sinnhaftigkeit dieser Energiequelle wohl sehr in Frage gestellt. Alle angesprochenen Energiequellen des menschlichen Körpers sind in Abbildung 3.3 zusammengefasst. Energieerzeugung durch Fingerbewegung (Tastendruck) wird ebenso wie die Energiegewinnung durch öffnen und schließen eines Laptopdeckels als mögliche Energiequelle untersucht. An Brennstoffzellen auf Methanolbasis arbeitet zum Beispiel Motorola. Nach Meinung der Forscher soll diese Form der Energiequelle bis 2005 Marktreife erreichen und das 10–fache an Energie liefern wie ein wiederaufladbarer Akku mit gleicher Größe. Sie haben außerdem den Vorteil einer geringen Abmessung und die integrierte Elektronik ermöglicht auch eine Erhöhung der Ausgangsspannung. Somit kann zum Beispiel ein Notebook mit nur einer Zelle betrieben werden. KAPITEL 3. WEARABLE COMPUTING 49 Abbildung 3.3: Körperenergiequellen im Überblick. Die Gesamtenergie je Aktion ist in Klammern angegeben. 3.5 Störfaktoren Störfaktoren spielen hier natürlich auch eine große Rolle. Einerseits dürfen sich die viele Geräte die sich auf engsten Raum befinden, nicht gegenseitig stören bzw. Dritte nicht stören und auch nicht von ihnen gestört werden. Andererseits müssen sie gegen äußere Angriffe geschützt sein und gleichzeitig einen sicheren Weg zur Kommunikation nach außen besitzen. EMV (Elektromagnetische Verträglichkeit) und Datensicherheit spielen hier also ein wesentliche Rolle. Auch darf die Gerätschaft dem User nicht unangenehm auffallen, oder noch besser, er sollte sie gar nicht bemerken. Das bedeutet, die Kleidung muß genau so leicht sein wie normale Kleidung, genauso strapazierfähig und funktionell. Und natürlich muß sie auch noch gut aussehen (siehe Abbildung 3.4). Darüber hinaus kann auch das Wechseln oder Aufladen von leeren Akkus sehr störend sein. Um dies zu verhindern, muss der Energieverbrauch sehr niedrig gehalten werden und alternativen wie Solartechnik, Energiegewinnung durch Körperbewegung oder Körpertemperatur eingesetzt werden. Oft werden Kleidungsstücke unter Freunden oder Geschwistern getauscht. Es muss also KAPITEL 3. WEARABLE COMPUTING 50 Abbildung 3.4: Designermodell eines Kleidungsstückes und eines HMD auch der Träger erkannt werden, um persönliche Informationen nicht an falsche Personen weiterzugeben oder personenbezogene Daten richtig auszuwerten. Es gibt situationsbezogene Funktionalitäten die dem User zur Verfügung stehen müssen, ohne das er selbst etwas dafür tun muss. Beim Sport zum Beispiel eine genaue Herz– Kreislauf–Analyse für eine spätere Auswertung der Trainingsdaten. Bei einem Geschäftsgespräch die Aufzeichnung der Fakten oder des ganzen Gesprächsinhaltes mit Namen und Bild der beteiligten Personen. Oder beim Betreten des Flughafengebäudes die virtuelle Navigation zum richtigen Gateway. Alle diese Dinge müssen dem Benutzer ohne sein Zutun zur Verfügung stehen. Ortsbezogene Anwendungen müssen immer über genaue Positionsdaten verfügen, um richtig funktionieren zu können. Natürlich ist es von der jeweiligen Anwendung abhängig wie genau die Positionsdaten sein müssen, aber es gibt noch kein System das immer und überall die exakten Daten liefert. Somit ist ein gut funktionierendes Zusammenspiel verschiedener Systeme notwendig, um eine ungestörte Funktionstüchtigkeit zu gewährleisten. 3.6 Projekte im Wearable Computing Die Vision vom ”computing anytime, anything, and anywhere” wird durch die Miniaturisierung immer leistungsfähigerer mobiler Computersysteme zunehmend greifbar. Aber ein mobiler Computer alleine löst noch keine Probleme. Der Nutzer und seine Anwendungsprobleme bestimmen im Wesentlichen jene Anforderungen die an erfolgreiche, mobile Lösungen gestellt werden. In diesem Sinn werden Entwicklungen vorangetrieben, die eine Unterstützung mobiler Tätigkeiten und Arbeitsprozesse ermöglichen, für die der Einsatz herkömmlicher Informations– und Kommunikationstechnologien bisher kaum möglich oder nicht wirtschaftlich war, und die in der Gesamtbetrachtung Anwender und Anwendung in den Vordergrund stellen. Die Anwendungsbereiche die man dabei betrachtet, erstrecken sich von industriellen Anwendungen (z.B. Produktion, Inbetriebnahme, Inspektion, Wartung) bis hin zu Anwendungen, die Massenmarkttauglichkeit besitzen (z.B. KAPITEL 3. WEARABLE COMPUTING 51 neuartige Kommunikationskonzepte für den mobilen Informationsaustausch). Zielrichtung ist die Unterstützung von Tätigkeiten, die nicht am Schreibtisch erfolgen, sondern notwendigerweise in der realen, gegenständlichen Welt angesiedelt sind, an verschiedenen Orten oder in der Bewegung durchgeführt werden und die volle Aufmerksamkeit des Benutzers erfordern. 3.6.1 Wearable im Tourismus Die Tourismusbranche hat für sich schon längst das Internet als Vertriebsplattform entdeckt. Auch viele Reisende nutzen dieses Medium, um sich über Reisemöglichkeiten zu informieren, um Reisen zu buchen, um sich einen Eindruck vom Reiseziel zu machen oder sogar, um zu Hause am PC verschiedene Aktivitäten für den Aufenthalt zu planen und vorzubereiten. Doch nicht jede Reise wird so vorbereitet und die meisten Urlauber entscheiden sich erst vor Ort und häufig ganz spontan für das tägliche Programm. In dieser Situation möchte niemand allgemeine Reiseinformationen haben, sondern spezielle ortsbezogene Angebote, die möglichst genau den eigenen Vorlieben und Möglichkeiten entsprechen. Unter dem Stichwort ”Location Based Services” wird an Angeboten gearbeitet, die neben ortsbasierten Informationen insbesondere auch ortsbasierte Dienste wie Reservierungen, Kartenvorbestellungen usw. anbieten. Kommerziell umgesetzt werden derartige Services zum Teil bereits für den Zugriff per Handy und WAP, doch die Informationsdarstellung und die Interaktion mit diesem Gerät ist sehr eingeschränkt, so dass hier noch Verbesserungen erforderlich und auch zu erwarten sind. Die Vorlieben und Interessen von Besucher einer WWW–Seite beispielsweise werden heute bereits ermittelt. Eine andere wünschenswerte Funktion, die für Touristen überaus wichtig ist und die ein mobiles, tragbares Computersystem erfüllen kann, ist die Orientierungshilfe in einem unbekannten Gebiet. Fahrzeuge werden heute standardmäßig, zumindest bei einigen Marken, mit einem Navigationssystem ausgestattet, das den Fahrer durch unbekannte Straßen und unter Berücksichtung der aktuellen Verkehrssituation schnell zu ihrem Ziel lotst. Ein solches System ist auch für Fußgänger nützlich und zwar sowohl im Freien als auch in Gebäuden. Technisch ist zur Lösung dieser Problemstellung die Integration verschiedener geografischer Positionsbestimmungssysteme in ein umfassenderes Modell erforderlich sowie die Entwicklung einer dem jeweils eingesetzten Endgerät angemessenen Informationspräsentation und eines möglichst intuitiven Interaktionskonzepts. Über die reine Navigations– und Orientierungshilfe hinaus können Wearable Computer sehr gut als ”mobile Informationssysteme” eingesetzt werden, die speziell auf den individuellen Benutzer hin optimierte, orts- und kontextbezogene Informationen bereitstellen bzw. aktiv anbieten. Touristen können multimediale Informationen als Text, Bild und Video und insbesondere in dreidimensionaler grafischer Form dargeboten werden und sollen mit AR–Technologie direkt in ihr Sichtfeld eingeblendet werden. Mögliche Anwendungssysteme sind Campus–Informationssysteme, virtueller Reise– bzw. Museumsführer und so weiter. Die technologischen Herausforderungen sind groß, insbesondere die AR– Registrierung, das heißt die punktgenaue visuelle Überlagerung der Blickrichtung des Benutzers mit 3D–Informationen in Echtzeit, stellt ein noch nicht gelöstes Problem dar, an dem intensiv gearbeitet wird. Für den kommerziellen Einsatz muss natürlich genügend Content bereitgestellt werden. Außerdem müssen die bereitgestellten Informationen thematisch und ortsbezogen (Location Aware) so miteinander in Bezug gebracht werden, dass KAPITEL 3. WEARABLE COMPUTING 52 sie für jeden Benutzer entsprechend seines Profils gefiltert dargeboten werden können. Der Begriff ”Location–Awareness” kann als Positionsbewußtsein übersetzt werden und damit als Sammelbegriff für alle Systeme betrachtet werden, die sich ihrer Position in der realen Welt bewußt sind. Ein ”Location–Aware” System ist also in der Lage seine Position in der realen Welt zu ermitteln und entsprechend der jeweiligen Position zu agieren. Der Begriff ”Location–Service” bezeichnet ein besonderes Location–Aware System, das Informationen über die physische Position von georteten Objekten zur Verfügung stellt. Geortete Objekte beinhalten die beim System angemeldeten mobilen Objekte, deren Position mit Hilfe von Ortungssytemen bestimmt werden können und Objekte mit festen, bekannten Positionen. Beispiele für solche Objekte sind Menschen, Computer, Telefone und Fahrzeuge. Ein ”Location–Service” bietet zwei grundlegende Funktionen an. Er erstellt eine Liste von allen an einer bestimmten Position georteten Objekte und er liefert die bekannte Position eines georteten Objektes. Auf diese Dienste aufbauend können auf einfache Weise eine Vielzahl an Location–Aware Anwendungen entwickelt werden. Die Grundlage hinsichtlich der Funktionalität und der Struktur eines ”Location–Service” bildet das verwendete Modell für Positionen der physischen Welt. Bei der Entwicklung eines ”Location–Service” sind viele Aspekte zu berücksichtigen. Aus diesem Grund muss man ein ”Location–Service” formal spezifizieren, um dessen Design und Realisierung zu erleichtern. Zu diesem Zwecke werden verschiedene Positionierungsmodelle betrachtet, wobei die Hauptunterscheidung in ”symbolische” und ”geometrische” Modelle für Positionsangaben erfolgt. Ein symbolisches Modell wird aus für den Menschen lesbaren Bezeichnern gebildet wie etwa ”Marktplatz.Graz.Austria” während ein geometrisches Modell auf Erdvermessungen beruht wie beispielsweise geographische Koordinatensysteme. Aus dieser Betrachtung folgt der Schluß, dass nur ein hierachisch angeordnetes, kombiniertes Modell allen geforderten Anforderungen an ein Positionierungsmodell genügt. Ein weiterer wesentlicher Aspekt im Zusammenhang mit einem ”Location–Service” ist die Sicherheit der Benutzer hinsichtlich ihrer Privatsphäre. Der Hintergrund dieser Problematik ist der verständliche Wunsch vieler Menschen, daß die Verfolgung jeder ihrer Schritte durch beliebige andere Personen verhindert werden muß. Zu diesem Zwecke kann man zum Beispiel den Zugriff durch drei Ebenen beschränken um so eine möglichst feine Unterteilung der Zugriffsrechte zu erzielen. Die erste Ebene erlaubt die Einschränkung des Zugriffs von Personen auf andere Personen wenn diese sich in bestimmten Gebieten aufhalten. Die zweite Ebene erlaubt die Beschränkung des Details der Sichtbarkeit indem exakte Positionsangaben durch ungenauere Positionen ersetzt werden. Die Einschränkung in welcher Form ein Objekt innerhalb eines Gebietes für Personen sichtbar sein soll ist anhand der dritten Ebene spezifizierbar.[Leo98] Die Grundlage für location–aware Applikationen ist die Möglichkeit zur Bestimmung der Positionen von mobilen Objekten wie beispielsweise von Personen, Fahrzeugen und ähnlichem. Dies ist in der Regel nur möglich mit Hilfe eines Ortungssystems, wie es auch für andere Aufgaben wie zum Beispiel die Schiffs- und Flugzeugnavigation verwendet wird. Aus der Fülle der vorhandenen Systeme muß entsprechend den Anforderungen einer Location–Aware Applikation das am besten geeignete, oder eine Kombination mehrerer Systeme ausgewählt werden. Ein Idealsystem, das allen nachstehend aufgelisteten Anforderungen gleichermaßen gerecht wird, ist leider nicht verfügbar. KAPITEL 3. WEARABLE COMPUTING 53 dreidimensionale Ortung (z. B. geographische Länge und Breite, Höhe) weltweite Verfügbarkeit bei annähernd gleich hoher Genauigkeit Unabhängigkeit der Nutzung von Ort und Zeit (z.B. innerhalb und außerhalb von Gebäuden) unbegrenzte Zahl der gleichzeitigen Nutzer hohe Genauigkeit der Standortbestimmung (in der Größenordnung ± 1 m oder besser) kontinuierliche, schnelle und automatische Lieferung des Ortungsergebnisses keine Beeinträchtigungen der Mobilität kostengünstig auf der Seite der Nutzer Es wird zwischen folgenden Ortungssystemen unterschieden. Satellitenbasierte Ortungssysteme (GLONASS, NAVSTAR–GPS, GALLILEO, Differential– GPS (DGPS),. . . ) Bodengestützte Funk–Ortungssysteme Zellenbasierte Ortungssysteme (Zellulare Funknetzwerke (z.B. GSM), Zellulare Infrarot– Netzwerke) Relative Ortungssysteme Beobachtung fester Computerarbeitsplätze Die für satellitenbasierte Ortungsssysteme verwendeten Prinzipien werden neben anderen auch für bodengestützte Funk–Ortungssysteme verwendet. Diese werden derzeit hauptsächlich für die zivile See– und Luftfahrt eingesetzt und besitzen in diesen Ausführungen bei der Positionsbestimmung eine Ungenauigkeit zwischen einigen hundert Metern bis zu einigen Kilometern. Diese Positionsgenauigkeit ist für Location–Aware Anwendungen in der Regel ungenügend. Im Gegensatz zu den beiden ersten Ortungssystemen, die kontinuierliche Positionsangaben in Form von Werten liefern, melden zellenbasierte Systeme diskrete Positionen in der Regel in Form von Zellenbezeichnern. Ein Zellenbezeichner kennzeichnet innerhalb des Systems eindeutig eine Zelle, die einem bestimmten Gebiet der realen Welt zugeordnet ist (siehe Abbildung 3.5). Der große Nachteil zellenorientierter Modelle ist das Fehlen von Beziehungen zwischen den verschiedenen Zellen bzw. Zonen. Eine naheliegende Möglichkeit Zellen bzw. abstrakte Gebiete in Relation zu setzen ist die hierarchische Ordnung entsprechend den geographischen Positionen und Größen der Gebiete. Das Ergebnis ist eine hierarchische Struktur vergleichbar mit Domänen. Abbildung 3.6 zeigt einen Teil einer solchen Struktur für das in Abbildung 3.5 enthaltene Beispiel. KAPITEL 3. WEARABLE COMPUTING 54 Abbildung 3.5: Ausschnitt eines Gebäudeflügels mit verschiedenen Sensoren bzw. Zellen Abbildung 3.6: Teil einer hierarchischen Struktur für Gebiete Die Verwendbarkeit von Infrarot zur Datenübertragung beschränkt sich auf kurze Entfernungen, wie sie typischerweise nur innerhalb von Gebäuden vorkommen. Für die Nutzung innerhalb von Gebäuden spricht allerdings, daß Infrarot–Netzwerke keine der gewöhnlich verwendeten und damit kostbaren Frequenzen des elektromagnetischen Frequenzspektrums benötigen. Bei zellularen Funknetzwerken ist das von ihnen überdeckte Gebiet, ähnlich wie bei den zellularen Infrarot-Netzwerken, in Zellen aufgeteilt. Die Position eines Nutzers ist die Zelle, in der er sich zur Zeit befindet. Die Ausdehnung dieser Zellen ist aber im Vergleich zu den bei zellularen Infrarotnetzwerken durch die größere Reichweite zumeist deutlich größer, so daß sie auch für eine Verwendung außerhalb von Gebäuden in Frage kommen. Allerdings sinkt durch die größere Ausdehnung der Zellen die Genauigkeit, mit der die Position eines Benutzers bestimmt werden kann, so daß die resultierenden Positionsbestimmungen unter Umständen zu ungenau werden. Eine Steigerung der Positionsgenauigkeit ist unter Umständen bei sich überlappenden Zellen durch den Empfang KAPITEL 3. WEARABLE COMPUTING 55 der Signale mehrerer Zellen in Verbindung mit der Messung der Signalstärken möglich. Die bisher betrachteten Systeme könnten auch als absolute Ortungssysteme bezeichnet werden. Sie bestimmen die aktuelle Position unabhägig von vorherigen Positionen. Dem gegenüber benötigen relative Ortungssysteme, auch als bordautonome Systeme bezeichnet, die vorherige Position zur Bestimmung der neuen Position mit Hilfe der von ihnen gemessenen Positionsveränderungen. Diese Positionsveränderungen setzen sich gewöhnlich aus Geschwindigkeit, Richtung oder der Strecke zusammen, und werden zum Beispiel von Tachometern, Kompassen, Höhenmessern und Trägheitsnavigationssensoren ermittelt. Das große Problem dieser Systeme ist die Tatsache, daß sich die unvermeidlich auftretenden Fehler summieren und daraus resultierend die Positionsbestimmungen zunehmend ungenauer werden. Aus diesem Grunde werden relative Ortungssysteme in der Regel nur in Kombination bzw. als Ergänzung von absoluten Ortungssystemen verwendet. Der Vorteil dieser kombinierten Systeme ist darin zu sehen, daß bei kurzzeitiger Nichtverfügbarkeit des absoluten Systems die Positionsbestimmung mit Hilfe des relativen Systems fortgeführt werden kann. Ist ein Nutzer wenig mobil, sondern befindet sich die meiste Zeit an fest stehenden Computerarbeitsplätzen, ist eventuell überhaupt keine spezielle Hardware zur Bestimmung der Position nötig, wie dies in den zuvor erwähnten Systemen schon der Fall ist. Für die Zuordnung des Nutzers zu einer bestimmten Position, seinem aktuellen Arbeitsplatz, wird nur eine Identifikation des Nutzers durch den Arbeitsplatz benötigt. Dies geschieht bei vielen Systemen bereits durch die Authentifikation des Nutzers durch Benutzername und Paßwort. Es reicht also völlig aus, den Zugang zu Computerarbeitsplätzen zu beobachten und die jeweils vorhandenen Nutzer mit den festen Positionen der Arbeitsplätze zu verknüpfen. Wearable Computing Systeme werden unter anderem dadurch charakterisiert, dass sie proaktiv und immer im Wahrnehmungsbereich der Benutzer sind. Für den Bereich Tourismus bedeutet diese Eigenschaft, dass der Benutzer sich seine Informationen nicht immer selbst beschaffen muss, sondern systemgesteuert angeboten bekommen kann. Ein proaktives Computersystem im Tourismus muss die ortsbezogenen Angebote mit dem Profil der Benutzer abgleichen und weitere Kontexte (z.B. den aktuellen Aufenthaltsort, die Uhrzeit, die bisherigen Aktivitäten usw.) mit einbeziehen, um sinnvolle Empfehlungen geben zu können. Context–Awareness und Benutzermodellierung (user modeling) sind erforderlich, um diese Anforderungen zu erfüllen. Außerdem muss noch untersucht werden, wie Proaktivität und die daraus resultierende Interaktion zu gestalten ist. Von einer anderen Perspektive aus gesehen kann ein Wearable Computer, der mit einer Videokamera und anderen Aufzeichnungsmöglichkeiten ausgestattet ist, auch als ”Reisetagebuch” verwendet werden und so dem Benutzer zur Erinnerungsunterstützung dienen. Kommerziell verfügbar sind bisher nur Wearable Online–Berichterstattungssysteme (z.B. von ART+COM), die allerdings von der erforderlichen Hardwareausstattung her für Touristen bzw. für den persönlichen Gebrauch noch ungeeignet sind. In der Folge werden Forschungsprojekte und Prototypen beschrieben, die sich mit der Entwicklung von mobilen Informationssystemen befassen. KAPITEL 3. WEARABLE COMPUTING 56 Cyberguide Im Rahmen einer 1995 am College of Computing in Atlanta gegründeten Projektgruppe namens ”Furture Computing Environments (FCE) Group” wird versucht, das Aussehen von zukünftigen Anwendungen für mobile Umgebungen vorherzusagen. Sie vertreten dabei die Meinung, daß zukünftige mobile Rechnerumgebungen Kontextinformationen wie beispielsweise die jeweilige Position, für ein größeres Spektrum an Diensten für den Benutzer benötigen. Zur Untersuchung dieser These wurde im Rahmen des Projektes Cyberguide eine Reihe von Prototypen eines mobilen positionsbewußten Routenführers für Touristen entwickelt [AAH+ 96]. Diese Prototypen verwenden die aktuellen und die vorherigen Positionen um ein Höchstmaß an Funktionalität entsprechend eines richtigen Routenführers zu bieten. Diese Funktionalität setzt sich aus vier Bereichen zusammen, die bei der den Prototypen gemeinsamen Architektur als vier größtenteils unabhängige Teile entworfen wurden. Der erste Teil dient der Positionsbestimmung eines Benutzers durch die Verwendung von Sensoren verschiedener Ortungssysteme. Für die Darstellung von Umgebungskarten mit einer Markierung der jeweiligen Position des Benutzers ist der zweite Teil der Prototypen zuständig. Die Bereitstellung von Informationen zu ausgewählten Objekten der realen Welt aufgrund von Benutzeranfragen wird durch den dritten Teil erledigt. Der letzte Teil dient der Kommunikation zwischen den sich in einem bestimmten Gelände aufhaltenden Personen mit Hilfe von Nachrichten. ArcheoGuide – Virtueller Reiseführer Für Touristen ist es oft schwer, sich den ursprünglichen Zustand von zerstörten oder beschädigten Baudenkmälern vorzustellen. Ein neues Touristen–Informationssystem soll virtuell zeigen, wie aus Ruinen wieder prächtige Bauwerke entstehen. (Siehe Abbildung 3.7) Am Fraunhofer Institut für graphische Datenverarbeitung Darmstadt hat man unter dem Projektnamen ArcheoGuide ein sogenanntes ”geographisches Touristen–Informationssystem” entwickelt, welches virtuelle Reisen in die Vergangenheit wichtiger Baudenkmäler ermöglicht.5 Abbildung 3.7: Darstellung eines virtuellen Denkmals in der realen Umgebung 5 http://www.igd.fhg.de/igd-a4/projects/archeoguide/ http://archeoguide.intranet.gr/ KAPITEL 3. WEARABLE COMPUTING 57 Das Touristen-Informationssystem zeigt den früheren Zustand zerstörter oder beschädigter Gebäude, aber auch standortbezogene aktuelle Informationen. Es ist zum Beispiel ein Modell des Heidelberger Schlosses verfügbar. Die erste Version des Systems besteht aus einem kleinen und leistungsstarken Rechner, den sich Touristen am Gürtel festschnallen können. Auf den Kopf setzen sie ein ”Headset” mit Kamera, Monitor und Mikrofon. Die Darstellung des virtuellen Gebäudes erfolgt in 3D in Abhängigkeit vom Blickwinkel des Benutzers. Über die Kamera erkennt das System, wo der Nutzer gerade hinschaut und liefert Informationen zu diesem Blickwinkel. Auf dem Monitor erstehen die Bauwerke virtuell wieder auf. Mittels halbdurchlässigen Display überlagert das computergenerierte Bild die reale Sicht, ohne sie vollständig zu verdecken. Eine Sprachsteuerung des Systems soll möglich sein. Auch ein Routenplaner ist als Zubehör geplant, genauso wie das Angebot, ein Hotelzimmer zu reservieren. Der Aufbau des Archeoguide ist in Abbildung 3.8 zu sehen. Abbildung 3.8: Aufbau des Archeoguide–Systems Die neueste Hardware stammt von der Firma N–Vision und ist eine Art Fernglas. Sie ist handlicher als die erste Version, denn der Nutzer muss kein Gestell mehr aufsetzen. Er hält sich das Gerät bei Bedarf vor die Augen, sonst hängt der virtuelle Führer um den Hals. Auch zu dieser Ausführung gehört ein kleiner Rechner für den Gürtel. Hardware für derartige Anwendungen wird immer handlicher und wird bald einmal in die Hosentasche passen. Weitere ähnliche Projekte kann man auf der Projektseite des Frauenhofer Institut für KAPITEL 3. WEARABLE COMPUTING 58 graphische Datenverarbeitung finden.6 Deep Map Das European Media Lab (EML), Heidelberg, und internationale Universitäten und Forschungsgruppen entwickelten zusammen den sogenannten Deep Map.7 Das System fungiert als personalisierter, virtueller Stadtführer mit Navigationshilfe, geführtem Rundgang und Hintergrundinformationen zu den besuchten historischen Plätzen. Der Person, die es benutzt, kann es einen persönlich zugeschnittenen Rundgang bieten. Der Tourist kann dem System gesprochene Anweisungen geben und weitreichende Fragen stellen, welche anhand der Informationen aus der enthaltenen multimedialen Datenbank und der implementierten künstlichen Intelligenz beantwortet werden. Die Ausgabe erfolgt über gesprochenen oder visuell angezeigten Text, Bilder oder Grafiken (multimedial und der Realität überlagernd). Die Sprachsteuerung bietet also eine intuitive Interaktion und der Benutzer kann somit die Vor–Ort–Simulationen des Systems steuern. Ferner besitzt Deep Map eine umfangreiche historische Datenbank, so dass virtuelle Zeitreisen durchgeführt werden können. Darüber hinaus können mit dem umfangreichen, intelligenten Geo–Informationssystem ”Was-Wäre-Wenn”–Analysen für die Stadtplanung vor Ort durchgeführt werden. Es ist also eine Multimedia Datenbank, die nicht nur 3DInformationen, sondern auch umfangreiche historische und demographische Informationen gespeichert hat. Mobiles GEO-WWW Ein Projekt des Instituts für parallele und verteilte Rechner der Universität Stuttgart, Forschergruppe NEXUS.8 Es wird angenommen, dass 80% aller Informationen einen Raumbezug haben. Dieser Ortbezug soll nun in den unfangreichen ortslosen Informationsraum des WWW übertragen werden, um auch Informationen ortsbezogen zu filtern. Filterung und Bereitstellung von Informationen und Diensten anhand des aktuellen Ortsbezugs des Benutzer ist die Intention bei diesem Projekt. In diesem Projekt geht es um die Entwicklung einer Plattform für ortsbezogene Anwendungen, die beliebigen Anwendungen Zugriff auf ein Modell der Welt bietet. Dieses Modell enthält Objekte wie Gebäude, Straßen oder auch mobile Benutzer und ”virtuelle Litfasssäulen”, die als Metaphern für ortbezogene Informationen oder Informationsdienste dienen. Sensoren ”beobachten” die reale Welt und passen das Modell laufend der realen Welt an, mittels Aktoren können wiederum Geräte auf Zustandsänderungen des Modells reagieren. Bei der ”virtuellen Litfasssäule” handelt es sich einerseits um ein virtuelles Objekt, das nur als Datenstruktur in einem Rechner existiert. Andererseits sind solche Objekte realen Orten in der Stadt zugeordnet, zum Beispiel dem Hauptbahnhof, den Museen oder Hotels. Das besondere daran, es können nicht nur Informationen abgerufen werden, sondern auch Interaktionen mit Dienstleister stattfinden. Der Zugriff auf diese räumlich 6 http://www.igd.fhg.de/igd-a4/projects/ http://www.eml-development.de/ 8 http://www.nexus.uni-stuttgart.de/ 7 KAPITEL 3. WEARABLE COMPUTING 59 bezogenen Angebote erfolgt über tragbare Computer oder intelligente Funktelefone. Der Vorteil ist hier die drastische Reduzierung der angebotenen Informationsmenge. Touring Machine Als ”Touring Machine” wird ein Campus–Informationssystem der Columbia Universität, Institut für Computer Wissenschaft, bezeichnet.9 Das Campus–Informationssystem unterstützt den Benutzer dabei, Orte, Plätze und Gebäude auf dem Gelände zu finden. Es ermöglicht einem, Informationen über interessante Dinge abzufragen, zum Beispiel zu Gebäuden, Statuen etc. . Abhängig von der Position und Orientierung des Benutzers wird ihr Blick auf die reale Welt mit entsprechenden textuellen Informationen überlagert. Die Eingabe der Anfragen erfolgt über das Auswählen von Hyperlinks (angezeigt im HMD als Flagge) mit dem Kopf (durch fixieren einer Flagge, wechselt sie ihre Darstellung, sodass der Benutzer sieht, zu welchem Thema er etwas auf dem Handheld sehen wird). Für die Menüauswahl aus der HMD–Anzeige wird das Trackpad am Handheld mit einer Gestensprache benutzt. Das Display in der Hand zeigt ein anderes Bild als das HMD. Es zeigt zum Beispiel die Homepage der Fakultät, vor der ein Benutzer gerade steht. Es wird für Darstellungen benutzt, die eine gute Auflösung erfordern. Es gibt immer eine Korrespondenz zwischen der Anzeige im HMD und der auf dem Handheld. Das System kann auch als Orientierungshilfe verwendet werden, indem der Benutzer auf dem Handheld ein Gebäude wählt, das er erreichen will. Ein im HMD eingeblendeter Kompass gibt ihm dann die Richtung an, in die er gehen muss. Der Benutzer erhält am richtigen Ort die richtige ausführliche Information, wenn er die angebotenen und visuell angezeigten Informationensquellen aktiviert. Die beiden Displays zeigen jeweils die Information, für die sie besonders geeignet sind, das Handheld–Gerät zum Beispiel die hochauflösenden Bilder, das HMD nur Markierungen, die die Sicht auf das reale Objekt überlagern und anzeigen, dass es weiterführende Informationen gibt. MARS (Mobile Augmented Reality Systems) ist ein Prototyp der Columbia Universität, der aus einem Hard– und Softwaresystem besteht. Es stellt eine ortsabhängige Informationspräsentation mit multimedialer Navigationsunterstützung dar. (Siehe Abbildung 3.9) Der Computer befindet sich im Rucksack (im Prinzip kann ein beliebiger Computer eingesetzt werden). Am Kopf zu tragendes binokulares see–through 3D–Display, das mit einem Tracker zur Ermittlung der Orientierung des Kopfes des Benutzers ausgestattet ist. Ein DGPS–System wird verwendet, um die Position des Benutzers zu lokalisieren. Ein Handheld 2D–Display mit Stifteingabe, das drahtlos mit dem Rucksackcomputer verbunden ist, dient als Eingabegerät. Der Handheld ist auf der Rückseite mit einem Trackpad ausgestattet. Eine Kamera in Höhe des rechten Auges zeichnet auf, was der Benutzer sieht. Das Blockschaltbild des Mars–Systems ist in Abbildung 3.10 zu sehen. Softwareseitig wurde die selbst entwickelte Plattform COTERIE eingesetzt, die ein verteiltes System ist und sich für verschiedene Betriebssystemplattformen eignet. Ein selbstentwickelter Http–Server ergänzt das System. 9 http://www1.cs.columbia.edu/graphics/projects/mars/touring.html KAPITEL 3. WEARABLE COMPUTING 60 Abbildung 3.9: MARS System im Einsatz Mobile Journalist Workstation Ein weiteres Einsatzgebiet des MARS–Systems wird durch die Erweiterung um einen Kopfhörer und einer drahtlosen Vernetzung erreicht. Ortsabhängige, multimedial präsentierte Informationen (historische und architekturbedingte) sowie eine multimediale Navigationsunterstützung helfen den mobilen Journalisten bei seiner Arbeit.10 (Siehe Abbildung 3.11) Das Campus–Informationssystem ”Touring Machine” wurde um die Präsentation zusätzlicher multimedialer Informationen (Ton, Text, Bilder, Videos) erweitert. Die Information wird positionsabhängig präsentiert und durch die Darstellung einer Flagge (oder eines anderen ikonographischen Labels) im computergenerierten Bild visualisiert. Diese sind mit einem Hyperlink hinterlegt und können selektiert und damit aktiviert werden. Als Eingabemedium kann die Kopfbewegung dienen, aber auch das Trackpad und die Stifteingabe auf dem Handheld sind möglich. Unterschiedliche Eingabegeräte ermöglichen also dem Benutzer, nach Belieben eine situationsabhängige Auswahl zu treffen. Der aktuelle Prototyp zeigt dem Benutzer ”Situated Documentaries”. Zur Zeit sind es multimediale Dokumente über die 68er Studentenrevolution, über das unterirdische Tunnelsystem und über die frühe Geschichte des Campus der Columbia Universität. Gezeigt werden diese Dokumente zum Teil im HMD (Rekonstruktionen alter Gebäude), das heißt sie überlagern das reale Bild, oder auf dem hochauflösenden Handheld (z.B. Videos). Auf dem Handheld–Gerät läuft ein eigener Web–Server, als Oberfläche wird ein einfacher Browser verwendet. Für die Visualisierung eines 360Grad–Rundumbildes wird das See–Through–Display mechanisch in ein opaques Display verwandelt. Die verschiedenen Eigenschaften der Displays werden also ausgenutzt, um eine optimale Darstellung der jeweiligen Information zu erreichen. Die Datenbank mit allen Informationen ist im Rucksack–Computer gespeichert. Der Web– Browser des Handhelds kann jedoch über eine drahtlose Verbindung auf weitere Informationen im Internet zugreifen. 10 http://www1.cs.columbia.edu/graphics/projects/mars/mjwSd.html KAPITEL 3. WEARABLE COMPUTING 61 Abbildung 3.10: Aufbau des MARS Prototypen Dies ist auch der Unterschied zum Projekt ”VTG”(siehe Kapitel 4) in dieser Arbeit, wo sämtliche Information auf einem Server liegt und dort für die Darstellung am Client aufbereitet wird. Indoor/Outdoor Collaboration Ebenfalls von der Columbia Universität stammt das Projekt ”Indoor/Outdoor Collaboration”. Dies ist eine neuerliche Erweiterung des MARS–Systems und zwar um eine multimediale und multimodale Kommunikation– und Kollaboration–Möglichkeit mit Experten. Die Anbindung eines mobilen AR–Systems (Augmented Reality System) an ein Indoor Multi–User AR–System war die Aufgabe dieses Projektes. Ebenfalls Verwendung finden hier die ortsabhängige Informationspräsentation sowie und die multimediale, positionsabhängige, visuelle Überlagerung der realen Welt mit virtuellen 3D-Informationen.11 (Siehe Abbildung 3.12) Das User–Interface für Indoor/Outdoor Collaboration ermöglicht es, einen Benutzer der sich außerhalb der Gebäude mit dem mobilen AR–System bewegt, zu beobachten(überwachen) und gegebenen Falls von Experten remote zu unterstützen. Im Gegenzug kann der mobile Benutzer seine Beobachtungen den Personen drinnen berichten. Für die verschiedenen zu erwartenden Situationen und Kombinationen wurde eine Infrastruktur geschaffen, 11 http://www1.cs.columbia.edu/graphics/projects/mars/marsUIs.html KAPITEL 3. WEARABLE COMPUTING 62 Abbildung 3.11: Der mobile Journalist mit Informationsanzeigebeispiel die es erlaubt, auf die gleichen Informationen, mit verschiedenen Personen gleichzeitig und mit ganz unterschiedlichen Interfaces zuzugreifen. Darüber hinaus haben die verschieden ausgestatteten Benutzer unterschiedliche Aufgaben in der Kollaboration, die mit entsprechenden Programmen unterstützt werden. Abbildung 3.12: Ansicht des Campus mit Flaggen, Information und Links, sowie einer Routenanzeige Die MARS–Hardware wird für das mobile AR–System um diverse andere, auch nicht– mobile Computer für die Kooperationspartner (z.B. wearables, hand–held, stationary desktop, stationary wall–sized, stationary immersive AR) ergänzt. REAL REAL entstand im Rahmen des Sonderforschungsbereichs 378 ”Ressourcenadaptive Kognitive Prozesse” am Lehrstuhl von Professor Wolfgang Wahlster an der Universität Saarland. Navigationshilfen auf CD–ROM und GPS–Basis aus dem Autocomputer kennt man schon länger, doch nun sollen auch Fußgänger in den Genuss der Navigationshilfen kommen. Im Rahmen zweier Diplomarbeiten an der Saar Uni wurde im Fachbereich Informatik eines der leichtesten und kleinsten Systeme dieser Art entwickelt. Eine Navigationshilfe für Fußgänger (drinnen und draußen) durch kontextabhängige Informationspräsentation ist das Thema im Projekt ”REAL”. Aufgespalten wurde dieses Projekt in die Unterprojekte KAPITEL 3. WEARABLE COMPUTING 63 ”IRREAL” (Navigation drinnen) und ”ARREAL” (Navigation draußen).12 Abbildung 3.13: Ausrüstung der Navigationshilfe Es ist in der Lage, zum Beispiel Besuchern des Saarbrücker Campus den Weg zu weisen. Die Hauptkomponenten des ARREAL–Systems sind ein leicht zu tragender Rucksack, ein Miniatur–Monitor, der an der Brille des Benutzers befestigt werden kann und eine speziell entwickelte Zweiknopf–Bedieneinheit. (Siehe Abbildung 3.13) Eine besondere Schwierigkeit bei der Unterstützung von Fußgängern konnte mit ARREAL überwunden werden. Während Autos an Straßen gebunden sind, bewegen sich Fußgänger weitaus flexibler im Raum. Eine Besonderheit des REAL–Systems ist die Verbindung der Navigation im Freien und in Gebäuden. Während sich REAL im Freien auf Satelliten zur Ortsbestimmung verlässt, übernehmen diese Aufgabe im Gebäude spezielle Infrarotsender. Mit dem schlauen Reisebegleiter im Gepäck soll sich der Fußgänger künftig überall zurechtfinden, auf dem Flughafengelände, im Firmenkomplex, in Innenstädten, egal ob er sich gerade im Freien, in einem Gebäude oder einem öffentlichen Verkehrsmittel aufhält. Außerdem reagiert REAL adaptiv auf die wechselnde Benutzersituation. Das heißt es erkennt, ob es jemand eilig hat oder ob er nur gemütlich umherschlendert. Das Hilfesystem passt je nach Ort und Geschwindigkeit die Art und Menge der präsentierten Information automatisch an (langsam gehen āusführliche Informationen). Neben der reinen Navigationsaufgabe unterstützt das System zum Beispiel Anfragen zu Gebäuden in der unmittelbaren Umgebung des Benutzers. Eine einfache Zeigegeste mit dem Bedienelement auf ein Gebäude genügt, um zusätzliche Infos abzurufen, etwa über das Innenleben und die Funktion des Gebäudes. 12 http://w5.cs.uni-sb.de/real/ KAPITEL 3. WEARABLE COMPUTING 3.6.2 64 Wearable Computing als Produktivitätsfaktor Der Einsatz mobiler Rechnersysteme erlaubt den Zugriff auf Planungsdaten vor Ort. Gerade bei der Inspektion in laufender Produktion ist es aus Sicherheitsgründen wichtig, dass das Instandhaltungspersonal die Hände frei hat um einen sicheren Halt zu finden. Aus diesem Grund konnte sich für diese Aufgabe bisher noch keine Hardwarelösung durchsetzen, die eine Datenerfassung und –auswertung vor Ort realisiert. Mit der mobilen Computertechnologie besteht nun die Möglichkeit, auch die Datenaufnahme direkt an der Anlage wirkungsvoll zu unterstützen. Wesentliches Merkmal dieses Ansatzes ist das erheblich stärkere Durchdringungspotential von Informationsfunktionalität, das durch die Tragbarkeit von Softwaresystemen und zusätzlicher intelligenter Sensorik produktivitätssteigernd genutzt werden kann. 3.6.3 Wartung von Flugzeugen Bereits erfolgreich eingesetzt wird der Wearable Computer in der Flugzeugwartung. Das mitnehmen von schweren Wartungsbüchern ist dadurch nicht mehr nötig, und außerdem hat der Mechaniker beide Hände für die Arbeit zur Verfügung. Schaltpläne oder Anweisungen zur Reparatur eines Schadens können über einen HMD angezeigt werden, und mit der Unterstützung von einer Kamera kann man die Anweisungen auch an die richtigen Stellen projizieren, um sozusagen direkt auf Teile des Flugzeuges zu zeigen (siehe Abbildung 3.14). Abbildung 3.14: Reparatur eines Flugzeuges mit Hilfe eines Wearable Computers KAPITEL 3. WEARABLE COMPUTING 3.7 3.7.1 65 Forschung im Bereich ”Wearable Computing” Digital Life Consortium Es gibt viele Forschungsaktivitäten an der MIT in Zusammenarbeit mit Unternehmen und Studenten. Das Digital Life Consortium13 ist ein Multi–Sponsor Forschungs–Consortium das im Januar 1997 gegründet wurde. 17 Fakultäten, über 90 Studenten und 55 Unternehmen der ganzen Welt definieren gemeinsam die Forschungsthemen und arbeiten bei der Umsetzung der Projekte eng zusammen. Die vertretenen Firmen arbeiten in den Bereichen Telekommunikation, Medien, Datenaustausch, Veröffentlichung, Verbraucher–Elektronik und Computer. Es werden periodisch Workshops gehalten, um den Fortschritt der Arbeiten zu präsentieren. Zwei mal im Jahr werden an den ”Media Laboratories” sogenannte ”full–member meetings” abgehalten um die Forschungsinhalte abzustimmen. 3.7.2 Technische Universität Darmstadt Mit den Herausforderungen des Ubiquitous Computing beschäftigt sich auch Prof. Dr. Max Mühlhäuser vom Fachbereich Informatik an der Technischen Universität Darmstadt. Endgeräte und Infrastrukturen sind Forschungsthemen für die man sich hier besonders interessiert. Seine Arbeitsgruppe arbeitet an den wichtigsten Herausforderungen des heranbrechenden Zeitalters ubiquitärer vernetzter Computer, gegliedert nach dem S.C.A.L.E–Prinzip. Folgenden Fragen stellt sich die Arbeitsgruppe. Wie kann man eine globale Infrastruktur von Ein– und Ausgabegeräten ohne Konflikte gleichzeitig benützen? Wie kann eine Person mehrere heterogene Ein– und Ausgabegeräte zur selben Zeit verwenden, ohne verwirrt zu werden? Wie kann die Privatsphäre in einer offenen Infrastruktur gesichert werden? Wie kann eine bessere Personalisierung erreicht werden? Wie können die Fähigkeiten von einzelnen Ein– und Ausgabegeräten beschrieben werden, damit sie ohne manuelle Konfiguration über eine drahtlose Infrastruktur zusammenarbeiten? Wie können User–Interfaces beschrieben werden, damit sie mit beliebigen Geräten funktionieren, ungeachtet des Types, der Größe und Form, . . . ? Wie kann die Sicherheit garantiert werden (z.B. das Passanten nicht das Licht im Wohnzimmer einfach ausschalten können)? 13 http://dl.media.mit.edu/ KAPITEL 3. WEARABLE COMPUTING 66 In einem Projekt werden Prototypen audio–basierter Endgeräte für Ubiquitous Computing entwickelt, sogenannte ”Talking Assistants (TA)” (Modell siehe Abbildung 3.15). TAs sind sprachgestützte Headsets, die über Prozessor und Speicher, eine drahtlose Netzwerkanbindung (Bluetooth) sowie eine Kombination von Sensoren bzw. Aktuatoren zur Handhabung von Kontextinformation verfügen. Letztere umfasst unter anderem Identität und Standort (hochgenaues IR–System) des mobilen Benutzers sowie die ungefähre Blickrichtung (elektronischer Kompass und Neigungssensor).14 (Siehe Abbildung 3.16) Abbildung 3.15: Modell des Talking Assistant Zusammen mit einer verteilten Laufzeitumgebung unterstützen diese Geräte Anwendungen wie personalisierte Ausstellungsführer oder Labor– bzw. Wartungsassistenten. Spezielle Features wie die akustische Ausgabe von Information anstatt einer visuellen Ausgabe, sollen die Augenfreiheit des Benutzers gewährleisten. Man versucht auch eine möglichst Hand–freies Arbeiten zu ermöglichen. Nicht nur die Position des Benutzers sondern auch seine Blickrichtung bestimmen die ”Location–Aware” Eigenschaft des Systems. Das Alter, Interessen, verfügbare Zeit und eine Tour–Historie sind die Grundlage für eine personalisierte Unterstützung des Benutzers. Die Rechenleistung liegt in der Infrastruktur und verhindert somit eine zu hohe Komplexität der Endgeräte beim User. Das zweite Projekt, welches noch kurz vorgestellt wird, hat eine globale Infrastruktur für Ubiquitous Computing namens MUNDO zum Ziel. MUNDO integriert enger fokussierte Teilprojekte, darunter auch TA, in einer offenen Serviceplattform, welche insbesondere WLAN–Hotspots und öffentliche Mobilfunknetze als koexistierende ”Trägerdienste” zu integrieren erlaubt.15 Das Infrastrukturschema ist in Abbildung 3.17 zu sehen. Die Infrastruktur wird in bestimmte Elemente, die in Abbildung 3.18 dargestellt werden, aufgeteilt. ME (Minimal Entity) ist ein Gerät im Besitz des Users mit digitaler Identität für den 14 15 http://www.tk.informatik.tu-darmstadt.de/Forschung/Poster/TalkingAssistant http://www.tk.informatik.tu-darmstadt.de/Forschung/Poster/Mundo KAPITEL 3. WEARABLE COMPUTING 67 Abbildung 3.16: Systemarchitektur des Talking Assistant Vertrauensschutz und Sicherung durch biometrische Authetifizierung (z.B. Talking Assistant). US (User aSsociable) Benutzergeräte die von ME abhängen, personalisiert durch die Verbindung mit dem User. US muß in der Umgebung von ME bleiben (z.B. Tablet PC, Zeigegerät, . . . ). IT (smart ITem) ist ein nicht zuweisbares Item (z.B. ein Raum). WE (Wireless group Environment) Ad-Hoc Verbindung von ”personal Environments” (z.B. mehrere Kameras speichern auf eine Speicherbox). THEY (Telecooperative Hierarchical ovErlaY network) Infrastrukturbasierende Vernetzung (z.B. Museums WLAN und Server Infrastruktur). 3.7.3 Universität Bremen (TZI) Das Technologie-Zentrum Informatik (TZI) der Universität Bremen beschäftigt sich schon seit längerer Zeit mit dem Thema der mobilen Informationsverarbeitung. Der Schwerpunkt liegt dabei auf den Potentialen von Wearable Computing in industriellen Anwendungen. Eine wichtige Aufgabe in diesem Zusammenhang ist die Auseinandersetzung mit KAPITEL 3. WEARABLE COMPUTING 68 Abbildung 3.17: Schema der Infrastruktur Abbildung 3.18: Elemente der Infrastruktur Aspekten, die das große Innovationspotential neuartiger mobiler Technologien deutlich offenlegen und wirtschaftlich verwertbar machen. Das TZI entwickelt in diesem Zusammenhang spezielle Nutzungsmodelle und Technologien für den Einsatz von tragbaren Computern in der Inspektion.[TZI a] ”Location based Computing” bietet Services in Abhängigkeit der aktuellen Position des Benutzers. Durch Identifikation bestimmter Markierungen (Bar–Codes, RF–Tags) kann der tragbare Rechner Inspektionsobjekte, Baugruppen oder einzelne Teile automatisch erkennen und sich neuen Situationen entsprechend anpassen. ”Neuartige Benuterschnittstellen” werden für Spezialanwendungen eingesetzt und entwickelt. Im industriellen Einsatz sind herkömmliche Bedienkonzepte wie Maus– und Tastatursteuerung häufig nicht anwendbar. Neben der Sprachsteuerung kommen hier auch andere innovative Konzepte zum Einsatz, zum Beispiel die Steuerung über Körperhaltung, Gesten und Bewegungen. KAPITEL 3. WEARABLE COMPUTING 69 Das Projekt WinSpect hat gezeigt, dass mobile Informationsverarbeitung im praktischen Einsatz immer auch eine weitreichende Auseinandersetzung mit den spezifischen Anforderungen des jeweiligen Anwendungsgebiets erfordert. Die Themenfelder welche hierbei bearbeitet werden, berühren Disziplinen wie z.B. Ingenieurs–, Sozial–, Arbeits–, Wirtschaftswissenschaften, Psychologie, Kognitionsforschung und viele Bereiche der Informatik, aber auch Design, Bekleidungstechnik usw. . Um das Thema breit und interdisziplinär bearbeiten zu können, hat das TZI das ”WearLab” initiiert, das als themenzentrierte institutsübergreifende Forschungsgruppe vorhandene Kompetenzen bündeln und anbieten soll.[TZI b] 3.7.4 Technische Universität Linz (Software Group) Unter der Leitung von Univ.-Prof. Mag. Dr. Alois Ferscha wird an der Technischen Universität Linz sehr viel im Bereich ”Pervasive Computing” geforscht. Ferscha ist nach langjähriger Forschungstätigkeit im Bereich der Entwicklung von Software für verteilte Systeme an der Universität Wien nun mit der Etablierung eines Forschungsschwerpunktes ”Pervasive Computing” als Professor an der Universität Linz beschäftigt. Seine Lehrtätigkeit umfasst unter anderem Softwareentwicklung, Embedded Systems und Telekooperation. Erfolgreiche praktische Anwendungen aus dem Bereich der Pervasive Computing Frameworks sind zum Beispiel ein Echtzeit–SMS–Notifikationssystem auf RFID Basis (Wienmarathon, Berlinmarathon), die Mehrbenutzerinteraktion auf ”Virtuellen Walls”[FS02], Team–Awareness in WLANs (Wireless Campus Space)[Fer00] oder Embedded Webservices (”Internetkoffer”)[FVB02]. Im Wesentlichen beschäftigt man sich mit Software und Methoden in vernetzten Systemen. In der Grundlagenforschung setzt man sich mit den Themen Softwarearchitektur, Algorithmen, Coordination und Interaktion von vernetzten Systemen im ”Mobile Computing” auseinander. Systemseitig wird in den Gebieten ”Wireless, Ad–Hoc Networking”, ”Wearable Computing”, ”Qualität von Services” und ”Performance Analyse” gearbeitet. Tiefergehende Forschung wird in den Bereichen ”Awareness”, ”Intelligente Lösungen”, ”Software Services”, ”Natürliche Interfaces” und ”Smart Devices” betrieben. Die anwendungsorientierte Forschung hat das Kernthema ”Industrielle Anwendungen von Pervasive Computing”. Das Aufgreifen von Problemen, Analysieren und Entwickeln von Lösungsansätzen in ”Multi–User Umgebungen”, ist die Faszination der sich das Team um Professor Ferscha hingibt. Ferscha kommt aus dem Bereich Mehrprozess–Systeme und hat damit ideale Voraussetzungen für die Komplexe Denkweise die diese Themen von jemanden abverlangen. Die Übersicht in Abbildung 3.19 zeigt die genauen Themengebiete an denen die ”Software Group” arbeitet.[Gro03] Die ”Software Group” bildet eine Forschungsgruppe innerhalb des Institut für Praktische Informatik an der Johannes Kepler Universität in Linz. Multi–User Umgebungen im Mobile Computing, Ubiquitous Computing, Wearable Computing mit drahtloser Verbindung untereinander und natürlich auch zum Internet, die Zusammenarbeit und das gemeinsame Nutzen von Resourcen (group/workspace), ist ein Forschungsbereich dieser Gruppe. Weiters ist die Koordination und Interaktion sowie die Qualitäts– und Performance–Analyse von solchen Systemen ein Spezialgebiet. Auf dem Gebiet ”Wireless Communication Systems And Communication Software” stellt man sich Themen wie Netzwerk–Protokolle, Netzwerk–Architektur, Breitbandkommunikation und ähnliches. KAPITEL 3. WEARABLE COMPUTING 70 Abbildung 3.19: Forschungsbereiche der Software Group Dies ist die Grundlage für die praxisorientierte Forschung, in welcher man sich unter Anderem folgenden Aufgaben widmet. Context Computing [Fer02] Multi–User Umgebungen [FVP+ 03] Globale Netzwerke im Kommerziellen und Industriellen Alltag [Fer03] Geräteunabhängige eServices [Fer01b] Real–Time Multimedia Anwendungen Das Projekt ”Context (Context Framework für Mobile Anwendungen)” setzt sich zum Ziel, Methoden zur Handhabung von unstrukturierten Daten die von einer Vielzahl von Sensoren und Aktoren erzeugt und untereinander bzw. mit Dritten ausgetauscht werden, zu definieren und analysieren. Hier spielt auf der einen Seite die Kommunikations– Hardware (IEEE802.11b, Bluetooth, RFID) eine Rolle, auf der anderen Seite die Protokolle (TCP/IP, XML, SOAP, RDF) über die Daten ausgetauscht werden. Es stellt sich nun die Frage, wie man zum richtigen Zeitpunkt die richtige (relevante) Information erfassen kann und eine geeignete Repräsentation für diese semantischen Context Informationen KAPITEL 3. WEARABLE COMPUTING 71 zu finden. Die Definition einer eigenen Regelsyntax ist nötig, um die Interaktion und Ereignisbehandlung von heterogenen Geräten zu unterstützen.[Fer01a] ”COOPERATE” versucht eine multimediale Kooperationsumgebung für Teams, organisatorische Einheiten und Enterprises zu schaffen. Diese soll eine zu jederzeitige und ortsunabhängige Zusammenarbeit, Lehr– und Lernumgebung zur Verfügung stellen. Diese mobilen Arbeitsplätze vereinen Augmented Reality und Ubiquitous Computing zu einer virtuellen, allgegenwärtigen Arbeitsumgebung.[FPN+ 03] Unter dem Projektnamen ”Pervasive Computing” wird an Konzepte und Design von mobilen und pervasiven Systemarchitekturen Entwicklungsmethodologien für koordinations und interaktionsorientierten Anwendungen, kontextsensitiven Anwendungen, information appliances, smart systems, natürlichen Interfaces und qualitativeSystemevaluierung, gearbeitet16 . Mit dem Projekt ”RIPE” soll versucht werden, die Oberösterreichische IT–Industrie zu einer der führenden auf dem Gebiet Pervasive Computing zu machen. Das Forschungsinstitut für Pervasive Computing wurde von der Oberösterreichischen Landesregierung gegründet und soll zusammen mit dem Institut für Praktische Informatik und der IT– bezogenen Industrie von Oberösterreich die Technologieplattform für praxisorientierte Pervasive Computing Anwendungen bilden. Der Softwarepark Hagenberg bietet aus ökonomischer und organisatorischer Sicht die optimale Umgebung für die Zusammenarbeit mit der technischen Industrie.17 Die Arbeit in technischen Forschungslabors verlangt durch die komplexen Arbeitsabläufe ein großes Wissen über verschiedenste Laborgeräte und den Umgang mit gefährlichen Substanzen. Weiters sind Experimente oft auf mehrere Arbeitsplätze oder Räume verteilt. Somit benötigen Laborassistenten mehr Unterstützung und Führung wenn sie mit neuen Geräten oder unbekannten Experimenten konfrontiert werden, aber auch in täglichen Situationen bei ihrer Arbeit. Die Verwendung von mobile und Wearable computing kann diese Prozesse visuell darstellen und unterstützen. Hardware und Software dafür zu entwickeln, war die Motivation für das Projekt ”WearIT”.18 Die Software Group zeichnet sich verantwortlich für das bereits erwähnte Projekt Wireless Campus”, für das Konzept und die Implementierung einer drahtlosen Kommunikations Infrastruktur am gesamten Campus der Universität Linz. Ob in Hörsaal, Mensa, am Uni-Parkplatz oder auf der Wiese im Universitätspark, die Nutzer des Österreich weit einmaligen Projekts können jederzeit mit ihren Notebooks oder PDAs kabellos online gehen. Viele Studierende erhalten bereits über die am Campus flächendeckend installierten HotSpots Zugang zum gesamten Datennetz der Universität. Neben der 220 WLAN Access Points, einer VPN–Datenübertragung und einem auf LDAP basierendem Authentifizierungssystem, unterstützt eine Softwarelösung die Forschungsaktivitäten, die Lehre und die Managementaufgaben am Campus, basierend auf Positiontechnologien (IEEE802.11b, Bluetooth) und Identifikationstechnologien (IrDA, optische Marker).[Fer00] Unter ”Awareness” versteht man in der Mehrbenutzer-Interaktionssoftware allgemein das situative Wissen, das eine Gruppe von Benutzern individuell über sich, die gesamte Gruppe, die zu lösende Aufgabe und Gesamtzustand des Kooperationssystems haben. Die 16 http://www.soft.uni-linz.ac.at/Research/Projects/Pervasive Comp/ http://www.soft.uni-linz.ac.at/Research/Projects/RIPE/ 18 http://www.soft.uni-linz.ac.at/Research/Projects/WearIT/ 17 KAPITEL 3. WEARABLE COMPUTING 72 Erhebung, Interpretation, Filterung, Übertragung und Visualisierung von Information darüber, wer gegenwärtig mit welchen Aktivitäten beschäftigt ist bzw. vor hat zu setzten, wie diese zum Gesamtvorhaben beitragen, warum (mit welcher Motivation und Intention) Benutzer bestimmte Aktivitäten wann setzen, ist eine zentrale Fragestellung im Design von Gruppensoftware. Die Awareness–Funktionalität in Mehrbenutzersoftware ist zumeist von der primären Softwarefunktionalität (z.B. Co-Editing, Document Sharing, Videoconferencing, virtuelle Meetings, etc.) entkoppelt, und stellt damit trotz enger Integration eine eigenständige Softwarekomponente in solchen Systemen dar. Am Institut für Praktische Informatik wurde in der Arbeitsgruppe von Prof. Alois Ferscha ein Awareness Softwareframework entwickelt, das neben den genannten Dimensionen auch noch erklärt, wo sich ein Benutzer gegenwärtig befindet bzw. im Falle eines mobilen Benutzers wohin er sich mit welcher (angenäherten) Geschwindigkeit bewegt (Location Awareness). Dabei wird unter Nutzung der IEEE802.11b Wireless LAN Technologie die geographische Position eines Benutzers ermittelt, in einer auf XML basierten Darstellung bereitgestellt und von entsprechenden Applikationsprogrammen in der Folge benutzt. Zur Veranschaulichung wurde die Webapplikation ”CampusSpace” entwickelt, die den Campus der Universität Linz mit seinen Gebäuden und Freiräumen als 3D-Modell abbildet, in dem Benutzer (Studenten, Professoren, etc.), so sie diese Information freigeben, mittels einer Benutzerabstraktion (Avatar) dargestellt werden und somit für alle anderen sichtbar sind (siehe Abbildung 3.20). Benutzer können im CampusSpace direkt und rasch miteinander in Interaktion treten, wobei sowohl synchrone, asynchrone und mobile Kommunikationsmöglichkeiten unterstützt werden. Die einzige Systemvoraussetzung für den Betrieb des CampusSpace ist der Zugang zum Internet mit traditionellen (Java-enabled) Webbrowser als Clientsoftware.[FBN02] Abbildung 3.20: Räume mit Anzeige der anwesenden Personen Gegenwärtig wird das Awareness Framework in die Richtung pro–aktiver ortsabhängiger Software weiterentwickelt, in der einem mobilen Benutzer noch während er unterwegs ist vorbereitend Dienste am erwarteten Zielort zur erwarteten Ankunftszeit bereitgestellt werden. KAPITEL 3. WEARABLE COMPUTING 73 Forschung und Lehre profitieren gleichermaßen vom Einsatz der Drahtloskommunikation. Beispielsweise haben die Studenten während einer Lehrveranstaltung zusätzliche Interaktionsmöglichkeiten. Sie können Fragen elektronisch zum Rechner des Vortragenden schicken, von wo aus sie sofort für alle Studenten sichtbar auf die Tafel projiziert werden. Ein derartiges System existiert bereits an der Linzer Universität. Die technische Architektur ist in Abbildung 3.21 zu sehen.19 Die Kommunikation per Mobiltelefon (SMS) mit dem Lehrveranstaltungsleiter ist jedoch kostenpflichtig und somit gerade für Studenten eher hemmend. Es kann diese Kommunikation aber auch per Internet abgewickelt, und somit eine entsprechend günstigere Variante geschaffen werden. Mit der entsprechenden Software kann man diese Idee noch weiter ausbauen, indem man den Studenten die Möglichkeit bietet, von ihrem Platz aus elektronisch auf die Projektionsfläche zu zeichnen, um so ihre Anliegen, Probleme oder Fragen verständlich zu vermitteln. Abbildung 3.21: Räume mit Anzeige der anwesenden Personen Man könnte auch Dokumenten direkt während der Lehrveranstaltung zur Verfügung stellen oder untereinander austauschen. Zu jeder Lehrveranstaltung (Seminar, Vorlesung Praktikum, ...) könnten die Studenten Wissen sammeln, auf ihren eigenen Rechnern speichern und anderen zugänglich machen. Anders als bei Webseiten wäre das ein verteiltes Repository. Wissen könnte man thematisch oder nach Personengruppen klassifizien und freigeben. Lehrveranstaltungen könnte man überall mitverfolgen, man kann also in der Mensa, am Vorhof oder sogar in einer gleichzeitig stattfindenden Vorlesung sein. Aufgrund des Wirkungsbereichs eines Access Points ist es als Nebeneffekt des drahtlosen Kommunikationssystems möglich, eine ungefähre Angabe über den Aufenthaltsort einer Person zu machen. Man kann also auf Wunsch am Campus ßichtbarßein oder nicht. Somit 19 http://www.soft.uni-linz.ac.at/Research/Projects/Wireless Campus/Technologie/Architektur/ KAPITEL 3. WEARABLE COMPUTING 74 können andere Personen über den Namen oder eine eindeutige Identifizierung herausfinden, ob sich eine Person am Campus befindet und wenn ja, wo sie sich im Moment aufhält. Aber egal wo sich jemand gerade befindet, man ist mit Wireless Campus immer in der Lage, der gesuchten Person Informationen zukommen zu lassen. Es gibt bereits viele weitere Ideen, die sich am Wireless Campus verwirklichen ließen, und die eine Verbesserung der Forschung und der Lehre nach sich ziehen würden. Dieses Projekt ist der erste Schritt um die theoretische Forschung in der Praxis zu testen und Erkenntnisse daraus zu ziehen. Schrittweise wird man das Multiuser System so erweitern, dass zum Beispiel Vorabinformation durch ”Pervasive Objects” erzeugt wird einen User die benötigte Unterstützung zeitgerecht zukommen zu lassen (z.B.: Wer ist in dem Raum den ich gleich betreten werden, kenne ich ihn und wenn ja, was haben wir zuletzt besprochen). Ein lernendes Informationssystem zum Nutzen aller User sollte das Ziel der Aufgabe sein. Das was Steve Mann bereits seit Jahren als Singluser praktiziert, wartet darauf von einem Multiuser–System abgelöst zu werden. Vielleicht entwickelt sich die Johann Kepler Universität zu einer Cyborg–City in der die Studenten und Lehrenden nicht mit Laptop oder PDA, sondern mit Wearable Computern ihren Studienalltag und Lehr– oder Forschungsauftrag nachgehen. Viele Ubiquitous und Pervasive Computeranwendungen werden auch als Context–Aware Anwendungen charakterisiert. Diese Anwendungen reagieren nicht nur auf ihre internen Zustände und User–Interaktionen, sondern auch in Abhängigkeit mit dem in Verbindung stehenden Context. Die Adaptivität einer Applikation oder eines Endgerätes auf die Zeit, den Ort (location based services), die Person (personalized services) oder allgemein die Situation, in der die Anwendungen zum Einsatz kommen, wird unter dem Begriff ”Context” zusammengefasst. Context–Modelle und entsprechende Context-Computing Softwareframeworks sind die Gegenstände der Forschung von kontextbezogene Technologien und Anwendungen im Pervasive Computing. Der ”Context” einer Anwendung bzw. ”Context Awareness” wird von A. K. Dey wie folgt erklärt.[DA00] ”Context is any information that can be used to characterize the situation of an entity. An entity is a person, place or object that is considered relevant to the interaction between a user and an application, including the user and applications themselves. A system is context–aware if it uses context to provide relevant information and/or services to the user, where relevancy depends on the user’s task.” Context–Aware Computing ist eher als Baustein für andere Bereiche, wie Ubiquitous Computing, Ambient Computing oder Disappearing Computing zu sehen. Der Computer soll in vielen Bereichen aus dem Bewusstsein der Benutzer verschwinden. Sie verrichten ihre Arbeit im Hintergrund mit möglichst wenig notwendiger Interaktion mit dem Benutzer.[DA99] Es müssen Lösungen für einige Frage die sich im Zusammenhang mit ”Context Aware” Systemen stellen, gefunden werden. Terminologie – Es wird ein einheitlicher Wortschatz benötigt um über ContextAwareness reden zu können. Methoden – Wie entwickelt man Anwendungen mit Kontextbezug? KAPITEL 3. WEARABLE COMPUTING 75 Repräsentation und Erfassung von Kontext – Wie wird Kontext intern repräsentiert? Verschmelzen, Filtern, Interpretation und Vorhersage von Context – Mit Kontext muss auch ”gearbeitet” werden können. Erst durch Kombination von verschiedenen Kontextarten ergibt sich ein mächtiges Werkzeug. Skalierbarkeit – Wie kommunizieren die Anwendungen und potentiell tausende von Sensoren, welche den Context erfassen? Privacy – Es ist sicher nicht gewünscht, dass jeder immer meinen Standort weiss. Anwendungsentwicklung – Werden neue Programmiersprachen benötigt, so wie es bei SQL für Datenbankanwendungen notwendig war? Es ist die Entwicklung von einigen Komponenten für eine ”Context Aware” Umgebung nötig. Kontext Sensoren – Hier sind nicht nur physikalische Sensoren gemeint, die Daten wie Temperatur oder Zeit erfassen. Vielmehr ist auch hier hoher abstrakter Kontext wie der persönliche Terminkalender oder die Möglichkeiten sich fortzubewegen gemeint. Maße – Kontext kann in verschiedener Qualität geliefert werden. Positionierungssysteme arbeiten zum Beispiel mit einer Genauigkeit von Zentimetern bis hunderte Meter. Primäre Filter – Ein Erfassungssystem kann aus tausenden Sensoren bestehen. Das System soll nicht mit unnötiger Information überflutet werden. Fusionierungs Module – Kontextteile können von verschiedenen Sensoren kommen und machen erst nach Fusionierung Sinn. Kontext Filter – Filter sind wichtig, da ein Anwendung zum Beispiel nicht daran interessiert ist, wo sich jemand genau befindet, sondern nur, ob von demjenigen der Raum betreten oder verlassen wurde. Interpreter – Kontext kann für Schlussfolgerungen herangezogen werden. Wenn zum Beispiel ein Hörsaal mit Zuhörern belegt ist, der Großteil ruhig sitzt und einer spricht, könnte das auf eine Vorlesung hinweisen. Anwendungen – Für das Design von Anwendungen werden neue Werkzeuge, Methoden und eventuell sogar Programmiersprachen benötigt. In der Vergangenheit wurde an einer Vielzahl von Context–Modellen geforscht. Während sich ältere Modelle hauptsächlich auf die Modellierung von einzelnen Applikationen oder einer Applikationsklasse beschränken, sind generische Modelle von Interesse, wenn mehrere Applikationen vom Context profitieren können. Derzeitige Context–Modelle unterscheiden sich im Context den sie repräsentieren. Einige verwenden die aktuelle Situation des Benutzers (z.B. In einer Vorlesung), andere Modelle die physikalische Umgebung KAPITEL 3. WEARABLE COMPUTING 76 (z.B. Standort). Die ersten Schritte in Richtung allgemeines Verständnis von Context wurden publiziert, meistens mit Berücksichtigung der Identität, Zeit und Standort. Es ist also nötig, einheitliche Context–Modelle, Darstellungs– und Query–Sprachen sowie Ursachenalgorithmen zu entwickeln, die Context–Sharing und Interoperabilität von Applikationen erlauben. Wichtig beim Context–Computing ist das Erkennen und Verarbeiten von Information im Umfeld, da sie über die existierende Infrastrukturumgebung eines Gerätes Auskunft gibt. Das Sammeln, die Transformation, Interpretation, die Versorgung mit Information und deren Übertragung sind die Schlüsselelemente in der Entwicklung von smart environments und smart applications. Information kann kontinuierlich oder in einmaligen Events zur Verfügung gestellt werden. Dadurch sind natürlich auch zwei verschiedene Arten von Context Sensing Mechanismen nötig (continuous sensing und event based sensing).[Fer02] Kontinuierliche Informationsangebote werden nach Datenmenge und Wichtigkeit für das Framework gefiltert. Solche Datenquellen stellen Information über den aktuellen Zustand der realen Umgebung zur Verfügung, wie zum Beispiel Indikatoren wie Temperatur, Lichtverhältnisse, Verbindungsqualität,. . . . Diese Art von Information wird typischer Weise in fixen Zeitintervallen gesampelt. Alternativ dazu kann auf Anfragen gesampelt werden. Bei Web–basierenden Umgebungen können diese Daten mittels eines simplen HTTP Serverscript bereitgestellt werden. Dies ist ein einfacher Weg den aktuellen Wert abzufragen. Andauernde Verbindungen können genutzt werden wenn Daten in fixen Intervallen gelesen werden, um den Verbindungsoverhead zu minimieren (HTTP). Dies wird beispielsweise bei WebCams, Statusanzeigen und ähnlichem genutzt. Kontinuierliche Datenquellen können, durch das zur Verfügung stellen von einer Liste von WLAN–Geräten mit ihren MAC und IP Nummern in Kombination mit ihren zugeordneten WLAN–Access Point, einen kompakten Überblick über aktive Geräte und ihre Position basierend auf einen definierten Radius um einen Access Point geben. Watchdog Mechanismen monitoren die Umgebung auf Events und ihre sofortige Registrierung im Framework. Eventbasierte Datenquellen stellen keine Systemstati zur Verfügung, sondern geben Statusänderungen bekannt. Zum Beispiel beim Analysieren von Sensordaten. Durch ihr dynamisches Verhalten, können diese Events nicht über Standard–HTTP Mechanismen ausgelesen werden. Statt dessen müssen solche Events, aktiv, durch das Aufrufen von Eventhandler–Scripts am Webserver, ihre Daten den interessierten Parteien zur Verfügung stellen. Im Projekt CONTEXT von Prof. Ferscha werden RFID–Reader an Mobilen Geräten (PDA) als eventgenerierende Datenquellen genutzt. Sobald ein Transponder das elektromagnetische Feld eines RFID–Readers bemerkt, werden dessen ID gelesen und zu einem Event–Listener–Service am Framework–Server gesannt. Dort wird ein Updater–Prozess aufgerufen, welcher die definierten Relationen abarbeitet und die nötigen Daten erneuert und die Information zur Historie als auch zu einem Meldeprozess sendet. Dieser informiert alle interessierten Parteien, dass eine Änderung im Raum (z.B. Office) statt fand (Schema siehe Abbildung 3.22).[FVB02] Ein anderes Thema ist die abstrakte Darstellung der Kontext–Information. Die Präsentation auf Basis des Resource Description Framework (RDF) zur Modellierung der Artifacts Person, Ding und Ort als RDF–Resourcen, ist eine mögliche Technologie. In Kombination mit RDF–Schema (RDFS), bietet RDF eine mächtige Syntax für die semantische Wissens- KAPITEL 3. WEARABLE COMPUTING 77 Abbildung 3.22: Schema des Systems von CONTEXT modelierung. RDF und RDFS basieren auf XML, einem Web–Standard zum Austausch von Informationsdaten. Das RDF–Modell besteht aus drei grundsätzlichen Objekttypen welche das Subjekt, Prädikat und Objekt–Tripel formen, auch RDF–Statements genannt. Diese drei Objekttypen sind Resourcen, Eigenschaften und Statements. Jedes Objekt in RDF wird Resource genannt. Dies kann eine einfache HTML–Seite sein, Daten wie Bilder und Graphiken im Web oder reale Objekte die nicht direkt ins Internet eingebettet sind. Wie bereits erwähnt, werden Resourcen der realen Welt oft in Personen, Dinge und Orte eingeteilt. Properties sind die spezifischen Attribute welche eine Resource, aber auch ihre Beziehung zu anderen Resourcen, beschreiben. Jede Eigenschaft hat ihre eigene Charakteristiken, wie zum Beispiel Werte welche übertragen werden und solche die nicht übertragen werden. Die Basissyntax und Modellspezifikation von RDF beinhaltet nicht diese spezifischen Property–Charakteristika. Zu diesem Zweck werden die RDF–Schema Spezifikationen benötigt. Das Subjekt (Resource), Prädikat (Property) und der Property– Wert (Objekt) Tripel, bilden ein RDF–Statement. Der Property–Wert kann ein Literal sein, eine andere Resource oder ein URI zu einer anderen Resource. RDF hat ein einfaches, aber leistungsstarkes Modell und Syntaxdefinition und ist daher eine gute Wahl zum Darstellen und Liefern von Context Sensing Information. Weiters ist es einfach, RDF–Statements (Subjekt, Prädikat und Objekt Tripel) von beliebigen Datenbanken zu importieren oder exportieren. Ein weiterer wichtiger Aspekt sind die Bemühungen ein Standardvokabular zur semantischen Datenbeschreibung zu etablieren. Das hat insofern einen Vorteil, da man Standarddefinitionen für Properties wie Email, Name, oder Datum verwenden kann. Im Projekt CONTEXT wird ein Satz von grundlegenden Kontextinformationseigenschaften verwendet, um die Darstellung von location und containment awareness, Besitz und Bindung von Personen zu Dingen und eine Historie dieser Eigenschaften zu handhaben. KAPITEL 3. WEARABLE COMPUTING 78 Um zwischen den drei grundsätzlichen Typen von Objekten zu unterscheiden, wurden folgende Grundeigenschaften verwendet. Place Person Thing Places halten Information über den Ort (location) und referenzieren zu einer Anzahl von Objekten welche sich aktuell an diesem Ort befinden (Liste der Objekte = contains). Um Veränderungen in der Inhaltsliste zu erkennen, ist das Aufzeichnen einer Historie nötig (history tag = contained ). Einträge in die contained Property Liste haben zwei Zeitstempel (startTime und endTime), welche die Periode spezifizieren, in der sich der Eintrag in der contains Property Liste befand. Eine Person hält Information über den aktuellen Aufenthaltsort in einem Scenario (isIn) und eine Liste von Objekten welche im Besitz dieser Person stehen (ownerOf ). Zusätzlich gibt es eine Liste von früheren Aufenthaltsorten (wasIn). Ein Thing hält Information darüber, ob es andere Objekte beinhalten kann (canContain), wie zum Beispiel eine Tasche oder ein Rucksack. Falls es andere Objekte beinhalten kann, hat es zusätzlich ein Informationstag contains und ein contained Tag um die Objekte zu verfolgen. Weiters hat ein Thing ein Informationstag über seinen Besitzer (owner ). In zwei Anwendungsszenarien wurde die Integration dieser Kontext–Information in eine RDF gezeigt. Dies sind der ”Context Aware Suitcase” oder auch Internetkoffer (siehe Abbildung 3.23 genannt und die ”Electronic Object Tagging” Anwendung zum Erkennen von Objekten in der Umgebung.[FVB02] Abbildung 3.23: Der ”Context–Aware” Internetkoffer Die Entwicklung von wireless devices die von smart digital environments umgeben sind, macht es nötig, neue Methoden zur Erkennung und Darstellung von Kontextinformation zu entwickeln. Dies ist ein wichtiger Punkt in der Entwicklungen von Wearable bzw. Pervasive Computing–Umgebungen. Um die Entwicklung von ”Context–Aware” Anwendungen zu unterstützen, sollten sich Softwareentwickler nicht darum kümmern müssen, KAPITEL 3. WEARABLE COMPUTING 79 wie, wann und wo Kontextinformation entsteht. ”Context–Sensing” muss hingegen anwendungsunabhängig und die Kontextdarstellung für alle möglichen Anwendungen gleich sein. 3.7.5 Frauenhof IPSI Am Frauenhof Institut ”IPSI (Integrierte Publikations- und Informationssysteme)” forscht man ebenfalls viel im Bereich Ubiquitous Computing. Unter der Leitung von Dr.Dr. Norbert A. Streiz wird im Forschungsbereich ”AMBIENTE – Smart Environments of the Future” an verschiedenen Interaktionsmöglichkeiten gearbeitet. Das Ambiente Lab dient als Testbett für ”Roomware”–Komponenten und für die Zusammenarbeit zwischen verteilten Roomware–Umgebungen mit kooperativer Software sowie Audio– und Videokonferenz. Roomware besteht aus folgenden Komponenten. ”CommChair” ist ein Drehsessel mit integriertem Computer für konzentrierte Einzelarbeit und interaktive Zusammenarbeit von Teams. ”Connec–Table” bezeichnet ein höhenverstellbares interaktives Pult für konzentrierte Einzelarbeit und interaktive Zusammenarbeit von Teams. ”InteracTable” ist ein interaktiver Stehtisch, der als informelles Kommunikationszentrum in kooperativen Arbeitsumgebungen dient. An einer 4,50 m breite und 1,10 m hohe interaktive elektronische Wand namens ”DynaWall”, können mehrere Personen auf neuartige Weise gleichzeitig mit Informationen interagieren. Und schließlich noch ein in die Wand integriertes interaktives Plasma Display Panel (PDP) mit dem Namen ”InforMall”. Abbildung 3.24 zeigt wie diese Interaktionsgegenstände aussehen. Die so genannten ”Roomware–Komponenten” und ”Smart Artefacts” werden sowohl in die Umgebung integriert als auch als mobile Geräte realisiert. Um mit diesen interaktiven Kommunikations– und Kollaborationslandschaften zu arbeiten, sind Kompetenzen in verschiedenen Bereichen nötig, wie zum Beispiel computerunterstützte Gruppenarbeit, Interaktionsdesign und Mensch–Computer–Interaktion, Ubiquitous Computing und Sensorik. Das IPSI versucht durch verschiedene Projekte, Hard– und Softwarekomponenten zu entwickeln die diesen Anforderungen genügen. ”InterSpace” ist ein Projekt das sich mit neuen Interaktionsformen für Gruppen in Ubiquitous Computing Umgebungen befasst. Hier stehen Fragen wie die ”Interaktion mehrerer und verschiedener Geräten”, ”Unterstützung von Zusammenarbeit”, ”Persönliche und öffentliche Geräte” sowie die ”Integrierte Umgebungen: Benutzer, Geräte, Kontext” zum Thema. Statt universell einsetzbarer Maschinen werden Computer zu sogenannte ”Information Appliances”, die auf einen bestimmten Anwendungszweck zugeschnitten sind. Ubiquitous KAPITEL 3. WEARABLE COMPUTING 80 Abbildung 3.24: Komponenten von ROOMWARE Computing–Umgebungen werden mit diesen Geräten ausgestattet. Dadurch ergeben sich natürlich völlig neue Anforderungen an Benutzungsschnittstellen. Geräteunabhängige Interaktoren sind zu definieren, um eine koherente Benutzung zu ermöglichen. Bei der Zusammenarbeit mehrerer Personen an einem einzigen Gerät, muss sichergestellt werden, dass die Benutzungsschnittstelle so gestaltet sind, dass Interferenzen vermieden werden. Unterschieden wird zwischen Geräten zur persönlichen Benutzung (z.B.: PDAs) und Geräte zur Unterstützung von Gruppenarbeiten wie zum Beispiel interaktive Bildschirme. Gruppengeräte können natürlich auch für den Zugriff auf persönliche Informationen benutzt werden. Natürlich sind diese Geräte auch vom Kontext abhängig, wie zum Beispiel vom Ort oder der Gegenwart anderer Personen. Wenn Informationen in Sitzungen erzeugt werden, muss definiert sein, wer nach der Sitzung welche Zugriffrechte behält. Es ist wichtig, dass Benutzer sich auf eine konsistente Benutzungsschnittstelle verlassen können, die alle verfügbaren Geräte einschließt. Dies steht jedoch im Gegensatz zu der Forderung nach Schnittstellen, die auf die jeweiligen Geräte angepasst sind. Deshalb müssen Interaktionsstile und Schnittstellenkonzepte entwickelt werden, die es ermöglichen, auf der einen Seite abstrakt und unabhängig vom benutzten Gerät zu sein, und auf der anderen Seite jedoch für diese Geräte zugeschnitten sind. Im Rahmen des Teilprojekts ”InterSmArt” engagiert sich der Arbeitsbereich ”Ambiente” in der Verbesserung der benutzerorientierten und ergonomischen Gestaltung von Smart Artefacts. Gewonnene Erkenntnisse werden in Form von prototypischen Realisierungen umgesetz. Dafür werden innovative Interaktionsformen entwickelt, die kohärente Erfahrungen bei der Verwendung von ”Smart Artefacts” ermöglichen. Smartness kann sich auf die intelligente Anpassung von Interaktionen sowohl an Gegebenheiten der physikalischen Welt als auch deren Gegenstück im virtuellen Informationsraum beziehen. KAPITEL 3. WEARABLE COMPUTING 3.8 81 Philosophische Betrachtung Das Thema Wearable Computing kann durchaus auch philosophisch betrachtet werden. Eine interessante Arbeit gibt es von Birgit Richard, die eine relativ realistische Betrachtungsweise dieses Themas zeigt. ”Der Mensch zwischen Wearables und Cargo Kult” nennt sich ihr kritisches Werk über die Verschmelzung von Technik und Mensch.20 Birgit Richard spricht von getragener Technologie, deren Konzept beinhaltet, dass Menschen digitale Informations– und Kommunikationstechnologien komplett am Körper tragen und so die Transformation des Personal Computing zum Body Computing vollziehen. Der Computer wird zum unsichtbaren prozessierenden Kleid. Die Entwicklung der Mode steht dem technologischen Fortschritt dabei um nichts nach. Im Gegenteil, viele Ideen von Modekünstlern geben den Forschern Anhaltspunkte, wohin sich der Kommerz dieser Produkte bewegen wird. Die Modebranche hat wohl auch mehr Gespür dafür, was von den Konsumenten gefordert bzw. gewünscht wird. Die Integration von Hightech Materialien und ein mit ”Cargo”, ”Utility” und ”Futuristik Look” zu benennender Trend, der vor allem in den jugendlichen Szenen ihren Ort hat, bieten einen interessanten Ausblick auf die zukünftige Integration von Technologie.[Ric98] Technologie wird direkt an den Körper gebunden. Die Mobilität der Gegenstände beginnt mit technisch–medialen Erweiterungen wie dem Walkman und führt über kommunizierende, sendende und empfangende Geräte wie Pager oder WAP Handy, Uhren, wie Swatch the Beep und PDAs zur vernetzten Online–Kleidung. Der Ursprung liegt wie so oft in der militärischen Kleidung und der Arbeitskleidung. Wearables, wie sie vom MIT und Neil Gershenfeld verstanden werden, sind Geräte die die Fähigkeiten des Menschen wesentlich erweitern sollen.[MIT] Die Entwerfer solcher Gegenstände gehen davon aus, dass der Mensch und seine Sinne unterentwickelt sind und quasi mediale Prothesen benötigen.[Ric98] Richard ist der Meinung, dass die bedeutungsvolle Invasion des Technologischen durch die harmlose Bezeichnung Kleidung abgelenkt werden soll. Andrew Ross beschreibt die technologische Ideologie wie folgt.[And95a] ”Human–made object world becomes an alternative home of intelligence?” Die smarte Intelligenz der Objekte ist kostengünstig und unterwirft sich programmierten Strukturen.[And95b] Die Wearables zielen nur bedingt darauf ab, Menschen mit einer Behinderung das Leben zu erleichtern, sind also nicht in erster Linie Prothesen. Die Zusammenfassung aller dieser Bemühungen um die tragbaren Gegenstände symbolisiert der ”Prototyp” Steve Mann, der bestückt mit verschiedenen technischen Verstärkungen als menschlicher Cyborg Science Fiktion in die Realität verlagert. Seine ”Augmented Reality” liegt noch weit hinter den fiktionalen Möglichkeiten zurück, die ein Cyborg in zeitgenössischen Filmen wie ”Terminator” längst hat. Wenn dieser ein Ziel anvisiert, werden Informationen über Orte, Waffensysteme und Personen auf seine Netzhaut projiziert.[Ste86] Cyberliteratur dient aber auch als Zielvorstellung für Forschung und Entwicklung. Es ist also nur eine Frage der Zeit, dass diese ”Cyborg–Technologien” in unser Leben Einzug 20 http://www.rz.uni-frankfurt.de/fb09/kunstpaed/indexweb/indexwszwei/wearable.html KAPITEL 3. WEARABLE COMPUTING 82 finden. Die technischen Voraussetzungen sind Miniaturisierung, Gewichtsreduktion und gemeinsame Standards zum Datenaustausch in einer vernetzbaren Umgebung. Durch die Vereinheitlichung der individuellen BodyNets entsteht eine Art Software–Uniform. Als Träger eines Wearable muss der Mensch auf einer materiellen und einer immateriellen Form für seine Gesundheit Sorge tragen. Beide muss er gleichermaßen vor Viren oder gewalttätigen Übergriffen schützen. Die smarte Kleidung benötigt also auch Updates, Reparaturen und Sicherheitsmaßnahmen. Sie muss zum Beispiel genäht werden, fehlende Knöpfe oder geplatzte Nähte müssen geschlossen werden, um die Funktionalität zu gewährleisten. Die elektronische Kleidung ist ein offenes System und damit nicht einbruchssicher und auch nicht vor Viren geschützt. Das Eindringen eines Wurms wie ”I love you” könnte man als eine virtuelle Geschlechtskrankheit bezeichnen. Die Infektion findet über die Kleidung statt, eine intelligente Kleidung sollte diese also abwehren können. Um den Markt zu erobern wird es nicht genügen die Funktionalität und Kompatibilität der Kleidung zu gewährleisten. Es ist vielmehr notwendig von der ursprünglichen Intention der Unsichtbarkeit eines Wearables abzukommen und die ästhetischen Seiten zu entdecken und ins Design einzubringen. Die Funktionalität alleine wird dem Kunden nicht genügen, die Kleidung muss ihm auch gefallen und er sollte sich in ihr wohlfühlen. Das MIT versucht Visionen für die Wearables von Designern entwerfen zu lassen und stellt die Ergebnisse bei verschiedenen Shows zur Schau.[MIT ] Nicht der Kleinstcomputer bringt die Integration von Technik in die Kleidung, wie im Konzept der Wearables vorgesehen, sondern die Aufteilung von Funktionen auf viele kleine Geräte. Im Mittelpunkt des Cargo–Kults steht das Handy. Es ist modisch integrierbar, wandelbar, aber auch gleichzeitig auf bestimmte Funktionen konzentriert. Die transportable und körpernahe Kommunikationsmöglichkeit wird zunächst an den Gürtel gehängt, als reine Erweiterung also nicht in die Kleidung integriert. Das Mobiltelefon zeigt die Richtung an, die Wearable Computing einschlagen müsste, um massenwirksam zu sein. Schon die Wahl der richtigen Bezeichnung für das Tragen von Elektronik ist entscheidend, um die Produkte nicht mit einem negativen Gefühl zu behaften. Das Tragen von ”Technologie” in der modischen Kleidung ist weniger mit direkter körperlicher Belastung, mit Gewicht assoziiert, dagegen klingt ”Wearable Computing” nicht nur nach einer schweren zusätzlichen Last, sondern sie erschwert dem Menschen den Alltag, weil die Hardware transportiert werden muss.[Man98] Kapitel 4 Projekt - Virtual Tourist Guide (VTG) Um die Probleme und Lösungsmöglichkeiten im Wearable Computing besser zu verstehen, ist es notwendig eigene Erfahrungen in diesem Bereich zu sammeln. Dies war auch die Motivation für das folgende Projekt, das zumindest eine dieser neuen Technologien beinhalten sollte. Spielereien sind zwar immer der erste Schritt für neue Produkte, aber einen gewissen Praxisnutzen sollte die Anwendung schon mit sich bringen. Ein neues Ein– oder Ausgabegerät wäre eine Möglichkeit gewesen, es fehlte dazu jedoch eine herausfordernde Ideen. Ein anderer Ansatz ist es, ungewöhnliche Ein– oder Ausgabegeräte für eine neue Wearable–Applikation zu verwenden. Dies war auch der Weg der eingeschlagen wurde und somit der Startschuß zum Projekt ”VirTour” den virtuellen Touristenführer. 4.1 Projektidee Was ist die Idee hinter diesem Projekt bzw. wozu soll diese Anwendung schießlich dienen? Diese Frage soll an einem kleinen Beispiel veranschaulicht werden. Man stelle sich vor, man ist in einer fremden Stadt und steht vor einem interessanten Gebäude. Man streckt den Zeigefinger in Richtung des Gebäudes und fragt: ”Was ist das?”. Kurz darauf flüstert einem ein elektronischer Fremdenführer, via Minilautsprecher, Informationen über jenes Objekt ins Ohr und eine Kurzinformation wird einem über einen HMD angezeigt. Zusätzlich wird der Kurzinformation eine URL hinterlegt, mit der man mittels UMTS–Verbindung sofort weitere Informationen aus dem Internet abfragen kann. Ein anderes Beispiel wäre der virtuelle Bergführer. Man stelle sich vor man ist wandern, zeigt auf einen Berg und fragt: ”Welcher Berg liegt dort?”. Kurz darauf die Antwort: ”Der große Donnerkogel; 1856m hoch; 2,5 Stunden Gehzeit von ihrer derzeitigen Position”. Und vielleicht noch eine Navigationskarte mit den möglichen Routen und Jausenstationen. ”Mobile Computing” als Technologie für einen elektronischen Fremdenführer der dem Benutzer Informationen direkt aus dem Internet liefert. Eine GIS–Anwendung im ”Wearable Bereich” die bestimmt in nicht all zu ferner Zukunft Realität sein wird. Das Ortungssystem sollte dabei nicht nur die Position des Anwenders, sondern auch die 83 KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 84 Ausrichtung feststellen können. Wenn nun Position und Richtung bekannt sind, stellt sich nur noch die Frage der Entfernung zu einem bestimmten Objekt. Um eine Vereinfachung zu schaffen, geht man von einem Sichtkegel aus, mit dem man einen bestimmten Blickbereich eingrenzt. Alle Objekt in diesem Kegel werden nach ihrer Entfernung zum Benutzer sortiert und aufgelistet. Als zusätzliche Orientierungshilfe wird die aktuelle Position in einer Karte dargestellt (siehe Abbildung 4.14 im Abschnitt 4.5.2). Als geeignetes Bildformat zur grafischen Darstellung in einem Webbrowser, bot sich der Grafikstandard ”SVG” an (siehe Abschnitt 4.2.3). Beim Betätigen des Button ”Was ist das?” werden die Positionsdaten für die Berechnung der Objektdaten zum Server geschickt. Dieser übergibt das Ergebnis wieder dem Client (Web–Browser). Neben der Information des Objektnamens wird, falls vorhanden, auch eine URL zu einer Internetseite angezeigt, wo man weitere Informationen zu den Objekten finden kann. Es steht die Auswahl verschiedener Informationstypen zur Verfügung, die aus der Datenbank geladen und im SVG–Bild angezeigt werden. Dies sind der Objektcode (”MAPKEY”), der ”NAME”, die Beschreibung (”DESCRIPTIO”) und die ”URL” zu einem Objekt. Weiters ist das Aus– und Einblenden von ”Text”, ”Shapes” und dem Sichtkegel (”View Area”) im angezeigten SVG-Bild vorgesehen (siehe Abbildung 4.1). Abbildung 4.1: Ablauf einer Objekterkennung 4.2 Bildformate Die folgende Beschreibung ist lediglich eine allgemeine Vorstellung der verwendeten Formate und eine kurze Übersicht über deren Vorzüge und Anwendungsbereiche. KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 85 Die hier vorgestellten Vektorgrafik Formate stehen im Zusammenhang mit dem Projekt ”VirTour”. Die Rohdaten für das Projekt lagen im ”.dxf–Format” vor. Diesen Daten wurden Zusatzinformationen hinzugefügt und über eine Koordinatentransformation wurden die Objektdaten schließlich im ”Shape–File–Format” in der Datenbank gespeichert. Bei einer Anfrage werden die betreffenden Objekte dann aus der Datenbank berechnet und über einen Web–Browser als ”SVG–Grafik” dargestellt. 4.2.1 DXF DXF ist ein Format für vektororientierte Programme und wurde von der Firma Autodesk entwickelt. Daher kommt auch die vorwiegende Verwendung für CAD/CAM/CIM. Als besondere Eigenschaft sei erwähnt, daß DXF auch dreidimensionale Objekte speichern kann. Die Anzahl der Farben ist aber auf 8 bit beschränkt und unterstützt keine Kompression [Dal01]. DXF ist an sich für GIS–Anwendungen eher schlecht geeignet, da es keine Möglichkeit bietet, Attribute zu räumlichen Objekten zu speichern. 4.2.2 Shapefile Shapefiles speichern geometrische und beschreibende Information zu geometrischen Objekten. Den Shapefiles liegt eine sehr einfache Datenstruktur zu Grunde und Objekte werden ohne topologische Beziehung gespeichert. Daraus ergeben sich für Shapefiles gewisse Vorteile gegenüber anderen Formaten, wie die schnellere Darstellungs– und Editierungsmöglichkeit. Sie brauchen zumeist weniger Speicherplatz und sind leicht zum Schreiben und Lesen. Shapefiles können Punkte, Linien und Flächen verwalten, wobei jede Form immer als Menge von Punkten gespeichert wird. Bekannte Softwareprodukte die mit diesem Format arbeiten, wären ”ARC–INFO” oder ”ArcView”. Ein Shapefile besteht immer aus drei Dateien. Ein ”Main File”, ein ”Index File” und ein ”dBASE File”. Das ”Main File” speichert die geometrische Information. In einem ”Main File” kann immer nur eine Form gespeichert werden, zum Beispiel nur Punkte oder nur Linien. Insgesamt gibt es in der Spezifikation vom Shapefile 14 verschiedene räumliche Formen, wobei aber im Prinzip immer nur Listen von Eckpunkten gespeichert werden. Um die Einfachheit der Datenorganisation im ”Main File” zu sehen, soll diese kurz erklärt werden. Das File beginnt mit einem 100 byte ”Header”, der im wesentlichen den Typ der räumlichen Form beinhaltet. Danach kommen immer ein 8 byte ”Record Header” gefolgt von einem ”Record Content Bereich” verschiedener Länge. Im ”Header” steht jeweils die ”Record Number”, welche wichtig ist für das ”dBASE File”, sowie die Länge des darauffolgenden Blocks. Im ”Record Contents Block” befinden sich dann die Koordinaten der Punkte sowie meistens Koordinaten eines umgebenden Rechtecks des jeweiligen Objekts. Das index–file ist von der Struktur her ähnlich dem main–file. Es besteht nur mehr aus einem Header und 8 Byte langen Records, wobei das i´te Record nur den Offset des i´ten Records im main file speichert sowie die Länge des Record Contents des i´ten Records im main file. Das dBASE file beinhaltet die beschreibenden Informationen zu den geometrischen Ob- KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 86 jekten. Die Beziehung zwischen den geometrischen Objekten und deren Attributen erfolgt über die oben bereits erwähnte Record Number. Die Reihenfolge der Records im dBASE und im main–file muß daher die selbe sein. Letztes wichtiges Merkmal für Shapefile ist, daß die Bezeichnung der Dateinamen der drei Files gewissen Richtlinien folgen muß. Alle drei müssen den selben Prefix haben und der Suffix ist genau definiert. Folgendes Beispiel soll dies veranschaulichen. Main File: kataster.shp Index File: kataster.shx dBASE File: kataster.dbf Für eine sehr genaue technische Spezifikation sei auf [ESR01] verwiesen. 4.2.3 SVG Scalable Vector Graphics (SVG) wurde entwickelt, um einen Standard für nicht–Rasterbilder im Web zu ermöglichen. Das SVG–Format basiert auf XML und wurde von einer Arbeitsgruppe des World Wide Web Consortium (W3C) entwickelt. SVG ist eine Sprache, um zweidimensionale Graphiken zu definieren, wobei drei Typen von Objekten zur Verfügung stehen. Vektor Graphiken (z.B. Linien, Kurven) Bilder Text Diese Graphischen Objekte können gruppiert und darauf diverse Effekte angewandt werden, wie Transformation, Animation, Transparenz, Filtereffekte, usw. SVG bietet gegenüber bekannten Rasterformaten wie GIF und JPEG eine Reihe von Vorzügen, besonderes wenn es um Graphiken des Typs Zeichnung oder Illustration geht. Als vektorbasiertes Format bietet es natürlich die entsprechenden Vorzüge. Skalierbare Vektorgrafiken sehen bei jeder Auflösung gut aus, man kann beliebig einzoomen und sie sehen weiterhin scharf und detailreich aus. Texte bleiben editierbar und durchsuchbar und zumeist ergeben sich für SVG Grafiken kleine Dateigrössen, was einen Vorteil für die Verbreitung über das Internet bringt. Die Tatsache, daß SVG komplett XML–gestützt ist, bringt noch eine weitere Fülle von Vorteilen: Grafiken bestehen aus XML–Befehlen, die als Text auf einer Webseite eingegeben werden, die aus HTML oder XML besteht. Es ist einfacher Programmiercode, es gibt keine separaten Binärdateien die verwaltet oder abgelegt werden müssen. Als Text lassen sich skalierbare Vektorgrafiken von Suchmaschinen indizieren und von Anwendern mit dem Browser durchsuchen. Als Text lassen sich skalierbare Vektorgrafiken auch nebenher erstellen, wie zum Beispiel von Datenbankfunktionen. Daher ist es ein ideales Format für Diagramme und Graphen, die auf unterliegenden Daten basieren. KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 87 Als XML–gestützte Sprache unterstützt SVG komplett das DOM2 und ist daher vollständig skriptfähig. Skalierbare Vektorgrafiken können auf Klicks und Mausbewegungen reagieren, Änderungen der Grafik oder anderer Objekte wie HTML–Text oder andere Grafiken auslösen. SVG ist vollkommen XML–konform und funktioniert unter allen Betriebssystemen, Ausgabeauflösungen sowie Farbräumen. [Ado01] 4.3 Kartenmaterial ”Unsere wichtigste Orientierungshilfe nach der Sonne ist die Karte” [Lin98]. Diese Aussage trifft nicht nur auf die klassischen Methoden der Orientierung zu, sondern besonders auch auf den Einsatz von GPS. Die Karte bildet die Schnittstelle zwischen dem Gelände in dem wir uns bewegen und dem Navigationsempfänger. Ohne den Bezug zur Erdoberfläche und zur Karte ist GPS nur in sehr bescheidenem Ausmaß verwendbar und für einen sinnvollen Einsatz nicht zu gebrauchen. Daher ist der Einsatz von GPS in einem hohen Maße von der Qualität und dem Informationsgehalt der Karte abhängig. Eine Karte ist nur dann verwendbar, wenn sie auch ein Bezugsystem aufweist, das in gängigen GPS Empfänger eingestellt werden kann. Eine Karte kommt also nur dann für eine GPS–Positionierung in Frage, wenn ihr Raumbezug zur Erde (die absolute Orientierung) ausreichend bekannt ist und sich aus ihr Koordinaten kartometrisch auswerten lassen. Die Verwirrung um allgemeine Begriffe wie Ellipsoid, Kartendatum oder Abbildung ist aber groß. Die meisten GPS-Nutzer scheitern schon am Versuch, ihr Gerät mit den notwendigen Parametern zu kalibrieren, was eine Verwendung der Kartengrundlage erst möglich macht, und auch diverse Artikel in Zeitschriften bringen leider nicht immer Licht ins Dunkel. Die Bezeichnung des Ellipsoids ist die erste wichtige Information, die GPS braucht um richtig zu rechnen. Dieses Ellipsoid ist das Kartendatum. Österreich und Deutschland verwenden das Bessel-Ellipsoid, die Schweiz hat ein eigenes, ein Großteil der restlichen Welt verwendet das Modell WGS84, besser bekannt unter der Bezeichnung UTM [Fab99]. Allein in diesen Zeilen werden Datum, Ellipsoid und Abbildungssystem in einen Topf geworfen und auch falsch verwendet. Wie soll der Leser daraus die Grundlagen von Koordinatensystemen oder Abbildungen verstehen? Die Lagekoordinaten einer Landesvermessung beziehen sich, aus mathematischen Gründen, auf das geometrische Ellipsoid [HG94]. Mit einfachen Worten ausgedrückt ist der Ellipsoid die angenäherte Form der Erdoberfläche. Der Bessel–Ellipsoid basiert auf den Erdmaßen nach Friedrich Wilhelm Bessel aus dem Jahre 1841. Im Bereich von Österreich passt sich diese Bezugsfläche besonders gut an den Geoid an, weshalb es auch die geodätische Grundlage für die Österreichische Landesvermessung bildet. Ein anderer wichtiger Ellipsoid ist der WGS84–Ellipsoid. Sämtlichen GPS Positionsbestimmungen werden zuerst in einem kartesischen Koordinatensystem (X, Y, Z) definiert, dessen Mittelpunkt genau im Schwerpunkt der Erde liegt. Danach werden diese Punkte orthogonal auf das mittlere Erdellipsoid transformiert um sie zu veranschaulichen. KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 88 Das Geodätische Datum beschreibt einerseits die Größe des Ellipsoid, und andererseits die Lage des Ellipsoidmittelpunkts zum Erdschwerpunkt. Somit ist der Raumbezug zur Erde eindeutig festgelegt, womit die GPS-Koordinaten auf die gewünschte Bezugsfläche umgerechnet werden können. Das Datum, das der österreichischen Landesvermessung zugrunde liegt, ist das Datum des MGI (Militärgeographisches Institut). Erhält man die Koordinaten (X, Y, Z)WGS oder (B, L, H)WGS einer GPS–Ortsbestimmung, so sind diese für österreichische Kartengrundlagen nutzlos. 7 Parameter sind notwendig, um eine eindeutige Koordinatentransformation von einem Datum in ein anderes durchzuführen. Dazu zählen 3 Parameter für die Verschiebung des Ellipsoidmittelpunktes (Translation), 3 Parameter für die Drehungen um die Koordinatenachsen (Rotation), und ein Parameter für die Maßstabsänderung. Die Transformationsparameter im Sinne WGS84 – MGI lauten [Bre93]. Delta X = -563.9 Delta Y = -82.3 Delta Z = -463.4 Alpha = 4.9” Beta = 1.8” Gamma = 4.5” m = -4.5*10-̂6 Diese Werte sind meist auch in gängigen GPS Navigationsempfängern bereits als Österreichisches Datum gespeichert. Da es relativ schwierig ist, günstig an ein gutes Kartenmaterial zu kommen, führte der Weg bei der Suche nach lokalen Daten direkt zum grazer Bauamt. Das Bauamt sellte großzügigerweise Kartenmaterial vom Bereich Grazer Innenstadt und einen Teilbereich des Inffeldes zur Verfügung. Diese lagen als Vektorgrafik im dxf–Format vor. Da die Daten in einem anderen Koordinatensystem angegeben waren, als jene die das GPS–Gerät liefert, mußte zuerst eine Koordinatentransformation erfolgen. Außerdem mußten die Objekte, die aus einzelnen Linienzügen bestanden, noch etwas nachgearbeitet und Informationen zu den Objekten ergänzt werden. Mehrere Schritte waren schließlich notwendig, um die Objektdaten als Shapes mit den dazugehörigen Koordinaten und Zusatzinformationen (Objektname, URL,Kurzbeschreibung) zu erhalten. Die Transformation stellte sich als größeres Problem dar, als man glauben möchte. Kartennetzentwürfe (Kartenabbildungen) sollen die Netzlinien und Punkte eines Koordinatensystems von der exakt definierten Oberfläche eines Weltkörpers nach bestimmten mathematischen Regeln so in die Ebene abbilden, dass sie dort eine geeignete geometrische Grundlage für digitale Modelle und kartographische Darstellungen ergeben. Eine Abbildung, die der definierten Erdoberfläche in allen Teilen ähnlich ist, kann nur wieder auf einer Ellipsoid- oder Kugelfläche (z.B. auf einem Globus) möglich sein. Nur sie ist unter Berücksichtigung des konstanten Verkleinerungsverhältnisses zugleich längen-, flächenund winkeltreu. Bei der Abbildung einer Ellipsoid- oder Kugelfläche in eine Ebene lassen sich dagegen die drei Eigenschaften gleichzeitig niemals streng verwirklichen [HAKE 1994]. Für die Navigation und in der Landesvermessung ist vor allem eine winkeltreue (konforme) Abbildung der Erdoberfläche von Bedeutung. Gerhard Mercator entwarf 1569 den ersten konformen zylindrischen Netzentwurf unter der Annahme der KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 89 Abbildung 4.2: Zylindrische Abbildung [HG94] Erde als Kugel, womit er einen Meilenstein für die Seenavigation setzte. Er erstellte damit aber auch eine Vorform der Grundlage, auf der heute fast alle Netzentwürfe für die Landesvermessung aufbauen. Zwei, für Österreich relevante Abbildungssysteme, sollen nun vorgestellt werden. Carl Friedrich Gauß löste erstmals das mathematische Problem der Verebnung des Ellipsoides. Für die speziellen Anforderungen in der Landesvermessung wurde diese konforme Zylinderprojektion in eine transversale Lage gebracht (siehe Abbildung 4.3). Abbildung 4.3: Transversale Zylinderprojektion [Wer95] Die Abszissenachse (x-Werte) ist somit ein Berührungsmeridian, und die Ordinatenachse (y-Werte) ist der Äquator, wobei auch von Hoch- beziehungsweise Rechtswerten gesprochen wird um Missverständnissen vorzubeugen. Ein Streifen von 1 12 o Länge westlich und östlich dieses Bezugsmeridians wird auf dem Zylindermantel abgebildet, der anschließend in die Ebene abgerollt wird. Man erhält eine konforme Abbildung mit relativ geringen KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 90 Längenverzerrungen, die mit wachsender Distanz zum Bezugsmeridian zunehmen. Ein Meridian am Meridianstreifenrand, wird in dieser Abbildung auf einer Länge von 300km nur um 45m gedehnt. Um diese Verzerrungen zusätzlich in Grenzen zu halten, wurde die Abbildungsbreite von 3o pro Meridianstreifen gewählt. Österreich ist dadurch auf 3 Meridianstreifen abgebildet, die sich aber nicht auf Greenwich, sondern auf den historischen Nullmeridian von Ferro (westlichste Insel der Kanaren) beziehen, und M28, M31 und M34 benannt wurden. Die Umrechnung zwischen Ferro und Greenwich lautet: Alpha Ferro – 17o 40´ = Alpha Greenwich Auf Greenwich bezogen, liegen dann die Meridiane M28 bei 10o 20´, M31 bei 13o 20´ und M34 bei 16o 20´. Bis auf den Bezugsmeridian werden nun alle anderen Meridiane (geographische Netzlinien) als Kurven dargestellt. Für geodätische Zwecke sowie für die kartometrische Auswertung von Punkten wurde für jeden Meridianstreifen ein eigenes quadratisches Gitter eingeführt (siehe Abbildung 4.4). Abbildung 4.4: Die 3 Meridianstreifen des Gauß-Krüger-Systems [Wer95] Wenn nun also Koordinaten in diesem System bestimmt werden, so können die Rechtswerte sowohl negativ als auch positiv sein, je nachdem auf welcher Seite des Bezugsmeridians sich der zu bestimmende Punkt befindet (siehe Abbildung 4.5). Aus diesem Grund wurde das BMN (Bundes- MeldeNetz) eingeführt, bei dem die Meridianstreifen mit einem Offsetwert versehen wurden. M28 wird um 150.000, M31 um 450.000 und M34 um 750.000 Meter positiviert. Weiters wird der Hochwert, der vom Äquator aus gemessen wird, um 5 Millionen Meter reduziert. Dieses System ist nicht in allen GPS-Navigationsempfängern standardmäßig vordefiniert, und muss daher selbst eingegeben werden. Der Nutzer muss sich darüber im Klaren sein, in welchem Meridianstreifen er sich befindet, ferner die jeweilige Distanz zu Greenwich und den richtigen Offsetwert einstellen. Die Daten des Grazer Bauamtes lagen in Gauß–Krüger–Koordinaten vor und mußten erst ins WGS84 Koordinatensystem transformiert werden. Hier tauchten die ersten Probleme auf. Zuerst mußte eine Möglichkeit zur Transformation der vorliegenden Daten gefunden werden, danach die richtigen Parameter und schließlich mußte das Ergebnis auf Richtigkeit überprüft werden. Als Werkzeug für die Bearbeitung, Ergänzung und Transformation KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 91 Abbildung 4.5: GKM und BMN im Vergleich [Wer95] der Daten wurde ein CAD–Programm verwendet. Mit Unterstützung des Universitäts– Institut für Geoinformation in Graz, konnten schließlich die richtigen Parameter für die Transformation gefunden werden. Nachdem die Daten im richtigen Format vorlagen, wurden sie in eine Mysql–Datenbank gestellt. Diese Datenbank am Server wird für die Auswertung einer Client–Anfrage verwendet. Das Ergebnis wird schließlich wieder im Browser des Client angezeigt. Wie schon erwähnt lagen die ursprünglichen Kartendaten als .dwg–File in Gauß–Krüger Koordinaten vor. Das vom Bauamt zur Verfügung gestellte Kartenmaterial wird in Abbildung 4.6 gezeigt. Abbildung 4.6: Ein Ausschnitt der Katasterdaten der Grazer Innenstadt Die Kartendaten mit definierten Objekten und zusätzlichen Daten wurden schließlich ins WGS84 transformiert und unter dem Filenamen ”kataster koord–austria.dwg” gespeichert. KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 92 Das CAD–Programm stellt auch das Speichern der Kartendaten im Shape–Format zur Verfügung. Daraus ergeben sich folgende drei Files. kataster koord wgs84.dbf (Database File) kataster koord wgs84.shp (Main File) kataster koord wgs84.shx (Index File) Sämmtliche Daten, wie Koordinaten und Attribute werden aus den Shapefiles ausgelesen und folgende Datenbank–Files erzeugt (siehe Tabelle 4.1). categories.frm current keys.frm obj2point.frm objects.frm points.frm properties.frm shapes.frm .MYD .MYD .MYD .MYD .MYD .MYD .MYD .MYI .MYI .MYI .MYI .MYI .MYI .MYI Typen von Attributen Höchste IDs zur Datenbank Erweiterung Objekt-Punkt Zuweisung Objekte Punkte Attribute zu den Shapes Typ des Shapes (Linie, Punkt,. . . ) Tabelle 4.1: Datenbankfiles die aus den Shapefiles erzeugt werden. 4.4 Positionsbestimmung Es hängt sehr stark von der Anwendung bzw. von der Umgebung ab, welches System man zur Positionsbestimmung verwenden kann. Befindet man sich in Gebäuden oder in einer Umgebung die keine freie Sicht zum Himmel erlaubt, ist eine Positionsbestimmung durch Satelliten (GPS) ausgeschlossen. Benötigt man einen großen Bewegungsraum, sind sensorbasierte Systeme nicht unbedingt die richtige Wahl. Bei der Verwendung von GSM als Ortungssystem, stellt sich die Frage der Genauigkeit. Diese hängt stark von der Dichte des Sendernetzes ab und ist für eine Anwendung wie den VTG auch im Stadtbereich nicht ausreichend hoch (min. 10m Ungenauigkeit). Möchte man sich zum Beispiel in den Bergen bewegen, ist die Genauigkeit meist ebenfalls nicht ausreichend bzw. eine Positionsbestimmung unmöglich. Es ist also sehr stark von den Voraussetzungen der Anwendung bestimmt, welche Technik man verwendet. Beim Projekt Touristguide wird ein GPS–System verwendet, da man bei diese Anwendung als Objekte nicht nur Gebäude, sondern auch Berge und dergleichen definieren kann. Zur Bestimmung der Ausrichtung gibt es grundsätzlich zwei Möglichkeiten. Entweder man errechnet sich die Bewegungsrichtung aus den letzten Positionen, oder man verwendet einen elektronischen Kompaß. Letztere hat den Vorteil, dass man die Ausrichtung auch bei Stillstand feststellen kann. Außerdem muß die Sichtrichtung nicht mit der Bewegungsrichtung übereinstimmen. Aus diesem Grund war es für diese Anwendung keine Frage, KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 93 welche Technik anzuwenden ist und glücklicher Weise gibt es ein GPS–Gerät von Garmin das einen solchen elektronischen Kompaß eingebaut hat. 4.4.1 GPS–Grundlagen Führung von oben so lautet der Werbeslogan der Firma Garmin, die derzeit den Markt an GPS–Navigationsgeräten beherrscht. Mit oben sind die 24 Satelliten gemeint, die es uns ermöglichen, unsere Position auf der Erde, beziehungsweise auf der Karte, zu jeder Tages– und Nachtzeit auf Knopfdruck, metergenau zu bestimmen. Eines ist jedoch klar, ohne Karte ist GPS zur Orientierung nur begrenzt verwendbar. In vielen Bereichen hat sich GPS schon längst als Navigationshilfe durchgesetzt. In der See–, Luftfahrt und Autonavigation ist diese Technologie nicht mehr wegzudenken. Warum also wird dieses Potenzial für die Orientierung noch nicht ausgeschöpft? Die Gründe dafür sind folgende. Reliefbedingte Störung der Empfangsgeräte Die Satellitensignale können nur empfangen werden, sofern keine Sichtbehinderung zwischen Satellit und Empfänger vorliegt. Zur See, in der Luft oder in Gebieten mit schwacher Reliefenergie sind solche Störungen nicht zu erwarten (außer durch Vegetation oder Bebauung). In Städten, schmalen Gassen oder ähnlichem, kann diese sogenannte Abschattung ein Problem werden und das System versagen. Ungeeignete kartographische Grundlagen Bis jetzt gibt es kaum Karten, die sich speziell mit der Thematik GPS befassen. Zum Teil sind sie sogar gänzlich unbrauchbar, weil sie kein Bezugssystem zur Erde aufweisen, oder weil dieses nicht ausreichend im Kartenrand angegeben wurde. Informationsdefizite Um GPS–Geräte sinnvoll einsetzen zu können, bedarf es eines umfangreichen kartographischen sowie GPS-technischem KnowHow. Der Käufer eines solchen Gerätes wird aber mit einer Reihe von grundlegenden Problemen alleingelassen. Systemungenauigkeit Im Vergleich zur See– und Luftfahrt wird für die Orientierung im Wohnbereich (Stadt oder anderen bebauten Örtlichkeiten) eine höhere Lagegenauigkeit verlangt. Bis vor kurzem gab der Systembetreiber, das Amerikanische Verteidigungsministerium (kurz DoD für Department of Defense) an, dass in 95 Prozent der Fälle die Lagegenauigkeit einer GPS–Messung unter 100m und die Höhengenauigkeit unter 140m liegt [HWLC94]. Die Erfahrung in der Praxis zeigte jedoch, dass die gängigen Navigationsgeräte eine Lagegenauigkeit von ca.30 Metern erreichen. Völlig überraschend wurde mit 2. Mai 2000 der SA–Störcode aufgehoben, womit sich die Genauigkeit dramatisch verbesserte (bis 4 Meter Genauigkeit bei herkömmlichen Geräten). Nachdem man aber weiterhin vom Systembetreiber abhängig ist, und der Störcode jederzeit wieder aktiviert werden kann, sollte man dennoch die 30m Genauigkeit nicht außer Acht lassen. Grob gesagt gilt, je mehr Satelliten empfangen werden, umso bessere Ergebnisse sind zu erwarten, und je weniger Satelliten gesehen werden, desto schlechter ist die Positionsgenauigkeit. KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 94 In den letzten Jahren ist die GPS–Technologie zu einem bedeutenden und sehr umfangreichen Forschungsinhalt geworden. Ständig wurden neue Techniken entwickelt, die die Punktbestimmung dieser Technologie noch präziser machen. Historisches Die erste Anwendung der Satellitentechnologie zur geographischen Ortsbestimmung geht schon auf das Jahr 1957 zurück, als der erste Satellit, Sputnik 1, in den Weltraum befördert wurde. Durch die gleichzeitige Beobachtung des Satelliten von mehreren Bodenstationen (photogrammetrische Richtungsbestimmung, Entfernungsmessung mit Laserimpulsen), konnten Ozeane messtechnisch überbrückt werden. [Mec96] Das satellitengestützte System TRANSIT gilt als Vorgänger von NAVSTAR–GPS. Es wurde von der Marine der USA ab 1964 betrieben und diente der Navigation von U– Booten, um ihre Wirksamkeit zu erhöhen. Doch auch geodätische Grundlagenforschung wurde damit betrieben. Dieses System hatte jedoch einige Nachteile. eine ständig Ortung war nicht möglich in Bewegung befindliche Nutzer erreichten nur bescheidene Genauigkeiten 3–dimensionale Ortung konnten nur stationäre Nutzer durchführen. Für die Navigation von Mittel– und Langstreckenwaffen war dieses System nicht ausreichend, also arbeitete die Marine am Projekt ”TIMATION” um die Zielgenauigkeit zu erhöhen. 1973 fasste das amerikanische Verteidigungsministerium ”TIMATION” und ein ähnliches Konzept der Luftwaffe in das Projekt ”NAVSTAR–GPS” zusammen. Die Forderungen an ”NAVSTAR” können wie folgt zusammengefasst werden. Einem GPS–Nutzer egal ob in Ruhe oder in Bewegung sollen extrem genaue Informationen über seine (dreidimensionale) Position, seine Geschwindigkeit sowie über die Zeit überall auf oder nahe der Erde zur Verfügung gestellt werden. Diese Informationen soll das System ständig liefern, unabhängig von Wetterbedingungen. [Bau97] Der Aufbau dieses Systems erfolgte in drei Phasen. [Bau97] Phase I: 1974 – 1979 Überprüfungsphase Testsatelliten wurden gestartet und das System auf seine Tauglichkeit überprüft. Phase II: 1979 – 1985 Entwicklungsphase Es wurden weitere Prototypsatelliten (sogenannte Block I Satelliten) gestartet und Entwicklungsarbeiten für die Empfangssysteme geleistet. Phase III: 1985 – 1995 Ausbauphase Ausbau des Systems mit Block II Satelliten. Mit 17. Juli 1995 wurde das System offiziell für voll operabel erklärt (Full Operational Capability, FOC). KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 95 Bis jetzt musste noch keiner der 24 Satelliten durch einen Reservesatelliten ersetzt werden. Für die Zeit nach 2001 wurde eine weitere Generation von GPS-Satelliten in Auftrag gegeben. GPS wird damit für die nächsten 15 bis 20 Jahre als Vermessungs– und Navigationssystem zur Verfügung stehen. [See96] Im Mai 2000 wurde der SA–Störfilter völlig überraschend abgeschalten. Somit wurde eine neue Dimension in der Genauigkeit des Systems eröffnet. Die Europäische Union ist seit den 90–iger Jahren bemüht ein eigenes System zu entwickeln. Das seit 1993 entwickelte ”EGNOS” soll im Jahr 2004 betriebsbereit sein. Es soll die derzeitigen Navigationssystgeme ”GPS” und ”GLONAS” ergänzen und damit ihre Genauigkeit erhöhen. Das eigene Satellitennavigationssystem ”GALILEO” soll 2008 zur allgemeinen Nutzung zur Verfügung stehen und neue Zusatzdienste ermöglichen. Näheres dazu im Abschnitt 4.4.1. Grundprinzip NAVSTAR–GPS ist ein vom amerikanischen Verteidigungsministerium für militärische Zwecke entwickeltes, satellitengestütztes Radionavigationssystem. Die Bezeichnung NAVSTAR– GPS ist die Abkürzung von ”NAVigation System with Time And Ranging – Global Positioning System”. Daraus wird zweierlei deutlich. [Jac92] 1. GPS ist primär ein militärisches Navigationssystem und wurde nicht für die zivilen Anforderungen, wie z.B. jene der Vermessungstechnik oder der zivilen Navigation, entwickelt. Es ermöglicht die Bestimmung der dreidimensionalen Position des Empfängers in Echtzeit und in einem einheitlichen Bezugssystem. Um dieses System vor dem Missbrauch durch andere militärische Einheiten zu schützen, wurde ein Teil der Satellitensignale verschlüsselt, wodurch sich die Genauigkeit wesentlich verschlechterte. 2. Das grundlegende Navigationsprinzip beruht auf der Messung von Entfernungen zwischen dem Nutzer und mindestens vier Satelliten. Diese Entfernungen werden durch einen Uhrenvergleich ermittelt, indem der Aussendezeitpunkt des Signals am Satelliten mit dem Empfangszeitpunkt des Signals im Nutzerempfänger verglichen wird. Wird diese Zeitdifferenz mit der Signalausbreitungsgeschwindigkeit c multipliziert, erhält man die Entfernung zum Satelliten. Hat man die Entfernung zu 3 Satelliten ermittelt, so kann die Empfängerposition berechnet werden, wobei die Entfernung zum vierten Satelliten eine Überbestimmung darstellt, die Uhrenungenauigkeiten des Empfängers ausgleicht [See96]. Der Aufbau von NAVSTAR–GPS kann in folgende 3 Einheiten unterteilt werden. 1. Raumsegment: Die Gesamtheit aller verfügbaren Satelliten bildet das Raumsegment. Anfang 1997 waren dies 24 Satelliten, drei davon sind aktive Reservesatelliten, die aber ebenfalls Signale aussenden und verwendet werden können. Diese Satelliten umkreisen die Erde in einer ungefähren Höhe von 20 200 km, angeordnet in sechs Bahnebenen, die um 55 Grad zur Äquatorebene geneigt sind. Die Umlaufzeit eines Satelliten beträgt etwa 12 Stunden, wobei er von einem Punkt aus KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 96 betrachtet im Vergleich zum Vortag um vier Minuten früher auf– und untergeht. [HWLC94] Die Satelliten wurden so angeordnet, dass folgende Bedingungen erfüllt sind: Die Anzahl der Satelliten sollte möglichst gering sein Polnahe Gebiete sollen beobachtet werden können, eine unnötige Satellitenanhäufung an den Polen sollte jedoch vermieden werden. Die Satellitenkontakte sollten gut überschaubar sein. Bei mindestens 24 Satelliten sind von jedem Punkt der Erde, bei jedem Wetter und zu jeder Zeit zwischen 6 und 8 Satelliten über dem Horizont sichtbar. [Bau97] 2. Kontrollsegment: Zu den Aufgaben des Kontrollsegments gehören die Vorausberechnungen der Satellitenbahnen, die Überwachung der Satellitenuhren (Gang, Stand), die Übermittlung der Navigationsnachricht an die Satelliten, sowie die Gesamtkontrolle des Systems. Dazu sind neben Bahnkorrekturen auch SA (Selective Availability) und A–S (Anti–Spoofing) zu zählen. [HWLC94] Fünf Stationen auf der Erde bilden das Kontrollsegment, wobei diese in Hauptkontrollstation, Monitorstationen und Bodenkontrollstationen unterschieden werden. Die Hauptkontrollstation befindet sich in Colorado Springs, Colorado und wertet alle Daten der Monitorstationen aus, welche die Satelliten beobachten. Dabei werden die Satellitenbahnen vorausberechnet, und die Bahnkorrektur der Satelliten durchgeführt. Weiters wird das Verhalten der Satellitenuhren bestimmt und an die Bodenkontrollstationen weitergeleitet. Auf den Monitorstationen werden zusätzlich zu den Satellitendaten auch noch meteorologische Daten gemessen. Diese befinden sich auf Hawaii, Kwajalein (Pazifik), Diego Garcia (Indischer Ozean) und Ascension (südlicher Atlantik). Die Bodenkontrollstationen haben die Aufgabe, Navigationsnachrichten an die Satelliten zu übermitteln. 3. Benutzersegment: Im Benutzersegment werden alle Gerätesysteme zusammengefasst, die Satellitensignale empfangen, daraus Messgrößen ableiten und in weiterer Folge die aktuelle Position berechnen. Die Hauptkomponenten des Empfangsgerätes werden in Abbildung 4.7 gezeigt. Abbildung 4.7: Schematischer Aufbau eines GPS Empfängers. [See89] KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 97 Besonders stark ist die Entwicklung auf dem Empfängermarkt bei den einfachen und handlichen Navigationsempfängern. Hier sind die Preise, aufgrund der großen Nachfrage, in den letzten Jahren enorm gefallen. [See96] Messmethoden Man kann die Satelliten als sogenannte ”hochfliegende Festpunkte” betrachten, deren geometrische Orte bzw. Koordinaten zu jedem beliebigen Zeitpunkt bekannt sind. Die Entfernung zu diesen ”Festpunkten” kann durch verschiedene Methoden ermittelt werden. Wie schon anfangs erwähnt, wird die Entfernung zu den Satelliten durch Zeitmessung ermittelt. Dies setzt sehr genaue Uhren sowohl bei den Satelliten als auch beim Empfänger voraus. Während bei den Satelliten Atomuhren mit hoher Genauigkeit eingesetzt werden, kann diese Technologie bei den kleinen Empfängern logischerweise nicht angewendet werden, wodurch ein Unsicherheitsfaktor entsteht. Damit liegen also für eine räumliche Positionsbestimmung nicht mehr nur die drei unbekannten Koordinaten (x, y, z) des zu bestimmenden Punktes vor, sondern es kommt als vierte Unbekannte noch der Uhrenfehler des Empfängers hinzu. Um vier Unbekannte zu bestimmen, braucht man also vier Entfernungen, das heisst man muss zumindest vier Satelliten gleichzeitig zur Verfügung haben. [HWLC94] Hier werden schwerpunktmäßig jene Messmethoden vorgestellt, die vorwiegend in der Navigationstechnik eingesetzt werden. 1. Absolute Verfahren (a) Einzelpunktbestimmung Die Einzelpunktbestimmung stellt den Standardfall einer Positionsbestimmung mit einem Navigationsempfänger dar. Gesetzt den Fall, es handelt sich um eine zivile Nutzung, so wird mittels Codemessung (C/A–Code), unter der Voraussetzung, dass mindestens 4 Satellitensignale empfangen werden können, die Position bestimmt. Durch die Beschränkung des Systems mittels SA kann man mit einer Positionsgenauigkeit von +/- 100 m rechnen, ohne SA wird das Messergebnis wesentlich verbessert. (b) Mittelwertmessung Die oben genannte Genauigkeit bezieht sich auf eine einzelne Messung. Da die Störung des Signals durch SA mehr oder weniger zufällig erfolgt, sind mehrere Messungen, die über einen längeren Zeitpunkt am selben Ort durchgeführt werden, räumlich gut verteilt. Wenn diese Werte dann rechnerisch gemittelt werden, so erhält man einen Punkt, der mit wesentlich größerer Wahrscheinlichkeit näher am tatsächlichen Standpunkt liegt als eine Einzelmessung. Nach diesem Prinzip der Mehrfachmessung und Mittelwertbildung arbeiten die meisten Navigationsempfänger [Bre93]. Die Algorithmen in diesen Geräten messen in geringen zeitlichen Abständen die Position, mitteln mehrere dieser Werte, und erhöhen somit die Positionsgenauigkeit. 2. Differenzverfahren KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 98 Neben dem SA-Code können noch viele andere Faktoren wie atmosphärische Störungen, Orbitfehler, Uhrenfehler u.s.w, die Genauigkeit einer GPS–Messung beeinflussen. Ein Großteil dieser Störungen kann durch das Differenz- oder Relativverfahren beseitigt werden, unter der Voraussetzung, dass zwei Empfänger zur Verfügung stehen. Das Prinzip ist denkbar einfach: Man geht davon aus, dass zur selben Zeit auf alle im Einsatz befindlichen Empfänger die selben Fehlereinflüsse wirken. Befindet sich nun ein Empfänger stationär auf einem koordinativ bekanntem Punkt (wird auch als Basis- oder Referenzstation bezeichnet), so kann die zur Zeit herrschende Ungenauigkeit in x, y, und z Richtung bestimmt werden. Der zweite Empfänger, dessen Position bestimmt werden soll (wird auch als Rover bezeichnet), unterliegt zum selben Zeitpunkt genau den selben Fehlern. Nun werden die Korrekturdaten der Basisstation an die Roverstation weitergegeben und dort bei der Positionsbestimmung berücksichtigt. [Bre93] Die Differenzverfahren können nach ihrem angewandten Beobachtungsverfahren unterschieden werden. Sowohl die Code– als auch die Trägerphasenmessung kann differenziert werden. (a) Codedifferenzverfahren Die Korrekturdaten können auf zwei verschiedene Arten verwendet werden. [See96] Nachträgliche Berechnungen: Alle Korrektur– und Empfängerdaten werden gespeichert und mit geeigneter Software können die gemessenen Punkte neu berechnet werden (Postprocessing). Durch die Korrektur der aufgenommenenen Messdaten erreicht man eine Genauigkeit von +/- 10m (vor der Abschaltung von SA). Dies reicht aus, um Kartierungen ab dem Maßstab 1:25 000 durchzuführen. Der Begriff ”postprocessing” (Nachbearbeitung) verdeutlicht den Ablauf einer solchen GPSDatenauswertung. Unabhängig von anderen Geräten werden die gewünschten Positionen mit einem C/A–Code–Empfänger aufgenommen und gespeichert. Während der gesamten Messdauer muss eine Basisstation die Korrekturdaten in einem bestimmten Zeitintervall erfassen und ebenfalls speichern. Mit einer speziellen Auswertesoftware werden dann die Absolutmessungen des Empfängers mit den Daten der Basisstation korrigiert. Bedient man sich der Methode der Mittelwertbildung, wie sie schon bei den Absolutmessungen angewandt wurde, so erhält man in diesem Fall eine Position, die von der tatsächlichen um weniger als 1,5m abweicht. Dies ist eine recht beachtliche Genauigkeit. Die Korrekturdaten können auf verschiedene Art und Weise bezogen werden. i. Von Referenzstationen aus dem Internet ii. Von privaten oder öffentlichen Basisstationen iii. Eigene Datenaufnahme mit zweiten Empfänger als Basisstation Nutzung in Echtzeit (DGPS): Die Korrekturdaten werden sofort über Radiosignale an die Roverstation weitergegeben. KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 99 Das ”D” bei ”DGPS” steht für ”Differential”, wobei sich diese Abkürzung für das Codedifferenzverfahren in Echtzeit durchgesetzt hat. Bei diesem Verfahren werden die Korrekturdaten von einer Referenzstation an einen Sender übermittelt, und von dort an den Empfänger über Radiosignale weitergeleitet. Der Empfänger korrigiert seine Messungen mit den Daten und man erhält somit eine Positionsgenauigkeit von unter 10m in (fast) Echtzeit (vor der Abschaltung von SA). [Hög96] Dieses System hat aber auch Nachteile. – Neben den Satellitensignalen ist man nun auch von einem Radiosignal abhängig, das gerade in Gebirgsregionen nicht immer empfangen werden kann. – Zusätzlich zum GPS–Empfänger benötigt man einen Radioempfänger. – Die Benützung des Radiosignals ist kostengebunden. In Österreich existiert seit 1998 ein DGPS–Dienst. Durch die Abschaltung von SA ist die Genauigkeitssteigerung durch DGPS nur mehr sehr gering, da SA die größte Störung des Signals bedeutete. DGPS wird in Zukunft für die Navigation wahrscheinlich nicht mehr genutzt werden. (b) Phasendifferenzverfahren Sind Positionierungsaufgaben mit cm-Genauigkeit zu lösen, muss auf die Rekonstruktion der Trägerwelle übergegangen werden. Es ist möglich die Phasenreststücke Millimeter genau zu bestimmen, die vollen Wellenlängen können mit den unterschiedlichsten Verfahren geschätzt werden. Genau wie bei den Codedifferenzverfahren nützt man auch hier die Tatsache, dass zum selben Zeitpunkt überall die selben Ungenauigkeiten auftreten. Durch den Einsatz von mehreren (meist zwei) Empfängern können auch hier Fehler der Satellitenuhr, des Satellitenorbits oder der atmosphärischen Störungen ausgeschaltet werden. [Bre93] Diese Verfahren sind aber zumeist zeitaufwendig oder verlangen ein großes Aufgebot an Technik. Sie sind daher für einen Einsatz in der Navigation nicht geeignet. Fehlereinflüsse und Genauigkeit (a) Fehlerquellen Wenn man sich die Distanz der Satelliten (20 200 km) einmal vor Augen hält, und sich dann noch überlegt, dass die genaue Entfernung durch Uhrenvergleich von Satellit und Empfänger bestimmt wird, so kann man sich doch vorstellen welche Genauigkeitsanforderungen an ein solches System gestellt werden. In diesem Kapitel werden alle Störfaktoren aufgelistet, die Einfluss auf die Genauigkeit der GPS–Messungen haben. i. Bahnfehler Die berechnete Bahn der Satelliten weicht immer etwas von der tatsächlichen ab, wodurch die weiteren Distanzberechnungen gestört werden. Für geodätische Zwecke werden hochpräzise Bahnvermessungen durchgeführt, die dann über das Internet bezogen werden können. Sie sind aber für Navigationszwecke irrelevant, da sie nicht in Echtzeit zur Verfügung stehen. KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 100 ii. Ausbreitungsfehler Nur in einem Vakuum breiten sich elektromagnetische Wellen gleichmäßig aus. Da die Satellitensignale aber durch die Atmosphäre zur Erde gelangen, verzögern sie hier ihre Geschwindigkeit. Ionosphärische Störungen hängen stark von der Sonnenaktivität ab, wobei die troposphärischen Störungen durch Luftdruck, Temperatur und Wasserdampfgehalt beeinflusst werden. In den Modellen zur Distanzberechnung sind diese Faktoren berücksichtigt, wobei hier Durchschnittswerte angenommen werden. Da aber diese Werte von Tag zu Tag schwanken, kommt es hier zu Ungenauigkeiten. [Hur89] Abbildung 4.8: Mehrwegeffekt [See96] In der Antennenumgebung kann es durch reflektierende Oberflächen (z.B.: Autos, Häuserfronten, Felsflächen) zu Umwegsignalen und Signalüberlagerungen kommen. Man nennt diesen Effekt auch Multipath oder Mehrwegeffekt, weil ein Signal durch Reflexion mehrmals in den Empfänger gelangen kann. [See96] iii. Uhrenfehler Die einzelnen Atomuhren der Satelliten laufen natürlich nicht mit mathematischer Präzision. Sie werden zwar ständig von den Bodenstationen kontrolliert und geeicht, doch kommt es auch hier zu Ungenauigkeiten. [Bre93] iv. Systembeschränkung durch SA Den größten Einfluss auf die Genauigkeit bei den C/A–Code–Messungen hat jedoch die ”SA – Selective Availability”, der Störeinfluss des Amerikanischen Verteidigungsministeriums. Die Reduzierung der Genauigkeit erfolgt einerseits durch die Manipulation der Satellitenuhren und andererseits durch eine geringere Genauigkeit der Bahndaten. Die Verschlüsselung kann durch autorisierte Anwender, wie dem amerikanischen Militär, wieder decodiert werden. Ohne Vorankündigung wurde in der Nacht vom ersten auf den zweiten Mai 2000, der SA–Störfilter aus dem C/A–Code entfernt, wodurch sich die Genauigkeit dieses Systems massiv erhöht. Die völlig freie Nutzung des nun entschlüsselten Systems GPS, dessen Aufbau immensen technischen sowie finanziellen Aufwand erfordert hat, ist am ehesten durch die zu erwartenden wirtschaftlichen Impulse in den USA zu erklären. Aufgrund der KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 101 Genauigkeitssteigerung des Systems wird das Einsatzgebiet dieser Technologie erweitert, wodurch wieder neuer Schwung bei den Geräteherstellern Einzug halten wird sowie eine Steigerung der Absätze gesichert ist. Da die großen Hersteller von GPS-Empfängern fast ausschließlich ihren Sitz in den USA haben, ist dies natürlich vor allem für die amerikanische Wirtschaft von Vorteil. Da fast alle GPS Navigationsverfahren den C/A–Code verwenden, ist auch dieser Bereich der GPS–Anwendung jener, der am meisten von der SA Elimination profitiert. Die enorme Genauigkeitsverbesserung führt dazu, dass nicht mehr das System GPS sondern die kartographischen Grundlagen einen Unsicherheitsfaktor in der Navigation darstellen, denn mit einer Lagegenauigkeit von 6.3 Metern bei der Punktbestimmung können auch großmaßstäbige topographische Karten nicht mithalten. In Zukunft wird also die geometrische Genauigkeit der Datengrundlagen eine immer wichtigere Rolle spielen. In folgender Tabelle sind die Fehlereinflüsse und ihre Größe dargestellt. [Bre93] Fehlerquelle Fehlergröße Uhrenfehler +/- 3m Bahnfehler +/- 3m Ionosphäre +/- 8m Troposphäre +/- 2m Selective Availability +/- 30m Summe: +/- 46m Tabelle 4.2: Fehlerquellen und Fehlergößen bei der GPS–Positionsbestimmung. Bis auf den Mehrwegeffekt können alle erwähnten Fehlerquellen zu einem Großteil durch differenzielle Verfahren eliminiert werden. Die Genauigkeit der Positionsbestimmung mit GPS hängt aber auch von der geometrischen Konfiguration der benutzten Satelliten ab. Diese wird mittels der sogenannten DOP–Werte dargestellt. [See89] (b) Satelitengeometrie Eine GPS–Messung wird wesentlich davon beeinflusst, wie die aktuelle Position der Satelliten zueinander konfiguriert ist. Dies ist vergleichbar mit der Bestimmung eines Schnittpunktes zweier Geraden. Schneiden sich die Geraden in einem spitzen Winkel, so wird das Ergebnis genauer sein, als wenn sich die Geraden in einem sehr flachen Winkel schneiden. Genauso verhält sich dieses Phänomen auch bei Kugelschnitten. Flache Kugelschnitte wirken sich ungünstig auf die Positionsbestimmung aus (siehe Abbildung 4.9). Diese Konstellation kann modelliert werden und mit den sogenannten DOP (Dilution of Precision) Werten zum Ausdruck gebracht werden. Je geringer die DOP–Werte sind, desto günstiger ist die Satellitenkonstellation. Dabei unterscheidet man verschiedene DOP–Werte. [See89] PDOP für die gesamte 3D-Positionsbestimmung HDOP für die horizontale Positionsbestimmung KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 102 VDOP für die vertikale Positionsbestimmung TDOP für die Zeitbestimmung Diese Werte können aufgrund des Satellitenalmanachs (so wird jene Nachricht in der alle Bahndaten der Satelliten gespeichert sind, genannt) vorausberechnet werden. Abbildung 4.9: Unterschiede in der Satellitengeometrie [Wel86] Die Anzahl der Satelliten, die maximal empfangen werden können, und der PDOP–Wert stehen in direktem Zusammenhang. Sind über vier Satelliten sichtbar, so werden jene ausgewählt, die die günstigste Konstellation ergeben, wodurch sich der PDOP-Wert verringert. (c) Genauigkeit der einzelnen Messverfahren In folgendem Diagramm (siehe Abbildung 4.10) wird deutlich, wie groß der Unterschied in der Genauigkeit je nach verwendetem Verfahren ist. Bei den absoluten Messmethoden entspricht die angegebene Positionsgenauigkeit einem Vertrauensbereich von 95%, dass heisst 19 von 20 Messungen sind besser als die angegebenen Werte. Die Genauigkeit der Differentialmessungen hängt in erster Linie von der Entfernung zwischen der Basis– und Roverstation ab. [Sch94] In der Theorie können bei den absoluten Verfahren Genauigkeiten von +/- 20 Metern erreicht werden, jedoch nur für autorisierte Anwender des P–Codes. Der C/A–Code erlaubt eine Positionsbestimmung im Bereich von +/- 40 Metern, allerdings nur, wenn der SA ausgeschaltet ist. Ist dieser eingeschalten, muss der zivile Anwender mit einem Fehler von +/- 100m rechnen, wenn er sich der C/A–Codemessung bedient. In der Praxis zeigt sich, dass bei den absoluten Verfahren in den meisten Fällen und mit aktuellen Geräten eine wesentlich höhere Genauigkeit erzielt wird. Die modernsten Verfahren der Differenzmessung mit GPS ermöglichen heute eine Positionsbestimmung im Millimeterbereich. Allerdings steigt damit sowohl der technische als auch zeitliche Aufwand enorm, womit die Differenzmessungen mit Ausnahme von DGPS-Anwendungen für die Navigation ausscheiden. KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 103 Abbildung 4.10: Erreichbare Genauigkeiten der unterschiedlichen Mess– und Auswerteverfahren [Sch94] Galileo - Europäisches Satellitennavigationssystem Derzeit gibt es weltweit zwei Satellitennavigationssysteme, ein amerikanisches (GPS) und ein russisches (Glonass). Beide wurden nach militärischen Gesichtspunkten konzipiert. Das russische System hat keine wirklichen zivilen Anwendungen hervorgebracht, sodass GALILEO die einzige Alternative zum faktischen Monopol des GPS und der amerikanischen Industrie darstellt. Durch die Abhängigkeit der europäischen Länder von den Vereinigten Staaten, die jederzeit eine ordentliche Navigation mit GPS verhindern können, hat sich die EU entschlossen ein eigenes globales Satellitennavigationssystems ”GNSS” aufzubauen. Dieses Projekt soll für Europa eine Unabhängigkeit in der Satelitennavigation bringen und darüber hinaus eine größere Genauigkeit und Zusatzdienste bieten. Es ist in zwei Phasen unterteil, um eine raschere Nutzung zu ermöglichen. In der ersten Phase wird das Projekt ”EGNOS” (European Geostationary Navigation Overlay Service) umgesetzt. Das seit 1993 entwickelte ”EGNOS” wird das ”GPS” und das ”GLONASS” System ergänzen. Korrekturdaten verbessern die Genauigkeit der derzeitigen Dienste von etwa 20 m auf weniger als 5 m. ”EGNOS” soll alle europäischen Staaten abdecken. Das System besteht aus drei Transpondern in geostationären Satelliten und einem Bodennetzwerk von 34 Positionsbestimmungsstationen und vier Kontrollzentren, die alle untereinander verbunden sind. ”EGNOS” soll im Jahr 2004 betriebsbereit sein. Die zweite Phase ist das Projekt ”GALILEO” das einen sehr präzisen, garantierten, weltweiten Positionsbestimmungsdienst bereitstellt. Es stellt zwar ein eigenes Satellitennavigationssystem dar, ist aber zugleich mit ”GPS” und ”GLONASS” interoperabel. In ”GALILEO” soll auch ”EGNOS” integriert werden. ”GALILEO” wird in Echtzeit Positionsbestimmungen liefern, deren Genauigkeit sich im Meterbereich befindet. Somit bietet dieses System die Voraussetzung für viele neue Anwendungen die eine exakte Positionsbestimmung benötigen wie zum Beispiel der ”VTG”. Vor allem soll das ”GNSS” viele Möglichkeiten im Bereich Sicherheit bieten (Zivielschutz, Luftfahrt, Verkehr,. . . ). Das komplette ”GALILEO” System wird aus 30 Satelliten und der dazu gehörenden Bodeninfrastruktur bestehen. Es wird eine größere Genauigkeit gegenüber dem jetzigen GPS haben und eine höhere Zuverlässigkeit in allen geografischen Breiten KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 104 bieten. ”GALILEO” wird echte öffentliche Dienstleistung mit garantierter Kontinuität bereitstellen und benutzerspezifische Anpassung ermöglichen. Die harmonische Nutzung der beiden Infrastrukturen bringt Vorteile hinsichtlich der Genauigkeit und der Sicherheit. Die Nutzer empfangen sowohl die GPSSignale als auch die GALILEO–Signale mit ein und demselben Empfänger. Wie beim GPS wird die Basisnutzung bei GALILEO umsonst sein. Das GPS von morgen wird möglicherweise auch hochwertige Dienste anbieten, doch besteht keine Garantie, dass diese kostenlos sein werden, vor allem falls das GPS eine Monopolstellung inne hat. Bestimmte Anwendungen werden kostenpflichtig sein; diese erfordern eine hohe Dienstequalität, die das derzeitige GPS nicht bieten kann.1 Von 2002 bis 2005 ist die Entwicklungs- und Validierungsphase geplant. Die Errichtungsphase soll von 2006 bis 2007 dauern, damit ”GALILEO” von 2008 an seinen kommerziellen Betrieb starten kann. Manche Beobachter halten die Satellitennavigation für eine ebenso wichtige Erfindung wie die Uhr. So wie heutzutage jeder wissen muss, wie spät es ist, wird in Zukunft niemand ohne die Ermittlung seines genauen Standorts auskommen. 4.5 Realisierung Nach dieser allgemeinen Einführung, möchte ich nun genauer auf die einzelnen Bereiche im Projekt eingehen. Das Projekt setzt sich neben der ”Objektdatenaufbereitung” grundsätzlich aus drei getrennt zu betrachtenden Teilen zusammen. Ein Teil ist die Positionsbestimmung mittels GPS–Gerät. Das Auslesen der Koordinaten und Richtungsdaten aus dem GPS–Grät erfolgt mit Hilfe des Javapackages ”gpstool” über die serielle Schnittstelle. Das GUI ist nach dem Start des ”VTG” am Client, über die URL ”http://localhost:10080/” im Browser aufrufbar. Voraussetzung dafür ist ein installiertes ”JDK”. Der HTML–Code ist so einfach gehalten, das die Applikation mit jedem gängigen Browser funktionieren sollte. Außerdem ist durch die durchgehende Javaprogrammierung der ”VTG” plattformunabhängig. Zum Bereitstellen der Daten am Server und zur Datenaufbereitung werden wiederum javabasierte Klassen eingesetzt (”Mapserver”). Hier stehen zur Kommunikation mit dem Client, Javaservlets zur Verfügung. Über diese Servlets werden die aufbereiteten Daten (Shapes und Zusatzinformation) aus der Datenbank geholt, in einen HTML–Code gepackt dann an den Client–Browser übergeben und dort angezeigt. In Abbildung 4.11 ist die Architektur der Softwareumgebung dargestellt. 4.5.1 Objektdatenaufbereitung Wie schon zuvor erwähnt, wurden vom Bauamt Graz die Katasterdaten des Bereiches Innenstadt und des Bereiches Inffeld kostenlos zur Verfügung gestellt. Diese Daten lagen im DXF-Format vor und mußten zurerst einmal mit einem CAD–Programm aufbereitet werden. Das heisst, es mußten Objekte definiert, dann Zusatzinformationen hinzugefügt und schließlich die Daten ins SHAPE–Format umgewandelt werden. Um für ein Gebäude nicht mehrere Objekte zu bekommen, mußten die einzelnen Polygonzüge zu einer sogenannten 1 http://europa.eu.int/comm/dgs/energy transport/galileo/index de.htm KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 105 Abbildung 4.11: Architektur der Softwareumgebung Objektgruppe, zusammengeführt werden. Danach kann man den einzelnen Objekten spezifische Informationen hinzufügen (siehe Abbildung 4.12). Das weitaus größere Problem war die Tatsache, daß das vorliegende Koordinatensystem im dxf–File nicht verwendet werden konnte, und deshalb eine Koordinatentransformation nötig war. Dies hat sich als das schwierigste aller Probleme herausgestellt. Es ist auch bei guten Grundkenntnisse über Koordinatensysteme zu empfehlen, professionelle Hilfe in Anspruch zu nehmen. Solch eine Unterstützung kann man zum Beispiel am Institut für Geoinformationswissenschaften der TU-Graz bekommen. Was war genau das Problem? Die Katasterdaten lagen im Gauß–Krüger–Koordinatensystem vor, und diese mußten in das WGS84–Koordinatensystem umgewandelt werden, um die Daten für die Anwendung nutzen zu können. Die Transformation stellt das verwendete CAD–Programm zu Verfügung (AutoCAD Map R2). Es waren jedoch nicht die richtigen Parameter unter den vorinstallierten Konfigurationen enthalten. So mußte man zuerst die richtigen Parameter finden und mit diesen die korrekten Transformationseinstellungen festlegen. Folgende Parameter waren also richtig einzugeben. Die richtige ”Projektion” (Transverse Mercator) Das richtige ”Datum” – Den richtigen ”Ellipsoid” (Bessel 1841) – Die ”Vector Component Deltas” zu WGS–84 (Delta X, Delta Y, Delta Z) – Die ”Winkel” vom WGS–84 (X Achse, Y Achse, Z Achse) – ”Scalierungs–Faktor” KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 106 Abbildung 4.12: Objektdaten Definition mit Hilfe von ”AutoCAD Map” Das richtige ”Northing” und ”Easting” Längengrad des ”Zentral Meridian” Breitengrad des ”Ursprungs der Projektion” Den ”Scale Reduction Factor” am ”Zentralen Meridian” Hat man schließlich die richtigen Parameter gefunden, so kann man die Kartendaten einfach ins Shape–Format exportieren. Diese Daten müßen dann in das Datenbankmodell gebracht werden. Ein im Internet frei erhältliches Java Package (”geotools”) ermöglicht es, sämtlich Daten, wie Koordinaten und Attribute, aus den Shapefiles auszulesen. Mit der Klasse ”MapToDatabase” können die Daten in die Datenbank eingelesen werden. Folgender Programmcode zeigt das Befüllen der Datenbank mit den Kartendaten. [GS01] KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) import import import import 107 java.io.*; java.net.*; java.util.Properties; java.sql.*; import uk.ac.leeds.ccg.geotools.*; // importiert das geotool package public class ReadTest implements Serializable { public static void main(String[] args) { try { // Grazer Daten; mit Angabe von Sourcepfad und prop.txt File MapToDatabase map_to_db = new MapToDatabase("C:/gis_daten/kataster_koord-WGS84", "prop.txt"); // Die DB Verbindung initialisiert map_to_db.initDbConnection(); // Neue DB anlegen map_to_db.createNewDb("TestDB"); // Vektordaten in DB schreiben map_to_db.writeShapeFileToDb(); // Vektordaten und Eigenschaften in DB schreiben map_to_db.writeShapeAndDbfFileToDb(); } catch ( MapToDatabaseException e ) { System.out.println( e.getMessage() ); return; } } } 4.5.2 VTG Der VTG ist ein kompaktes Java–Tool, welches am Client gestartet wird. Es stellt das Framework für die Daten Ein– und Ausgabe zur Verfügung. Der VTG beinhaltet auch die Abfrage der GPS–Daten mit Hilfe des GPS–Tools. Nach dem Start dieser Java–Anwendung steht dem User ein GUI zur Verwendung der Applikation zur Verfügung. Mit einen beliebigen Web–Browser kann man unter der Adresse http://localhost:10080/index.htm die Touristguide–Anwendung aufrufen. Im linken Frame werden neben den Koordinaten (Longitude, Latitude) auch die Richtung (Heading) und die Sichtweite (Viewing Range) angezeigt (siehe Abbildung 4.13). Zusätzlich besteht auch die Möglichkeit, die im SVG anzuzeigenden Daten auszuwählen KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 108 (Mapkey, Name, Description, URL) (siehe Abbildung 4.13 rechts). Abbildung 4.13: ”GPS–Daten” und ”Viewing Range” (links); ”Objekt–Information” (rechts) Zum Laden der aktuellen Daten gibt es einen ”Neue Werte” Button. Einen ”Default” Button gibt es um die Defaultwerte zu laden. Und schließlich gibt es einen ”Was ist das?” Button zur Datenbankabfrage, um das Ergebnis mit den interessanten Objekten im rechten Frame anzuzeigen. Das rechte Frame ist als Tabelle aufgebaut, und zeigt das Ergebnis als SVG–Bild sowie die im Sichtkegel liegenden Objektbezeichnungen nach Entfernung zum Betrachter sortiert (siehe Abbildung 4.14). Je nach Wunsch können die ”Shapes”, der ”Text” und die ”View Area” im SVG ein– und ausgeblendet werden. Ist zu einem Objekt auch eine URL in der Datenbank hinterlegt, so wird die Objektbezeichnung mit diesem Hyperlink hinterlegt. Durch anklicken der Objektbezeichnung wird ein neues Browserfenster geöffnet um zusätzliche Informationen zum Objekt direkt aus dem Internet zu beziehen. Folgende hilfreichen Informationen könnte man zum Beispiel anzeigen. Öffnungszeiten von Museen, Restaurantes, Shops,. . . Menükarte einer Pizzeria oder ähnliches Aktuelle Aufführung eines Theaters, Oper, Kino,. . . 4.5.3 GPSTool Dieser Teil beschäftigt sich mit dem Auslesen der Positions– und Richtungsdaten aus dem GPS–Gerät. Das in Java programmierte Tool, liest die Daten die über die serielle Schnittstelle kommen ein und wertet diese aus. Das GPS–Gerät von Garmin, es ist ein Garmin–Summit, gibt die Daten im eigenen Garmin–Protokoll aus. Das GPS–Tool kann sowohl das Garmin eigene NMEA–Protokoll als auch das standartisierte NMEA–Protokoll lesen und ist somit auch für andere Geräte verwendbar. NMEA (National Marine Electronics Association) KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 109 Abbildung 4.14: Darstellung der Daten einer Abfrage im Browser Die Datensätze der unterschiedlichen Geräte können sehr viele verschiedene Informationen beinhalten, darunter Position, Geschwindigkeit, Richtung, Wassertiefe, Wassertemperatur, Wegpunkte, Windgeschwindigkeit usw.. Die für das Projekt VTG benötigten Datensätze sind wie folgt definiert. GPGLL gibt die geografische Position also Latitude und Longitude im NMEA Protokoll an. GLL – Geografische Position – Breitengrad/Längengrad (Latitude/Longitude) Feld: 1 2 3 4 5 6 7 | | | | | | | Satz: GLL,llll.ll,a,yyyyy.yy,a,hhmmss.ss,A*hh<CR><LF> Erklärung der Feldnummern: 1) Breitengrad (Latitude) 2) N = Nord oder S = Süd (North oder South) 3) Längengrad (Longitude) 4) E = Ost oder W = West (East oder West) 5) Zeit (UTC - Universal Time Coordinated) 6) Status: A - Daten Gültig, V - Data Ungültig 7) Prüfsumme (Checksum) HCHDG ist das ”Heading” sprich die Richtung in die das GPS zeigt. Der HCHDG- KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 110 Datensatz enthält Angaben vom Magnetkompass, den nur wenige GPS-Geräte besitzen. Es sind Daten zur Richtung und Deklination (auch als ”deviation” bezeichnet; Abweichung von magnetisch Nord zu wahrem Nord). HDG – Heading – Deviation & Variation (Abweichung & Schwankung) Feld: 1 2 3 4 5 6 | | | | | | Satz: HDG,x.x,x.x,a,x.x,a*hh<CR><LF> Erklärung der Feldummern: 1) Magnetischer Richtungssensor (heading) in Grad 2) Magnetische Abweichung (Deviation), Grad 3) Magnetische Richtungsabweichung (Deviation direction), E = östlich (Easterly), W = westlich (Westerly) 4) Magnetische Variation Grad 5) Magnetische Richtungsschwankung (Variation direction), E = östlich (Easterly), W = westlich (Westerly) 6) Kontrollsumme (Checksum) Wichtig ist, dass das Datenformat des GPS auf NMEA umgestellt wird. Die Daten werden dann einmal alle zwei Sekunden über die Schnittstelle ausgegeben. Viele PC-Navigationsund Kartenprogramme mit Anschlussmöglichkeit für GPS-Empfänger erwarten im übrigen auch das NMEA-Format zur Navigation. Funktioniert das Zusammenspiel zwischen GPS und einem PC-Programm nicht, sollte man also sowohl kontrollieren, ob man den GPS an der richtigen seriellen Schnittstelle (COM1 oder COM2) angeschlossen hat, als auch überprüfen, ob das Ausgabeformat am GPS auf NMEA eingestellt ist. Kurz ein Beispiel für das Format der für das Projekt relevanten Daten aus dem GPS– Gerät. GPGLL,4703.5275,N,01527.4968,E,082132,A,A*4A HCHDG,340.6,,,2.5,E*2F Der Wert 4703.5275 im NMEA–Format bedeuten 47 Grad 03.52 Minuten (latitude) und der Wert 01527.4968 sind 15 Grad 27.49 Minuten (longitude). Nach dem Einlesen der NMEA–Daten, werden die für die Anwendung benötigten Werte in WGS–84–Daten umgewandelt. Somit ergeben sich im WGS84-System: 47,058791 Grad Northing (Breitengrad auf der Nordhalbkugel) und 15,458285 Grad Easting (Längengrad östlich des Nullmeridians). Schließlich werden die erfassten Daten wie folgt ausgegeben: EVENT: source: Name : Old : New : POS : HDG : org.dinopolis.gpstool.GPSNmeaDataProcessor@13dee9 GLL GPGLL,4703.5274,N,01527.4968,E,082132,A,A*45 GPGLL,4703.5275,N,01527.4968,E,082132,A,A*4A 47.058791666666665N 15.458285E 340.6 KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 111 Wichtig für die Touristguide–Anwendung sind die Position (POS l̄atitude, longitude) sowie die Richtung (HDG h̄eading). Mit diesen Werten kann man vom Betrachterstandpunkt einen Sichtkegel in die angezeigte Richtung berechnen und die darin liegenden Objekte bestimmen. Die Webserver–Applikation übergibt die Werte dem Mapserver, der sich aus der Datenbank die erforderlichen Daten zur Darstellung des Ergebnisses holt. Die Verbindung zwischen Webserver (Client) und Mapserver (Server) wird über das Internet hergestellt. Mit Hilfe von Java–Servlets werden die Daten ausgetauscht und das Ergebniss im Browser angezeigt. Die Funktionsweise der Mapserver–Anwendung wird im folgenden Abschnitt erläutert. 4.5.4 Mapserver Der MapServer ist sozusagen das Herzstück am Server, der die Daten in der Datenbank verwaltet, auswertet und das Ergebnis einer Anfrage dem Client wieder übergibt. Die Kartendaten (Shapefile) werden mit Hilfe des Java–Programm ReadTestData.java in eine Datenbank (MySQL) geschrieben. Liegen die Daten vor, können sie dann mit den vorliegenden Klassen abgefragt und ausgewertet werden. Die Schnittstelle zum Client wurde mit Java–Servlets realisiert. [GS01] Folgende Java–Servlets dienen zur Anzeige und zum Datenaustausch über einen beliebigen Web–Browser. ShowHTMLPoint.java // Erstellt die Anzeige für das SVG–Bild und die Objektinformation ShowSVGPoint.java // Bereitet die Daten für das SVG–Bild auf Die verwendete Datenbankstruktur ist in Abbildung 4.15 zu sehen. Abbildung 4.15: Aufbau der Datenbank für den VTG KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 112 Um die angefragten Daten aus der Datenbank zu holen und diese aufzubereiten, stehen folgende Java–Klassen zur Verfügung. Category.java – Um die möglichen Kategorien abzufragen ClipPolygon.java – Zum Erkennen von Polygonzügen DatabaseToSVG.java – Liest Shapes von der Datenbank und erzeugt SVG–Files FindShape.java – Damit können Shapes in der Sichtrichtung gefunden werden GIS.java – Stellt das Main–Programm dar MapToDatabase.java – Zum Importieren von Shapefile–Vektordaten in die Datenbank Point.java – Zum Darstellen eines Punktes Property.java – Gibt die Eigenschaften eines Shapes zurück ReadTest.java – Einlesen von Daten in die Datenbank Rectangle.java – Gibt ein Rechteck zurück Shape.java – Gibt ein Shape zurück ShowCategory.java – Wird benötigt um die Kategorien aus der Datenbank zu holen Im prop.txt stehen notwendige Daten für den Datenbankzugriff sowie für die anzuzeigenden Objekteigenschaften. Hier ein Beispiel eines Property–File wie es am Server angegeben wird. database = jdbc:mysql://localhost/mapserver // Datenbank Name sql_driver = org.gjt.mm.mysql.Driver // SQL Treiber für Java Zugriff user = vtg // MySQL Benutzer für Lesezugriff passwd = test superuser = root // MySQL Benutzer für Schreib/Lesezugriff supasswd = found_category = NAME // Angezeigte Kategorie für gefundene Objekte im Servlet found_category_2 = URL svg_width = 600 // Einstellung für die SVG-Ausgabe im Servlet font_size = 8 In Abbildung 4.16 ist die gesammte Datenbank mit einem Teil der Daten aus der Property– Tabelle zu sehen. KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 113 Abbildung 4.16: Datenbank mit angezeigten Propertyeinträgen Algorithmus für Objektsuche Um bei der Datenbankabfrage die betreffenden Objekte im Sichtkeil zu finden, benötigt man einen Algorithmus der den Keil des Blickfeldes durch Rechtecke annähert. Punkte die in einem Rechteck liegen können leicht in einer Datenbank gefunden werden. Die Approximation des Blick–Kegels erfolgt nach folgender Skizze (siehe Abbildung 4.17). Die Konstante ”interation count” legt die Anzahl der Rechtecke fest, die den Keil des Blickfeldes annähern. Mit ”interation angle” wird der Winkel des Blickfeld–Keils eingestellt. Durch ”border” kann der Rand, der bei der Ausgabe des SVG–files den Keil umgibt, definiert werden. [GS01] In Abbildung 4.18 ist noch einmal der softwareseitige Ablauf einer Objekterkennung dargestellt. 4.5.5 Testumgebung Getestet wurde die Anwendung mit zwei PCs die über ein LAN verbunden waren, einer diente als Server und einer als Client. Die LAN–Verbindung sollte im Echtfall die Internetverbindung zum Beispiel über GSM darstellen. Diese Variante war jedoch nur mit den bereits vorbereiteten GPS–Testdaten möglich. Die Testdaten wurden mit einem Laptop KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 114 Abbildung 4.17: Approximation des Blickfeldes durch Rechtecke sammt angeschlossenem GPS–Gerät erstellt. Die Daten konnten mit Hilfe des GPS–Tool in ein flat–File gespeichert werden, das dann zu Testzwecken als GPS–Gerät fungierte. Dieser Laptop konnt mit den installierten Serverkomponenten auch als unabhängiges System verwendet werden, das heisst ohne mit dem gesamten Equipment umherlaufen zu müssen. Server: Jarkata Tomcat (Servletengine) Mysql – Datenbank mit Kartendaten JDK – Java Developement Kit Mapserver (Java–Klassen und Servlets für die Datenbereitstellung) prop.txt – Property Textfile für die Datenbankabfrage Client: GPS–Gerät mit elektronischer Richtungsangabe (ETrex Summit von Garmin) GPSTool (Javaprogramm zum Auslesen der GPS–Daten) JRE – Java Runtime Environment KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG) 115 Abbildung 4.18: Ablauf einer Objekterkennung VTG (GUI mit GPS–Datenschnittstelle und Serverabfrage) Direkte Netzwerkverbindung (bei Testbetrieb mit eigenem Server) SVG–Viewer–Plugin zum Anzeigen eines SVG–Bildes im Browser Abschließend kann man sagen, daß ein gutes Funktionieren nur mit entsprechend genauen GPS–Daten gegeben ist, was derzeit in manchen Stadtbereichen nicht möglich ist. Zum Beispiel ist die Grazer Herrengasse zwar eine breite offene Straße, der schlecht Empfang von GPS–Signalen kann jedoch eine Ungenauigkeit von bis zu 30m ausmachen, was eine sinnvolle Anwendung des VTG unmöglich macht. In diesem Fall kann man nur auf eine Schnelle Verbesserung der GPS–Genauigkeit durch das EU–Projekt ”GALILEO” hoffen. Kapitel 5 Schlußworte Es ist nicht ein Phänomen von Heute, sondern es ist seit jeher das Bestreben des Menschen, Werkzeuge und Alltagsgeräte immer wieder zu verbessern. Im Zusammenhang damit steht neben dem Verkleinern von Geräten auch das Verbessern der Bedienbarkeit. Dadurch entstanden schon einige sonderbare Hilfsmittel, aber auch bahnbrechende Entwicklungen in allen Lebensbereichen. Das Bestreben des Menschen immer bessere Lösungen zu finden, betrifft natürlich auch das Medium Computer. Viele unorthodoxe Ein/Ausgabe-Geräte werden immer wieder entwickelt, um die Bedienbarkeit verschiedenster Computerunterstützter Gerätschaften zu verbessern bzw. zu optimieren. In dieser Arbeit wurde ein Überblick über vergangene, heutige und zukünftige Entwicklungen von unorthodoxen Eingabe sowie Ausgabe-Geräten gegeben. Die Arbeit richtete ihr Hauptaugenmerk auf den Bereich ”Wearable Computer”. Es wurden Beispiele von Anwendungen angesprochen, die es bereits in der Praxis gibt bzw. solche die möglicherweise die Zukunft des menschlichen Alltags entscheidend beeinflussen werden. Beeinflussen im Sinne vereinfachen, effizienter gestalten, mehr Freiheiten gebend, mehr Zeit für das Wesentliche finden, mehr Wissen ohne es zu wissen,. . . Im Projekt ”Virtual Tourist Guide” wird eine Anwendungsmöglichkeit eines tragbaren, allgegenwärtigen Computersystems (Wearabel Computer) gezeigt. Es ist eines von vielen möglichen Anwendungsgebieten im Bereich des Wearable Computing. Mann kann leicht erkennen, wie diese Technologie dem User unbemerkt eine große Hilfestellung leisten kann. Genau so wie Laptops die Arbeit in vielen Fällen erleichtern, werden diese neuen Errungenschaften das Arbeitsleben aber auch das Privatleben der Menschen verändern. Ja auch Hund und Katz werden von diesen neuen Möglichkeiten betroffen sein. So kann man gespannt sein was die Zukunft in dieser Hinsicht noch alles bringen wird. Oder man versucht die Zukunft mit zu gestalten indem man sich seine eigenen Gedanken darüber macht, und aktiv in diesen Bereichen mitarbeitet. 116 Kapitel 6 Anhang 6.1 Linkliste Sämtliche hier angegebenen Referenzen wurden zuletzt am 28.01.2004 auf Erreichbarkeit überprüft. Diese Linkliste dient der Vertiefung von den in dieser Thesis behandelten Themenbereiche. Sie ist jedoch nicht als vollständige Auflistung aller Referenzen in diesen Bereichen zu sehen. 6.1.1 Akademie & Forschung CMU – Wearable Computers http://www.cs.cmu.edu/afs/cs.cmu.edu/project/vuman/www/home.html Computer Science Research at Almaden http://www.almaden.ibm.com/software/ Department of Cybernetics http://www.cyber.rdg.ac.uk/ DFKI http://www.dfki.de/ DigCity – TU Graz http://www.digcity.TUGraz.at/ Fraunhofer IPSI – Abteilung Ambiente – Dr Dr Norbert Streitz http://ipsi.fhg.de/ambiente/ Gatech – Georgia Institute of Technology http://wearables.gatech.edu/ Human–Computer Interaction Institute http://www.cs.cmu.edu/afs/cs.cmu.edu/user/hcii/www/hcii-home.html MemoClip–Remembrance Appliance http://www.teco.edu/~michael/publication/memoclip/ New Challenges of Ubiquitous Computing and Augmented Reality http://www.teco.uni-karlsruhe.de/~albrecht/cabernet/ubicomp1.html Personal Electronics http://www.ele.tut.fi/research/virtual/welcome.html Software Groupe – TU–Linz – Institut für praktische Informatik – Ferscha http://www.soft.uni-linz.ac.at/Research/ The Telecooperation Office (TecO) http://www.teco.edu UO Wearable Computing Group http://www.cs.uoregon.edu/research/wearables/ 117 KAPITEL 6. ANHANG 118 Wearable Computing at the MIT Media Lab http://www.media.mit.edu/wearables/ WearLab – Netzwerk Wearable Computing http://www.wearlab.de/ 6.1.2 Arbeitskreise & Symposien ACM – sigmobile http://www.acm.org/sigmobile/ Bremer XYBERDAY http://www-agki.tzi.de/is/mobile/XyberDay/intro.html Digital Life Consortium http://dl.www.media.mit.edu/ ISWC International Symposium on Wearable Computers http://iswc.gatech.edu/ SmartKom – Projekt – Interaktion von Mensch und Technik http://smartkom.dfki.de/startde.html Pervasive 2004 http://www.pervasive2004.org/ TecO - Wearable Computing Group http://wearables.teco.edu/ Telecommunications and Mobile Computing http://www.tcmc2001.at/ www.mobile-pc.org http://www.mobile-pc.org/ wearables.org http://wearables.org/ 6.1.3 Unorthodoxe Ein-Ausgabegeräte Origin Instruments Corporation http://www.orin.com SensorTeppich http://www.acm.org/sigchi/chi97/proceedings/short-demo/jp.htm#U5 Tastatur und Maus FingerWorks - Inventor and Developer of MultiTouch Technology http://www.fingerworks.com Handykey Corporation http://www.handykey.com Matias Corporation http://halfkeyboard.com/ Mice revolution. New cordless mouse. http://www.bosswave.com/mouse/finring/ Nailglove http://web.mit.edu/smascaro/www/research.htm RingMouse http://members.tripod.co.jp/nis/computer/dosvparts/ringmouse.htm Scheibentastatur - Pendragon Project http://www.cc.gatech.edu/fce/pendragon/index.html DataHand Systems, Inc. Manufacturer of Ergonomic Keyboards and Onboard Mouse Systems http://www.datahand.com KAPITEL 6. ANHANG Spracherkennung Dragon Voice Recognition Products http://www.worklink.net/products/voicerecognition.html Linguatec Sprachtechnologien GmbH http://www.linguatec.de/ Speechwear – A mobile speech system http://www.speech.cs.cmu.edu/rspeech-1/air/papers/speechwear/speechwear.html The Speech Interface Group http://www.media.mit.edu/speech/ Learnhard Haunspie – Softwarelösungen zur Text–, Bild– und Sprachbearbeitung http://www.scansoft.de/ Verbmobil http://verbmobil.dfki.de/ Display A head-mounted three-dimensional display http://www.sun.com/960710/feature3/alice.html ComSonic Inc. – Head Mounted Display http://www.headmountdisplay.com/ Electronic Paper Xerox http://www.parc.xerox.com/dhl/projects/gyricon/ MicroOptical http://www.microopticalcorp.com/ Microvision http://www.mvis.com Personal Monitor http://www.skyex.com/albatech/ The MicroDisplay Corporation http://www.microdisplay.com/ WearComp – Eyetap http://eyetap.org/ GPS und Karthografie GIS-News Geo-Informationssysteme, Neuigkeiten, Austauschformate, Tips, Wissen http://www.gis-news.de/ Allgemeine Information über GIS http://www.plan.at/ ZGIS – Zentrum für Geographische Informationsverarbeitung Salzburg http://www.ZGIS.at/ GPS Receiver – Software and Hardware Reviews of Garmin, Lowrance and Magellan http://joe.mehaffey.com/ Welcome to Adventure GPS http://www.gps4fun.com/ NMEA – HowTo for EPS http://www.diku.dk/users/elgaard/eps/help.html#comm Software – Koordinaten Converter–GeoTrans und mehr http://164.214.2.59/GandG/geotrans/geotrans.html Software – FreeGIS http://www.freegis.org/ Software – tools, tips and tricks http://gis.nrcan.gc.ca/~don/jwz/pages/tools.html 119 KAPITEL 6. ANHANG Kleidung ElekTex – Electgrotextiles http://www.electrotextiles.com/ ETH Zürich – Electrotextiles http://www.wearable.ethz.ch/index.php?textiles Lunardesign http://www.lunardesign.com/ Verschiedenes Digital Compass http://www.imagesco.com/catalog/DigitalCompass/DigitalCompass.html Dinsmore Sensors http://www.dinsmoresensors.com/ Geruch – Givaudan http://www.givaudan.com Handschrifterkennung – Stiftbewegungs Sensor – Pegasus http://www.pegatech.com/ Measurement Specialties, Inc. – Pressure Transducers, Sensors Gauges http://www.msiusa.com/sensors.htm mouse, touchpad, epad pen input pad, keyboard, joystick, remote control, http://www.interlinkelec.com/ 6.1.4 Wearable Computer Borg http://science.ksc.nasa.gov/payload/projects/borg/applic.html Charmed Technology http://www.charmed.com Operating system software, components, tools, applications and solutions for wearable http://www.wearix.com Tek Gear Products for wearable computing. http://www.tekgear.ca/ Thad Starner http://www.cc.gatech.edu/fac/Thad.Starner/ Ubicomp.com http://www.ubicomp.com/ Ubiquitous Computing – The Computer for the 21st Century http://www.ubiq.com/hypertext/weiser/UbiHome.html Wearables Central http://wearables.blu.org/ Wearable Technology http://www.wearablecomputing.com/ Xybernaut – The leader in wearable computers http://www.xybernaut.com/home.htm 120 Bibliography [AAH+ 96] G. D. Abowd, C. G. Atkeson, J. Hong, S. Long, R. Kooper, and M. Pinkerton. Cyberguide: A mobile context-aware tour guide. Technical report, Geogia Institute of Technology, Atlanta, Graphics, Visualization and Usability Centre, College of Computing, 1996. [Ado01] Adobe. Skalierbare Vektor Grafiken, 2001. http://www.adobe.de/web/features/svg/faq.html. [And95a] Ross Andrew. The New Smartness. Gretchen Bender/Timothy Druckey (ed.): Cultures on the brink. Ideologies of technology., Seattle, 2. Auflage:329–341, 1995. [And95b] Ross Andrew. The New Smartness. Gretchen Bender/Timothy Druckey (ed.): Cultures on the brink. Ideologies of technology., Seattle, 2. Auflage:331, 1995. [Bau97] M. Bauer. Vermessung und Ortung mit Satelliten. NAVSTAR-GPS und andere satellitengestützte Navigationssysteme. Eine Einführung in die Praxis. Heidelberg, Wichmann, 4. Auflage, 1997. [Bre93] K. Bretterbauer. GPS–Punktbestimmung für geodätische Anwender – Theoretische Grundlagen, 1993. Workshop der Firma AGIS,Wien. [Com67] Bell Helicopter Company. Alice, 1967. http://www.sun.com/960710/feature3/alice.html. [DA99] A. K. Dey and G. D. Abowd. Toward a better understanding of context and context-awareness. Technical report, GIT, GVU, June 1999. GIT-GVU-99-22. [DA00] A. K. Dey and G. D. Abowd. The context toolkit: Aiding the development of context-aware applications. Technical report, SEWPC, Limerick, Ireland, June 6 2000. Proceedings of the Workshop on Software Engineering for Wearable and Pervasive Computing (SEWPC). [Dal01] Christof Dallermassl. Multimediale Informationssysteme. Technical report, IICM, TU-Graz, 2001. Skriptum der Vorlesung MMIS an der TU-Graz, IICM, http://courses.iicm.edu/mmis/. [Des01] Lunar Design. Blu Concept, 2001. http://www.lunardesign.com. 121 BIBLIOGRAPHY 122 [Dig03] DigiScents. Geruch, 2003. http://www.digiscents.com/. [ESR01] ESRI. Shapefile Technical Description, 2001. http://www.esri.com/library/whitepapers/pdfs/shapefile.pdf. [Fab99] C. Faber. Immer wissen, wohin. Land der Berge, Heft 3, 118-121, 1999. [FBN02] Alois Ferscha, Wolfgang Beer, and Wolfgang Narzt. Location awareness in community wireless lans. Technical report, Johannes Kepler University Linz, 2002. [Fer00] Alois Ferscha, editor. Workspace Awareness in Mobile Virtual Teams. Proceedings of the 9th International Workshops on Enabling Technologies: Infrastructures for Collaborative Enterprises (WETICE 2000), IEEE Computer Society Press, 2000. 272-277. [Fer01a] Alois Ferscha, editor. Integrating Pervasive Information Acquisition to Enhance Workspace Awareness, EUROMICRO 2001, February 2001. Proceedings of the 9th Euromicro Workshops on Parallel and Distributed Processing, IEEE Computer Society Press. 327-336. [Fer01b] Alois Ferscha, editor. Towards a Context-Aware Embedded Internet, number Nr. 26 in ÖVE Schriftenreihe, Wien, 2001. Proceedings of Informationstagung Mikroelektronik 2001. 445-456. [Fer02] Alois Ferscha, editor. Bridging Physical and Virtual Worlds, volume 2361 of Lecture Notes in Computer Science. Reliable Software Technologies - AE2002, (invited paper), Springer Verlag, Berlin, 2002. 51-64. [Fer03] Alois Ferscha, editor. Collaboration and Coordination in Pervasive Computing Environments. WETICE 2003, IEEE Computer Society Press, June 2003. [FMS93] Feiner, MacIntyre, and Seligmann. KARMA (Knowledge–based Augmented Reality for Maintenance Assistance). Technical report, -, 1993. http://www.cs.columbia.edu/graphics/projects/karma/karma.html. [FPN+ 03] Alois Ferscha, Gustav Pomberger, Wolfgang Narzt, D. Korb, R. Müller, J. Wieghardt, H. Hörtner, and C. Lindinger, editors. Pervasive Information Acquisition for Mobile AR-Navigation Systems, Monterey, California, USA, October 2003. 5th IEEE Workshop on Mobile Computing Systems Applications. [FPSS01] M. Fuchs, G. Prochart, G. Schall, and R. Steiniger. Nomadic computing. Technical report, Institut für Technische Informatik, TU-Graz, 2001. [FS02] A. Ferscha and S.Vogl. The webwall, August 2002. UbiComp 2002 Workshop, Collaboration with Interactive Walls and Tables (CIWaT02). [FVB02] Alois Ferscha, Simon Vogl, and Wolfgang Beer, editors. Ubiquitous Context Sensing In Wireless Environments, 1-4020-7209-0. 4th DAPSYS (AustrianHungarian Workshop on Distributed and Parallel Systems), Kluwer Academic Publisher, 2002. 88-106. BIBLIOGRAPHY 123 [FVP+ 03] A. Ferscha, J. Volkert, M. Pitra, S. Vogl, D. Kranzlmüller, W. Narzt, V. Christian, and P. Heinzlreiter. Vrio (speech recongnition unit for natural interaction with immersive and pervasive multi-user cooperation environments). Technical report, Johannes Kepler University Linz, 2003. [Giv03] Givaudan. Geruch, 2003. http://www.givaudan.com/. [Gro03] Software Group. Research of the Software Group, 2003. http://www.soft.uni-linz.ac.at/Research/. [GS01] P. Glantschnig and G. Schmölzer. Projektarbeit MapServer. Technical report, IICM, TU-Graz, September 2001. [HG94] G. Hake and D. Grünreich. Kartographie. Berlin, Walter de Gryter, 7.Auflage, 1994. [Hög96] N. Höggerl. DGPS - Service in Österreich. Eich- und Vermessungsmagazin. Seite 30-35, 1996. [Hoo65] Robert Hooke. Micrographia, 1665. Hauptwerk von Robert Hooke. London. [Hur89] J. Hurn. GPS - A Guide to the Next Utility. Sunnyvale, Trimble Navigation, 1989. [HWLC94] B. Hofmann-Wellenhof, H. Lichtenegger, and J. Collins. GPS - Theory and Practice. Wien; Springer; 3. Aufl., 1994. [Jac92] W. Jachmann. GPS - Eine Einführung. Allgemeine Vermessungs Nachrichten. Heft 2, Seite 188-199., 1992. [Leo98] U. Leonhard. Supporting location-awareness in open distributed systems. Technical report, Department of Computing, Imperial College of Science, Technology and Medicine, University of London, 1998. [LH02] Linguatec and J. Hoepelman. Grundlagen der Spracherkennung, 2002. http://www.spracherkennung.de. [Lin98] W. Linke. Orientierung mit Karte, Kompaß, GPS: Grundwissen - Verfahren - Übungen. Herford, Busse Seewald, 9. Auflage, 1998. [Man98] Steve Mann. WEARABLE COMPUTING as means for PERSONAL EMPOWERMENT, May 1998. http://wearcam.org/icwckeynote.html. [Mec96] H. Meckl. Einführung in die Landesvermessung und Topographie I+II. Skript der Vorlesung, Wien, 1996. [MI90] Gerald Maguire and John Ioannidis. IBM/Columbia Student Electronic Notebook Project. Technical report, IBM, T. J. Watson Research Lab., Yorktown Heights, NY, 29 June, 1990. Publiziert im IBM/Columbia Student Electronic Notebook Project. BIBLIOGRAPHY 124 [Mic99] MicroOptical. Heads-up display can be built into eyeglasses, 1999. http://www.eetimes.com/story/OEG19990420S0009. [Mic03] Microvision. Scanned-Beam Displays: How it Works, 2003. http://www.mvis.com/technology/displays_works.html. [MIT ] MIT. Beauty Show, -. http://www.media.mit.edu/wearables/lizzy/out-in-the-world/ beauty/index.html. [MIT] MIT. Wearables FAQ. Webpage. http://wearables.www.media.mit.edu/projects/wearables/FAQ/FAQ. txt. [MIT03] MIT. Wearable Computing, 2003. http://www.media.mit.edu/wearables/index.html. [MR94] Edgar Matias and Mike Ruicci. Wrist Computer with half–keyboard. Technical report, Universität von Toronto, 1994. http://www.dgp.toronto.edu/people/ematias/papers/chi96/ http://www.almaden.ibm.com/cs/user/inddes/halfkb.html. [Pre02] Irene Preisinger. Ihr Computer steht Ihnen ausgezeichnet, 2002. http://www.stern.de/computer-technik/. [PS93] Doug Platt and Thad Starner. Lizzy. Technical report, MIT, 1993. http://wearables.www.media.mit.edu/projects/wearables/lizzy/. [Rhe91] Howard Rheingold. Virtual Reality, 1991. 49 – 67. [Ric98] Birgit Richard. Icons. Localizer 1.3. Berlin (Techno – Theorie)., 1998. Robert Klanten (Hrsg.). [Sch94] F. Schrödter. GPS satelliten-Navigation: Technik, Systeme, Geräte, Funktionen und praktischer Einsatz. Poing, Franzis Verlag, 1994. [See89] G. Seeber. Satellitengeodäsie. Grundlagen, Methoden und Anwendungen. Walter de Guyter, Berlin, 1989. [See96] G. Seeber. Grundprinzipien zur Vermessung mit GPS. Der Vermessungsingenieur. Heft 2, Seite 53-64., 1996. [Sma03] SmartCom. Dialogische Mensch-Technik-Interaktion durch koordinierte Analyse und Generierung multipler Modalitäten, 2003. http://smartkom.dfki.de/. [Sta93] Thad Starner. Remembrance Agent(RA). Technical report, MIT, 1993. http://www.media.mit.edu/~rhodes/Papers/remembrance.html. [Sta00] Thad Starner. Human powered wearable computing. Technical report, MIT, Massachusetts Institute of Technology, 2000. Perceptual Computing Section. BIBLIOGRAPHY 125 [Ste86] Bruce Sterling. Thorstein: Theorie der feinen Leute. Artificial Kid. London, 1990 Reprint Veblen, Bovenschen, Silvia (Hrsg.): Die Listen der Mode., Seattle, pages 106–155, 1986. [Tea91] CMU Team. VuMan, 1991. http://www.cs.cmu.edu/afs/cs.cmu.edu/project/vuman/www/home. html. [Tec89] Reflection Technology. Private Eye HMD, 1989. http://www.reflectiontech.com/. [Tei01] Wulf Teiwes. EyeMouse, ein großer Schritt in Richtung eines intuitiven User Interfaces, 2001. http://www.smi.de. [Tri03] TriSenx. Geruch, 2003. http://www.trisenx.com/. [TZI a] TZI. Nutzungsmodelle und Technologien für den Einsatz von tragbaren Computern in der Inspektion. Technical report, Technologie-Zentrum Informatik der Universität Bremen (TZI), -. http://www.dmn.tzi.org/de/winspect.html. [TZI b] TZI. WearLab; Themenzentrierte institutsübergreifende Forschungsgruppe. Technical report, Technologie-Zentrum Informatik der Universität Bremen (TZI), -. http://www.wearlab.de/index.xhtml. [Wei91] Mark Weiser. The Computer for the 21st Century. Scientific American, pages 66 – 75, September 1991. [Wel86] D. Wells. Guide to GPS Positioning. Fredericton, 1986. [Wer95] H. Wernhart. Das Bundesmeldenetz in der österreichischen Karte. Eich und Vermessungsmagazin, Ausgabe 77:Seite 9–17, 1995.