Projektgruppe Virtual Reality

Transcription

Projektgruppe Virtual Reality
Abschlussbericht
Erstellt von:
Studienbereich:
Betreuer:
Matthias Bruns, Justin Heinermann,
Christian Herz, Tim Jörgen,
Jendrik Poloczek, Robert Schadek
Informatik
Prof. Dr. Wolfgang Kowalk,
Dipl.-Inf. Stefan Brunhorn
©2012. Dieses Werk einschließlich seiner Teile ist urheberrechtlich geschützt. Jede Verwertung
außerhalb der engen Grenzen des Urheberrechtgesetzes ist ohne Zustimmung des Autors unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen
sowie die Einspeicherung und Verarbeitung in elektronischen Systemen.
Projektgruppe
Virtual Reality
Inhaltsverzeichnis
Inhaltsverzeichnis
Abbildungsverzeichnis
V
1. Einführung
1.1. Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Aufbau der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Voraussetzungen und Grundlagen zum Verständnis der Arbeit . . .
1
1
2
2
2. Projektorganisation und Vorgehen
2.1. Gruppenarbeit und Aufgabenteilung . . . . . . . . . . . . . . . . .
2.2. Vorgehensmodell und Zeitplanung . . . . . . . . . . . . . . . . . . .
3
3
4
3. Anforderungsanalyse
3.1. Einführung . . . . . . . . . . . . . . . .
3.2. Zielbeschreibung . . . . . . . . . . . . .
3.3. Anforderungen Middleware . . . . . . . .
3.3.1. Funktionale Anforderungen . . .
3.3.2. Nichtfunktionale Anforderungen .
3.4. Anforderungen Beispielanwendung . . . .
3.4.1. Funktionale Anforderungen . . .
3.4.2. Nichtfunktionale Anforderungen .
3.5. Vorhandene Systeme . . . . . . . . . . .
3.6. Technische Umgebung . . . . . . . . . .
3.7. Anwendungsfallmodell . . . . . . . . . .
3.7.1. Akteure . . . . . . . . . . . . . .
3.7.2. Anwendungsfälle des Assistenten
3.7.2.1. Anwendung starten . . .
3.7.3. Anwendungsfälle des Nutzers . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
6
10
10
11
12
12
12
13
13
14
14
15
15
16
I
Projektgruppe
Virtual Reality
Inhaltsverzeichnis
3.7.3.1. Skeletterkennung kalibrieren . . . . . . .
3.7.3.2. Kopflage kalibrieren . . . . . . . . . . .
3.7.3.3. Kameraposition und -Rotation anpassen
3.7.3.4. Geste durchführen . . . . . . . . . . . .
3.7.3.5. Pose einnehmen . . . . . . . . . . . . . .
3.7.3.6. Gegenstand berühren . . . . . . . . . . .
3.7.3.7. Skelett bewegen . . . . . . . . . . . . . .
3.7.4. Anwendungsfälle des Middleware-Nutzers . . . . .
3.8. Dynamisches Modell . . . . . . . . . . . . . . . . . . . .
3.8.1. Sequenzdiagramme des Assistenten . . . . . . . .
3.8.1.1. Skeletterkennung kalibrieren . . . . . . .
3.9. Objektmodell . . . . . . . . . . . . . . . . . . . . . . . .
4. Systementwurf
4.1. Entwurfsziele . . . . . . . . . . . . .
4.2. Systemzerlegung . . . . . . . . . . .
4.3. Globaler Kontrollfluss . . . . . . . . .
4.4. Datenhaltung . . . . . . . . . . . . .
4.5. Hard- und Softwareplattform . . . . .
4.5.1. Wahl der Programmiersprache
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5. Implementierung
5.1. Meilensteine der Implementierung . . . . . . . . . . . . . . . . . .
5.1.1. Erster Meilenstein (30.09.2011) . . . . . . . . . . . . . . .
5.1.2. Zweiter Meilenstein (01.11.2011) . . . . . . . . . . . . . . .
5.1.3. Dritter Meilenstein (06.12.2011) . . . . . . . . . . . . . . .
5.2. Implementierung der einzelnen Systemkomponenten . . . . . . . .
5.2.1. Erster Meilenstein . . . . . . . . . . . . . . . . . . . . . .
5.2.1.1. Head-Mounted-Display . . . . . . . . . . . . . . .
5.2.1.2. Darstellung der Kinect-Skelett-Daten durch eine
Figur in der Engine . . . . . . . . . . . . . . . . .
5.2.1.3. Build-Skript . . . . . . . . . . . . . . . . . . . . .
5.2.2. Zweiter Meilenstein . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
17
18
18
19
19
20
20
21
22
22
23
27
.
.
.
.
.
.
29
29
31
33
33
34
34
.
.
.
.
.
.
.
36
36
36
36
37
37
37
37
. 40
. 42
. 43
II
Projektgruppe
Virtual Reality
Inhaltsverzeichnis
5.2.2.1. Szenenverwaltung . . . . . . . . . . . . . . . .
5.2.2.2. Sound-Subsystem . . . . . . . . . . . . . . . .
5.2.2.3. Stereoskopische Ansicht (stereoPlugin) . . . .
5.2.2.4. Posen . . . . . . . . . . . . . . . . . . . . . .
5.2.3. Dritter Meilenstein . . . . . . . . . . . . . . . . . . . .
5.2.3.1. Exceptions . . . . . . . . . . . . . . . . . . .
5.2.3.2. Gestenerkennung . . . . . . . . . . . . . . . .
5.2.3.3. Linuxtreiber der Vuzix-Brille . . . . . . . . .
5.2.3.4. Bereiststellung des Zustandes der Middleware
5.2.3.5. Licht und Schatten . . . . . . . . . . . . . . .
5.2.3.6. Spiegel und Fernseher . . . . . . . . . . . . .
5.2.3.7. Modifizierter Oger . . . . . . . . . . . . . . .
5.2.3.8. Scripting . . . . . . . . . . . . . . . . . . . .
5.2.3.9. Kollision . . . . . . . . . . . . . . . . . . . . .
6. Testen
6.1. C++ Unittest-Frameworks
6.2. TestDog . . . . . . . . . .
6.3. Ziele und Vorgehensweise .
6.4. Code-Review . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7. Evaluation
7.1. Formulierung von Thesen . . . . . . . . . . . . . . . . . . . . . . .
7.1.1. Erläuterung der Thesen . . . . . . . . . . . . . . . . . . .
7.1.1.1. Die Bedienbarkeit des Systems (Hypothese 1) . .
7.1.1.2. Grad der Immersion bei Nutzung des gesamten Systems (Hypothese 2) . . . . . . . . . . . . . . . .
7.1.1.3. Vorteil durch Bewegungssteuerung (Hypothese 3)
7.1.1.4. Präsenzempfinden durch das HMD (Hypothese 4)
7.2. Vorbereitung der Evaluation . . . . . . . . . . . . . . . . . . . . .
7.2.1. Der Fragebogen zum Messen der Immersion . . . . . . . .
7.3. Die virtuelle Umgebung . . . . . . . . . . . . . . . . . . . . . . .
7.4. Durchführung der Evaluation . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
43
44
45
46
47
47
48
48
51
52
53
54
54
55
.
.
.
.
57
57
58
58
59
62
. 62
. 62
. 62
.
.
.
.
.
.
.
63
63
64
64
64
65
67
III
Projektgruppe
Virtual Reality
Inhaltsverzeichnis
7.5. Ergebnisse der Evaluation . . . . . . . . . . . . . . . .
7.5.1. Qualitative Auswertung . . . . . . . . . . . . .
7.5.2. Mathematische Auswertung . . . . . . . . . . .
7.5.2.1. Immersionsgrad der Versuchsaufbauten
7.5.2.2. Bewegung in der virtuellen Welt . . .
7.5.2.3. Präsenzempfinden . . . . . . . . . . .
7.5.2.4. Geräusche in der virtuellen Welt . . .
7.5.2.5. Vergleich zur realen Welt . . . . . . .
7.6. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8. Persönliche Fazite
8.1. Persönliches Fazit
8.2. Persönliches Fazit
8.3. Persönliches Fazit
8.4. Persönliches Fazit
8.5. Persönliches Fazit
8.6. Persönliches Fazit
von
von
von
von
von
von
Robert Schadek . .
Christian Herz . . .
Jendrik Poloczek . .
Matthias Bruns . .
Justin Heinermann
Tim Jörgen . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
69
69
70
71
73
74
78
79
80
.
.
.
.
.
.
82
82
82
83
84
85
86
9. Fazit und Ausblick
87
Literaturverzeichnis
89
A. Anhang
A.1. Schnittstellenfunktionen . . . . . .
A.1.1. registerPose, registerGesture
A.2. Installation . . . . . . . . . . . . .
A.2.1. Windows . . . . . . . . . . .
A.2.2. Unix . . . . . . . . . . . . .
A.3. Fragebogen . . . . . . . . . . . . .
A.4. Erhobene Daten der Fragebögen . .
A.5. Probandeninformation . . . . . . .
A.6. Einwilligungserklärung . . . . . . .
A.7. Seminararbeiten . . . . . . . . . . .
i
i
ii
ii
iii
iv
v
viii
xii
xiv
xv
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
IV
Projektgruppe
Virtual Reality
Abbildungsverzeichnis
Abbildungsverzeichnis
2.1. Vorgehensmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1. Kinect (Quelle: Microsoft) . . . . . . . . . . . .
3.2. Vuzix Wrap 920 VR (Quelle: Vuzix) . . . . . . .
3.3. Anwendungsfalldiagramm des Nutzers . . . . .
3.4. Sequenzdiagramm: Welt laden . . . . . . . . . .
3.5. Sequenzdiagramm: Skeletterkennung kalibrieren
3.6. Sequenzdiagramm: Skelett bewegen . . . . . . .
3.7. Sequenzdiagramm: Pose Einnehmen . . . . . . .
3.8. Sequenzdiagramm: Geste durchführen . . . . . .
3.9. Sequenzdiagramm: Gegenstand berühren . . . .
3.10. Squenzdiagramm: Kameraposition und -rotation
3.11. Sequenzdiagramm: Kopflage kalibrieren . . . . .
3.12. Klassendiagramm . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
anpassen
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
8
9
16
22
23
23
24
24
25
25
26
28
4.1. Systemzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2. Hard- und Softwareplattform . . . . . . . . . . . . . . . . . . . . . . 34
5.1.
5.2.
5.3.
5.4.
Lagesensorparameter . . . . . . . . . . . . . . . . .
Darstellung der Skelettdaten in Ogre3d . . . . . . .
Zustandsdiagramm der Middleware . . . . . . . . .
links: Oger von Ogre 3D, rechts: modifizierter Oger
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
40
42
51
54
7.1.
7.2.
7.3.
7.4.
Spiegel, Sideboard und Plattenspieler
Fernseher und Eingangstür . . . . . .
Couch und Fensterfront . . . . . . . .
Ein Proband nutzt das VR-System .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
66
66
67
68
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
V
Projektgruppe
Virtual Reality
Abbildungsverzeichnis
7.5. Ein Proband füllt den Fragebogen aus . . . . . . . . . . . . . . . .
7.6. Boxplots - alle Versuchsaufbauten . . . . . . . . . . . . . . . . . . .
7.7. Boxplots - Bewegung im Raum mit und ohne Kinect . . . . . . . .
7.8. Boxplots - Bewegung im Raum mit und ohne Videobrille . . . . . .
7.9. Boxplots - Präsenzempfinden mit und ohne Videobrille . . . . . . .
7.10. Boxplots - Präsenzempfinden mit und ohne Kinect . . . . . . . . . .
7.11. Boxplots - Versetzung in die virtuelle Welt mit und ohne Videobrille
7.12. Boxplots - Versetzung in die virtuelle Welt mit und ohne Kinect . .
7.13. Boxplots - Geräusche lokalisieren mit und ohne Videobrille . . . . .
7.14. Boxplots - Natürlichkeit der virtuelle Welt mit Kinect/HMD und
ohne Kinect/HMD . . . . . . . . . . . . . . . . . . . . . . . . . . .
69
72
73
74
75
76
77
78
79
80
A.1. Abhängigkeiten Middleware/Frontend . . . . . . . . . . . . . . . . .
ii
VI
Projektgruppe
Virtual Reality
1. Einführung
1. Einführung
Die Projektgruppe „Virtual Reality“ der Universität Oldenburg hatte die Aufgabe
ein System zu entwickeln, welches Nutzern die Möglichkeit gibt, in virtuelle Welten einzutauchen. Die PG bestand aus sechs Studenten und wurde betreut von
Prof. Dr. Wolfgang Kowalk und Dipl.-Inf. Stefan Brunhorn. Das Projekt startete
im April 2011 und endete im März 2012. Realisiert wurde das VR-System durch
die Kombination von Bewegungserfassung über eine Microsoft Kinect mit einer
Videobrille der Firma Vuzix. Zu diesem Zweck haben wir eine Middleware implementiert, die die Signale der genannten Hardware verarbeitet und als Schnittstelle
zu einer grafischen Anwendung fungiert. Die virtuelle Szene haben wir mit Blender modelliert und verwenden die Grafik-Engine Ogre3D. Unser Hauptziel bei der
Entwicklung war ein möglichst hoher Immersionsgrad des VR-System, der sich von
klassischen Desktop-PC´s deutlich abhebt. Um unsere Zielerfüllung zu überprüfen,
haben wir das System am Ende des Projekts umfangreich evaluiert.
1.1. Motivation
Virtuelle Realitäten haben in den letzten Jahrzehnten Einzug in viele verschiedene
Branchen gehalten. Neben der Unterhaltungsindustrie zählen hierzu auch Medizin,
Militär und Ingenieurswesen. Da die Preise der benötigten Hardwarekomponenten
in den letzten Jahren deutlich gefallen sind, ist der Einsatz von VR auch bei
Heimanwendern möglich. Unser Streben nach einer kostengünstigen Lösung für ein
immersives VR-System und die Entwicklung einer Middleware, die als Grundlage
anderer Projekte dient, sind unsere Motivation zur Durchführung des Projekts.
1
Projektgruppe
Virtual Reality
1. Einführung
1.2. Aufbau der Arbeit
Kapitel 2 behandelt die Dokumentation der Projektorganisation. Kapitel 3 umfasst
die Anforderungsanalyse für das zu entwickelnde System. Diese wurde in Kapitel
4 in ein Systementwurfsmodell überführt. Kapitel 5 dokumentiert die Implementierung des Systems. Die verwendeten Testverfahren sind Gegenstand des Kapitels
6. Kapitel 7 behandelt die Evaluation des entwickelten Systems. Kapitel 8 beinhaltet persönliche Fazite aller Mitglieder und in Kapitel 9 wird abschließend das
Gesamtfazit und ein Ausblick präsentiert.
1.3. Voraussetzungen und Grundlagen zum
Verständnis der Arbeit
Grundlagenkenntnisse der Softwareentwicklung sind nötig um die in diesem Dokument beschriebenen Entwicklungsschritte nachvollziehen zu können. Für die Einarbeitung in die Thematik des Projektes und als Grundlage für diese Arbeit wurden
in der Seminarphase die folgenden Aspekte betrachtet:
Konfigurationsmanagement Tim Jörgen
Virtual Reality - Geschichte und Entwicklung Matthias Bruns
Virtual Reality und der Einsatz in der Praxis Justin Heinermann
Datenverarbeitung der Kinect Robert Schadek
Bildverarbeitung mit OpenCV Christian Herz
Präsenzempfinden in virtuellen Umgebungen Jendrik Poloczek
Auf diese Ausarbeitungen sei hier als Grundlage verwiesen. Alle Seminararbeiten
befinden sich im Anhang.
2
Projektgruppe
Virtual Reality
2. Projektorganisation und Vorgehen
2. Projektorganisation und Vorgehen
In diesem Kapitel wird die Planung des Projektes und das Vorgehensmodell beschrieben. Ziel der Veranstaltungsform „Projektgruppe“ ist die Umsetzung eines
Projektes und Realisierung eines Produktes wie in einem Unternehmen. Im Gegensatz zu einem Unternehmen, das in der freien Wirtschaft agiert und angestellte
Mitarbeiter hat, finden sich in einer universitären Projektgruppe Studierende zusammen, die gemeinsam mit einer Problemstellung konfrontiert werden und diese
innerhalb eines Jahres lösen müssen.
Im Fall der Projektgruppe Virtual Reality haben sich sechs Studierende zusammengefunden, die mit unterschiedlichen Voraussetzungen, aber ähnlichen Motivationen
ihre Zusammenarbeit selbstständig organisieren müssen. Im Folgenden werden die
Vorgehensweise und die Erfahrungen im Verlauf der Projektgruppe beschrieben.
Die Gruppenarbeit und die Aufgabenteilung werden in Abschnitt 2.1 dargestellt.
Ebenso zählen hierzu die Mittel, die wir zur Kommunikation in der Gruppe eingesetzt haben und das Konfigurationsmanagement. Das Vorgehensmodell und die
Zeitplanung werden in Abschnitt 2.2 vorgestellt.
2.1. Gruppenarbeit und Aufgabenteilung
Zur Organisation der Gruppenarbeit wurde im ersten Treffen ein Projektleiter
bestimmt, der für die Organisation des Projektes verantwortlich war. Für die einzelnen Aufgaben bei der Entwicklung des Systems waren meist zwei Personen als
Kleingruppe verantwortlich, sodass eine hohe Qualität und eine gleichmäßige Arbeitsteilung gewährleistet werden konnten.
3
Projektgruppe
Virtual Reality
2. Projektorganisation und Vorgehen
Zur Kommunikation innerhalb der Gruppe wurde, wie für Projektgruppen typisch,
ein Mailverteiler eingesetzt. Darüber hinaus kam das Projektmanagement-Tool
Redmine 1 zum Einsatz. Dieses bietet ein Ticket-Tracking-System, bei dem jedem
Projektmitglied Aufgaben (Tickets) zugewiesen werden können. Mit dem TicketTracking-System kann für das gesamte Projekt oder für Unterprojekt der Fortschritt in einem Gantt-Diagramm angezeigt werden: So wird visualisiert, ob die
gesetzten Fristen eingehalten werden. Darüber hinaus bietet Redmine ein Wiki
an, das unkompliziert für organisatorische Aspekte wie Protokolle, Tagesordnungen und Notizen verwendet wurde.
Um eine komfortable Zusammenarbeit zu gewährleisten, wurde die Versionsverwaltung git 2 verwendet. Diese bietet eine dezentrale Versionskontrolle und erleichtert
die Arbeit am Projekt von unterschiedlichen Rechnern und Orten.
2.2. Vorgehensmodell und Zeitplanung
Während der Seminarphase wurden die Projektziele detailliert ausgearbeitet. Das
weitere Vorgehen, dargestellt in Abb. 2.1, wurde in den folgenden Phasen durchgeführt: In der Anforderungsanalyse (Kapitel 3), deren Datum zur Fertigstellung auf
den 21.06.2011 festgelegt wurde, wurden die Zielsetzung und die genauen Anforderungen aufgestellt. Das dabei erstellte Modell wurde im Systementwurf (Kapitel 4)
verfeinert und die konkrete Umsetzung des Systems geplant. Die Frist hierfür war
der 19.07.2011. Anschließend wurde in vier Schritten das System implementiert
(genauer beschrieben in Kapitel 5):
Meilenstein 1 (Frist: 30.09.2011) Grundgerüst und grundsätzliche Nutzung der
Hardware
Meilenstein 2 (Frist: 01.11.2011) Verbesserung der Bedienung und vollständige Nutzung der Hardware
1
2
http://www.redmine.org/
http://gitscm.org
4
Projektgruppe
Virtual Reality
2. Projektorganisation und Vorgehen
Meilenstein 3 (Frist: 06.12.2011) Vollständige Umsetzung der Anforderungen
und Anwendungsfälle, komfortable Bedienung
Umfangreiche Beispielanwendung Erschaffen einer komplexen virtuellen Welt
zur Demonstration der Features
(Anschließend soll das System in einer Evaluation mit Versuchspersonen getestet
werden.)
Anforderungsanalyse
Systementwurf
Implementierung MS1: Grundfunktionen
Implementierung MS2: Erweiterte Funktionen
Implementierung MS3: Alle Anwendungsfälle
Umfangreiche Anwendung
Evaluation
Abbildung 2.1.: Vorgehensmodell
5
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3. Anforderungsanalyse
3.1. Einführung
Ziel der Anforderungsanalyse ist das Ermitteln der genauen Anforderungen an das
System. Diese Analyse ist das Fundament für die Software-Entwicklung. Die Anforderungen sollten daher möglichst vollständig, widerspruchsfrei und realisierbar
definiert werden. Fundamentale Fehler in der Anforderungsanalyse können auch im
weit fortgeschrittenen Entwicklungsprozess noch zum Scheitern komplexer Softwareprojekte führen.
3.2. Zielbeschreibung
Im Folgenden wird auf die Zielsetzung des zu realisierenden Projekts eingegangen. Es soll ein Virtual Reality System (ab hier: VR-System) realisiert werden,
das es einem Benutzer ermöglicht in virtuelle Umgebungen einzutauchen. Nach
der Entwicklung einer Lösung zu dieser Problemstellung soll diese in Hinblick
auf die Zielsetzung evaluiert werden. Dabei wird sowohl Handhabung, als auch
das Präsenzgefühl, das bei einem Benutzer bei der Verwendung des VR-Systems
vorherrscht, untersucht. Zusätzlich zu der Realisierung des VR-Systems soll eine
quasi-experimentelle Studie ausgearbeitet werden, die das Präsenzempfinden in
verschiedenen virtuellen Umgebungen untersucht.
Nachfolgend werden die Hauptkomponenten des Präsenzgefühls erwähnt und zu
realisierende Ziele für die jeweiligen Einflussfaktoren angegeben. Danach wird auf
den Aufbau der Eingabe- und Ausgabeschnittstellen und auf die Implementierung
der benötigten Software eingegangen.
6
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
In der Seminararbeit “Präsenzempfinden in virtuellen Umgebungen“ Poloczek [2011]
wurden Modelle betrachtet, die das Präsenzgefühl als Produkt verschiedener Einflussfaktoren definieren. Dabei spielt sowohl die räumliche Präsenz, die durch geeignete Eingabe- und Ausgabeschnittstellen intensiviert werden kann, als auch die
soziale Präsenz und die Eigenwahrnehmung eine entscheidende Rolle. Die Wahl
der Eingabe- und Ausgabeschnittstellen mithilfe derer sich ein Benutzer in eine
virtuelle Umgebung hineinversetzt ist demnach ein signifikanter Faktor für die
Umsetzung eines immersiven VR-Systems.
Die soziale Präsenz beschreibt Einflussfaktoren, die durch das Phänomen der gesteigerten Involvierung in gesellschaftliche Zusammenhängen hervorgerufen wird.
Die Einbindung von virtuellen Charakteren, die entweder einem einfachen Verhaltensmuster entsprechen oder durch ein Agentensystem komplex nachgebildet
werden, vermittelt dem Benutzer das Gefühl in diesem sozialen Gefüge anwesend
zu sein. In Bezug auf diesen Aspekt wird versucht die virtuelle Umgebung mit minimalistischen, aber entscheidenden Mitteln zur Förderung der sozialen Präsenz
zu unterstützen.
Die Eigenwahrnehmung umfasst die innerliche Auseinandersetzung eines Benutzers
mit seinem virtuellen Avatar. Der Benutzer identifiziert sich mit ihm selbst, sodass
der Avatar eine virtuelle Schnittstelle zwischen dem Benutzer und der virtuellen
Umgebung darstellt. Dieser Effekt soll in die virtuelle Umgebung durch Spiegel und
dynamischen Schattenwurf des Körpers genutzt werden um den Einflussfaktor der
Eigenwahrnehmung zu steigern.
In den Seminararbeiten (vgl. Heinermann [2011], Poloczek [2011]), die im Rahmen der Projektgruppe ausgearbeitet wurden, sind verschiedene Arten von VRSystemen angesprochen worden. Die Systeme bieten unterschiedlich reichhaltige
Möglichkeiten zur Interaktion mit virtuellen Umgebungen und erfordern einen unterschiedlich komplexen Aufbau. Die Projektgruppe hat festgelegt, dass das zu
realisierende VR-System möglichst einfach aufzubauen ist. Es soll die Benutzung
durch einem für Heimanwender zu einem erschwinglichen Preis ermöglichen.
Die Eingabe- und Ausgabeschnittstellen, die dem Einflussfaktor der räumlichen
Präsenz zuzuordnen sind, sollen folgende Interaktion und Wahrnehmung mit der
7
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
virtuellen Umgebung ermöglichen: Ein Benutzer kann sich grobmotorisch frei in
der virtuellen Umgebung bewegen. Diese Körperpose des Benutzers wird demnach
auf die Körperpose seines digitalen Abbilds übertragen. Diese Funktion wird von
der von uns verwendeten Microsoft Kinect bereitgestellt und wird als technische
Komponente im VR-System vorausgesetzt.
Abbildung 3.1.: Kinect (Quelle: Microsoft)
Eine weitere Vorrausetzung stellt ein Lagesensor für die Neigung des Kopfes in
sechs Freiheitsgeraden dar. Bei der Neigung des Kopfes wird gegenüber dem restlichen Körper die Präzision als besonders wichtig erachtet, um Fehler in der Auslenkung des Sichtbereiches und damit gegebenenfalls Simulatorübelkeit zu vermeiden.
Nach der Festlegung der Eingabeschnittstellen folgt im Weiteren die Betrachtung
der Ausgabeschnittstellen mit derer einem Benutzer künstliche Reize vermittelt
werden. Das Head-Mounted-Display zählt zu den Standardwerkzeugen im Forschungsbereich Virtual Reality und soll auch in unserem VR-System als audiovisuelle Ausgabeschnittstelle verwendet werden.
Bei der Auswahl der Videobrille hatten wir zwei Alternativen: Das Modell Cinemizer von Carl Zeiss und das Modell Wrap 920 VR von Vuzix. Wir haben uns
für das Modell von Vuzix entschieden, da sie im Gegensatz zur Cinemizer einen
Lagesensor mit sechs Freiheitsgraden bereits integriert hat. Somit musste nicht
zusätzlich ein Lagesensor beschafft werden.
8
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
Abbildung 3.2.: Vuzix Wrap 920 VR (Quelle: Vuzix)
Der Benutzer nimmt den Sichtbereich seines Avatars über eingebaute Bildschirme
wahr. Der Sichtbereich des Benutzers wird dabei auf die Bildschirme reduziert,
sodass der Benutzer gegenüber externer Reizeinflüsse isoliert wird. Die eingebauten Stereokopfhörer ermöglichen ferner die Vermittlung akustischer Reize, die im
Zusammenhang mit emuliertem Raumklang eine weitere Orientierungsmöglichkeit
in der Umgebung anbieten.
Es soll nun der Aufbau der benötigten Software beleuchtet werden. Das zu entwickelnde Softwaresystem soll sich zwei Komponenten zusammensetzen: Einer Bibliothek, die die Ansteuerung der Microsoft Kinect und des HMD kapselt, und
einer unabhängigen Anwendung, die als Modell und Laufzeitumgebung für die
virtuelle Umgebung dient. Die Bibliothek kann dabei auch als Middleware zwischen der VR-Hardware und der virtuellen Umgebung angesehen werden. Durch
die Trennung soll erreicht werden, dass verschiedene Anwendungen mit der nachhaltig entwickelten Bibliothek angesprochen werden können.
Zusätzlich zu der Kapselung der Treiber soll die Bibliothek die Funktion zur Speicherung von Gesten anbieten. Das Erkennen einer Geste soll dabei zu einem bestimmten vordefinierten Ereignis führen.
Die Anwendung soll mithilfe der Bibliothek die Körperpose und die Kopflage des
Benutzers in einen entsprechenden Avatar überführen und die virtuelle Umgebung
9
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
in Abhängigkeit der Körperpose, Kopflage und Position des Avatars visuell darstellen. Die erzeugten Bildinformationen der virtuellen Welt sollen zur visuellen
Reizvermittlung über das HMD genutzt werden. Ferner soll die Anwendung in der
Lage sein, eine vorgegebene Klangumgebung zu erzeugen. Die akustischen Reize
werden dabei über den eingebauten Stereokopfhörer des HMD vermittelt. In Bezug auf Interaktion soll eine Kollisionserkennung des virtuellen Avatars mit der
Umgebung stattfinden. Zum Laden verschiedener virtueller Umgebungen soll ein
Dialogmenü angeboten werden.
Bei der Entwicklung der Anwendung wird die plattformunabhängige Spiele-Engine
OGRE 3D verwendet, die neben grundlegenden grafischen Technologien wie Modellen, Animationen, Charakterskelette, Texturen, Reflexionen und Schatten auch
3D-Raumklang unterstützt.
Da sowohl der Treiber für die Microsoft Kinect, der Treiber Vuzix Wrap und die
Spiele-Engine OGRE 3D für Microsoft Windows, Linux und Apple Mac OS X
portiert sind, liegt eine wünschenswerte plattformunabhängige Realisierung des
VR-Komplettsystems nahe. Das erarbeitete System wird ferner über eine quelloffene Lizenz der Öffentlichkeit zugänglich gemacht.
3.3. Anforderungen Middleware
Das Projekt besteht aus zwei Teilanwendungen: Es soll eine Middleware entwickelt
werden und die Nutzung dieser in einer beispielhaften Anwendung (Frontend) umgesetzt werden.
3.3.1. Funktionale Anforderungen
Die zu entwickelnde Middleware soll Features anbieten, die Programmierern die
Möglichkeit bietet, mit geringem Aufwand eine Anwendung zu schreiben, welche
eine hohe Immersion liefert. Dabei soll eine Funktionalität zur Skeletterkennung
eines Menschen im dreidimensionalen Raum angeboten werden. Als weitere zentrale Anforderung ist die Bereitstellung der Kopfdrehung zu nennen. Hier soll die
10
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
Nutzung des Lagesensors gekapselt werden, sodass der Programmierer keine Kenntnisse über die verschiedenen Treiber für die Vuzix-Brille haben muss. Es ist darauf
zu achten, dass die Nutzung der Middleware möglichst einfach und verständlich
erfolgen kann und nur minimale Kenntnisse der eingesetzten Hardware notwendig
sind. Zudem muss mithilfe der Middleware eine Anzahl von vordefinierten Gesten,
welche von einem Menschen ausgeführt werden, algorithmisch erkannt werden. So
soll zum Beispiel das Winken eines Nutzers als solches erkannt werden und eine
Reihe von Listenern benachrichtigt werden, welche sich zuvor bei der jeweiligen
Geste angemeldet haben.
3.3.2. Nichtfunktionale Anforderungen
Eine einfache Bedienbarkeit der Middleware setzt eine gute Dokumentation voraus. So sollen Entwickler sich möglichst ohne große Hürden sich in den Quellcode
und die eigentliche Thematik einarbeiten können. Die Bedienungsanleitung muss
Interaktionsmöglichkeiten, sowie Posen und Gesten, die zur Interaktion dienen,
erklären.
Bezogen auf die Zuverlässigkeit sind die ausgehenden Daten (z. B. erkannte Geste)
korrekt auszugeben oder bei fehlerhaften Daten entsprechende Fehlermeldungen.
Der Durchsatz zur Verarbeitung aller von der Kinect ankommenden Daten ist zu
gewährleisten. Des Weiteren soll die Antwortzeit möglichst kurz sein, so dass der
Eindruck einer Verarbeitung der Daten in Echtzeit gewonnen wird. Eine Portabilität ist anzustreben, vor allem für Windows und Linux, wobei MacOS als optionale Anforderung in den Hintergrund tritt. Als Implementierungsanforderung
wird sauberer C++-Quellcode verlangt, sowie die Erstellung mit CMake. Weitere
Anforderungen an die Implementierung sind in Abschnitt 4.5.1 aufgeführt. Eine
gute Dokumentation der Middleware und dessen Schnittstelle wird vorausgesetzt,
wobei das Dokumentationstool „Doxygen“ zu verwenden ist.
11
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.4. Anforderungen Beispielanwendung
3.4.1. Funktionale Anforderungen
Als Beispiel für die Nutzung der Middleware soll eine grafische Anwendung erstellt
werden, welche die entwickelte Middleware verwendet. Der von uns geplante virtuelle Raum soll eine Wohnung in Italien abbilden. Die Wohnung soll dabei voll
begehbar sein und die Immersion unterstützen. Erreicht wird dies durch eine realitätsnahe Gestaltung des Raumes. Zudem wird durch die Verwendung von Sound
der Realitätsgrad weiter erhöht.
3.4.2. Nichtfunktionale Anforderungen
Die Bedienung der Anwendung soll ohne besondere Kenntnisse des Anwenders erfolgen. Optional soll während der ersten Bedienung zusätzliche Informationen/Hilfen auf der Brille angezeigt werden. Fehleingaben sind entweder zu ignorieren oder
zu korrigieren. Gegebenenfalls sind zusätzliche Informationen einzublenden, die
eine Aufforderung zur Wiederholung der Eingabe beinhalten. Gesichtspunkte wie
die Portabilität, Implementierungs- und Dokumentationsanforderungen sind wie
bei der Middleware zu handhaben.
Das Gesamtsystem, bestehend aus Beispielanwendung und Middleware, soll unter
Berücksichtigung der technischen Möglichkeiten (3D-Engine, Sound usw.) einen
möglichst hohen Grad an Immersion erzeugen. Alle potentiellen Anwender sollen
das System nutzen können. Unabhängig von Geschlecht und Alter, ohne technisches Vorwissen jeder Art, ohne zu wissen was einen erwartet und ohne vor der
Nutzung vom Operator bezüglich des Gebrauchs instruiert zu werden. Das System
soll sich dem Nutzer vollständig selbst erklären. Der Nutzer entdeckt von selbst,
dass seine Bewegungen in der Realität eins zu eins in der virtuellen Realität umgesetzt werden. Gesten und andere realitätsferne Funktionen werden während der
Nutzung vom System erläutert. Ausgenommen von der völligen Eigenständigkeit
des Anwenders ist das Starten des Systems, das Aufsetzen der VR-Brille und das
Laden von Levels sowie die Kalibrierung des Nutzer für die Kinect.
12
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.5. Vorhandene Systeme
Im Bereich der Low-Budget VR-Systeme (< 1000e) sind Lösungen für die oben
beschriebenen Anforderungen nicht bekannt. Dennoch kommen für das Projekt
bereits vorhandene Lösungen als Teilkomponente zum Einsatz: die Microsoft Kinect und die Vuzix Videobrille. Eine vergleichbare Middleware ist zurzeit weder
frei, noch kommerziell verfügbar. Im Bereich der auf der Middleware aufbauenden
Anwendungssoftware gibt es bereits einige ähnliche Entwicklungen. Zum Beispiel
Videospiele mit immersiver Wirkung oder VR-Software die im medizinischen Sektor zur Entspannung des Patienten eingesetzt wird.
3.6. Technische Umgebung
Das zu entwickelnde System soll auf herkömmlichen PC verwendbar sein. Für
die Lokalisation des Anwenders und Gestensteuerung wird die Microsoft Kinect
verwendet. Die Kinect verwendet für die Ermittlung von Tiefeninformationen die
Technik des “Structured Light“. Es findet die Aussendung eines Musters in Form
von “Infrared Structured Light“ über einen Infrarot-Sensor auf eine zu scannende
Oberfläche statt. Eine Kamera zeichnet von einem anderen Punkt das verzerrte
Muster auf. Die Tiefeninformationen können anschließend mit Stereo-Triangulation
über die Verzerrung des aufgenommenen Musters errechnet werden. Weitergehend
stellt die Kinect eine CMOS-Kamera mit einer Auflösung von 640x480 Pixel zur
Verfügung, mit der aufgrund des physischen Abstands von RGB-Kamera und IRSensor Tiefenwerte auf Farbwerte abgebildet werden können. Auch besitzt die Kinect einen Stellmotor für das Verändern der vertikalen Ausrichtung der Kinect und
ein Mikrofon, mit dem es möglich ist, Personen im Raum zu lokalisieren.
Als Ausgabe der virtuellen Welt für den Anwender wird die Video-Brille “Vuzix
Wrap 920 VR“ verwendet. Diese Video-Brille bietet zwei unabhängig ansteuerbare 640x480 LCD´s, sowie einen Lagesensor mit sechs Freiheitsgraden, der die
Bestimmung der Position und Neigung des Anwenderkopfes ermöglicht. Zudem
wird von dem Hersteller ein SDK (Software Development Kit) angeboten. Nähere
13
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
Informationen zu der 3D-Brille können unter Vuzix-Corporation [2012a] eingeholt
werden.
Für die Darstellung einer virtuellen Welt in der Anwendung wird die 3D-Engine
“Ogre 3D“ (Streeting [2012]) genutzt. Sie bietet Skelettanimationen und ist komplett in C++ ansprechbar.
3.7. Anwendungsfallmodell
Im Folgenden wird das Anwendungsfallmodell des zu entwickelnden Systems dargestellt. Da es sich bei diesem System um eine multimediale Anwendung handelt,
fällt es teilweise schwer, Anwendungsfälle als solches zu definieren: Oft löst nicht
der Akteur selber eine Aktion aus, sondern das System fragt in regelmäßigen Abständen den Zustand des Benutzers, wie z.B. die Position, ab. Da wir dennoch
gewisse Aspekte als Anwendungsfall sinnvoll modellieren können, sind bei Abweichungen entsprechende für den weiteren Entwurf nützliche Notizen angefügt.
3.7.1. Akteure
Als Akteure wurden identifiziert:
Nutzer Ein Nutzer, der eine stereoskopische Ansicht der Welt sieht und mit der
Welt interagieren kann.
Assistent Der Assistent startet die Anwendung und legt die Parameter der Ausführung fest.
Middleware-Nutzer (Programmierer) Ein Programmierer, der die zu entwickelnde Middleware in einem eigenen Programm einsetzt.
14
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.7.2. Anwendungsfälle des Assistenten
3.7.2.1. Anwendung starten
Name
Anwendungs starten
Akteure
Initiiert von Assistent
Ablauf
1. Der Assistent ruft die Anwendung mit
den gewünschten Parametern auf. Die
möglichen Parameter sind:
• Gewünschte Szene
• Stereoskopie verwenden
• Zu verwendender Augenabstand
• Kinect verwenden
• Lagesensor verwenden
• Musik ein- oder abschalten
2. Das System startet die Anwendung mit
den gewünschten Parametern.
Anfangsbedingung
Alle zu verwendeten Geräte sind vorm Starten angeschlossen. Die Bildschirmauflösung
der Videobrille wurde sachgemäß im Betriebssystem eingestellt.
Abschlussbedingung
Alle Parameter werden von der Anwendung
berücksichtigt.
Qualitätsanforderungen
Bei fehlerhaften oder unvollständigen Eingaben wird eine entsprechende Meldung ausgegeben.
15
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.7.3. Anwendungsfälle des Nutzers
In Abb. 3.3 sind die Anwendungsfälle des Nutzers als Anwendungsfalldiagramm
dargestellt. Diese werden im Folgenden beschrieben.
Kameraposition anpassen
Kopflage kalibrieren
Geste durchführen
Skeletterkennung kalibrieren
nutzer
Gegenstand berühren
Skelett holen
Pose einnehmen
Abbildung 3.3.: Anwendungsfalldiagramm des Nutzers
16
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.7.3.1. Skeletterkennung kalibrieren
Name
Skeletterkennung kalibrieren
Akteure
Nutzer
Ablauf
1. Der Nutzer wählt die Funktion zum
Kalibrieren des Skeletts.
2. Das System bestätigt dies und fordert den Nutzer dazu auf, die Kalibrierungspose einzunehmen.
3. Der Nutzer nimmt die Kalibrierungspose ein.
4. Das System nimmt die Kalibrierung vor
Anfangsbedingung
Sowohl nach Start der Anwendung als auch
während des Betriebes möglich
Abschlussbedingung
Die Skeletterkennung wurde korrekt kalibriert bzw. ein Skelett gefunden.
17
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.7.3.2. Kopflage kalibrieren
Name
Kopflage kalibrieren
Akteure
Nutzer
Ablauf
1. Der Nutzer wählt die Funktion zum
Kalibrieren der Kopflage.
2. Das System sichert die Kopflage als
Null-Ausrichtung.
Anfangsbedingung
Sowohl nach Start der Anwendung als auch
während des Betriebes möglich
Abschlussbedingung
Die Kopflage wurde erfolgreich kalibriert.
3.7.3.3. Kameraposition und -Rotation anpassen
Name
Kameraposition und -rotation anpassen
Akteure
Nutzer
Ablauf
1. Der Nutzer bewegt seinen Kopf
2. Das System passt Position und Rotation der Kamera an.
Anfangsbedingung
Die Kopflage wurde korrekt kalibriert.
Abschlussbedingung
Die Kameraposition und -Rotation wurden
angepasst.
Qualitätsanforderungen
Die Bewegung der virtuellen Kamera darf
nicht zu ruckartig wirken. Die Bewegung
wird so schnell wie möglich ausgeführt. Ideal
wäre eine Verzögerung <15ms, durch die die
Bewegung verzögerungsfrei wirkt.
18
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.7.3.4. Geste durchführen
Name
Geste durchführen
Akteure
Nutzer
Ablauf
1. Der Nutzer führt eine vordefinierte Geste durch
2. Das System erkennt diese und löst
ein entsprechendes Event aus.
Anfangsbedingung
Die Skeletterkennung wurde kalibriert und
ein Skelett erkannt.
Abschlussbedingung
Die korrekte Geste wurde erkannt.
Qualitätsanforderungen
Die richtige Geste wurde mit hoher Wahrscheinlichkeit erkannt.
3.7.3.5. Pose einnehmen
Name
Pose einnehmen
Akteure
Nutzer
Ablauf
1. Der Nutzer nimmt eine Pose ein.
2. Das System erkennt diese Pose und
löst ein entsprechendes mit der Pose verknüpftes Event aus.
Anfangsbedingung
Die Pose wurde neu eingenommen: D.h. sie
hat sich geändert.
Abschlussbedingung
Die Pose wurde mit großer Erfolgswahrscheinlichkeit richtig erkannt.
Qualitätsanforderungen
Das Einnehmen einer Pose muss innerhalb
von wenigen Millisekunden erkannt werden.
19
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.7.3.6. Gegenstand berühren
Name
Gegenstand berühren
Akteure
Nutzer
Ablauf
1. Der Nutzer berührt in der virtuellen
Welt einen Gegenstand.
2. Das System erkennt, welcher Gegenstand berührt wurde und führt
eine entsprechende Aktion aus
(Bspw. Gegenstand aufheben).
Anfangsbedingung
Das Skelett des Nutzers ist korrekt in der virtuellen Welt vorhanden. Kollisionsabfrage ist
aktiv.
Abschlussbedingung
Der korrekte Gegenstand wurde erkannt.
3.7.3.7. Skelett bewegen
Name
Skelett bewegen
Akteure
Nutzer
Ablauf
1. Der Nutzer bewegt sich.
2. Das System aktualisiert die SkelettDaten
Anfangsbedingung
Die Skeletterkennung wurde kalibriert.
Abschlussbedingung
Die Skelett-Daten wurden korrekt aktualisiert.
Qualitätsanforderungen
Im Fehlerfall wird auf alte Daten zurückgegriffen.
20
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.7.4. Anwendungsfälle des Middleware-Nutzers
Für den Middleware-Nutzer werden keine tatsächlichen Anwendungsfälle beschrieben. Dieser kann die Middleware in sein eigenes Softwareprojekt einbauen und als
Grundgerüst nutzen. Dabei kann er folgende Aktionen durchführen:
• Middleware in Programm einbinden
• Neue Instanz der Middleware erstellen
• Instanz der Middleware beenden
• Status-Informationen abfragen
• Skelett-Daten verwenden
• Kamera-Daten verwenden
• Neue Pose definieren
• Event-Handler implementieren
• Event-Handler an Posen und Gesten binden
21
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.8. Dynamisches Modell
Im Folgenden wird das dynamische Modell des zu entwickelnden Systems festgelegt. Zunächst wird in Abschnitt 3.8.1 das Verhalten des Systems in Sequenzdiagrammen dargestellt. Diese dienen im Wesentlichen dazu, die Anwendungsfälle aus
dem vorherigen Kapitel mit Objekten zu verbinden und die benötigten Objekte
zu identifizieren (vgl. Bernd Brügge [2004]).
3.8.1. Sequenzdiagramme des Assistenten
Abbildung 3.4.: Sequenzdiagramm Welt laden: Der Assistent wählt die Funktion
Level laden und anschließend ein Level aus. Diese wird von der
Anwendung geladen.
22
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.8.1.1. Skeletterkennung kalibrieren
Abbildung 3.5.: Sequenzdiagramm Skeletterkennung kalibrieren: Der Nutzer
nimmt die Kalibrierungspose ein, damit die Skeletterkennung kalibriert werden kann.
Abbildung 3.6.: Sequenzdiagramm Skelett bewegen: Die Daten von der Kinect lösen ein Event aus, welches bewirkt, dass sich die Anwendung die
aktuellen Skelett-Daten holt.
23
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
Abbildung 3.7.: Sequenzdiagramm Pose einnehmen: Die Person vor der Kinect
nimmt eine zur Compile-Zeit definierte Pose ein. Diese Pose wird
von der Middleware erkannt und ein entsprechendes Event in der
Anwendung wird ausgelöst. Verschiedene Posen lösen verschiedene
Events aus.
Abbildung 3.8.: Sequenzdiagramm Geste durchführen: Die Middleware erkennt eine vordefinierte Geste des Benutzers. Ist für diese Geste ein Event
registriert, wird dieses ausgelöst.
24
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
Abbildung 3.9.: Sequenzdiagramm Gegenstand berühren: Wenn das virtuelle Skelett des Nutzers mit einem Gegenstand der virtuellen Welt kollidiert, kann dies in der Anwendung eine Reaktion auslösen.
Abbildung 3.10.: Sequenzdiagramm Kameraposition und -rotation anpassen: Die
Anwendung fragt bei Middleware die Blickrichtung des Kopfes
des Benutzers ab. Die Middleware liefert daraufhin die aktuelle,
permanent vorgehaltene, Blickrichtung zurück.
25
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
Abbildung 3.11.: Sequenzdiagramm Kopflage kalibrieren: Die Erkennung der Kopflage wird auf plausible Werte eingestellt.
26
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
3.9. Objektmodell
Das in Abbildung 3.12 dargestellte Objektmodell besteht aus Klassen, die sich
im Wesentlichen in drei Gruppen ordnen lassen: Die Anwendung mit Model- und
View-Klassen ist grün dargestellt. Die Middleware-Klasse ist rot dargestellt. Diese
greift über zwei Wrapper-Klassen (blau) auf die Hardware zu. Hier sei angemerkt,
dass das Diagramm nur eine vorläufige Idenfikation der Objekte darstellt und diese
im Systementwurf verfeinert werden.
27
checkCollision(Skeleton)
Object
0..*
1
checkCollision(Skeleton)
World
1
1..*
loadLevel(World)
ChooseLevelView
1
1
1
Application
1..*
setCamera()
Camera
1
Skeleton
1
1
triggerPoseEvent()
triggerGestureEvent()
loadLevel()
triggerSkeletonEvent()
1
1
1
Skeleton
1
1
getHeadDirection()
calibrateSkeleton()
triggerSkeletonEvent()
getSkeleton()
Middleware
1
Head
1
1
1
1
1
getHeadDirection()
HeadTrackerWrapper
calibrateSkeleton()
getRGBImage()
getSkeleton()
KinectWrapper (OpenNI)
Projektgruppe
Virtual Reality
3. Anforderungsanalyse
Abbildung 3.12.: Klassendiagramm
28
Projektgruppe
Virtual Reality
4. Systementwurf
4. Systementwurf
Im Folgenden wird das Analyse-Modell, welches im Kapitel 3 beschrieben wurde,
in ein Systementwurfsmodell überführt und präzisiert. Dazu werden zunächst in
Kapitel 4.1 die Entwurfsziele festgelegt sowie in Kapitel 4.2 das System in kleinere
Subsysteme zerlegt, sodass die Komplexität beim Implementieren verringert wird.
Kapitel 4.3 beschreibt kurz den globalen Kontrollfluss. Die Hardware/SoftwarePlattform wird in Kapitel 4.5 dargestellt und begründet. Diese umfasst die Wahl
der Programmiersprache, das Ansprechen des Lagesensors der Videobrille und das
Verwenden der Kinect-Daten. Im Anhang wird in Kapitel A.1 eine Referenz zu
den nach außen angebotenen Schnittstellenfunktionen der Subsysteme gegeben.
4.1. Entwurfsziele
„Entwurfsziele sind Eigenschaften, die es uns ermöglichen, Prioritäten bei der Entwicklung des Systems zu setzen. Entwurfsziele entstehen
aus den nichtfunktionalen Anforderungen, die während der Anforderungsermittlung spezifiziert wurden und aus technischen sowie Verwaltungszielen.“
Bernd Brügge [2004] Die folgende Tabelle listet unsere Entwurfsziele auf.
29
Projektgruppe
Virtual Reality
4. Systementwurf
Entwurfsziel
Antwortzeit
Speicherbedarf
Robustheit
Fehlertoleranz
Schutz
Sicherheit
Kosten
Entwicklungskosten
Dokumentation
der Schnittstelle
(Middleware)
Dokumentation
des Quellcodes
Erweiterbarkeit
und Modifizierbarkeit
Portierbarkeit
Priorität
sehr hoch
Kommentar
Für eine interaktive Anwendung
ist eine geringe Antwortzeit wichtig.
hoch
Niedriger Speicherbedarf
hoch
Das System soll auch bei ungültigen
Benutzereingaben stabil weiterlaufen.
hoch
Das Auftreten von Fehlern soll
das System nicht beeinflussen.
unerheblich Offline-Anwendung, kein sensiblen Daten.
mittel
Die Gefährdung menschlichen Lebens
und Suchtgefahr sind eher gering, sollen
aber auch bestmöglich ausgeschlossen werden.
hoch
Das System soll prinzipiell
kostengünstig auch für
Heimanwender verfügbar sein.
fest vorge- System muss für Implementierung mit sechs
geben
Personen geplant werden.
sehr hoch
Die Middleware soll von SoftwareEntwicklern genutzt werden und muss
daher sehr gut und verständlich dokumentiert werden.
sehr hoch
Das der Quellcode auch als lernenUmgebung dienen soll, ist die Dokumentation desselben sehr wichtig.
mittel
Festgelegte Features,
aber erweiterbare Architektur.
hoch
Nützlichkeit
hoch
Nutzbarkeit
hoch
Verfügbarkeit auf vielen Plattformen, universelle Architektur
Nicht nur als Spiel, sondern vielfältig einsetzbar (insbesondere Middleware)
Intuitive Nutzung und gute Bedienbarkeit
Tabelle 4.1.: Entwurfsziele
30
Projektgruppe
Virtual Reality
4. Systementwurf
4.2. Systemzerlegung
In diesem Abschnitt ist die Systemzerlegung in Subsysteme dokumentiert. Wie
in C++ üblich, werden die unterschiedlichen Komponenten nach Zusammengehörigkeit in Namespaces getrennt. Die Systemzerlegung ist in Abb. 4.1 als UMLKlassendiagramm dargestellt.
Es existieren Middleware- und Frontend-Subsystem. Die Middleware abstrahiert
die Eingabemedien Kinect und Lagesensor der Videobrille und kapselt dementsprechend den Zugriff auf die jeweiligen Hardwarekomponenten. Auf Grundlage
der Middleware wird in dem Frontend-Subsystem die Beispielanwendung realisiert. Im Folgenden werden zunächst die wichtigen Klassen und Funktionen der
Middleware erläutert, anschließend die des Frontend-Subsystems.
Die Hauptklasse Middleware::Main der Middleware wird als Schnittstelle benutzt,
um das Skelett und die Lagesensordaten anzufragen. Ferner wird in der Hauptklasse ein Thread erzeugt, der unabhängig von der Anwendung die Hardwarekomponenten über die Klassen KinectAbstraction und AttitudeSensor anfragt. Mithilfe
des GestureManagers und des PoseManagers lassen sich benutzerdefinierte Gesten
und Posen verwenden. Eine detaillierte Ausführung der Funktionalität wird in
X dargeboten. Das Frontend-Subsystem umfasst den Einstiegspunkt für die Beispielanwendung. Die virtuelle Umgebung wird in der Klasse BasicScene geladen,
ferner werden dort Eingabeereignisse wie Tastatur und Mauseingaben verarbeitet.
Die Klasse CharacterController behandelt die Anzeige und Aktualisierung des virtuellen Charakters auf Basis der Middleware-Daten. Der DotSceneLoader ist eine
Hilfsklasse zum Parsen von DotScene-Format Level-Dateien. Die Klasse parst und
erstellt die korrespondierende Umgebung.
31
Projektgruppe
Virtual Reality
4. Systementwurf
Frontend
sound
CharacterController
BasiscScene
SoundManager
1
1
notify(ge)
notify(pe)
main()
update()
keyPressed()
keyReleased()
createViewports()
setupRessources()
loadSound()
playSound()
stopSound()
setListenerPosition()
1
1
1
1
injectKeyDown()
injectKeyUp()
updateBody()
DotSceneLoader
parseDotScene()
Middleware
KinectWrapper
Main
isCalibrated : bool
vuzixConnected : bool
kinectConnected : Integer
getHeadDirection()
getSkeleton()
registerGesture()
registerPose()
removePoseEvent()
removeGestureEvent()
resetHeadDirection()
work()
KinectAbstraction
1
isCalibrated : bool
isConnected : bool
1
getSkeleton() : Joint[]
init()
1
1
OpenNIConnector
isCalibrated : bool
isConnected : bool
GestureManager
1
getSkeleton() : Joint[]
1 init()
1
0..* GestureEvent
1
0..*
1
AttitudeSensor
registerGesture()
removeGesture()
getHeadDirection()
resetHeadDirection()
timerProc()
1
PoseManager
1
1
Head
PoseEvent
registerPose()
removePose()
yaw : float
pitch : float
roll : float
Abbildung 4.1.: Systemzerlegung
32
Projektgruppe
Virtual Reality
4. Systementwurf
4.3. Globaler Kontrollfluss
Da das zu entwickelnde System eine Grafikanwendung ist und die Ogre3D Grafikengine verwendet wird, findet die grafische Darstellung in der Anwendung in
einer Hauptschleife statt. Die Anwendung hält dabei eine Instanz der Middleware,
von der sie sich in jedem Durchgang der Hauptschleife die aktuellen Eingabedaten
holt und diese verwendet.
Die Middleware lässt mehrere Threads laufen, um immer die aktuellen Eingangsdaten liefern zu können und verarbeitet diese außerdem in Form der Posen- und
Gestenerkennung. Wenn eine Pose oder Geste erkannt wird, wird von der Middleware eine enstsprechende Funktion der Anwendung aufgerufen, um diese zu benachrichtigen.
4.4. Datenhaltung
Das zu verwendende Datenformat für die virtuelle Umgebung wird auf das DotScene Format festgelegt, das kompatibel zur Ogre 3D Engine ist und den Vorteil
bietet, dass ein Exporter für das quelloffene 3D-Werkzeug Blender existiert.
33
Projektgruppe
Virtual Reality
4. Systementwurf
4.5. Hard- und Softwareplattform
Abbildung 4.2.: Hard- und Softwareplattform
Die Hard- und Softwareplattform gliedert sich in drei Ebenen: Die Ebene der
externen Hardware umfasst die Vuzix Videobrille zur visuellen Ausgabe sowie die
Microsoft Kinect zum Erfassen der Bewegungen des Nutzers. Die Rechner Ebene
I beinhaltet die Middelware. Die Middelware umfasst drei Hauptkomponenten:
Skeletterkennung, Gestenerkennung und Systemadministration. Aufbauend auf der
Middleware liegt die Anwendungssoftware des Systems auf Rechner Ebene II. Sie
besteht aus der Grafikengine und der Contentverwaltung.
4.5.1. Wahl der Programmiersprache
Als mögliche Programmiersprachen kommen Java oder C++ infrage. Java und
C++ wurden bisher laut Aussagen der Teammitglieder verwendet und es existieren
34
Projektgruppe
Virtual Reality
4. Systementwurf
Grundkenntnisse in beiden Sprachen. Die notwendigen objekt-orientierten Sprachfunktionalitäten existieren in beiden Sprachen. Der verwendete Kinect-Treiber
OpenNI ist in C++ implementiert. Eine Verwendung des Treibers in Java ist über
die Verwendung eines Wrappers möglich. Da Frontend und Middleware als Echtzeitanwendung entworfen werden, ist die Performanz eine wichtige nicht-funktionale
Anforderung, die nicht durch die Wahl der Programmiersprache eingeschränkt werden soll. Bezogen auf die Performanz von C++ und Java sind keine markanten
Unterschiede zu erkennen. Die Kinect liefert 30f ps und C++ und Java scheinen
sich in der Verarbeitung und Ausgabe nur minimal zu unterscheiden. Hier kann
also kein Grund gefunden werden, der mehr für eine der beiden Programmiersprachen spricht. In Absprache mit dem gesamten Team haben wir uns für die
Programmiersprache C++ entschieden.
35
Projektgruppe
Virtual Reality
5. Implementierung
5. Implementierung
5.1. Meilensteine der Implementierung
Im Rahmen der Implementierung haben wir Entwicklungsschritte und Ergebnisse
definiert, die zu einem festgelegten Zeitpunkt erreicht werden sollen. Durch dieses
Vorgehen können wir den Implementierungsvorgang zielorientiert planen und die
fristgerechte Fertigstellung des Projekts sicherstellen. Im Folgendem werden die
festgelegten Meilensteine beschrieben.
5.1.1. Erster Meilenstein (30.09.2011)
• Einfache Test-Anwendung mit der Ogre-Engine
• Kamerasteuerung per Vuzix-Brille
• Darstellung der Kinect-Skelett-Daten durch eine Figur in der Engine
• Build-Skript
5.1.2. Zweiter Meilenstein (01.11.2011)
• Sound-Integration
• Stereoskopische Ansicht über die Videobrille
• Posen
• Scene-Loader
• Bewegung im Raum
36
Projektgruppe
Virtual Reality
5. Implementierung
5.1.3. Dritter Meilenstein (06.12.2011)
• Exceptions der Middleware ergänzen
• Gesten
• Abrufen des Zustandes der Middleware wie z.B. Status der Geräte und Kalibrierung
• Linuxtreiber der Vuzix-Brille
• Kollisionserkennung
• Soundintegration mit Skripten
• Licht und Schatten
• Spiegel und Fernseher
• Modifizierter Oger
5.2. Implementierung der einzelnen
Systemkomponenten
Im Folgenden wird die Implementierung einzelner Komponenten des Systems bezüglich Herausforderungen und Probleme erläutert. Die implementierten Komponenten sind dabei nach den Meilensteinen gegliedert.
5.2.1. Erster Meilenstein
5.2.1.1. Head-Mounted-Display
Die Klasse AttitudeSensor ist Bestandteil der Middleware und beinhaltet Komponenten zur Kommunikation der Vuzix Wrap 920 mit der Schicht der Middleware.
In unserer Hauptklasse (M iddleware :: M ain) wird mit Aufruf des Konstruktors
37
Projektgruppe
Virtual Reality
5. Implementierung
eine Instanz des AttitudeSensors erstellt, wobei anschließend ein Thread gestartet wird, der kontinuierlich die Ausrichtung der Brille, also die Lage des Kopfes,
bestimmt. Über die Middleware ist somit jederzeit die Kopfposition abrufbar.
Die Klasse AttitudeSensor beinhaltet Programmcode für Win32- und Linux-Systeme.
Bei der Entwicklung sind wir auf das Problem gestoßen, dass die bisherigen LinuxTreiber nur das Vorgängermodell Vuzix VR 920, nicht jedoch die von uns genutzte Vuzix Wrap 920 unterstützen. Unsere falsche Annahme der Kompatibilität
des Treibers mit der Vuzix Wrap 920 beruht auf einer fehlerhaften Beschreibung
auf der Vuzix-Homepage. Diese irreführende Beschreibung wurde erst nach unserem Erhalt der Brille korrigiert. Aus diesem Grund wurde manuell eine LinuxUnterstützung von uns implementiert. Die Inkompatibilität des alten Treibers mit
dem neuen Modell beruht auf einem neu entwickelten Bewegungssensor, der 6 anstatt 3 Freiheitsgrade bietet und die Messdaten in anderer Reihenfolge über den
USB-Port kodiert. Dies wird von uns entsprechend angepasst, um unser Ziel der
Plattformunabhängigkeit zu erreichen.
Unter Windows werden die Messdaten der Vuzix Wrap 920 korrekt an die Middleware übertragen. Jedoch muss die Brille über den Vuzixmanager abseits unserer Softwareumgebung kalibriert werden, da die Funktion der Kalibrierung im
von Vuzix gelieferten Windows-Treiber nicht implementiert wurde. Die Roll- und
Pitch-Rohdaten werden vom Lagesensor ermittelt und vom Treiber direkt verarbeitet. Die Yaw-Werte (Links-Rechts-Drehung) werden über ein Gyroskop ermittelt
und über die Daten des Magnetfeldsensors permanent abgeglichen (IWRSetMagAutoCorrect), um die Richtungsabweichungen des Gyrometers zu kompensieren
(Norden bleibt dauerhaft Norden).
Tests haben weiterhin ergeben, dass die X,Y,Z-Daten des Lagesensors zur Bestimmung der Position im Raum für unser Projekt nicht verwendbar sind, da sie keine
hinreichend genauen Werte liefern, sondern sich nur Informationen über die Laufrichtung ableiten lassen. Daher werden von der AttitudeSensor.cpp nur die Yaw-,
Roll- und Pitch-Daten an das Frontend übergeben.
Für das Auslesen der Daten von der Vuzix 3D-Brille sind unter Windows folgende
Schritte notwendig:
38
Projektgruppe
Virtual Reality
5. Implementierung
1. Starten einer Trackersession:
DWORD IWROpenTracker (void)
2. Schließen einer Trackersession:
void IWRCloseTracker (void)
3. Kalibrierungsdaten des iWear-Monitors holen:
void IWRGetVersion(IWRVERSION *ver)
4. Ausgangsblickrichtung festlegen:
void IWRZeroSet (void)
5. Daten vom Tracker holen:
DWORD IWRGetTracking (LONG * yaw, LONG * pitch, LONG * roll)
6. Für die Bestimmung der Position im Raum 6-dimensionale Daten vom Tracker
holen:
DWORD IWRGet6DTracking(LONG *yaw, LONG *pitch, LONG *roll, LONG
*xtrn, LONG *ytrn, LONG *ztrn)
Drei Datenströme stehen durch die 3D-Brille zur Verfügung:
• Pitch: Vertikale Neigung der Kopfes
• Yaw: Drehung der Kopfes
• Roll: Horizontale Neigung des Kopfes
Für die Veranschaulichung der verwendeten Parameter siehe Abbildung 5.1
39
Projektgruppe
Virtual Reality
5. Implementierung
Abbildung 5.1.: Lagesensorparameter
5.2.1.2. Darstellung der Kinect-Skelett-Daten durch eine Figur in der
Engine
Dieser Teil der Implementierung bezieht sich zum einen auf die benötigten Funktionen in der Middleware und die dazugehörigen angebotenen Schnittstellen (M iddleware ::
M ain), zum anderen auf die Repräsentation im Frontend.
Die Middleware stellt dem Anwendungsprogrammierer die Funktion getSkeleton
zur Verfügung. Dabei soll der Anwendungsprogrammierer insbesondere auf die manuelle Initialisierung der Hardware und der Treiber verzichten können. Nachdem
im Anwendungsprogramm eine Instanz der Klasse M iddleware :: M ain erzeugt
wurde, können über die getSkeleton-Funktion einfach die aktuellen Skelettdaten
geholt werden. Die Skelettdaten bestehen aus einem 24 Elemente großen Array
des Types M iddleware :: KinectW rapper :: Joint. Ein solches Gelenk hat eine
Position sowie eine Orientierung (Rotationsmatrix). Um auf die einzelnen Elemente des Feldes zugreifen zu können, muss der Anwendungsprogrammierer natürlich wissen, welcher Index welchem Gelenk zugeordnet ist. Dies ist im Enum
M iddleware :: KinectW rapper :: Joints dokumentiert. Wichtig zu beachten ist
hierbei, dass die Joints wie im verwendeten OpenNI-Framework nicht von 0 bis 23
numeriert sind, wie für die Feld-Indizes anzunehmen wäre, sondern von 1 bis 24.
Daher muss von den Werten aus dem Enum jeweils 1 subtrahiert werden!
40
Projektgruppe
Virtual Reality
5. Implementierung
In der Middleware selbst wurde der Zugriff auf drei Ebenen verteilt:
Main Schnittstelle nach außen, zentrale Verwaltung aller Aspekte der Middleware
KinectAbstraction Zugriff auf Kinect oder ähnliche Geräte in abstrakter Form,
Bindeglied zwischen Main und Hardware-Treiber
OpenNIConnector Zugriff auf Kinect-Hardware-Treiber/Framework OpenNI
Durch diese Trennung soll erreicht werden, dass der Zugriff auf verschiedenartige
Hardware mit verschiedenen Treiberanbindungen ohne viel Aufwand ermöglicht
werden kann.
Der eigentliche Schritt der Kommunikation mit dem Kinect-Framework OpenNI
findet in der Klasse OpenN IConnector statt. Hierbei wird zunächst in der initMethode ein OpenNI-Kontext erzeugt, sowie alle nötigen Aufrufe getätigt, um
einen Benutzer zu erkennen und dessen Skelettdatenerkennung auf ihn zu kalibrieren. In der zentralen Methode OpenN IConnector :: getSkeleton werden die
Skelettdaten vom OpenNI-Framework geholt und in ein Array verpackt.
41
Projektgruppe
Virtual Reality
5. Implementierung
Abbildung 5.2.: Darstellung der Skelettdaten in Ogre3d
Zur Darstellung der Skelettdaten in der Beispielanwendung wurde eine modifizierte Fantasy-Gestalt in Form eines hautfarbenen Ogers (siehe Abb. 5.2) gewählt.
Diese liegt als objekthierarchisch modelliertes 3D-Modell vor, so dass die einzelnen
Gelenke mit Rotationsdaten des aus den Daten der Kinect gewonnenen Skelettes
gedreht werden können. Dieses Vorgehen findet im
SinbadCharacterController statt.
5.2.1.3. Build-Skript
Aufgrund seiner schnellen Anpassungsfähigkeit an unterschiedliche Plattformen
entschieden wir uns für das plattformunabhängige Programmierwerkzeug „CMake“. CMake bietet eine Vielfalt an Optionen, die das Kompilieren von Quellcode für
42
Projektgruppe
Virtual Reality
5. Implementierung
unterschiedliche Plattformen und Entwicklungsumgebungen wie z. B. Visual Studio auf einfache Weise ermöglicht. Weitergehend kann im Build-Skript die Art der
zu kompilierenden Anwendung festgelegt werden, die bestimmt ob eine ausführbare Datei oder lediglich eine statische oder dynamische Bibliothek erstellt werden
soll. Sourcedateien und Headerdateien, sowie Abhängigkeiten von anderen Bibliotheken werden auch im Build-Skript beschrieben. Dem Anwender wird dadurch
die Arbeit erspart in Visual Studio oder unter Unix alle Bibliotheken manuell zu
linken.
In unserem Build-Skript unterscheiden wir zwischen 32-Bit-Anwendungen unter
Windows für Visual Studio 10 und 32-Bit-Anwendungen unter Linux-Distributionen.
Weitergehend wurde für beide Plattformen ein automatisches Build-Skript konzipiert, durch dessen Ausführung sämtliche Teilprojekte, die für eine Benutzung
der Middleware unentbehrlich sind, kompiliert werden. Durch diese Funktionalität muss der Middleware-Benutzer nur die Bibliothek der Middleware linken. Das
Kompilieren der Middleware setzt jedoch voraus, dass die in Abschnitt A.2 erläuterten Abhängigkeiten installiert wurden.
5.2.2. Zweiter Meilenstein
5.2.2.1. Szenenverwaltung
Zur Erstellung und Laden einer Szene wird das im OGRE 3D Umfeld gebräuchliche DotScene-Format verwendet. Das DotScene-Format basiert auf XML. Für das
Modellierungs- und Animationswerkzeug Blender, das im Rahmen der Entwicklung als Standardwerkzeug festgelegt wurde, existiert ein entsprechendes ExportPlugin. Mithilfe des Plugins kann eine in Blender erstellte Szene im DotSceneFormat gespeichert werden. Die Möglichkeit die Szene im DotScene-Format zu
laden ist jedoch nicht standardgemäß in der gegenwärtigen OGRE 3D Version gegeben, sodass diese Funktionalität eigens implementiert wurde. Für die Funktionalität wurde die Klasse DotSceneLoader als Singleton implementiert. Die Klasse
ist in der Lage eine angegebene DotScene-Datei zu laden und diese an eine bereits
vorhandene SceneNode anzuhängen.
43
Projektgruppe
Virtual Reality
5. Implementierung
5.2.2.2. Sound-Subsystem
Im Rahmen der Anwendung, die mithilfe der Grafikengine OGRE 3D entwickelt
wird, muss ferner ein Sound-Subsystem implementiert werden, da die Funktionalität für Geräusch und Musikwiedergabe nicht gegeben ist - jedoch von den
Anforderungen an die Anwendung formuliert wird. Das Sound-Subsystem muss
zur Erfüllung der Anforderungen verschiedene, hier nochmal wiederholte, Funktionalitäten anbieten. Die Basisfunktionalitäten beziehen sich auf die Geräuschwiedergabe. Dabei soll der freie Audio-Codec OGG Vorbis zur Datenspeicherung
der Audiodaten dienen. Die Geräusche sollen über eine API des Sound-Subsystems
angelegt, abgespielt, gestoppt und pausiert werden können. Aufbauend auf diesen
Kernfunktionalitäten soll es ferner möglich sein Raumklang zu simulieren. Mithilfe des Raumklangs soll die Grundlage dafür geschaffen werden, dass der Anwender Geräusche in der virtuellen Umgebung orten kann. Für die Erfüllung der,
hier nochmals wiederholten, Anforderungen wird die plattformunabhängige Sound
API OpenAL und die OGG Vorbis Bibliothek benutzt. Aufbauend auf diesen Abhängigkeiten für die Anwendungen wird das Sound-Subsystem den Rahmenbedingungen entsprechend entwickelt. Dabei soll neben den Funktionalitäten auch eine
Interoperabilität mit dem Scripting-Subsystem und der Grafikengine OGRE 3D
gewährleistet werden.
Nachfolgend soll die Modellierung des Sound-Subsystems veranschaulicht werden.
Dafür werden zunächst die wichtigen Klassen genannt und deren Aufgaben geschildert. Die Klasse SoundManager kapselt die angesprochenen Kernfunktionalitäten,
beispielsweise Laden, Abspielen und Stoppen, die durch OpenAL und die OGG
Vorbis Bibliothek realisiert werden können. Der SoundManager ist als Singleton
realisiert, dementsprechend gibt es nur ein Objekt dieser Klasse. Um die Interoperabilität mit dem Scripting-Subsystem und der Grafikengine OGRE 3D wird
auf Grundlage des SoundManagers auch eine objektorientierte Repräsentation von
Geräuschen angeboten, s.d. ein Geräusch durch ein Objekt der Klasse Sound verwendet werden kann. Zur Erstellung von Sound-Objekten wird die Klasse SoundFactory verwendet, die über den SoundManager angefordert werden kann. Die
SoundFactory konstruiert Sound Objekte, deren öffentliche Methoden die Kern-
44
Projektgruppe
Virtual Reality
5. Implementierung
funktionalitäten wiederspiegeln. Die Sound Objekte kommunizieren intern mit dem
SoundManager, der, wie bereits erörtert, für die interne Verwaltung mit OpenAL
zuständig ist.
Für die Entwicklung und die Beseitigung von Fehlern ist eine grafische Repräsentation für Geräusche erstrebenswert. Die Grafikengine OGRE 3D verwendet die
Technik eines Szenengraphens, um die anzuzeigenden Objekte als SceneNodes zu
verwalten. Eine SceneNode beinhaltet die notwendigen Informationen für die grafische Repräsentation. Die angesprochenen Sound-Objekte werden zum Zweck der
Repräsentation und Verwaltung im Szenengraphen um Sound-Nodes erweitert. Die
Repräsentation wird bei der Erstellung der Sound-Objekten über die SoundFactory
der Geräuschkonfiguration entsprechend angepasst.
Bei der Translokation und Veränderung der Orientierung der Geräuschquelle im
Szenengraphen (der Sound-Node) soll eine automatische Aktualisierung der Position und Orientierung auf den Sound-Objekten und transitiv auf dem SoundManager für das entsprechende Geräusch stattfinden. Diese Modellierung ermöglicht
eine Gleichbehandlung der grafischen 3D-Modelle und der Geräuschquellen. Das
Skripting-Subsystem soll als Werkzeug für den szenischen Ablauf während des
Aufenthaltes in der virtuellen Umgebung dienen. Für die Erstellung eines szenischen Ablaufs muss dementsprechend auch die Translokation und Orientierung von
3D-Modellen und Geräuschquellen möglich sein. Durch die bereits angesprochene Gleichbehandlung von 3D-Modellen und Geräuschquellen wird dieser Verwaltungsaufwand minimiert und eine Interoperabilität mit dem Skripting-Subsystem
gewährleistet.
5.2.2.3. Stereoskopische Ansicht (stereoPlugin)
Die stereoskopische Ansicht in der OGRE 3D-Engine wird über ein 3D-Plugin
für OGRE 1.7 realisiert. Das Plugin erlaubt das Setzen von zwei Viewpoints und
ermöglicht Anpassungen der Parameter Augenabstand und Tiefeneffekt. Das Plugin rechnet anhand der Viewpoints die Ausgabe wahlweise in ein Anaglyphenbild
(Rot/Grün-Überlagerung / Stereogramm) um oder rendert zwei seperate Views,
die nebeneinander dargestellt werden. Für die verwendete Vuzix 920 kommt die
45
Projektgruppe
Virtual Reality
5. Implementierung
zweite Methode zum Einsatz. Die Implementierung einer Zeitmultiplex-Methode
ist durch die zwei Displays in der Videobrille nicht nötig.
5.2.2.4. Posen
Das Abbilden der Körperbewegung auf einen virtuellen Avatar birgt für den Benutzer bereits interessante Erlebnisse. Bewegung in der virtuellen Umgebung gibt
dem Benutzer theoretisch alle Interaktionsmöglichkeinen wie die wirkliche Welt.
Allerdings fehlen die Eingabegeräte, wie Maus und Tastatur, die für einen PC typisch sind. Um diese Eingabegeräte elegant nachzubilden, wurde der Middleware
Posen- und Gestenerkennung hinzugefügt.
Durch die flächendeckende Verbreitung von Touchscreens, sind Benutzer an die
Bedienung von technischen Geräten durch Gesten gewöhnt. Ein grundsätzlicher
Unterschied zwischen Gesten die auf Touchscreens gezeichnet werden und Gesten
die durch den Körper dargestellt werden ist die dritte Dimension, dies macht die
Erkennung der richtigen Geste um ein vielfaches schwerer. Im Folgenden wird die
Posenerkennung beschrieben, die im Rahmen des zweiten Meilensteins implementiert wurde.
Posen werden erkannt, indem einzelne Gelenke mit vordefinierten Transformationen verglichen werden. Da OpenNI in Verbindung mit NITE alle Transformationsinformationen über die Gelenke des verfolgten Benutzers liefert, kann diese
Überprüfung leicht durchgeführt werden.
Damit ein Programmierer bei Nutzung der entwickelten Middleware einfach Posen
definieren kann und beim Auftreten einer Pose ein Ereignis ausgelöst wird, kam das
Observer -Entwurfsmuster zum Einsatz. Bei diesem implementiert eine Klasse das
Interface Middleware::Observer und die Methode notify. Nun kann die Klasse eine
Pose in Form eines Middleware::PoseEvent erzeugen und sich bei der Middleware
mit diesem mit der Methode registerPose „anmelden“. Beim Auftreten einer Pose
ruft die Middleware die notify-Methode auf und übergibt diesem das aufgetretene
PoseEvent.
Eine Pose wird wie folgt überprüft:
46
Projektgruppe
Virtual Reality
5. Implementierung
1. Transformationsinformationen des Skelettes abrufen.
2. Für alle Posen werden alle definierten Gelenke überprüft. Bei der Überprüfung eines Gelenkes, werden die drei Vektoren, die die Orientierung im Raum
definieren, mit den für die Pose festgelegten Orientierungsvektoren verglichen.
3. Wenn eine Pose für einen definierte Zeit eingenommen wird, wird im angemeldeten Observer-Objekt ein Ereignis ausgelöst, indem die notify-Methode
aufgerufen wird
4. Das Observer-Objekt reagiert anhand der übergebenen PoseEvent-ID.
5.2.3. Dritter Meilenstein
5.2.3.1. Exceptions
In unserem Projekt exisitieren drei Arten von Exceptions:
• AttitudeSensorException
• MiddlewareException
• SoundException (FrontEnd)
Die AttitudeSensorException enthält Fehlermeldungen, die die Vuzix 3D-Brille
betreffen. In der MiddlewareExceptions werden Fehlermeldungen gehalten, die die
Middleware betreffen, z. B. dass die Microsoft nicht verbunden oder kalibriert ist.
Weiterhin enthält die Soundexception aus dem FrontEnd Fehlermeldungen, die
den Sound betreffen. Beispielsweise, wenn ein Soundfile nicht geladen oder die Soundschnittstelle nicht gefunden werden kann.
Durch die Verwendung von try-catch-Blöcken werden so Fehler abgefangen und
ggf. werden Exceptions geworfen bzw. an eine höhere Hierarchieebene weitergegeben.
47
Projektgruppe
Virtual Reality
5. Implementierung
5.2.3.2. Gestenerkennung
Im Gegensatz zu den in 5.2.2.4 beschriebenen statischen Posen sind Gesten dynamischer Natur: Durch Bewegungen des Anwenders werden Ereignisse ausgelöst.
Dies kann zum Beispiel das Ziehen eines Schwertes durch eine intuitive Bewegung
umfassen oder das Aufrufen eines Menüs durch eine Click-Geste. Während bei den
Posen statisch vordefinierte Eigenschaften eines oder mehrerer Gelenke mit dem
aktuellen Skelett verglichen werden, werden bei der entwickelten Gestensteuerung
Bewegungen der einzelnen Gelenke betrachtet. Diese können sich entweder in der
Position oder in einem Winkel verändern.
Das verwendete Framework zur Nutzung der Kinect liefert zwar eine eigene Gestenerkennung mit, welche aber schwer zu verwenden ist. Wir haben uns daher für
eine eigene Gestensteuerung entschieden, welche sehr einfach zu verwenden ist und
der einer einfachen Implementierung zu Grunde liegt.
Die zentrale Komponente der Gestenerkennung ist der GestureM anager. Die
Hauptkomponente der Middleware (M iddleware :: M ain) ruft als Thread die
Methode work des GestureM anagers auf und übergibt dieser als Argument das
aktuelle Skelett des Benutzers. Jede Geste wird in einem Zustandsautomaten erkannt. Dieser wird jeweils durch Transistionen definiert, die entweder eine Gelenkwinkeländerung oder eine Positionsänderung beschreiben. Diese Änderungen
werden mit einer bestimmten Geschwindigkeit und einer Timeout-Zeit angegeben.
Die Überprüfung findet anhand der Änderungen der Skelettdaten statt.
5.2.3.3. Linuxtreiber der Vuzix-Brille
Für die verwendete stereoskopische Videobrille mit Lagesensor wird ein Treiber
und SDK nur für Microsoft Windows mitgeliefert. Für andere System wie Linux
kann die stereoskopische Ausgabe per VGA zwar ohne weiteres verwendet werden,
die Nutzung des Lagesensors ist aber nicht ohne weiteres möglich. Es ist zwar
ein Linux-Treiber für eine ältere Brille von Vuzix frei verfügbar, welcher aber für
die vorliegende Brille nicht funktioniert. Da wir unsere Middleware plattformunabhängig konzipiert haben und diese also auch unter Linux-Systemen lauffähig
48
Projektgruppe
Virtual Reality
5. Implementierung
sein sollte, musste ein eigener Treiber programmiert werden. Das Verhalten des
Originaltreibers diente als Vorbild für unseren Treiber, sodass die Middleware sich
unter Windows und Linux nach außen gleich verhält.
Zunächst stellte sich die Frage, wie die Daten der Brille, welche per USB an den
Computer angeschlossen wird, am besten auszulesen sind. Der erste Ansatz war
hier die Nutzung von libusb. Allerdings hat es sich hier als einfacher erwiesen, das
Gerät als Human Interface Device (HID) anzusprechen, da aktuelle Versionen des
Linux-Kernels die Brille sofort als solches erkennen. Die Verwendung eines HID in
eigenen Programmen gestaltet sich so einfach wie das Auslesen einer Datei.
Als nächstes muss man nun wissen, wie die Datenpakete der Brille beschaffen sind.
Anhand des Windows-Treibers des Herstellers1 konnte das Format und der Bereich
der Sensorwerte, welche als Rohdaten von der Hardware ausgelesen werden, festgestellt werden:
3 mal 2 Byte Magnetsensor x,y,z
3 mal 2 Byte Beschleunigungssensor x,y,z
3 mal 2 Byte High Bandwidth Gyroskop x,y,z
3 mal 2 Byte Low Bandwidth Gyroskop x,y,z
Dabei haben wir festgestellt, dass die ersten zwei Bytes der Daten von der Brille
nicht zu berücksichtigen sind, sondern beim Auslesen ein Offset von 2 zu benutzen
ist. Des Weiteren sind die Byte-Paare für die einzelnen Sensorwerte so geordnet,
dass das niederwertige Byte jeweils als erstes im Speicher liegt und als zweites das
höherwertige.
Für die Berechnung von Winkeln aus den Sensordaten müssen diese zunächst kalibriert werden. Die Kalibrierung stellt den minimalen und maximalen Wert jedes
Sensors fest. Der wahrgenommene Wertebereich kann je nach physikalischer Umgebung verschieden sein. Dies umfasst zum einen das Magnetfeld in der Umgebung,
die Erdbeschleunigung am aktuellen Ort und die Ruhedaten des Gyroskops. Die
Kalibrierungsdaten werden in einer Konfigurationsdatei abgespeichert und können
1
http://www.vuzix.com/UKSITE/support/downloads_drivers.html
49
Projektgruppe
Virtual Reality
5. Implementierung
zu einem späteren Zeitpunkt wiederverwendet werden. Soll das System an einem
anderen Ort betrieben werden, muss lediglich die Konfigurationsdatei attitudesensor.conf gelöscht werden.
Wie im originalen Windows-Treiber wurden bei der Berechnung des Pitch-Winkels
sowohl Beschleunigungssensor (im Vuzix-Handbuch „accelerometer“ genannt) als
auch Gyroskop verwendet. Hierbei wurde insbesondere überprüft, dass beide Werte auf plausible Weise zusammenpassen. Prinzipiell liefert das Gyroskop bessere
Ergebnisse, da es sehr gut die Bewegungen des Benutzers überträgt, dabei sehr
präzise ist und im Gegensatz zum Beschleunigungssensor nicht „zittert“ bzw. verrauschte Daten liefert. Allerdings besteht das Problem, dass das Gyroskop eine gewisse Trägheit aufweist und sich so mitunter große Fehler ergeben. Daher werden
diese mit dem Pitch-Wert, der aus den Daten des Beschleunigungssensors berechnet wird auf Plausibilität überprüft und gegebenenfalls korrigiert. Die Berechnung
des Pitch-Winkels des Beschleunigungssensors erfolgt als
pitch = atan2(sqrt(x2 + z 2 ), y)
wobei x,y,z die Sensorwerte sind. Da die Daten vom Beschleunigungssensors ein gewisses „Zittern“ aufweisen, haben wir eine Glättungsfunktion mit einem Ringpuffer
und einer geometrischen Reihe als Gewichtungsvorschrift gemessener Werte umgesetzt, sodass die vom Treiber berechneten Winkel auf den Benutzer nicht „ruckelig“,
sondern sehr natürlich und angenehm wirken. Mit diesem Verfahren werden sehr
gute Ergebnisse erzielt, welche mit dem Original-Treiber zu vergleichen sind. Der
Roll-Winkel wird analog zum Pitch berechnet.
Der Yaw-Winkel wurde ebenfalls wie im Originaltreiber berechnet: Hier dient das
Gyroskop als Grundlage. Die Daten werden im Gegensatz zum Pitch mit den
Magnetsensordaten korrigiert.
Es ist geplant, den Treiber auch separat unter einer freien Lizenz zu veröffentlichen,
sodass dieser uneingeschränkt benutzt und erweitert werden kann.
50
Projektgruppe
Virtual Reality
5. Implementierung
5.2.3.4. Bereiststellung des Zustandes der Middleware
Für die Überwachung des Zustands der Middleware existieren drei statische boolsche Variablen.
• static bool M ain :: isCalibrated
Diese Variable gibt an, ob eine Person kalibriert wurde.
• static bool M ain :: vuzixConnected
Diese Variable gibt an, ob die Vuzix 3D-Brille verbunden ist.
• static bool M ain :: kinectConnected
Diese Variable gibt an, ob die Microsoft Kinect verbunden ist.
Mit jedem Frameupdate wird die statische Variable für die Vuzix 3D-Brille abgefragt und ggf. wird anschließend der Blickwinkel angepasst, sofern der Lagesensor
der 3D-Brille verwendet werden soll.
Weitergehend prüft das FrontEnd, ob sich eine Person kalibriert hat und holt sich
ggf. dann das Skelett der kalibrierten Person, um es auf den Charakter zu übertragen.
Der Zustand des Frontends ist somit abhängig vom Zustand der Middleware. In
Abb. 5.3 ist ein Zustandsdiagramm für die Middleware zu sehen.
Abbildung 5.3.: Zustandsdiagramm der Middleware
51
Projektgruppe
Virtual Reality
5. Implementierung
5.2.3.5. Licht und Schatten
Die verwendete 3d-Engine Ogre3D unterstützt Shadow Mapping (über die fixed
pipeline) oder Stencil Volume Shadows. Das Shadow Mapping-Verfahren ist in
Ogre3D fehlerhaft implementiert: Es werden nicht nur Schatten auf den eigentlichen Receiver geworfen sondern auch auf Objekte, die sich zwischen Lichtquelle
und schattenwerfendem Objekt befinden. Des Weiteren besteht der Nachteil, dass
Ogre3D beim Shadow Mapping die Occluder und Receiver in disjunkte Mengen
einteilt, sodass sich Objekte nicht selbst beschatten können. Dies ist für eine heutige 3D-Anwendung mit dem Ziel einer möglichst realistischen Darstellung nicht
akzeptabel.
Die Shadow Volumes hingegen funktionieren einwandfrei, fordern allerdings gemäß
dem Shadow Volumes-Verfahren geschlossene Geometrie für alle Schattenwerfer.
Große Teile der Szene lagen jedoch nicht als solche vor. Des Weiteren wurde festgestellt, dass sich das Verfahren bei vielen Schattenwerfern negativ auf die Performance auswirkt. Aus diesen Gründen wurde die dynamische Schattierungsberechnung nur für den Character (Spielerfigur) als Occluder durchgeführt, da dieser
meist der einzige bewegte Bestandteil der Szene ist.
Die statischen Objekte wurden hingegen mit Lightmaps vorberechnet, welche realistische weiche Schatten liefern. Da die Erstellung der Szene bereits mit Blender
erfolgte, sollte auch die Erstellung von Lightmaps mit Blender getätigt werden.
Voraussetzung für gelungene Lightmaps ist die identische Positionierung der Lichtquelle in Blender und im Frontend. Die Berechnung einer Lightmap für das betrachtete Objekt benötigt lediglich zwei UV-Maps. Eine der beiden UV-Maps dient der
Texturierung des statischen Objekts. Die andere dient als Overlay für die Textur.
Dieses Overlay beinhaltet die berechnete Lightmap. Man wählt also die Textur,
die das Objekt haben soll, wählt dann die zweite UV-Map und lässt die Lightmap
auf diese UV-Map projizieren. Dazu wählt man den Layer mit der Lightquelle und
alle Layer, die einen Schatten auf das Objekt werfen sollen, aus. Dann erfolgt die
Berechnung der Lightmap, die dann im Normalfall als gestückelte Textur auf der
UV-Map erscheint. Die berechnete Lightmap kann anschliessend als Bild gespeichert werden, so dass beim erneuten Öffnen der Szene keine erneute Berechnungen
52
Projektgruppe
Virtual Reality
5. Implementierung
erforderlich ist. Dieser Vorgang musste für jedes statische Objekt aus der Szene,
das einen Schatten aufnehmen soll, durchgeführt werden. Anschließend konnte die
Szene zu Ogre3D exportiert werden.
5.2.3.6. Spiegel und Fernseher
Für das Erreichen einer intensiveren Immersion wurde zusätzlich ein Spiegel mit
Ogre3D in die Szene integriert. Dieser Spiegel bzw. die dahinter stehende Mathematik orientiert sich an der Dokumentation „Lerne OpenGL mit GL_Sourcerer“,
wobei Teile des Sourcecodes von Java in C++ umgesetzt wurden.
Die richtige Projektion des Spiegels auf die Spiegeloberfläche setzt den richtigen
Umgang mit der Viewmatrix voraus.
Das Vorgehen bei der der Berechnung des Spiegels geht wie folgt vonstatten: Drei
Eckpunkte des erstellten Spiegelobjekts (hier ein flacher Würfel, der die Maße des
Spiegels aufweisen soll) werden ermittelt. So kann später das Spiegelbild in der korrekten Skalierung dargestellt werden. Anschließend wird die Position der virtuellen
Kamera ermittelt, die das Bild aufnimmt welches später auf den Spiegel projiziert
werden soll. Für gewöhnlich befindet sich diese Kamera hinter dem Spiegel und
nimmt das Umfeld vor dem Spiegel auf. Mit den Berechnungsmethoden aus „Lerne OpenGL mit GL_Sourcerer“ wird der im Spiegel gezeigte Bereich berechnet.
Die Viewmatrix wird also dadurch angepasst. Das Frustum, die Nearplane und die
Farplane werden je nach Position des Betrachters, der in den Spiegel schaut, angepasst. Auf den mathematischen Hintergrund wird hier nicht weiter eingegangen.
Sind alle nötigen Berechnungen abgeschlossen, so kann das Spiegelbild gemäß der
Viewmatrix aufgenommen werden. Abschließend wird das erhaltene Bild mit der
Methode RTT (Render To Texture) in jedem Frame auf das erstellte Spiegelobjekt
projiziert.
Der Fernseher funktioniert ähnlich, nur dass dort keine Veränderung der Position vorgenommen wird. Das Kamerabild, welches der Fernseher zeigt, wird von
einer statischen Kamera aufgenommen. Das bedeutet, dass sich der Blickwinkel
in keinem Fall ändert. Die Projektion des Fernsehbildes wird wiederum mit der
RTT-Methode verabschiedet.
53
Projektgruppe
Virtual Reality
5. Implementierung
5.2.3.7. Modifizierter Oger
Aufgrund des Aussehens des in Ogre3D integrierten Ogers sollte das Äußere des
Ogers so angepasst werden, dass er menschlicher erscheint. Es existierte bereits eine
angelegte Datei in Blender, der den Oger enthielt. Mit einem Bildbearbeitungsprogramm wurde die Textur angepasst, so dass der Oger nicht mehr grün, sondern in
menschlicher Hautfarbe erscheint. Außerdem wurden die Armreifen sowie Nieten
und die Schwerter entfernt. Zum Schluss wurde das Gesicht des Ogers angepasst.
Es wurden die aus dem Kiefer ragenden Zähne entfernt und das Gesicht wurde
verformt, so dass es menschlicher aussieht. Das Verformen von Objekten erfolgte
mit Blender im Sculpt Mode. In Abbildung 5.4 ist das Ergebnis zu sehen.
Abbildung 5.4.: links: Oger von Ogre 3D, rechts: modifizierter Oger
5.2.3.8. Scripting
Die Möglichkeit zur Interaktion mit der virtuellen Welt ist ein integraler Part, um
Immersion zu erreichen. Eine interaktive Welt zu realisieren ist mit einem nicht zu
vernachlässigenden Aufwand verbunden, insbesondere die einzelnen Interaktionen
direkt in C++ zu implementieren.
Dieser Aufwand lässt sich auf lange Sicht durch den Einsatz einer Scripting-Sprache
umgehen. Die Scripting-Sprache wird zur Ausführungszeit interpretiert. Das hat
54
Projektgruppe
Virtual Reality
5. Implementierung
den Vorteil, dass maximal ein Neustart der Anwendung vonnöten ist, um Veränderungen im Script sichtbar zu machen.
Im Zuge unserer Einarbeitung in die Thematik stellten sich zwei Sprachen als mögliche Alternativen heraus: Zum einem Python, eine stark verbreitete ScriptingSprache, zum anderen Lua, eine Sprache, die insbesondere Verbreitung in der
Computerspiele-Brache gefunden hat. Die Wahl viel auf Lua, aufgrund der einfacheren Integration. Um Lua zu integrieren, musste lediglich ein Header eingebunden, sowie ein Objekt auf dem Stack mit der Script-Datei erzeugt werden. Die
Einbindung von Python wäre über ein Boost-Paket erfolgt, dessen Kompilierung
bereits die ersten Schwierigkeiten bereitete.
Das Scripting ist äußerst eng mit der Physik-Engine verbunden. Diese Verbindung
beruht darauf, dass die Physik-Engine beim Feststellen von Kollisionen zwischen
zwei Objekten bei beiden Objekten ein Event auslöst. Die Objekte leiten dieses
Kollisions-Event letztendlich an ein Script weiter, das genau für diesen Zweck dem
Objekt zugewiesen wurde.
5.2.3.9. Kollision
Wie das Scripting, trägt auch die physische Interaktion mit der Welt stark zum
Immersionsgefühl bei. Da die von uns verwendete Grafik-Engine keine eigene Kollisionserkennung bietet, mussten wir eine eigene Lösung erstellen bzw. eine externe
Lösung einbinden.
Aufgrund von kleineren Test-Projekten erwies sich ODE als geeignetere Wahl. Zur
Auswahl stand ebenfalls die Bibliothek Bullet. Von der Entwicklung einer eigenen
Physik-Engine wurde aufgrund des großen Zeitaufwands abgesehen.
Bei der Integration von ODE kam es zu einigen Problemen. Zum Beispiel das interne Mesh-Format von OGRE 3D nach ODE zu konvertieren. Der Grund hierfür war
zum einen, dass OGRE 3D den Mesh in sogenannte Sub-Meshes aufteilen kann.
ODE tut dies nicht. Zum anderen verwenden OGRE 3D und ODE unterschiedliche Koordinatensysteme. OGRE 3D benutzt Quantoren, ODE benutzt hingegen
einfache Vektoren. Als weitaus größtes Problem erwies sich die Ungenauigkeit von
55
Projektgruppe
Virtual Reality
5. Implementierung
ODE für Fälle, in denen die Step-Intervals2 Schritte nicht gleichmäßig sind. Diese
Ungenauigkeit führte dazu, dass Objekte, die bereits zum Stillstand gekommen
waren, ohne jeden Grund anfingen sich zu bewegen. Diese Eigenschaft zerstörte
das Immersionsgefühl vollständig. Aus diesem Grund ist die Physikberechnung in
der zur Evaluation genutzten Version nicht aktiviert.
2
Physik-Engines simulieren die Welt in diskreten Schritten, diese Schritte nennt man gemeinhin
auch Step-Intervals.
56
Projektgruppe
Virtual Reality
6. Testen
6. Testen
Um die Funktionalität der einzelnen Programm-Komponenten zu gewährleisten
sind Unittests zu einer unausweichlichen Notwendigkeit geworden. Die Middleware
libpgvr nutzt daher eine geeignete Software ausführlich.
6.1. C++ Unittest-Frameworks
Für die Middleware wurde als Programmiersprache C++ gewählt, somit stehen
eine Vielzahl von Unittest-Frameworks zu Verfügung. Um ein geeignetes UnittestFramework auszuwählen, müssen bestimmte Kriterien gegeneinander abgewogen
werden. Folgende Kriterien erschienen uns besonders relevant.
Einfache Nutzung ist als das wichtiges Kriterium bei der Auswahl des Frameworks zu betrachten.
Einfache Integration spielt ebenso ein wichtige Rolle, da der Zeitaufwand bis das
Framework zur Verfügung steht möglichst gering sein soll.
Anpassbarkeit erlaubt es das Unittest-Framework an bestimmt noch nicht abgedeckte Bedürfnisse anzupassen.
In die engere Auswahl kamen Boost Testing Library, CppUnit sowie TestDog. Obwohl CppUnit, von der von uns genutzten Grafikengine Ogre verwendet wird, kam
es aufgrund seiner Komplexität nicht in die engere Auswahl. Die Wahl fiel auf
TestDog, da es einfach zu benutzen ist und die Integration einfacher ausfiel als die
von Boost Testing Library.
57
Projektgruppe
Virtual Reality
6. Testen
6.2. TestDog
Kurz nach Beginn der Nutzung von TestDog, wurde das Projekt eingestellt. Der
Internet-Auftritt des Projekts wurde ebenfalls entfernt. 1 Da das Build-Management
von TestDog auf einer handgeschrieben Makefile basierte, wurde kurzerhand eine
CMakeFile für TestDog erstellt.
6.3. Ziele und Vorgehensweise
Das Unittest-Framework wurde eingeführt mit dem Ziel, für alle testbare Funktionen Tests zu erstellen. Eine testbare Funktion ist eine Funktion, deren erfolgreiche
Ausführung, durch einen boolschen Vergleich überprüft werden kann. Ein typischer
Test könnte wie folgt aussehen. 6.1
Listing 6.1: Typischer Test
double angle(const vec3f& a, const vec3f& b) {
double vn = sqrt(pow(a.x, 2) + pow(a.y, 2) + pow(a.z, 2));
double wn = sqrt(pow(b.x, 2) + pow(b.y, 2) + pow(b.z, 2));
double vw = (a.x ∗ b.x) + (a.y ∗ b.y) + (a.z ∗ b.z) ;
double t = vw / (vn ∗ wn);
return acos(t) ∗ 180 / PI;
}
TDOG_TEST_SUITE(PoseEvent0) {
TDOG_TEST_CASE(angleFunction) {
TDOG_SET_AUTHOR("burner");
vec3f a, b;
a.x = 1; a.y = 1; a.z = 0;
b.x = 1; b.y = 0; b.z = 0;
double angleR = angle(a,b);
TDOG_ASSERT_DOUBLE_EQUAL(angleR,45.0,0.1);
a.x = 1; a.y = 0; a.z = 0;
b.x = 1; b.y = 0; b.z = 0;
angleR = angle(a,b);
TDOG_ASSERT_DOUBLE_EQUAL(angleR,0.0,0.1);
a.x = 0; a.y = 1; a.z = 0;
b.x = 1; b.y = 0; b.z = 0;
angleR = angle(a,b);
TDOG_ASSERT_DOUBLE_EQUAL(angleR,90.0,0.1);
}
}
Wie der Name der Funktion suggeriert, berechnet die Funktion den Winkel zwischen zwei Vektoren. Die Aufrufe der Funktion TDOG_ASSERT_DOUBLE_EQUAL
1
URL des TestDog Projektes http://sourceforge.net/projects/test-dog/.
58
Projektgruppe
Virtual Reality
6. Testen
überprüfen in diesem Fall ,ob die zwei übergebenen Floats mit einer Abweichung
von 0.1 übereinstimmen. Ist dies nicht der Fall, wird der TDOG_TEST_CASE
(angleFunction) als fehlgeschlagen markiert. Alle Test-Suits werden in einem TestReport zusammengefasst.
6.4. Code-Review
Im Rahmen des Projektes haben wir aus verschiedenen Gründen ein formelles Code
Review durchgeführt. Dabei handelt es sich um ein analytisches Verfahren, mit dem
wir im Rahmen unserer Qualitätssicherungsmaßnahmen sicherstellen wollten, dass
wir unsere nicht-funktionalen Anforderungen und insbesondere die Code-Qualität
unbedingt einhalten und die uns selbst gesetzen Ziele termingerecht erreichen.
Wir haben durch das Codereview folgende Ziele erreicht:
• Verbesserung der Code-Qualität
• Lesbarkeit
• Wartbarkeit
• Einhaltung von Standards
• Fehleranfälligkeit
• Programmier Fehler auffinden
• Design Fehler auffinden
• Verständnis für fremden Code erhöhen
Es war schon vor dem ersten offiziellen Termin des Code Reviews eine deutliche
Auswirkung des anstehenden Reviews bemerkbar. So wurden viele Fehler kurz
vor dem Review behoben und Programmteile zu modifiziert, dass diese Standards
entsprechen, damit die untersuchenden Personen auf möglichst wenig Probleme
stoßen und ein zügiges Arbeiten ermöglicht wird. Dies wurde sicherlich durch unsere geringe Gruppengröße begünstigt, da durch die kurzen Kommunikationswege
bei Unklarheiten sofort weitere Meinungen eingeholt werden konnten.
59
Projektgruppe
Virtual Reality
6. Testen
Das eigentliche Vorgehen während des Reviews gestaltete sich dabei recht formell
und benötigte einige Zeit an Vorbereitung. Die Projektleitung hat die wichtigsten
Klassen dabei gruppiert und an verschiedene Personen zum Review verteilt. Jede
Person hatte dann eine Woche Zeit die ihm zugeteilten Klassen auf Kriterien hin
zu untersuchen, welche vorher festgelegt wurden.
Die Kriterien umfassten dabei folgende Kategorien, welche sich dann wiederum in
verschiede Unterpunkte unterteilten:
• Allgemeines
• Datendeklarationen
• Definition von Funktionen
• Definition von Klassen
• Datenreferenz
• Berechnungen
• Vergleich
• Steuerfluss
• Fehlerbehandung
• Input / Output
Dabei wurde darauf geachtet, dass niemand Code untersucht, welcher von ihm
selbst erstellt wurde. Nachdem jeder eine Woche Zeit hatte die Kriterien abzuarbeiten, wurde in einer Gruppensitzung noch einmal jeder gefundene Kritikpunkt
diskutiert. Dafür wurde ingesamt ca. ein halber Arbeitstag benötigt. Die gefundenen und akzeptierten Fehler wurden dann an die eigentlichen Autoren zur Verbesserung zurück gegeben und im Laufe des Projektes korrigiert.
Das Code Review hat sich für unsere Gruppe als gute Wahl erwiesen und uns wurde
so die Möglichkeit eröffnet viele Fehler zu beheben, welche sich sonst eventuell zu
einem späteren Projekt Zeitpunkt zu schwierigen und zeitaufwendigen Problemen
60
Projektgruppe
Virtual Reality
6. Testen
entwickelt hätten. Der return of investment (ROI) wurde so sicherlich schon nach
kurzer Zeit erreicht.
61
Projektgruppe
Virtual Reality
7. Evaluation
7. Evaluation
7.1. Formulierung von Thesen
Das System und sein Nutzen in Hinblick auf Immersion und Bedienbarkeit soll
durch die Durchführung eines Experimentes empirisch untersucht werden.
Dabei sollen folgende Thesen überprüft werden:
• Die Nutzung des Systems ist für den Anwender selbsterklärend und bedarf
keiner Anleitung.
• Das VR-System erhöht die Immersion im Vergleich zu einem klassischen
Desktop-PC deutlich.
• Die Kinect lässt die Bewegung im Raum natürlicher wirken.
• Die Videobrille erhöht maßgeblich das Präsenzempfinden.
7.1.1. Erläuterung der Thesen
7.1.1.1. Die Bedienbarkeit des Systems (Hypothese 1)
• Die Nutzung des Systems ist für den Anwender selbsterklärend und bedarf
keiner Anleitung.
Durch Untersuchen der ersten Hypothese soll ermittelt werden, ob das von uns
entwickelte System ohne Vorwissen, wie zum Beispiel durch Videospiele, genutzt
werden kann oder ob Nutzer, die zuvor noch nie mit einer ähnlichen Technologie
62
Projektgruppe
Virtual Reality
7. Evaluation
in Berührung gekommen sind, vorher eine Anweisung benötigen um das System
im vollen Umfang zu benutzen.
Der Proband wird vor der Nutzung nicht instruiert und weiß daher nicht was ihn
erwartet, bzw. welche Funktionen das Virtual-Reality-System unterstützt. Nach
dem Aufsetzen der Video-Brille wird er vom System selbst eingewiesen und soll
so feststellen, dass sich die Bewegungen seines Körpers genauso auf die virtuelle
Umwelt auswirken wie in der realen Welt. Die Erhebung der Daten erfolgt dabei
passiv durch Beobachtung. Wenn der Proband die Anweisungen des Systems befolgt und sich in der virtuellen Welt frei bewegt und die Funktionen im vollem
Umfang nutzt, dann ist die Hypothese bestätigt.
7.1.1.2. Grad der Immersion bei Nutzung des gesamten Systems
(Hypothese 2)
• Das VR-System erhöht die Immersion im Vergleich zu einem klassischen
Desktop-PC deutlich.
Durch Überprüfung dieser Hypothese soll festgestellt werden, in wie weit das
Hauptziele des Projekts (die Entwicklung eines möglichst immersiven VR-Systems)
erfüllt wurde. Der Grad der Immersion ist also der zu untersuchende Wert dieser
Evaluation. Wir vergleichen dabei die Anwendung bei Nutzung unseres vollständigen VR-Systems mit der Anwendung an einem klassischen Desktop-PC.
7.1.1.3. Vorteil durch Bewegungssteuerung (Hypothese 3)
• Die Kinect lässt die Bewegung im Raum natürlicher wirken.
Es ist davon auszugehen, dass die Bewegungssteuerung für das Präsenzempfinden
des Nutzers von sehr großer Bedeutung ist. Daher möchten wir feststellen, ob
sich die Bewegung durch den Raum durch die Bewegungssteuerung natürlicher
anfühlt.
63
Projektgruppe
Virtual Reality
7. Evaluation
7.1.1.4. Präsenzempfinden durch das HMD (Hypothese 4)
• Die Videobrille erhöht maßgeblich das Präsenzempfinden.
Die Untersuchung dieser Hypothese soll aufzeigen, ob sich das Präsenzempfinden
des Systems durch das Head Mounted-Display mit Stereoskopie erhöhen lässt.
Wir erwarten, dass das Head-Mounted-Display großen Einfluss auf die Immersion
hat.
7.2. Vorbereitung der Evaluation
Zum Überprüfen der genannten Thesen sind vier Testreihen pro Probanden notwendig. Zum Einsatz kommt dabei das Repeated-measures Design. Die Reihenfolgen der Versuchsaufbauten sind angelehnt an das Vorgehen nach Tognazzini. Die
unabhängige Variable ist die verwendete Technologie und die abhängige Variable
der Grad der Immersion. Dabei verwenden wir einen auf Immersion ausgerichteten
Fragebogen (siehe Anhang), der von den Probanden nach jedem Versuchsaufbau
ausgefüllt werden muss.
Die Versuchsaufbauten:
• Aufbau A: Monitor + Tastatur/Maus
• Aufbau B: HMD + Lagesensor/Kinect
• Aufbau C: Monitor + Lagesensor/Kinect
• Aufbau D: HMD + Tastatur/Maus
7.2.1. Der Fragebogen zum Messen der Immersion
Der Entwurf eines Fragebogens zum Messen von Immersion in virtuellen Welten ist
ein Unterfangen, welches intensiven Forschungsaufwand benötigt und im Rahmen
des Projektes nicht zu leisten gewesen wäre. Wir haben uns daher dafür entschieden auf standardisierte Fragebögen zurückzugreifen und versucht einen Fragebogen
64
Projektgruppe
Virtual Reality
7. Evaluation
zu finden, welcher unsere Anforderungen möglichst gut erfüllt. Dadurch haben wir
weiterhin sichergestellt, dass typische Fehler beim Design von Fragebögen ausgeschlossen werden.
Wir haben uns nach intensiver Suche für den „Measuring Presence in Virtual Environments: A Presence Questionnaire“ Fragebogen von Bob G. Witmer und Michael J. Singer des Forschungsinstitutes der US Army für „Behavioral and Social
Science“ entschieden. Dieser Fragebogen besteht aus sehr vielen Fragen, welche in
verschiedenen Kategorien eingeteilt werden können. Jede Frage verfügt zusätzlich
über einen Korrekturfaktor, welcher die Frage gewichtet und ihren Anteil an dem
Endergebnis bestimmt. Es waren jedoch minimale Anpassungen notwendig. Da
wir unser Experiment nicht mit anderen Experimenten vergleichen wollten, welche
ebenfalls auf Grundlage des selben Fragebogens ausgewertet wurden, bestand für
uns keine Notwendigkeit uns hundertprozentig an den Fragebogen zu halten. So
haben wir Fragen modifiziert, welche Themen abdecken, die in unserer virtuellen
Umgebung keine Rolle spielen (z. B. Fragen nach Geruch).
Die Fragen konnten von den Probanden mit den Werten Null bis Zehn beantwortet
werden, wobei eine Null für eine negative Antwort hinsichtlich der Frage stand und
eine Zehn entsprechend für eine positive Antwort.
7.3. Die virtuelle Umgebung
Es wird nun die virtuelle Umgebung beschrieben, die für die Evaluation verwendet
wird. Die Umgebung besteht aus einem Wohnzimmer, weiße Rauhfaser-Tapete
und Parkettboden, mit zwei Fensterfronten in Richtung eines weitläufigen Areals
im mediteranen Stil und in Richtung einer berankten Wand eines Nachbarhauses.
Aus Richtung des Areals sind Wind, Stimmen und Vögel zu hören. In dem Raum
gibt es eine Eingangstür gegenüber der Fensterfront.
65
Projektgruppe
Virtual Reality
7. Evaluation
Abbildung 7.1.: Spiegel, Sideboard und Plattenspieler
Aus Richtung der Eingangstür sind manchmal Stimmen und Geräusche beim Öffnen einer Tür zu hören. Neben der Eingangstür steht ein Fernsehschrank inklusive
Fernseher. Links daneben ein Sideboard mit einem Plattenspieler. Über dem Plattenspieler hängt ein Bild in einem Bilderrahmen. Links und rechts neben dem
Sideboard sind zwei Stereolautsprecher aufgestellt.
Abbildung 7.2.: Fernseher und Eingangstür
66
Projektgruppe
Virtual Reality
7. Evaluation
Auf dem Plattenspieler wird ruhige klassische Musik gespielt, die über die beiden
Stereolautsprecher ertönt. Auf dem Fernseher wird eine Echtzeitübertragung einer
virtuellen Überwachungskamera angezeigt. Wenn der Proband dem Fernseher nahe
genug kommt, wird die Echtzeitübertragung durch ein Pinguin-Video ersetzt. An
einer Fensterfront steht eine rote Couch. Bei der anliegenden Fensterfront stehen
Weinfässer und Kisten. Dem Probanden wird vermittelt, dass er sich in Florenz
befindet und er wird von einer computergenerierten Frauenstimme in die Szenarie
eingeführt. Sie weist ihn an sich frei im Raum zu bewegen und sich dem Fernseher
zu nähern.
Abbildung 7.3.: Couch und Fensterfront
7.4. Durchführung der Evaluation
Die Evaluation fand mit einem Umfang von 16 Probanden am 29.2.2012 und
1.3.2012 in der Universität statt. Pro Proband wurden 30 Minuten eingeplant.
Dabei nutzten die Testpersonen jeden Versuchsaufbau ca. 90 Sekunden. Der Fragebogen wurde im Durchschnitt in ca. zwei Minuten ausgefüllt. Vor Beginn der
Evaluation mussten die Probanden eine Einverständniserklärung unterschreiben,
die umfangreich über Risiken und Ablauf informierte. Eine Kopie der Einverständniserklärung befindet sich im Anhang. Bei der Untersuchung wurde der Raum
abgedunkelt um die Ablenkung der Probanden durch die natürliche Umwelt zu
67
Projektgruppe
Virtual Reality
7. Evaluation
minimieren. Bei den Tests kam es zu keinen nennenswerten Störung im Ablauf, so
dass die Ergebnisse aller 16 Probanden gewertet werden können.
Abbildung 7.4.: Ein Proband nutzt das VR-System
68
Projektgruppe
Virtual Reality
7. Evaluation
Abbildung 7.5.: Ein Proband füllt den Fragebogen aus
7.5. Ergebnisse der Evaluation
7.5.1. Qualitative Auswertung
Während der Evaluation sind, neben den durch den Fragebogen erhobenen Daten, zusätzlich qualitative Beobachtungen gemacht worden. Wir haben dazu die
einzelnen Probanden beobachtet und ihr Verhalten protokolliert. Diese Informationen haben wir informell ausgewertet und sind dabei zu folgenden Schlüssen
gekommen:
• Die Steuerung mit der Kinect ist zuerst nicht intuitiv. Es hat meistens eine
kurze Zeit gedauert, bis die Probanden bemerkt haben, dass sie sich im
Raum bewegen können. Sofern die Probanden vorher einen Versuchsaufbau
69
Projektgruppe
Virtual Reality
7. Evaluation
mit Maus und Tastatur durchlaufen sind, ist dieses Problem weniger relevant
gewesen.
• Im Gegensatz zum vorherigen Punkt, ist die Steuerung mit Maus und Tastatur in der Regel bekannt gewesen. Zwar gab es auch einige Teilnehmer,
die diese Steuerung noch nicht kannten, jedoch waren keine großen Schwierigkeiten zu beobachten.
• Die 3D Brille wurde von vielen Probanden als zu schwer oder unhandlich
bemängelt. Teilweise mussten Probanden während des Versuchs die Brille
festhalten, um diese beim Umgucken nicht zu verlieren oder zu beschädigen.
• Drehungen mit dem HMD wurden als schwierig empfunden, während man
am PC saß.
Aufgrund des jungen Durchschnittsalters der Probanden vermuten wir, dass die
Steuerung mit Maus und Tastatur durch Computerspiele bekannt war und daher
keiner genaueren Erklärung bedurfte. Die Kinect hingegen ist erst seit kurzer Zeit
für Endkunden verfügbar, wodurch im kollektiven Bewusstsein die genaue Funktionsweise noch nicht verankert ist.
7.5.2. Mathematische Auswertung
Die Fragebögen aller Probanden wurden mathematisch ausgewertet. Dabei wurde grundsätzlich zwischen den vier verschiedenen Versuchsaufbauten differenziert.
Zum Messen des Immersionsgrades wurde jede der 19 Fragen mit einem Gewichtungsfaktor multipliziert. Anschließend wurden für jeden Versuchsaufbau die Werte aller 19 Fragen addiert, der Mittelwert aller Probanden ermittelt und abschließend durch die möglich Maximal-Punktzahl (67,5) dividiert. Das Ergebnis ist der
Grad der Immersion, der zwischen 0 uns 1 liegt.
Um die Aussagefähigkeit unserer Ergebnisse zu bestimmen, wurden die Daten mit
einem Zweistichproben-t-Test untersucht. Der Zweistichproben-t-Test ist ein Signifikanztest der mathematischen Statistik und überprüft, ob zwei Stichproben signifikant unterschiedlich verteilt sind. Für unsere Evaluation haben wir den abhängi-
70
Projektgruppe
Virtual Reality
7. Evaluation
gen two-tailed t-Test verwendet, da wir zwei von einander abhängige Stichproben
durch das Repeated-measures design erhalten. Liegt das Ergebnis des t-Tests nicht
unter einem gewählten Signifikanzniveau, so kann die Nullhypothese (Daten beider
Stichproben sind gleich verteilt) nicht abgelehnt werden. Liegt das Ergebnis jedoch
unterhalb des Signifikanzniveaus kann, so kann die Nullhypothese zugunsten der
Hypothese (Daten beider Stichproben sind signifikant unterschiedlich verteilt) abgelehnt werden. Für unsere Untersuchung haben wir ein Signifikanzniveau von 5
Prozent gewählt. Das bedeutet, dass das Verwerfen der Nullhypothese mit einer
Wahrscheinlichkeit von über 95 Prozent richtig ist und die Wahrscheinlichkeit, dass
die Daten nur zufällig unterschiedlich verteilt sind, unter 5 Prozent liegt.
Um die Ergebnisse weiterhin grafisch zu veranschaulichen nutzen wir BoxplotDiagramme. Boxplots geben schnell und übersichtlich Aufschluss darüber, wie Daten verteilt sind. Die dabei verwendeten Größen sind (von oben nach unten):
• Maximum
• Oberes Quantil (75 Prozent der Daten liegen unterhalb des Wertes)
• Median (50 Prozent der Daten liegen unterhalb des Wertes)
• Unteres Quantil (25 Prozent der Daten liegen unterhalb des Wertes)
• Minimum
Die Box zwischen dem oberen und unteren Quantil zeigt dabei auf, wo 50 Prozent
der erhobenen Daten liegen.
(Die Daten der ausgefüllten Fragebögen befinden sich im Anhang)
7.5.2.1. Immersionsgrad der Versuchsaufbauten
Bei der Auswertung aller Fragebögen wurden die folgenden Immersionsgrade für
die vier unterschiedlichen Versuchsaufbauten ermittelt:
• Versuchsaufbau A = 0,5195
• Versuchsaufbau B = 0,6750
71
Projektgruppe
Virtual Reality
7. Evaluation
• Versuchsaufbau C = 0,4845
• Versuchsaufbau D = 0,5596
Versuchsaufbau A (Verwendung der Kinect und des HMD) hat demnach den größten Immersionsgrad erzielt. Überraschenderweise ist bei der Verwendung der Kinect ohne Videobrille (Versuchsaufbau C) der Immersionsgrad geringer als bei der
klassischen PC-Nutzung mit Maus und Tastatur (Versuchsaufbau A)
Abbildung 7.6.: Boxplots - alle Versuchsaufbauten
Das Boxplot-Diagramm zeigt für jeden Versuchsaufbau die Verteilung der Messergebnisse und macht deutlich, dass sich nur Versuchsaufbau B bedeutsam von den
anderen Aufbauten abhebt. Der Zweistichproben-t-Test zwischen Versuchsaufbau
A und B ergibt einen Wert von 0,000642 und liegt damit deutlich unter dem Signifikanzniveau von 0,05. Die Nullhypothese kann damit abgelehnt werden und es gibt
einen essenziellen Unterschied zwischen der Immersion durch einen Desktop-PC
72
Projektgruppe
Virtual Reality
7. Evaluation
und der Immersion durch unser VR-System. Unsere Hypothese „Das VR-System
erhöht die Immersion im Vergleich zu einem klassischen Desktop-PC deutlich“
wurde dabei bestätigt. Deutlich wird weiterhin, dass dies nur durch Kinect und
Videobrille zusammen erreicht wird. Die alleinige Nutzung der Kinect oder des
HMD führt zu keinem signifikanten Immersionsgewinn im Vergleich zum DesktopPC.
7.5.2.2. Bewegung in der virtuellen Welt
Im Folgenden wird auf die Bewegung in der virtuellen Welt eingegangen. Anhand
der Frage „Wie natürlich empfanden Sie die Bewegung in der virtuellen Welt?“
wird ausgewertet, ob und wodurch sich die Natürlichkeit der Bewegung erhöhen
lässt. Verglichen werden dabei die Antworten der Frage für Versuchsaufbau A
(Desktop-PC) mit Versuchsaufbau C (Monitor und Kinect).
Abbildung 7.7.: Boxplots - Bewegung im Raum mit und ohne Kinect
73
Projektgruppe
Virtual Reality
7. Evaluation
Das Diagramm zeigt, dass die Bewegungssteuerung über die Kinect die Bewegung
im virtuellen Raum deutlich natürlicher erscheinen lässt. Ein durchgeführter t-Test
mit dem Ergebnis von 0,0000237 bestätigt die Annahme. Unsere Hypothese „Die
Kinect lässt die Bewegung im Raum natürlicher wirken“ ist damit bestätigt.
Abbildung 7.8.: Boxplots - Bewegung im Raum mit und ohne Videobrille
Dieses Diagramm zeigt die Boxplots der selben Frage für Versuchsaufbau A (ohne
HMD) und Versuchsaufbau D (mit HMD) und macht deutlich, dass die Videobrille
keinen positiven Einfluss auf die Natürlichkeit der Bewegungen im virtuellen Raum
hat.
7.5.2.3. Präsenzempfinden
In diesem Unterkapitel wird untersucht, ob und wodurch sich das Präsenzempfinden steigern lässt. Die Ergebnisse der Frage „Wie intensiv waren Sie in der virtuel-
74
Projektgruppe
Virtual Reality
7. Evaluation
len Welt integriert?“ werden für Versuchsaufbau A (Desktop-PC ohne HMD) mit
Versuchsaufbau D (mit HMD) verglichen.
Abbildung 7.9.: Boxplots - Präsenzempfinden mit und ohne Videobrille
Das Diagramm zeigt, dass die Videobrille den Nutzer intensiver in die virtuelle
Welt eintauchen lässt. Bestätigt wird dies durch ein Ergebnis von 0,0017248 beim
t-Test.
75
Projektgruppe
Virtual Reality
7. Evaluation
Abbildung 7.10.: Boxplots - Präsenzempfinden mit und ohne Kinect
Dieses Diagramm zeigt die Boxplots der selben Frage für Versuchsaufbau A (ohne
Kinect) und Versuchsaufbau C (mit Kinect) und zeigt, dass die Kinect keinen
messbaren Einfluss auf die Intensität des Präsenzempfinden hat.
Weiterhin wird die Frage „Wie schnell haben Sie sich in die virtuelle Welt versetzt
gefühlt?“ untersucht. Die Ergebnisse werden im folgenden für Versuchsaufbau A
(Desktop-PC ohne HMD) und Versuchsaufbau D (mit HMD) dargestellt.
76
Projektgruppe
Virtual Reality
7. Evaluation
Abbildung 7.11.: Boxplots - Versetzung in die virtuelle Welt mit und ohne
Videobrille
Die Verteilung der Daten verdeutlicht, dass die Videobrille den Nutzer schneller in
die virtuelle Welt versetzt. Bestätigt wird dies durch ein Ergebnis von 0,0003739
beim t-Test. Unsere These „Die Videobrille erhöht maßgeblich das Präsenzempfinden“ ist damit bestätigt.
77
Projektgruppe
Virtual Reality
7. Evaluation
Abbildung 7.12.: Boxplots - Versetzung in die virtuelle Welt mit und ohne Kinect
Dieses Diagramm zeigt die Werteverteilung der selben Frage für Versuchsaufbau
A (ohne Kinect) und Versuchsaufbau C (mit Kinect) und macht deutlich, dass die
Kinect den Nutzer nicht schneller in die virtuelle Welt versetzt.
7.5.2.4. Geräusche in der virtuellen Welt
Die Frage „Wie gut konnten Sie Geräusche lokalisieren?“ hat für Versuchsaufbau
A (Desktop-PC ohne HMD) und Versuchsaufbau D (mit HMD) folgende Datenverteilungen:
78
Projektgruppe
Virtual Reality
7. Evaluation
Abbildung 7.13.: Boxplots - Geräusche lokalisieren mit und ohne Videobrille
Das Diagramm zeigt, dass die Geräusche mit Videobrille signifikant besser lokalisierbar sind als ohne Videobrille. Ein durchgeführter t-Test mit dem Ergebnis von
0,0014441 bestätigt die Annahme.
7.5.2.5. Vergleich zur realen Welt
Im Folgenden soll ermittelt werden, ob das von uns entwickelte VR-System die
Bedienung im Vergleich zum klassischen Desktop-PC natürlicher erscheinen lässt
und der Nutzer sich dadurch mehr an die reale Welt erinnert fühlt. Die Frage
„Wie ähnlich waren ihre Erfahrungen in der virtuellen Welt im Vergleich zur realen
Welt?“ hat für Versuchsaufbau A (Desktop-PC) und Versuchsaufbau B (mit Kinect
und mit HMD) folgende Datenverteilungen:
79
Projektgruppe
Virtual Reality
7. Evaluation
Abbildung 7.14.: Boxplots - Natürlichkeit der virtuelle Welt mit Kinect/HMD und
ohne Kinect/HMD
Die Verteilung Boxplots zeigt deutlich, dass die Nutzung von Videobrille und
Bewegungssteuerung über die Kinect die Nutzung des Systems maßgeblich realer erscheinen lassen. Der Zweistichproben-t-Test zwischen Versuchsaufbau A und
Versuchsaufbau B ergibt einen Wert von 0,0002130. Unsere Annahme ist damit
bestätigt.
7.6. Fazit
Die Evaluation wurde erfolgreich abgeschlossen und hat die von uns erwarteten
Ergebnisse geliefert. Die Resultate zeigen deutlich, dass wir unser Projektziel (ein
möglichst immersives VR-System zu entwickeln) erfüllt haben. Weiterhin zeigen
80
Projektgruppe
Virtual Reality
7. Evaluation
die Ergebnisse, dass unser Vorgehen, die Kinect und die Videobrille zusammen
einzusetzen, die richtige Entscheidung war. Denn nur, wenn beide Komponenten
zusammen zum Einsatz kommen, wird der Grad der Immersion signifikant erhöht.
Die Kinect hat dabei erwartungsgemäß einen positiven Einfluss auf natürlich erscheinende Bewegungen. Die Videobrille hingegen ist essenziell für das Präsenzempfinden und lässt den Nutzer in die virtuelle Welt eintauchen.
81
Projektgruppe
Virtual Reality
8. Persönliche Fazite
8. Persönliche Fazite
8.1. Persönliches Fazit von Robert Schadek
Grundsätzlich ist ein positives Fazit zu ziehen. Die aufgetretenen Probleme waren
hauptsächlich handwerklicher Natur.
Insbesondere Ogre3d stellte einige unnötige Herausforderungen bereit. Die Trennung von Sourcen und Headern führte insbesondere zu unnötig langen Wartezeiten, die einem effizientes Arbeiten oft im Weg standen. Der Versuch von Ogre3d
durch diese Trennung eine Java ähnliche Entwicklung zu ermöglichen führt noch
an anderen Stellen zu unangenehmen Problemen. So wurde z. B. versucht durch
typedef s kurze Namen für Typen einzuführen. Allerdings führte dies dazu, dass
man, bevor man Methoden des eigentlichen Typen verwenden konnte, erst einmal
den eigentlichen Typen bestimmen musste.
OpenNI und Nite waren im Vergleich zu Ogre3d relativ einfach zu nutzen. Die
größte Schwierigkeit bestand darin eine Version zu finden und zu installieren, die
bei allen Gruppenmitglieder funktioniert.
Abschließend kann ich nur sagen, dass das Projekt für mich ein voller Erfolg war.
Sowohl was die Gruppe als auch die Bearbeitung der Aufgabe angeht.
8.2. Persönliches Fazit von Christian Herz
Mein persönlicher Eindruck dieser Projektgruppe ist sehr positiv. Die Zusammenarbeit mit den Projektgruppenmitgliedern war stets sehr angenehm. Streitpunkte
gab es selten, was für mich von sehr großer Sympathie und ein gutes Team zeugt.
82
Projektgruppe
Virtual Reality
8. Persönliche Fazite
Traten einmal Verständnisprobleme oder Meinungsverschiedenheiten auf, so wurden diese immer gemeinsam bewältigt.
Zu Ogre3D muss ich sagen, dass es anfangs ziemlich einfach aussah, wobei sich letzten Endes herausstellte, dass teilweise Dinge unzureichend implementiert wurden,
wie z. B. das Shadow Mapping. Auch bei den Beispielen auf deren Webseite hätten sie grundlegende Dinge, wie die Implementierung eines Spiegels zeigen sollen.
Zugute kam mir persönlich auf jeden Fall das gut besuchte Forum von Ogre3D.
OpenNI und Nite haben uns auf jeden Fall die Projektarbeit erleichtert, weil es
für Linux sowie Windows verfügbar ist und bereits eine Skeletterkennung existiert.
Hätte solch eine Skeletterkennung noch nicht existiert, dann wären wir sicherlich
nicht so weit mit unserem Projekt gekommen wie es jetzt der Fall ist.
Weitergehend hatte ich die Möglichkeit weitere Kenntnisse in C++, dem Teamwork
sowie dem Erstellen von CMake-Skripten zu sammeln. Erste Eindrücke in der 3DModellierung mittels Blender bereitete mir sehr viel Freude.
Abschließend kann ich sagen, dass ich wirklich froh bin diese Projektgruppe gewählt zu haben. Wir haben viel erreicht und niemals vergessen, dass ein gutes
Arbeitsklima von großer Bedeutung ist. Grillabende oder das Bestellen von Pizza
hat das Arbeitsklima stets aufgelockert und man konnte sich auch außerhalb der
Universität kennenlernen.
8.3. Persönliches Fazit von Jendrik Poloczek
In Bezug auf das Team kann ich sagen, dass meine Kollegen und ich versucht haben stets, bis auf wenige Ausnahmesituationen, rational zu argumentieren. Das
Arbeitsklima war mir und meinen Mitstreitern, sehr wichtig, sodass wir stets darauf geachtet haben, dass sich keine Missverständnisse oder Ungereimtheiten hochschaukeln. Alle Mitglieder haben versucht sich einzubringen. Besonders gut fand
ich die Kompetenz des Teams, und die Möglichkeit sich in seinen eigenen Interessengebieten ausgiebig, aber durch die Anforderungen begrenzt, auszuleben. Wenn
83
Projektgruppe
Virtual Reality
8. Persönliche Fazite
man das Augenmerk auf die Technik und die Umsetzung legt, bleibt zu erwähnen, dass unser System aufgrund vieler Abhängigkeiten sehr komplex, durch sehr
viele Abhängigkeiten, und in meinen Augen nur durch den Einsatz des Buildsystems CMake zu bändigen war. Die verwendeten Abhängigkeiten waren teils
schwierig einzusetzen, da die Dokumentation verschiedener Teilsysteme nur befriedigend war. Die Gruppe hat es dennoch sehr gut geschafft auf Grundlage der
Anforderungen, eine entsprechend gut funktionierende Architektur zu entwerfen.
Ich habe viel über OpenAL, Ogre3D und Blender gelernt. Und für mich war es das
erste Teamprojekt mit der Programmiersprache C++.
8.4. Persönliches Fazit von Matthias Bruns
Beim Projekt Virtual Reality habe ich viele Erfahrungen gesammelt und vieles gelernt, in Bereichen mit denen ich bisher wenig in Kontakt gekommen bin.
Mein bisheriges Studium der Wirtschaftsinformatik an der Universität Göttingen war stark betriebswirtschaftlich orientiert und beinhaltete nur ein Semester
Java-Programmierung. Die Projektgruppe hat mir die Möglichkeit gegeben meine
Programmierfähigkeiten auszubauen und ich habe das erste mal mit C++ arbeiten
können. Auch die Arbeit mit Ogre3D, der Versionsverwaltung Git und das Modellieren mit Blender waren neu für mich und ich habe viel dazu gelernt. Aufgrund
der Vielseitigkeit und dem Zeitraum über zwei Semester, bin ich mir sicher, dass
mich die Projektgruppe in meinem Studium wesentlich weiter gebracht hat, als
mehrere einzelne Module mit gleichem KP-Umfang es ermöglicht hätten.
Auch das Arbeitsklima im Team war durchgehend angenehm. Meinungsverschiedenheiten traten nur bezüglich Projektentscheidungen auf und konnten immer
schnell gelöst werden. Auch die Grillabende und andere gemeinsame Aktivitäten
außerhalb der Uni bleiben positiv in Erinnerung.
Zusammenfassend hat mir das Projekt Virtual Reality sehr viel Spass gemacht.
Das Thema empfand ich als sehr interessant und ich habe dabei viel lernen können. Wir haben die Komponenten Kinect, Videobrille und 3D-Engine erfolgreich
84
Projektgruppe
Virtual Reality
8. Persönliche Fazite
zusammengebracht. Das Ergebnis der Evaluation zeigt, dass wir unser Projektziel erreicht haben und ich denke, dass wir durchaus stolz auf unsere Arbeit sein
können.
8.5. Persönliches Fazit von Justin Heinermann
Die Wahl der Projektgruppe für das zweite und dritte Semester des M.Sc.-Studienganges
Informatik ist oft keine einfache, da man sich ein Jahr lang mit der Thematik
des Projektes, der Gruppe und den Betreuern zurechtfinden muss. Da in unserer
Projektgruppe eine sehr interessante Thematik behandelt wurde und wir unsere Aufgabenstellung erfolgreich umgesetzt haben, beurteile ich meine Wahl der
Projektgruppe als positiv.
Weil bei mir die persönliche Motivation für die Beschäftigung mit Grafikprogrammierung und technischen Neuheiten gegeben ist, war auch die Motivation für das
Projekt hoch. Da die Konkretisierung der Aufgabenstellung bei uns Projektmitgliedern selbst lag, konnten wir das Projektziel nach unseren eigenen Wünschen
formulieren. Was wir mit dem Projekt zu sechst in einem Jahr realisiert haben, ist
in meinen Augen als Erfolg zu werten.
Zu den persönlichen Erfahrungen in der Projektgruppe ist zunächst die Gruppenarbeit zu nennen, die die Projektmitglieder vor eine neue Situation gestellt hat. Das
wichtigste ist hier, dass alle Mitglieder gemeinsam auf die Ziele der Gruppe hinarbeiten. In unserem Fall hat sich gezeigt, dass sich durch die relativ kleine Gruppengröße, Organisation und Kommunikation relativ einfach gestaltet haben.
Auf technischer Seite hat sich gezeigt, dass wir viele verschiedene Softwarebibliotheken verwenden mussten, was softwaretechnisch für mich eine neue Arbeitsweise
bedeutete. Leider ist man hier auf manchmal spärliche Dokumentation von den
verschiedenen Bibliotheken angewiesen und es ist nicht unbedingt im Vorfeld ersichtlich, welche Aufgaben tatsächlich zuverlässig und wie gewünscht von der jeweiligen Software verrichtet werden. Für meine persönliche Erfahrung hat sich hier
gezeigt, dass man im Vorfeld noch sorgfältiger beurteilen sollte, welche Bibliotheken sich eignen und wie ausgereift diese sind.
85
Projektgruppe
Virtual Reality
8. Persönliche Fazite
Bei der Grafikprogrammierung würde ich in Zukunft eher auf eine eigene Grafikengine (z.B. mit OpenLG) setzen als auf eine fertige Engine wie Ogre3d. Die
Vorteile, die einem versprochen werden und die tatsächlich zum Tragen kommen,
werden erkauft durch eine oft eingeschränkte Flexibilität und ein großes, schwer
zu verstehendes System. Falls ein solches System Unzulänglichkeiten hat, muss
zusätzlicher Aufwand betrieben werden ,um diese zu umschiffen.
Als besonders positiv für den Lerneffekt empfand ich, abseits von den Kernaufgaben des Projektes, die Entwicklung des Linux-Treibers für den Lagesensor, da
dieser eine neue Herausforderung für mich darstellte.
Für das Projektmanagement habe ich als Lektion mitgenommen, dass Ziele eindeutig und gemeinsam formuliert werden sollten und dass Zeitpläne realistisch gesetzt
werden sollten.
8.6. Persönliches Fazit von Tim Jörgen
Mein Fazit bezüglich der Projektgruppe ist durchaus positiv. Persönlich habe ich
gelernt, dass Plattformunabhängigkeit auch beim Einsatz von darauf spezialisierten Tools eine extrem kostenaufwendige Sache ist, deren Wirtschaftlichkeit man
sich genau überlegen sollte.
Angenehm war das Arbeitsklima, bei dem sehr flexibel gearbeitet werden konnte,
wodurch es nie zu Schwierigkeiten gekommen ist, wenn andere Termine anstanden. Durch unsere lockere Arbeitsweise konnte man auch unkompliziert Termine
finden.
Was ich künftig anders machen würde, ist eine Sprache wie C++ für ein solch
umfangreiches Projekt zu verwenden. Eine moderne Sprachen mit Garbage Collection hätten meiner Meinung nach die vorhandenen Human Resourcen deutlich
geschont. Ein Zugriff auf die OpenNI libs wäre problemlos über JNA möglich gewesen.
Insgesamt sind wir aber denke ich alle froh, dass wir diese Gruppe gewählt haben,
da wir sehr viel gelernt haben.
86
Projektgruppe
Virtual Reality
9. Fazit und Ausblick
9. Fazit und Ausblick
Die Projektgruppe Virtual Reality begann im April 2011 und endete im März
2012. In dieser Zeit haben wir es uns zur Aufgabe gemacht, die Herausforderung zu
meistern, aus Consumer Products und freier Software ein immersives VR-System
zu entwickeln. Wir haben dabei eine 3D-Engine mit einer Bewegungssteuerung per
Microsoft Kinect und der Videobrille Vuzix Wrap 920 kombiniert.
Bei der Entwicklung lag unser Fokus auf der Erstellung einer Middleware, auf
der auch andere VR-basierte Software aufsetzen kann, die die Kinect und Vuzix
Videobrille als Eingabegeräte verwendet. Im Laufe der Projektgruppe sind wir
dabei auf viele Probleme gestoßen. So waren beispielsweise für die Vuzix Wrap 920
keine Linux-Treiber verfügbar und die Grafik-Engine Ogre3D ließ sich aufgrund
diverser Defizite in der Implementierung, zum Teil nur unter sehr großem Aufwand
in unser Projekt integrieren. Zum Ende des Projekts konnten wir allerdings alle
Probleme lösen und haben alle unsere Meilensteine erfolgreich erreicht.
Das Ergebnis ist ein VR-System, das den Nutzer in eine virtuelle Welt eintauchen
lässt. Körper- und Kopfbewegungen werden in Echtzeit verarbeitet und über die
Videobrille ausgegeben. Um abschließend zu klären, ob unser System auch wirklich
immersiver ist als ein klassischer Desktop PC, haben wir das VR-System umfangreich evaluiert. Dabei haben 16 Probanden unsere Entwicklung getestet und einen
auf Immersion ausgerichteten Fragebogen ausgefüllt. Das Ergebnis der Evaluation
ist eindeutig: Das von uns entwickelte VR-System ist signifikant immersiver als
die Nutzung von Tastatur und Maus am Computer-Monitor. Unser Projektziel,
ein möglichst immersives VR-System zu entwickeln, haben wir damit nachweislich
erfüllt. Die Evaluation hat weiterhin gezeigt, dass unsere Entscheidung, die Kinect
und die Videobrille zusammen einzusetzen, richtig war. Denn nur die Zusammenarbeit beider Geräte führt zu einer maßgeblichen Erhöhung der Immersion.
87
Projektgruppe
Virtual Reality
9. Fazit und Ausblick
Trotz des Erfolges bei der Entwicklung, bietet das System noch viel Potential zur
Verbesserung und Weiterentwicklung, die allerdings bessere Hardware erfordert
die noch nicht verfügbar ist. Insbesondere die Videobrille hat ein großes Defizit:
die Auflösung der Displays ist sehr gering und man hat bei der Nutzung das Gefühl, auf weit entfernte Projektionsflächen zu schauen. Auch die zweite Version der
Microsoft Kinect, die 2013 erscheinen soll, könnte die Genauigkeit der Körpererfassung deutlich erhöhen und würde den Nutzer noch präsenter in der virtuellen
Welt erscheinen lassen.
Die Präsentation unseres VR-Systems auf einer Schülerveranstaltung an der Universität hat gezeigt, dass das Thema virtuelle Realität auf sehr großes Interesse
stößt. Aber nicht nur für Privathaushalte sind VR-Systeme interessant. Auch Unternehmen nutzen vermehrt VR-Anwendungen um zum Beispiel neue Produkte
noch vor der Herstellung realitätsnah anschaulich machen zu können. Das von uns
entwickelte System könnte beispielsweise von Architekten dazu verwendet werden, um Bauprojekte schon im Entwurfsstatus virtuell begehen und erkunden zu
können.
Zusammenfassend haben wir unser Projekt erfolgreich abgeschlossen. Das von uns
entwickelte VR-System ermöglicht das Eintauchen in eine virtuelle Welt und ist
dabei messbar immersiver als klassische Desktop-PCs. Weiterhin haben wir alle
viel dazu gelernt, positive Erfahrungen gesammelt und uns allen hat die Arbeit an
unserem Projekt sehr viel Spass gemacht. Wir bedanken uns auch bei Prof. Dr.
Wolfgang Kowalk und Dipl.-Inf. Stefan Brunhorn für die sehr gute Betreuung mit
konstruktiven Vorschlägen und einer freundlichen Arbeitsatmosphäre.
88
Projektgruppe
Virtual Reality
Literaturverzeichnis
Literaturverzeichnis
[Bernd Brügge 2004] Bernd Brügge, Allen H. D.: Objektorientierte Softwaretechnik mit UML, Entwurfsmustern und Java. Pearson Studium, 2004 3.8,
4.1
[Heinermann 2011] Heinermann, Justin P.: Virtual Reality und der Einsatz in
der Praxis. 2011. – Forschungsbericht 3.2
[Michael Dixon 2012] http://dev.pointclouds.org/attachments/download/
358/Sensor-Win-OpenSource32-5.0.3.msi 1e
[Poloczek 2011] Poloczek, Jendrik: Präsenzempfinden in virtuellen Umgebungen.
2011. – Forschungsbericht 3.2
[Sense 2012] http://www.openni.org/Downloads/OpenNIModules.aspx 1a, 1c,
1d
[Streeting 2012] http://www.ogre3d.org 3.6
[Vuzix-Corporation
2012a]
wrap920vrbundle.html 3.6
http://www.vuzix.com/consumer/products_
[Vuzix-Corporation
drivers.html 2a
http://www.vuzix.com/support/downloads_
2012b]
89
Projektgruppe
Virtual Reality
A. Anhang
A. Anhang
A.1. Schnittstellenfunktionen
Ein kurzes Beispiel, dass die Benutzung der Middleware kurz darstellt.
// so the destructor won’t fail
this −>middleware = NULL;
// create an instance of the middleware
this −>middleware = new Middleware::Main();
try {
this −>head = this−>middleware−>getHeadDirection();
} catch (AttitudeSensorException∗ e) {
std :: cout << e−>message() << std::endl;
}
try {
joints = this−>middleware−>getSkeleton(NULL);
} catch (Middleware::MiddlewareException∗ e) {
std :: cout << e−>message() << std::endl;
};
Ein wichtige Anmerkung ist hier, dass die Methode getSkeleton der Middleware
Speicher alloziert wenn ihr NULL übergeben wird. Übergibt man hingegen ein
24 elementiges Array von Joints wird kein Speicher alloziert sondern die Daten
werden in das Übergebene Array geschrieben.
Die Methode getHeadDirection gibt einen Pointer auf das Head Objekt zurück.
Dieses Objekt wiederrum enthält einen Member names headDirection, welches wiederum den Yaw, Pitch und der Roll enthält.
Eine neuere Dokumentation der verschiedenen Schnittstellen befindet sich in der
Doxygen Dokumentation.
i
Projektgruppe
Virtual Reality
A. Anhang
A.1.1. registerPose, registerGesture
RegisterPose sowie registerGesture sind im Prinzip gleich, der Unterschied liegt
in den Funktionsparamter. Bei registerGesture übergibt man je einen Middleware::KinectWrapper::GestureEvent* , sowie einen Middleware::KinectWrapper::GestureObserver*.
GestureObserver implementieren eine Methode names notify. Diese Methode übernimmt als Parameter einen GestureEvent.
Das selbe gilt für registerPose, mit dem Unterschied das GestureEvent und GestureObserver PoseEvent und PoseObserver heißen.
In der jeweilen notify Methode kann dann abhängig von dem übergebenen Event
Funktionalität implementiert werden.
A.2. Installation
Im Folgenden wird die Installation der entwickelten Software unter Windows sowie
Linux erläutert. In Abbildung A.1 werden die Abhängigkeiten des Frontends sowie
der Middleware gezeigt.
FrontEnd
LibOgg
Boost
LibVorbis
OpenNI
OpenAL
Nite
Middleware
Vuzix SDK(Windows)
Ogre SDK
Testdog
TinyXml
SLB
LibUsb(unix)
Logger
Abbildung A.1.: Abhängigkeiten Middleware/Frontend
ii
Projektgruppe
Virtual Reality
A. Anhang
A.2.1. Windows
1. Installation der Kinect
Im Folgenden wird die Installation der Microsoft Kinect unter Windows beschrieben.
a) Installieren der “unstable OpenNI Binaries“ für 32Bit erhältlich unter
Sense [2012]
b) Installieren des Sensortreiber erhältlich unter https://github.com/
avin2/SensorKinect/tree/unstable/Platform/Win32/Driver (unstable branch). Je nachdem, welche Windowsversion benutzt wird, 32 oder
64 Bit, bitte die jeweilige ausführbare Datei benutzen.
c) Installieren der ünstable OpenNI Middleware Binaries“ für 32Bit erhältlich unter Sense [2012].
d) Installieren der ünstable OpenNI Hardware Binaries“ für 32Bit erhältlich unter Sense [2012].
e) Gegebenenfalls die prebuilt binary for Kinect sensor Version 5.0.3"von
Michael Dixon [2012] installieren.
2. Installation der Vuzix Wrap 920
Im Folgenden wird die Installation der Vuzix Wrap 920 3D-Brille beschrieben.
a) Installation des Vuzix VR Managers, der für die Kalibrierung der Brille
vor der Benutzung benötigt wird. Er ist erhältlich unter Vuzix-Corporation
[2012b].
b) Installation des Vuzix SDK erhältlich unter http://vrdeveloper.vr920.
com/downloads/w/Vuzix_SDK_3.1.1.zip.
3. Erstellen der Middleware mit im Repository enthaltenen Abhängigkeiten
Das Kompilieren der Einzelkomponenten ist unter Windows automatisiert.
Dafür muss lediglich die Datei Install.bat aus dem Verzeichnis /repository/projects/pgvr aufgerufen werden. Ein Kommandozeilenfenster startet und
iii
Projektgruppe
Virtual Reality
A. Anhang
die Einzelkomponenten sowie die Middleware werden kompiliert. Zu beachten sind die Hinweise in der README in demselben Verzeichnis, in dem sich
auch die Install.bat befindet.
A.2.2. Unix
1. Installation der Kinect
a) Kernel Module Blacklisten: Bevor die Kinect angeschlossen werden kann
muss dafür gesorgt werden, dass Linux nicht automatisch Treiber für
die einzelnen Devices1 der Kinect lädt. Die zu blockierenden Module sind gspca_main gspca_kinect. In der Regel wird dies in der Datei
/etc/modprobe.d/blacklist.config eingetragen.
b) OpenNI installieren: Um OpenNI zu installieren lädt man unter http:
//www.openni.org/downloadfiles/opennimodules/openni-binaries/
20-latest-unstable die Version 1.3.2.3 runter. Für die Installation
folgt man der, im Download mitgelieferten, platformspezifischen Anleitung.
c) Installation Sensor: Um Sensor zu installieren klont man aus GitHub
den unstable branch. https://github.com/avin2/SensorKinect Dann
wechselt man in das Platform abhängige Verzeichnis Platform/***/CreateRedist
und führt dort den RedistMaker aus. Hierbei ist zu beachten das das
Standard Python eine 2.x Version ist. Danach wechselt man in den Ordner Final, entpackt das Archive und installiert es mit sudo install.sh.
d) Intallation NITE: Für die Skeletterkennung wird NITE in der Version
1.4.1.2 benötigt. http://www.openni.org/downloadfiles/opennimodules/
openni-compliant-middleware-binaries/33-latest-unstable Nach
dem Entpacken des Archives erfolgt die Installation durch sudo install.sh. Bei der Installation wird ein Lizenzschlüssel verlangt. Dieser
lautet 0KOIk2JeIBYClPWVnMoRKn5cdY4=.
1
Unter einem Device versteht man in diesem Zusammenhang in dieses Fall ein Eingabegerät.
Die Kinect besitzt drei. Den Teifensensor, die Videokamera sowie das Mikrophone.
iv
Projektgruppe
Virtual Reality
A. Anhang
e) Compileren der Softwarekomponenten: Das Compileren der Softwarekomponenten ist immer gleich, einzig die Reihenfolge ist von belang.
Zum Compilieren begibt man sich in den jeweiligen Ordner und gibt
cmake . && make ein. Die Reihenfolge ist wie in Grafik A.1 zu erkennen Logger, Testdog, Middleware, Frontend. Danach befindet sich sich
das Frontend-Programm in frontend/dist/bin/OgreApp.
A.3. Fragebogen
Jeder dieser Fragen soll mit einem Wert zwischen 0 und 10 ausgefüllt werden,
wobei eine 0 eine minimale Zustimmung und eine 10 eine maximale Zustimmung
bedeutet. Der Fragebogen wurde durch ein Online Formular bereit gestellt.
Auf dem Fragebogen waren folgende Fragen vorhanden:
• Wie gut konnten Sie in der virtuellen Welt agieren?
• Wie stark hat die virtuelle Umgebung auf Ihr Verhalten reagiert?
• Wie natürlich empfanden Sie die Interaktion mit der virtuellen Umwelt?
• Wie intensiv wurden Ihre Sinne angesprochen?
• Wie stark wurden Sie durch die Geräuschkulisse in die virtuelle Welt integriert?
• Wie natürlich empfanden Sie die Bewegung in der virtuellen Welt?
• Wie viel haben Sie während der Nutzung noch von der echten Welt wahrgenommen?
• Wie stark haben Sie bei der Nutzung die verwendeten Geräten wahrgenommen?
• Wie ähnlich waren ihre Erfahrungen in der virtuellen Welt im Vergleich zur
realen Welt?
v
Projektgruppe
Virtual Reality
A. Anhang
• Wie gut konnten Sie voraussehen was ihre Bewegungen für Konsequenzen
auf die Umwelt in der virtuellen Welt haben?
• Wie gut konnten Sie die virtuelle Welt visuell erkunden?
• Wie gut konnten Sie Geräusche identifizieren?
• Wie gut konnten sie Geräusche lokalisieren?
• Wie gut konnten Sie einzelne Objekte der virtuellen Welt in Anschau nehmen
und/oder benutzen?
• Wie gut konnten Sie einzelne Objekte in der virtuellen Welt in Bewegen
versetzen?
• Wie intensiv waren Sie in der virtuellen Welt integriert?
• Wie stark wurden Sie durch die verwendete Hardware bei der Nutzung abgelenkt?
• Wie stark war die Verzögerung zwischen Ihren echten Bewegungen und den
Bewegungen in der virtuellen Welt?
• Wie schnell haben Sie sich in die virtuelle Welt versetzt gefühlt?
• Wie gut haben Sie Ihre Möglichkeiten sich in der virtuellen Welt zu bewegen
und mit ihr zu interagieren am Ende der Nutzung eingeschätzt?
vi
Projektgruppe
Virtual Reality
A. Anhang
vii
Projektgruppe
Virtual Reality
A. Anhang
A.4. Erhobene Daten der Fragebögen
viii
Projektgruppe
Virtual Reality
A. Anhang
ix
Projektgruppe
Virtual Reality
A. Anhang
x
Projektgruppe
Virtual Reality
A. Anhang
xi
Projektgruppe
Virtual Reality
A. Anhang
A.5. Probandeninformation
xii
Projektgruppe
Virtual Reality
A. Anhang
xiii
Projektgruppe
Virtual Reality
A. Anhang
A.6. Einwilligungserklärung
xiv
Projektgruppe
Virtual Reality
A. Anhang
A.7. Seminararbeiten
xv
Seminararbeit
im Rahmen der Projektgruppe Virtual Reality
Virtual Reality - Geschichte
und Entwicklung
Matthias Bruns
Mai 2011
Carl-von-Ossietzky-Universität Oldenburg
Fachbereich Informatik
Inhaltsverzeichnis
1
DER BEGRIFF VIRTUAL REALITY
3
1.1
Definition
3
1.2
Kategorien von Virtual Reality
6
2
2.1
HISTORISCHE ENTWICKLUNG
Erste Entwicklungsschritte
7
7
2.2
Meilensteine des Virtual Reality
2.2.1
Head-Mounted-Display (1. Meilenstein)
2.2.2
Hochentwickelte 3D-Grafiken (2. Meilenstein)
2.2.3
Der Körper als Eingabegerät (3. Meilenstein)
2.2.4
Visual Experience CAVE (4. Meilenstein)
8
8
10
10
11
2.3
Fortführende Entwicklung
2.3.1
HMD-Technologie
2.3.2
Eingabegeräte
2.3.3
Bewegungsfreiheit
12
12
13
13
3
VIRTUAL REALITY HEUTE
15
4
AUSBLICK
17
5
LITERATUR
19
6
ABKÜRZUNGSVERZEICHNIS
21
Virtual Reality – Geschichte und Entwicklung
2
Einleitung
Diese Seminararbeit gibt einen Überblick über die geschichtliche Entwicklung von Virtual
Reality (VR) und den beteiligten Schlüsseltechnologien. Dafür werden zunächst im 1. Kapitel
der Begriff Virtual Reality und dessen Ausprägungen untersucht. Das 2. und 3. Kapitel
behandelt die historische Entwicklung ausgehend von vier Meilensteinen, den aktuellen
technischen Stand und die Bedeutung in unserer Gesellschafft. Das 4. Kapitel gibt einen
Ausblick auf die Zukunft des Virtual Reality.
In dieser Ausarbeitung wird die Bedeutung und der psychologische Hintergrund von
Immersion1 nicht näher erläutert, da dies bereits thematischer Schwerpunkt der Seminararbeit
von Jendrik Poloczek ist.
1
Immersion bezeichnet das Eintauchen in eine künstliche Welt.
Virtual Reality – Geschichte und Entwicklung
3
1 Der Begriff Virtual Reality
1.1 Definition
Der Begriff Virtual Reality wird in der Literatur sehr unterschiedlich aufgefasst. Während
beispielsweise die einen Definitionen für Virtual Reality einen möglichst hohen Grad an
Immersion thematisieren, ist das Kernelement anderer Definitionen nur das Erzeugen
möglichst realistischer 3D-Welten, die weder Immersion, noch Interaktion voraussetzen.
So wird Virtual Reality im Duden beispielsweise folgendermaßen definiert: "vom Computer
simulierte künstliche Welt, in der man sich mithilfe der entsprechenden technischen
Ausrüstung scheinbar hineinversetzten kann." (Der Duden 1999)
Im Kontrast dazu eine Definition von Hans-Jörg Bullinger: "Mit dem Begriff virtuelle
Realität wird meist die rechnergestützte Generierung eines möglichst perfekten sensorischen
Abbildes der realen Umwelt assoziiert." (Hans-Jörg Bullinger 1994)
Eine Gemeinsamkeit aller Definitionen ist jedoch die Schaffung einer computergenerierten
und vom Nutzer über Sinne aufgenommenen Realität. Mögliche Sinne sind Seh-, Hör-, Tastund Geruchssinn. Je mehr Sinne dabei genutzt werden, desto intensiver die Immersion.
Weiterhin wird in allen Definitionen von in Echtzeit gerenderten digitalen Welten gesprochen
und vorgerenderte Videosequenzen werden zum Teil ausgeschlossen. Computeranimierte
Filme in 3D und Surround-Sound, sowie Filme in Force-Feedback-Simulatoren sind demnach
nicht Virtual Reality zuzuordnen. (Bühl 1996, S.54 ff.)
Eine sehr allgemeingehaltene Beschreibung des Begriffs Virtual Reality stammt von
Alexander Henning: "Virtual Reality ist eine Mensch-Maschine-Schnittstelle, die es erlaubt,
eine computergenerierte Umwelt in Ansprache mehrerer Sinne als Realität wahrzunehmen."
(Alexander Henning, Die andere Wirklichkeit)
Diese Erläuterung ist sehr zutreffend, da sie im Vergleich zu vielen anderen Definitionen
nicht von einem „perfekten Abbild der realen Welt“ ausgeht, sondern von einer
computergenerierten Umwelt. Denn VR-Systeme setzen nur „mögliche“ künstliche Welten
voraus, nicht aber im Bezug zur Realität möglichst realitätsnahe Welten. Beispielsweise
können auch Sciencefiction-Elemente (zB. Raumschiffe, außerirdische Wesen usw.) in der
virtuellen Welt beim Anwender Immersion erzeugen und sind damit „mögliche Realitäten“.
Virtual Reality – Geschichte und Entwicklung
4
Weiterhin ist die Interaktion mit der virtuellen Welt keine Voraussetzung für ein
VR-System. Auch eine digitale Welt durch die sich der Nutzer passiv frei bewegen kann, ohne
mit der Umwelt interagieren zu können, vermag immersiv auf den Nutzer des Systems zu
wirken. Stereoskopie/3D-Brillen, sowie (3D)-Sound sind ebenfalls nur optionale Bestandteile
eines visuellen VR-Systems. Auch ohne visuelle Komponente sind virtuelle Welten
realisierbar. So können Nutzer beispielsweise allein auf akustischer Ebene in virtuelle Welten
versetzt werden. Binaurale Audiosignale über Kopfhörer ermöglichen dabei einen sehr hohen
Grad an Immersion. Somit können beispielsweise auch blinde Nutzer virtuelle Welten erleben.
(Bormann 1994, S. 25)
Nach dem Großteil der Definitionen sind auch Videospiele dem Virtual Reality zuzuordnen.
Das erste weltweit populäre Videospiel Pong aus dem Jahr 1972 ist beispielsweise die digitale
Nachbildung eines Tischtennis-Spiels. Aufgrund der grafisch minimalen Umsetzung ist der
Immersionsgrad jedoch sehr gering. Moderne Videospiele mit leistungsstarken
Grafik-Engines, Surround-Sound und mitreißendem Story-Background können Spieler
hingegen schon nach wenigen Minuten die reale Welt vergessen lassen. Mit steigender
Spieldauer steigt auch der Immersionseffekt auf den Spieler und er fühlt sich mehr und mehr in
die virtuelle Welt hineinversetzt. (vgl. Fritz 1997 und Halbach 1997, S. 157)
Heutzutage werden VR-Systeme in der Regel jedoch nicht mehr mit klassischen
Videospielen assoziiert, sondern mit Systemen, die die virtuelle Welt durch Head-Mounted
Displays realitätsnah begehbar machen.
Das Videospiel Pong aus dem Jahr 1972
Virtual Reality – Geschichte und Entwicklung
5
Zusammenfassend lässt sich Virtual Reality folgendermaßen definieren:
Virtual Reality bezeichnet Computer-Systeme, die den Nutzern über das Ansprechen
von ein oder mehreren Sinnen das Gefühl geben, sich an einem anderen Ort oder in einer
anderen Welt zu befinden, in der sie sich frei bewegen können. Die reale Welt soll dabei
von der virtuellen Welt aus dem Bewusstsein des Nutzers verdrängt werden und als
Realität wahrgenommen werden.
Weiterhin können die folgenden Mindestanforderungen an ein VR-System festgelegt werden:
-
Eine computergenerierte, dynamische und immersive Umwelt
Echtzeit Verarbeitung des Systems
Nutzer kann sich in der virtuellen Welt frei bewegen
Ansprechen des Nutzers über Seh-, Hör-, Tast- oder Geruchssinn
Um die Immersion zu erhöhen können dabei die folgenden Komponenten optional genutzt
werden:
-
2
Ansprechen weiterer Sinne
Interaktion mit der virtuellen Umwelt (z.B. Gegenstände bewegen)
Head-Tracking
Head-Mounted-Display (HMD)2
HMD mit 3DOF (Degrees of Freedom) Lagesensoren
HMD mit 6DOF Lagesensoren
Hoch entwickelte 3D-Engine
3D statt 2D Sounds (Binaural)
Stereoskopie (3D statt 2D Videowiedergabe)
Hand-Tracking
Skeleton-Tracking
Force-Feedback Systeme
Voice-Recording/Spracherkennung
Erläuterung der HMD-Technologie folgt in Kapitel 2.2.1
Virtual Reality – Geschichte und Entwicklung
6
1.2 Kategorien von Virtual Reality
In der Literatur wird Virtual Reality in drei unterschiedliche Kategorien mit unterschiedlichen
Immersionsgraden aufgegliedert (Kalawsky 1997, S. 11 ff.):
Desktop Virtual Reality
Bei einem Desktop VR-System wird für die visuelle Ausgabe an den Nutzer ein
Computer-Monitor oder ein TV-Bildschirm verwendet. Das Bild kann monoskopisch oder
stereoskopisch dargestellt werden. Bewegungen und Kopflage des Nutzers haben jedoch
keinen Einfluss auf das System.
Fishtank Virtual Reality
Fish Tank-VR Systeme berücksichtigen bei der Berechnung der Darstellungsansicht die
Blickrichtung des Nutzers durch ein Head-Tracking-Verfahren. Die Darstellung kann
monoskopisch oder stereoskopisch erfolgen, findet aber wie bei Desktop VR-Systemen vor
einem Computer-Monitor oder einem TV-Bildschirm statt. Durch das Head-Tracking können
Objekte zum Beispiel von mehreren Seiten betrachtet werden. Dadurch fühlt sich der Nutzer
intensiver in die virtuelle Welt hineinversetzt.
Immersive Virtual Reality
Diese Methode ermöglicht den höchstmöglichen Immersionsgrad. Sie wird durch ein
Head-Mounted-Display oder durch ein CAVE-System 3 realisiert. Beide Verfahren
ermöglichen es dem Nutzer, sich frei in der virtuellen Welt zu bewegen und Objekte von allen
Seiten zu betrachten. Im Gegensatz zu den Bildschirm-Methoden ist dabei die reale Welt für
den Nutzer nicht mehr wahrnehmbar.
3
Cave Automatic Virtual Environment, Beschreibung in Kapitel 2.2.4
Virtual Reality – Geschichte und Entwicklung
7
2 Historische Entwicklung
2.1 Erste Entwicklungsschritte
Viele Grundlagen, auf denen Virtual Reality aufbaut, stammen bereits aus einer Zeit weit vor
der Idee, künstliche Welten zu schaffen. Die stereoskopische Sicht wurde beispielsweise
bereits im 18. Jahrhundert erforscht. Erste Ansätze in Richtung Virtual Reality verfolgte die US
Air Force bei der Entwicklung der ersten Flugsimulatoren in den dreißiger Jahren. Diese
Systeme erlaubten jedoch keine Interaktion mit dem Nutzer und die Technik zur Erzeugung
von Immersion beschränkte sich dabei auf Erschütterungen des Piloten. (Halbach 1994, S. 231)
Ein sehr konkreter Entwurf eines VR-Systems stammt von Morton Heilig aus dem Jahr
1955. Doch erst 1962 baute er seine Idee “The Cinema of the Future” zu einem Prototypen aus,
das Sensorama. Doch auch diese Apparatur war analoger Natur und konnte nur 5 Kurzfilme
abspielen, ohne dass der Nutzer in den Ablauf eingreifen konnte. Die Filme wurden aber durch
Stimulation mehrerer Sinne begleitet. So wurde passend zum Inhalt der Filme Wind erzeugt,
Gerüche ausgegeben und der Sitz in Vibration versetzt. Weiterhin bot das Gerät Stereo-Ton und
eine stereoskopische 3D-Ansicht des Filmmaterials. Heilig setzte durch das Sensorama neue
Maßstäbe gemessen am Grad der Immersion. (Halbach 1994, S. 235)
Sensorama von Morton Heilig, 1962
Virtual Reality – Geschichte und Entwicklung
8
2.2 Meilensteine des Virtual Reality
Im Folgenden werden vier maßgebende Entwicklungen in der Geschichte des Virtual Reality
aufgeführt.
2.2.1 Head-Mounted-Display (1. Meilenstein)
Nach Vorgabe der Definition für Virtual Reality waren alle bisherigen Systeme nicht dem
Virtual Reality zuzuordnen, da sie nicht das Konzept von einer computergenerierten Umwelt,
in der sich der Nutzer frei bewegen kann, verfolgten. Die beschränkte analoge Technik ließ eine
solche Umsetzung nicht zu. Erst mit dem Aufkommen hochentwickelter digitaler
Rechnersysteme konnten visuelle Ausgaben erzeugt werden, dessen Perspektive der Nutzer in
Echtzeit beeinflussen konnte. Diese Entwicklung ebnete den Weg für den ersten Meilenstein
des Virtual Reality, das Head-Mounted-Display.
1965 entwickelte der damalige Harvard-Student Ivan Sutherland das Konzept „Ultimate
Display“. Ein am Kopf getragenes Display sollte dabei als visuelle Schnittstelle zwischen
Mensch und Maschine fugieren und dem Nutzer als Fenster in eine virtuelle Welt dienen. 3
Jahre später verwirklichte Sutherland seine Vision des „Ultimate Display“. 1968 gehört damit
zur Geburtsstunde des Head-Mounted-Displays und gilt als erster Meilenstein des Virtual
Reality. (Rheingold 1992, S. 117)
Sutherlands HMD basierte auf zwei kleine Kathodenstrahlen-Monitore vor den Augen des
Nutzers, die stereoskopische 3D-Ansichten ermöglichten. Ein Computer generierte in Echtzeit
die visuelle Ausgabe in Form von digitalen Drahtgitter-Modellen (Wireframe). Weiterhin
kamen zwei Head-Tracking-Verfahren zum Einsatz: Ultraschall und eine mechanische Vorrichtung. Damit war das HMD Eingabe- und Ausgabegerät zugleich. Die Anzeige der virtuellen
Welt wurde dabei durch die Kopflage des Nutzers beeinflusst. Sutherlands Konstruktion war
jedoch so schwer, dass das System mit einem Metallarm an der Decke befestigt werden musste.
(Bormann 1994, S. 96)
Vor Ivan Sutherlands Entwicklung gab es bereits andere Monitor-Brillen. Diese Modelle
zeigten jedoch nur statisches Bildmaterial oder Live-Videoaufnahmen und keine
computergenerierte Umwelt, in der sich der Nutzer frei umsehen konnte. Sutherlands HMD ist
damit der Definition nach das erste VR-System.
Virtual Reality – Geschichte und Entwicklung
HMD-Konstruktion von Ivan Sutherland, 1968
HMD-Brille von Ivan Sutherland, 1968
9
Virtual Reality – Geschichte und Entwicklung
10
2.2.2 Hochentwickelte 3D-Grafiken (2. Meilenstein)
Die praktischen Einsatzmöglichkeiten von Sutherlands HMD-System blieben durch die
rudimentären 3D-Darstellungsmöglichkeiten der damaligen Computertechnologie jedoch
eingeschränkt. Das führte dazu, dass es in den 60er und 70er Jahren aufgrund der technischen
Limitation nur geringfügige Weiterentwicklungen im Bereich des Virtual Reality gab.
Erst mit dem Aufkommen leistungsfähiger Grafik-Computer und 3D-Engines in den 80er
und 90er Jahren, konnten vielseitige Anwendungen und realistische virtuelle Welten
verzögerungsfrei dargestellt werden. Diese neuen Möglichkeiten trieben auch die
Entwicklungen im Bereich der Virtual Reality wieder voran. Von nun an konnten Designer die
vollimmersive 3D-Umgebung spezifisch an verschiedene Einsatzbereiche für Virtual Reality
anpassen.
Dabei profitiert der VR-Forschungsbereich insbesondere vom „Grafik-Boom“ durch die
Verbreitung von 3D-Videospielen auf dem Massenmarkt, vorangetrieben durch die
Unterhaltungsindustrie. (Brooks 1999, S. 16ff. und Thürmel 1993, S. 42)
2.2.3 Der Körper als Eingabegerät (3. Meilenstein)
Die neuen Anwendungsbereiche für Virtual Reality stellen auch neue Anforderungen an die
Interaktionsmöglichkeiten. Infolge dessen gründeten Thomas Zimmermann und Jaron Lanier
1984 in Kalifornien das Unternehmen Virtual Programming Languages (VPL) und
entwickelten einen Sensor-Handschuh als Eingabegerät für interaktive Systeme. 1986 brachte
VPL den DataGlove auf den Markt. Dieser Handschuh erfasste in Echtzeit die Bewegungen der
Finger und bestimmte die Lage im Raum und die Ausrichtung der Hand des Nutzers. Dieses
System ermöglichte erstmals einen Körperteil einer Person zu digitalisieren und für
Interaktionszwecke in eine virtuelle Welt zu übertragen. Die Bewegungen der virtuellen Hand
gleichen dabei denen der Hand des Nutzers. In Kombination mit einem HMD konnten somit
beispielsweise Gegenstände im VR-Raum gegriffen, transportiert und wieder abgelegt werden.
(Bormann 1994, S. 41)
Ende der 80er entdeckte auch die Unterhaltungsindustrie das Potential von Virtual Reality.
So wurde der Power Glove als Weiterentwicklung des DataGlove als Consumer-Produkt für die
Spielkonsole Nintendo Entertainment System verkauft.
Virtual Reality – Geschichte und Entwicklung
11
Power Glove, Nintendo, 1989
2.2.4 Visual Experience CAVE (4. Meilenstein)
Eine bis heute einflussreiche Alternative zu Head-Mounted-Displays für hoch immersives
Virtual Reality entwickelten Forscher an der University of Illinois in Chicago. 1992
präsentierten sie der Öffentlichkeit die Visual Experience CAVE (Cave Automatic Virtual
Environment), ein quaderförmiger Raum, an dessen Seitenflächen die grafische Ausgabe des
VR-Systems projiziert wird. Die projizierten stereoskopischen Bilder werden dabei von den
Nutzern mit LCD-Shutter-Brillen betrachtet. Die Position und Blickrichtung der in der CAVE
befindlichen Person wird von Trackern erfasst, an den verarbeitenden Computer weitergeleitet
und anschließend bei der visuellen Ausgabe berücksichtigt. Die dabei mögliche 360 Grad
Drehung des Kopfes, sowieso die hohe Auflösung der einzelnen Bildflächen erzeugen einen
sehr hohen Immersionsgrad. Nachteile der CAVE-Technologie sind hohe Kosten, hoher
Platzbedarf, hoher Rechenaufwand für die Grafikerzeugung und die eingeschränkte
Bewegungsfreiheit des Nutzers. (Sandin 1996, S. 84 ff.)
Virtual Reality – Geschichte und Entwicklung
12
CAVE-Umgebung
2.3 Fortführende Entwicklung
Die Technologien rund um Virtual Reality wurden im Laufe der Zeit grundlegend
weiterentwickelt und neuen Anforderungsbereichen angepasst. Wichtige Fortschritte der
Schlüsseltechnologien werden im folgendem erläutert:
2.3.1 HMD-Technologie
Das Grundkonzept von Ivan Sutherlands HMD hat sich nicht geändert, jedoch haben neue
Technologien die Bauweise der Brille beeinflusst. Wichtigster Punkt ist dabei der Wechsel von
Kathodenstrahlen-Monitoren zu LC-Displays (Liquid Crystal Display), die eine wesentlich
leichtere und schmalere Bauweise ermöglichten. Das erste HMD mit LCD-Technologie wurde
1985 entwickelt. Auch neue Tracking-Verfahren sorgten für ein neues Erscheinungsbild der
Brillen. Heutige HMD´s verwenden im Gegensatz zu Sutherlands Modell keinen mechanischen
Arm zur Positionsbestimmung, sondern platzsparend in die Brille integrierte 6DOF (Degrees of
Freedom) Lagesensoren, die der Anwendung X-, Y-, Z-, sowie Richtungsdaten bereitstellen.
Weiterhin bieten heutige HMD´s hohe Display-Auflösungen und einen hohen Tragekomfort
durch kabellosen Betrieb und einer ergonomischen Bauform. HMD´s für den Consumer-Markt
mit einer Auflösung von 640*480 Pixeln werden bereits für 300€ angeboten.
Virtual Reality – Geschichte und Entwicklung
13
2.3.2 Eingabegeräte
Die Entwicklung von Eingabegeräten für Virtual Reality wurde in erster Linie durch neue
Tracking-Verfahren vorangetrieben (Bormann 1994, S. 57). Kleinere Bauteile ermöglichten
beispielsweise die Herstellung von wesentlich ergonomischeren Datenhandschuhen, dessen
Elektronik immer weniger sicht- und spürbar wurde. Weiterhin wurden ganze Daten-Anzüge
hergestellt, die den kompletten Körper des Nutzers in der virtuellen Welt abbilden. Auch die
Unterhaltungselektronik hat neue Eingabegeräte zur Marktreife gebracht. Zu nennen ist
einerseits die Nintendo Wii, dessen Controller Beschleunigungs- und Lagedaten an die
Spielkonsole weitergibt. Und zum anderen die von Microsoft entwickelte Kinect, die durch
Infrarotkameras den kompletten Körper des Spielers digital erfasst und in Videospiele
integriert. Sowohl die Nintendo Wii, als auch die Microsoft Kinect finden häufig bei
Forschungsprojekten im Rahmen von Virtual Reality Verwendung.
2.3.3 Bewegungsfreiheit
VR-Systeme boten in ihrer bisherigen Form nur eine eingeschränkte Bewegungsfreiheit,
solange die Fortbewegung in der virtuellen Welt für einen möglichst hohen Immersionsgrad
durch Gehen/Laufen in der realen Welt umgesetzt werden sollte. Um diese Einschränkung zu
umgehen wurden zwei Systeme entwickelt, die das Laufen des Nutzers zulassen, aber ihn
dennoch immer an der selben Position im Raum halten. Ein Konzept basiert auf einer
Vorrichtung aus Laufbändern, die eine Person in alle Himmelsrichtung befördern kann. Damit
kann die laufende Person immer wieder in den Mittelpunkt der mechanischen Vorrichtung
gefahren werden. Der Immersionsgrad der durch diese Technik erreicht werden kann ist sehr
hoch. Nachteile dieser Methode sind jedoch der sehr hohe Platzbedarf, ein hoher
Energieverbrauch und die hohen Herstellkosten. (mpg.de - Max-Planck-Gesellschafft
Pressebericht)
Virtual Reality – Geschichte und Entwicklung
14
Cyberwalk-Umgebung
Das zweite Konzept ist die sogenannte VirtuSphere. Dieses Modell ist mit dem Prinzip eines
Hamster-Rads zu vergleichen. Eine große Kugel, die den Nutzer vollkommen umschließt, dreht
sich beim Laufen in alle Himmelsrichtungen mit. Somit kann der Nutzer in der virtuellen Welt
beliebig weite Strecken zurücklegen, ohne seine Position in der realen Welt zu verändern.
(virtusphere.com)
VirtuSphere
Virtual Reality – Geschichte und Entwicklung
15
3 Virtual Reality Heute
Die Bedeutung von VR-Technologien hat sich im Laufe der Jahre auf unterschiedliche Brachen
ausgeweitet. Während in den Anfangsjahren in erster Linie militärische Organisationen die
Forschung und Entwicklung von Virtual Reality vorantrieben, sind mittlerweile viele
unterschiedliche Branchen an der Weiterentwicklung beteiligt. In erster Linie sind hier der
kreative Sektor (Designprozesse durch Virtual Reality) und die Unterhaltungsbranche (neue
Eingabetechnologien und Entwicklung von leistungsstarken Grafik-Plattformen) zu nennen.
Bis heute haben sich die folgenden Einsatzbereiche für Virtual Reality hervorgehoben:
-
Simulation
In VR-Simulationen sollen möglichst realitätsnah Situationen durchgespielt werden, die
sonst nicht durchführbar sind oder bei Durchführung in der Realität sehr hohe Kosten
verursachen würden. Zum Beispiel die Piloten-Ausbildung im militärischen und
privaten Sektor. (DARPA.mil)
-
Entertainment
Im Bereich der Unterhaltungselektronik kommen VR-Systeme in erster Linie für
Videospiele zum Einsatz. Zum Beispiel Head-Mounted-Displays die sich an Personal
Computer anschließen lassen und von verschiedenen PC-Spielen unterstützt werden.
(Dysart 1994, S. 19)
-
CAD
Virtual Reality basiertes Computer Aided Design (CAD) kommt heute bereits in sehr
vielen Unternehmen im kreativen Sektor zur Anwendung. Dabei lassen sich die
entworfenen Modelle von allen Seiten betrachten oder begehen und ermöglichen es den
Designern, ein “Gefühl“ für das fertige Produkt zu erhalten. Teure Prototypen lassen
sich so teilweise vermeiden. Virtual Reality-CAD wird beispielsweise in Form von
CAVE-Systemen häufig beim Entwurf von Fahrzeugen oder bei der
Gebäudeplanung/Architektur eingesetzt. (Brooks 1986, S. 10 ff.)
Virtual Reality – Geschichte und Entwicklung
16
-
Medizin
Im Gesundheitswesen werden bereits chirurgische Ausbildungen von VR-Systemen
unterstützt. Weiterhin werden häufig Head-Mounted-Displays in Kombination mit sehr
immersiven und unterhaltenden 3D-Welten verwendet, um Patienten bei medizinischen
Eingriffen zu beruhigen oder um Schmerzen zu lindern. (Völter 1995, Seite 5 ff.)
-
Bildung
In Museen und wissenschaftlichen Lehreinrichtungen werden teilweise VR-Systeme
genutzt, um Wissen an (in erster Linie jungen) Schülern zu vermitteln. Das für die
Schüler aufregende und außergewöhnliche Erlebnis hat einen nachhaltigeren
Lernprozess zur Folge. (Holloway 1995, S. 35 ff.)
Virtual Reality – Geschichte und Entwicklung
17
4 Ausblick
Von einem hundert prozentigem Immersionsgrad, wie in der Hollywood Produktion „The
Matrix“ (Science-Fiction Film, 1999) oder das Holodeck 4 aus dem Star Trek Universum
(TV-Serie, 1987) ist der heutige Stand der Entwicklung noch viele Jahrzehnte und viele
Meilensteine entfernt.
Die zukünftigen Entwicklungen in der Virtual Reality werden vermutlich durch die stetige
Weiterentwicklung der bisherigen Schlüsseltechnologien geprägt sein. 3D-Engines werden
durch die Befeuerung der rasant wachsenden Gaming-Branche immer realistischere virtuelle
Welten generieren können. Head-Mounted-Displays werden immer leistungsfähiger
(Bildqualität), handlicher und in unsere Umwelt integriert. Die „Virtual Retinal
Display“-Technologie wird bei den HMD´s der nächste große Entwicklungsschritt sein. Diese
Technologie projiziert das Bild direkt auf die Netzhaut des Anwenders. (washington.edu)
Weiterhin ist davon auszugehen, dass sich HMD´s gegenüber den CAVE-Systemen
langfristig durchsetzen werden, da die CAVE-Technologie nicht das vollständige Ausblenden
des Nutzers selbst zulässt, was beispielsweise für das Tragen von Sensoranzügen notwendig ist.
Eines der größten Herausforderungen des Virtual Reality, die Entwicklung von haptischen
VR-Systemen, ist aktuell noch sehr rudimentär ausgeprägt. Der nächste Meilenstein dieses
Forschungsbereichs könnte ein Ganzkörperanzug sein, der einzelne Körperzonen des Nutzers
stimulieren kann, um Widerstände und andere Krafteinwirkungen auf den Körper der virtuellen
Welt zu simulieren.
Der aktuelle Trend von Augmented Reality (AR) Anwendungen durch die steigende
Verbreitung von Smartphones kann zu Synergieeffekten im Zusammenhang mit Virtual Reality
führen. Im Rahmen der Definition für Virtual Reality ist Augmented Reality jedoch kein
Teilbereich von Virtual Reality. AR-Systeme erweitern die reale Welt zwar um virtuelle
Komponenten, jedoch wird der Nutzer nicht aus seiner Welt gezerrt und in eine neue virtuelle
Realität befördert. Er befindet sich aus seiner Sicht noch immer in seiner realen Umwelt.
4
Das Holodeck ist ein fiktiver Raum, der ohne zusätzliche Geräte (z.B. HMD) virtuelle Welten darstellt und dabei
zu 100% immersiv ist. Ist eine virtuelle Welt geladen, kann eine darin befindliche Person nicht mehr spüren dass
sie sich noch im Holodeck befindet.
Virtual Reality – Geschichte und Entwicklung
18
Immersion findet folglich nicht statt. Aufgrund der Ähnlichkeiten in der verwendeten
Hardware- und Softwarestruktur (HMD, Tracking, 3D-Engines) ist es jedoch demselben
Forschungsbereich wie Virtual Reality zuzuordnen.
Zusammenfassend lässt sich sagen, dass Virtual Reality nach den Startschwierigkeiten im
20. Jahrhundert, langfristig vermutlich eines der Schwerpunkt-Technologien sein wird, die
unser zukünftiges Leben in der digitalen Welt bestimmen werden. Wann und ob wir jemals
VR-Telefonate mit Freunden im Ausland führen oder uns das erste Mal per VR-Fernchirurgie
operieren lassen, lässt sich zum jetzigen Zeitpunkt jedoch noch nicht bestimmen.
Virtual Reality – Geschichte und Entwicklung
19
5 Literatur
[Brooks 1986]
Jr. Brooks: Walkthrough - A Dynamic Graphics System for Simulating
Virtual Buildings. 1986.
[Brooks 1999]
Jr. Brooks/P. Frederick: What’s Real About Virtual Reality. 1999.
[Bühl 1996]
A. Bühl: CyberSociety - Mythos und Realität der Informationsgesellschaft. PapyRossa Verlag 1996.
[Bormann 1994]
S. Bormann: Virtuelle Realität: Genese und Evaluation. 1994.
[DARPA.mil]
Defense Advanced Research Projects Agency. http://www.darpa.mil.
22.05.2011.
[Dysart 1994]
J. Dysart: VR Goes to Hollywood - Virtual Reality World. 1994.
[Fritz 1997]
J. Fritz: Computerspiele - Theorie, Forschung, Praxis, Bundeszentrale
für Medien 1997.
[Halbach 1994]
W. Halbach: Reality Engines. Wilhelm Fink Verlag 1994.
[Halbach 1997]
W. Halbach: Virtual Realities, Cyberspace und Öffentlichkeiten. Wilhelm Fink Verlag 1994.
[Holloway 1995]
R. Holloway: Virtual Environments - A Survey of the Technology. 1995.
Virtual Reality – Geschichte und Entwicklung
20
[Kalawsky 1997]
R. Kalawsky: VRUSE - a computerised diagnostic tool: for usability
evaluation of virtual/synthetic environment systems, Applied ergonomics. 1997.
[mpg.de]
Max-Planck-Gesellschafft.
http://www.mpg.de/497063/pressemitteilung20050420. 23.05.2011.
[Rheingold 1992]
H. Rheingold: Virtuelle Welten. Reisen im Cyberspace. 1992.
[Sandin 1996]
D. Sandin: CAVE - das virtuelle Theater. 1996.
[Thürmel 1993]
S. Thürmel: Virtuelle Realität. Ursprung und Entwicklung eines Leitbildes in der Computertechnik. Karlheinz 1993.
[virtusphere.com]
Projekt VirtuSphere. http://www.virtusphere.com. 19.05.2011.
[Völter 1995]
S. Völter: Virtual Reality in der Medizin I - Stand, Trends, Visionen.
1995.
[washington.edu ]
„Virtual Retinal Display“-Technologie.
http://www.hitl.washington.edu/projects/vrd. 12.05.2011.
Virtual Reality – Geschichte und Entwicklung
6 Abkürzungsverzeichnis
AR
= Augmented Reality
CAD
= Computer-Aided Design
CAVE
= Cave Automatic Virtual Environment
DOF
= Degrees of Freedom
HMD
= Head-Mounted-Display
HMD
= Head-Mounted-Display
LCD
= Liquid Crystal Display
VPL
= Virtual Programming Languages
VR
= Virtual Reality
21
Carl-von-Ossietzky-Universität Oldenburg
Projektgruppe Virtual Reality
Prof. Dr. Wolfgang Kowalk
Dipl.-Inf. Stefan Brunhorn
Sommersemester 2011
Virtual Reality und der Einsatz in der Praxis
3. Juli 2011
Justin Philipp Heinermann, B.Sc.
Matrikel-Nr.: 9774500
Studiengang: M.Sc. Informatik, 2. Fachsemester
Anschrift: Lehms 2, 26197 Großenkneten
E-Mail: justin.heinermann@informatik.uni-oldenburg.de
Inhaltsverzeichnis
1 Einleitung
1
3 Der Einsatz von Virtueller Realität in der Praxis
3.1 Anwendungsmöglichkeiten . . . . . . . . . . . . . . . . . . . . . .
3.2 Planung des Einsatzes von VR . . . . . . . . . . . . . . . . . . . .
3.3 VR-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
5
6
7
2 Virtuelle Realität
2.1 Ausgabe virtueller Welten . . . . . . . . . . . . . . . . . . . . . . .
2.2 Eingabemöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . .
4 Einsatz im Automobilbereich
5 Virtuelle Realität im medizinischen Bereich
5.1 Neurochirurgie . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Radiologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Psychologische Behandlung . . . . . . . . . . . . . . . . . . . . . .
6 Fazit und Ausblick
Literatur
1
3
4
9
10
11
11
12
14
16
i
1 Einleitung
Die Idee von virtuellen Realitäten ist zwar nicht allzu neu, wurde aber in den
letzten Jahren stark fortentwickelt und findet eine immer weitere Verbreitung.
Dies gilt insbesondere für das industrielle Umfeld, in dem durch Virtual Reality
wirtschaftliche Vorteile erzielt werden und das Arbeiten oft stark vereinfacht
wird [Hau10, p. 17]. Lösungen, die als Beweisstudien mit Prototypen und Selbstbauten im Forschungs- und Hobbybereich bereits beeindruckende Ergebnisse
liefern, müssen als industrielle Werkzeuge sorgfältig für die Anforderungen im
produktiven Umfeld geprüft und angepasst werden.
Diese Arbeit widmet sich dem praktischen Einsatz virtueller Realitäten. Hierbei
sind Anwendungsgebiete im ingenieursmäßigen und industriellen Umfeld von
besonderem Interesse. In Kapitel 2 sollen zunächst die Konzepte von virtueller Realität sowie verschiedener Implementierungen beschrieben werden. Der
tatsächliche Einsatz dieser Techniken in der Praxis ist Gegenstand von Kapitel
3. Neben möglichen Techniken und den Möglichkeiten, die sich hier eröffnen
werden hier auch die Anforderungen für einen sinnvollen Einsatz erläutert, die
sich insbesondere im industriellen Umfeld ergeben. Anschließend sollen noch
zwei konkretere Szenarien als wichtige Beispiele für den heutigen Einsatz von
Virtual Reality dienen: Kapitel 4 befasst sich mit dem Einsatz in der Automobilindustrie, Kapitel 5 hat medizinische Anwendungen zum Gegenstand. Diese sollen
einen exemplarischen Ausschnitt aus den vielfältigen und unterschiedlichen
Anwendungsmöglichkeiten geben.
Bei allen Anwendungen stellt sich die Frage, inwieweit diese neuartigen Techniken Akzeptanz finden und wie sich dies in Zukunft ändern wird. In Kapitel 6 wird
dies abschließend beurteilt und ein kurzer Ausblick auf mögliche Entwicklungen
gegeben.
2 Virtuelle Realität
In diesem Kapitel soll nun zunächst der Begriff der virtuellen Realität, im Folgenden auch mit VR abgekürzt, eingeführt werden. Anschließend werden die
verschiedenen existenten Einsatzformen und Techniken beschrieben. Die verschiedenen Einsatzszenarien werden im nachfolgenden Kapitel 3 behandelt.
1
Schlägt man den Begriff „virtuelle Realität“ im Lexikon nach, findet man dort
folgende Begriffsklärung:
„virtuelle Realität, Cyberspace [’saIb@speIs], mittels Computer simulierte
dreidimensionale Räume, in denen sich der Benutzer mithilfe elektron.
Geräte (wie Monitorbrille, Datenhandschuh) sowie umfangreicher Software
(u.a. für die Spracherkennung und Geräuschsynthese) bewegt.“ [BR03]
Diese Beschreibung des Begriffes bleibt recht allgemein und liefert nur eine
eingeschränkte Sicht auf die möglichen Bedeutungen. Bei den vielen möglichen
Definitionen sind für Hausstädter [Hau10] die drei wichtigsten Eigenschaften
von virtuellen Realitäten die folgenden:
• Es liegt eine Echtzeitumgebung vor.
• Der Benutzer verspürt Immersion, also das Gefühl, sich tatsächlich in der
virtuellen Realität zu befinden.
• Die virtuelle Welt kann interaktiv verändert werden.
Mit diesen Eigenschaften als Definition lässt sich der Begriff der virtuellen Realität
auf sinnvolle Weise abgrenzen von anderen Präsentationsformen wie z. B. einer
realistisch wirkenden Filmdarbietung.
Abbildung 1: Stereoskop
Die ersten technischen Bestrebungen, die den Grundstein für VR legten, liegen
schon lange zurück [Bri08]: Bereits 1832 schuf Charles Wheatstone das Stereoskop für die räumliche Sicht (siehe Abb. 1). Flugzeugsimulatoren kamen bereits
während des ersten Weltkrieges zum Einsatz, um Piloten zu schulen. Das erste
Head-Mounted-Display wurde 1970 an der Universität von Utah aufgebaut. Es
wurde jedoch klar, dass die zu dieser Zeit verfügbare Hardware noch nicht für
diese Art der Anwendung ausreichte. Dies sollte sich erst in den 1980er Jahren
ändern, als bessere Head-Mounted-Displays und der Datenhandschuh eingeführt wurden. Zu Beginn der 1990er Jahre wurde die CAVE (Cave Automatic
2
Virtual Environment) entwickelt: Hierbei handelt es sich um einen würfelförmigen Raum, der dem Benutzer eine neue Art der virtuellen Realität bot. War man
in den Anfangstagen von VR noch sehr weit entfernt von einem realitätsnahen
Erleben, können diese Techniken heutzutage Anwendung in vielen Bereichen
finden: Hierzu zählen Medizin, Entertainment, industrielle Entwicklung von
Produkten und viele weitere. Die technischen Entwicklung auf diesem Gebiet
laufen in einem rasanten Tempo und führt zu immer höheren erreichten Immersionsgraden. Auch gibt es neue Anwendungsgebiete wie z. B. Augmented Reality.
Bei dieser Technik wird die reale Welt mit virtuellen Elementen ergänzt. Auf
diese Techniken soll aber in dieser Arbeit wegen des Umfangs nicht detaillierter
eingegangen werden.
2.1 Ausgabe virtueller Welten
Wichtig für die Wirkung einer VR-Umgebung ist die optische Darstellung der
Welt. Damit eine räumliche Wirkung mit Tiefeneindruck entsteht, ist hier insbesondere die perspektivische Darstellung von Bedeutung [Bri08].
Für die realistische Wirkung und Immersion ist insbesondere das Konzept der
Stereoskopie wichtig: Das menschliche Gehirn vereint die beiden Einzelbilder
zu einem räumlichen Bild [Bri08]. Für die Ausgabe eines Computerprogrammes
bedeutet dies, dass pro Auge ein Bild berechnet werden muss. Es stehen hierfür
verschiedene Möglichkeiten zur Verfügung [Hau10, Bri08]: Beim AnaglyphenVerfahren trägt der Benutzer eine Rot/Grün bzw. Rot/Blau-Brille. Die Bilder werden je Auge so eingefärbt, dass sie nur das linke bzw. das rechte Brillenglass
passieren können. Diese ist das kostengünstigste und einfachste Verfahren. Der
größte Nachteil ist aber, dass die Farben sehr stark verfälscht werden und die
Wirkung sehr darunter leidet. Daher kommt es für eine industrielle Anwendung
nicht in Frage.
Ein weit verbreitetes Verfahren ist der Einsatz von Polarisationsfiltern (auch
Passiv-Stereo genannt [Hau10]), welche in den Gläsern einer Brille zum Einsatz
kommen und so beispielsweise das jeweilige Bild von zwei Projektoren nur das
jeweils richtige Auge erreichen lassen. Im Gegensatz zum Anaglyphen-Verfahren
gehen hier keine Farbinformationen verloren.
Eine andere Möglichkeit ist das Aktiv-Stereo-Verfahren, bei dem sogenannte
3
Shutter-Brillen zum Einsatz kommen. Hier wird in hoher Frequenz jeweils nur
eine Seite der Brille geöffnet. Synchron dazu muss per Monitor oder Projektor
das Bild für das jeweilige Auge gezeigt werden. Dieses Verfahren ist teurer als
die beiden erstgenannten, liefert aber auch die deutlich besten Ergebnisse, da die
beiden Bilder wirklich getrennt dargestellt werden.
Im Gegensatz zu den drei genannten Verfahren mit Brillen mit Wellenlängenoder Zeitmultiplex besteht bei Head-Mounted-Displays auch die Möglichkeit, zwei
kleine Bildschirm direkt vor den Augen zu platzieren. Dies liefert beispielsweise
mit eingebauten Kopfhörern und Neigungssensoren eine gute Immersion, ist
jedoch mitunter unbequem und hat die Einschränkung, dass es nur für eine
Person geeignet ist [Bri08].
Für die Immersion ist auch die akustische Wahrnehmung sehr wichtig. Diese
liefert dem menschlichen Gehirn wesentliche Informationen zu den räumlichen
Gegebenheiten der Umgebung. Insbesondere das Zusammenspiel zwischen optischen und akustischen Reizen steigert die Immersion [Bri08]. Eine Möglichkeit
der Wiedergabe-Hardware sind Stereo-Lautsprecher oder Kopfhörer. Eine bessere räumliche Ortung machen jedoch in den meisten Fällen Surround-Boxen
möglich, die den Benutzer z. B. mit fünf Lautsprechern aus fünf verschiedenen
Richtungen beschallen[Bri08].
Außer den beiden genannten Ausgabemöglichkeiten ist auch noch die haptische
Ausgabe zu nennen, die dem Benutzer taktile Signale übermittelt. Dies ist zum
Beispiel bei einem Force-Feedback-Eingabegerät der Fall: Hier wird durch eine
Gegenkraft das „realitätsnahe Manipulieren mit Objekten“ [Hau10] gestattet.
2.2 Eingabemöglichkeiten
Damit der Benutzer mit der virtuellen Welt interagieren und Daten manipulieren
kann, benötigt man Techniken für die Eingabe. Für immersives Arbeiten kommt
meistens eine Form des Tracking, also Positions- und Lagebestimmung, zum
Einsatz. Dabei kommen mechanische, elektromagnetische, optische, akustische
und inertiale Wirkprinzipien zum Einsatz sowie verschiedene hybride Verfahren. Denkbar sind Kameras, Datenhandschuhe, Zeigegeräte oder Lagesensoren.
Welches Verfahren eingesetzt wird, hängt von Anwendung und Budget ab.
4
3 Der Einsatz von Virtueller Realität in der Praxis
In vielen Bereichen findet virtuelle Realität immer weitere Verbreitung. Einer
davon ist das industrielle Umfeld, in dem sich durch VR neue Möglichkeiten
eröffnen. In Abschnitt 3.1 werden verschiedene Szenarien beschrieben, in denen
sich der VR-Einsatz als sinnvoll erwiesen hat. Bei den vielen Vorteilen darf jedoch
nicht vergessen werden, dass es auch eine Reihe von Nachteilen gibt. Die daher
notwendige sorgfältige Planung wird in Abschnitt 3.2 erläutert. Abschnitt 3.3 hat
die in Frage kommenden VR-Systeme und Softwarewerkzeuge zum Gegenstand.
3.1 Anwendungsmöglichkeiten
Es gibt viele denkbare Formen der Anwendung. Neben der eigentlichen Präsentation bietet sich insbesondere die Nutzung für technische Anwendungen an. Zu
den Aufgaben, für die VR in Frage kommt, zählen folgende:
Kunst und Kultur Von Unterhaltung über Bildung und künstlerisches Gestalten
ergeben sich hier vielfältige Möglichkeiten.
Medizin Unterstützung und Vorbereitung von Operationen, Schulung, Psychologie (siehe Kapitel 5)
Militär Kriegsführung, Training, Simulation
Architektur Visualisierung, Planung, Variantenvergleiche, Machbarkeitsstudien
Technische Anwendungen Produktion, Computer Aided Design, Computer
Aided Manufacturing, Visualisierung, Statik, Konfiguration, Simulation,
Logistik [Hau10]
Bei den einzelnen Einsatzgebieten gibt es große Überschneidungen.
Auch wenn die Leistungsfähigkeit der verfügbaren Hardware weiter steigt, ist
immernoch ein relativ großer Aufwand damit verbunden, hochwertige Ergebnisse zu erzielen [Hau10]. Es stellt sich die Frage, welche Vor- und Nachteile
die Nutzung von VR mit sich bringt. Nach Hausstädtler ist der größte Vorteil
von „immersiv-stereoskopischer Visualisierung [. . . ] die genaue Einhaltung des
Objektmaßstabs“[Hau10]. Neben den Vorteilen der immersiven Visualisierung
und Eingabe ergeben sich auch erhebliche Nutzeffekte, die vor allem aus betriebswirtschaftlicher Sicht positiv zu bewerten sind[Hau10]:
5
• Zeiteinsparung bei der Produktentwicklung und Vermarktung
• Steigerung der Qualität
• Reduktion der Kosten
Problematisch ist hierbei, dass die Effekte oft erst langfristig erkennbar sind und
auf der anderen Seite hohe Anschaffungs- und Wartungskosten ins Gewicht fallen.
Die daher nötige sorgfältige Planung wird im folgenden Abschnitt beschrieben.
3.2 Planung des Einsatzes von VR
Da es viele verschiedene Techniken gibt um VR zu verwenden, wie in Abschnitt
3.3 erläutert wird, müssen bei der Planung des Einsatzes grundlegende Fragen geklärt und die Anforderungen genau analysiert werden. Einer Über- oder
Unterdimensionierung des Investitionsbedarfes kann nur mit klar formulierten
Anforderungen vorgebeugt werden [Hau10].
Bei der Analyse der Visualisierungsaufgabe aus betrieblicher Sicht sollten zunächst Ziele und Schwerpunkte formuliert werden sowie festgelegt werden,
welches Publikum angesprochen werden soll. Es ist zu berücksichtigen, wie
häufig die Technik zum Einsatz kommt und welche Mitarbeiter sich um diese kümmern können. Ebenso sind Platzbedarf und laufende Kosten wichtige
Fragen, die im Vorfeld geklärt werden müssen. Eine vollständigere Liste von
Entscheidungskriterien kann man in [Hau10, Kapitel 2.1] nachlesen.
Eine Kosten-Nutzen-Rechnung für den VR-Einsatz lässt sich nur relativ schwierig
aufstellen. Neben einfach messbarer Fakten wie der anfänglichen Investition und
Personal-, Wartungs- und Betriebskosten, spielen hier auch schwerer zu beurteilende Faktoren eine Rolle: Lassen sich Zusammenkünfte und Präsentationen
vereinfachen und verbessern? Lassen sich Kosten einsparen? Wird interdisziplinäre Kommunikation vereinfacht?
Ob ein VR-System zum Einsatz in einem bestimmten Gebiet geeignet ist, hängt
also von vielen Faktoren ab. Oft muss man hier abwägen zwischen Anforderungen, die sich gegenseitig ausschließen oder erschweren. Im nächsten Abschnitt
werden die grundsätzlich verfügbaren Arten von VR-Umgebungen dargestellt,
die unterschiedliche Vor- und Nachteile haben.
6
3.3 VR-Systeme
„Ein minimales VR-System benötigt einen Computer und die Möglichkeit
einer stereoskopischen grafischen Ausgabe. Ob Audio oder ein Datenhandschuh verwendet werden, hängt vor allem von der Anwendung ab.“ [Bri08]
Da eine VR-Anwendung oft sehr viel Rechenleistung erforderlich macht, ist ein
einzelner Computer oft nicht ausreichend und es kommen Cluster von beispielsweise zehn leistungsfähigen PC zum Einsatz [Hau10].
Die ersten Anwendungen im VR-Bereich verwendeten ein Head Mounted Display (kurz HMD). Ein solches ist in Abb. 2(a) dargestellt. Ein HMD bietet neben
der stereoskopischen Ausgabe oft Positionsverfolgung sowie Stereokopfhörer.
Die Immersion ist hier sehr groß, da die reale Welt großenteils ausgeblendet
werden kann [Bri08]. Für industrielle Anwendungen kommt dieses Verfahren
oft nicht in Frage, da man aus ergonomischen Gesichtspunkten meist nicht sehr
lange mit einem solchen Gerät arbeiten kann und sie außerdem nur für einen
Benutzer geeignet sind [Hau10].
(a) „Head Mounted Display“ [HMD]
(c) „Powerwall“ [Pow]
(b) „CAVE“ [Cav]
(d) „Bench“ [Wor]
Abbildung 2: Verbreitete VR-Systeme
Seit den 1990er Jahren werden meist Projektoren eingesetzt, die das stereoskopische Bild auf eine Leinwand werfen [Bri08]. Für den räumlichen Eindruck
7
kommen hier oft mehrere Leinwände zum Einsatz, die den bzw. die Benutzer
umgeben. Es haben sich für den industriellen Einsatz drei Gerätetypen etabliert
[Hau10]:
CAVE Die Cave Automatic Virtual Environment (siehe Abb. 2(b)) bietet mit einem
würfelförmigen Raum aus 3-6 Projektionswänden einen sehr hohen Grad an
Immersion. Sie kann für Automobilbau, Anlagen- und Fabrikplanung sowie
Entertainment verwendet werden und ist für mehrere Personen geeignet.
Die Kosten belaufen sich auf bis zu 1 Mio. e.
Powerwall Eine Powerwall (siehe Abb. 2(c)) ist eine ebene oder gekrümmte
Projektionswand, die für viele Personen geeignet ist. Bei mittelhohem
Immersionsgrad bietet sie universelle Anwendung. Die Kosten belaufen
sich auf ca. 100T - 500T e.
Bench Eine Bench (siehe Abb. 2(d)) ist angelehnt an das Konzept einer Werkbank.
Dieses kompakte Tischsystem ist für kleinere Objekte geeignet und bietet
eher einen geringen Immersionsgrad, kostet dafür aber auch nur ca. 150T e.
Neben diesen gibt es auch eine Vielzahl an speziell angefertigten Unterarten.
Außerdem existieren auch portable Geräte in Tischform, die sich für die Präsentation außer Haus nutzen lassen [Hau10].
Bei allen diesen Ausgabeformen können unterschiedliche Bedienarten zum Einsatz kommen, wie sie in Kapitel 2.2 vorgestellt wurden. Abhängig ist die Wahl
u.a. von Performance und Genauigkeit.
Neben der beschriebenen Hardware sind die verwendeten Softwarewerkzeuge
von zentraler Bedeutung. Bei der Anzeigesoftware kann grob zwischen CADSoftware für industriellen Einsatz sowie allgemeinen Grafik-APIs wie OpenGL
oder Microsoft Direct3D unterschieden werden [Hau10]. Die verfügbaren Anzeigeprogramme unterscheiden sich sowohl in den Kosten als auch im Lizenzmodell:
Es sind sowohl kostenlose Freeware- Programme als auch Programme für mehrere 10.000 e auf dem Markt erhältlich. Neben fertigen Lösung existieren auch
Sonderanfertigungen und Entwicklungsumgebungen. Die genutzte Software
muss sorgfältig für die jeweilige Anwendung ausgewählt werden. Hierbei sollten unbedingt auch langfristige Kosten berücksichtigt werden. Eine Liste von
erhältlichen Produkten und Entscheidungshilfen ist [Hau10] zu entnehmen.
8
4 Einsatz im Automobilbereich
Auch für die Automobilindustrie, die bereits seit vielen Jahren Computer Aided
Design verwenden, bieten sich viele Anwendungen der virtuellen Realität an.
Darunter fallen Produktentwicklung, Präsentation, Simulation und Analyse.
Zimmermann von der Volkwagen Foeschungsabteilung beschreibt bereits 2001:
„Die Fahrzeugindustrie macht es vor: das virtuelle Auto existiert lang
vor dem ersten realen Prototyp. Am Rechner wird es entworfen, in der
virtuellen Fabrik wird es (virtuell) gefertigt und danach im Cyberspace
erprobt. Schließlich kommt der virtuelle Crashtestdummy zum Einsatz. Die
neuen Technologien bringen die Branche in Schwung doch die Potenziale
sind noch längst nicht ausgeschöpft. Was möglich ist, zeigt das Beispiel aus
Wolfsburg.“ [Zim01]
Neben der eigentlichen Produktentstehung wird hier auch eine Product Clinic
beschrieben, in der Testpersonen virtuelle Prototypen von Autos beurteilen. Dadurch werden nicht nur der Zeitaufwand und die Kosten reduziert, sondern auch
die Qualität des Fahrzeuges gesteigert.
Abbildung 3: Augmentierung eines realen Modells mit einem virtuellen.
Neben VR-Anwendungen spielt im Automobilbereich auch die Augmented
Reality eine große Rolle. So kann ein Auto z. B. in realen Umgebungen eingebettet
betrachtet werden oder verschiedene Varianten von Fahrzeugen kombiniert
werden, wie in Abb. 3 dargestellt. Mit Augmented Reality kann auch die Fertigung
selbst unterstützt werden:
9
„Die BMW Group setzt Augmented Reality bereits heute im Prototypenbau ein. Zu diesem Zweck wurden spezielle Schweißpistolen entwickelt. Ihr
Display zeigt den optimalen Schweißpunkt auf der Rohkarosse an und erleichtert so die schnelle und passgenaue Bearbeitung des Bauteils.“ [BMW06]
In der Automobilindustrie kommen neueste Techniken zum Einsatz: Beim Automobilhersteller Audi beispielsweise wird zu Präsentation eine sechs Meter breite
und zwei Meter hohe Powerwall verwendet, die statt mehrerer Projektoren lediglich einen einzigen Projektor verwendet [Com]. Dieser liefert bis zu 7,4 Mio. Pixel.
Mercedes brachte mit der C-Klasse das erste Serienfahrzeug auf den Markt, „das
auf Basis eines digitalen Prototyps konzipiert und entwickelt wurde“ [Com]. Die
Computersimulation umfasste 2130 Gigabyte an Daten. Simuliert wurden hier:
• Crashsicherheit
• Insassenschutz
• Geräusch-, Schwingungs- und Abrollkomfort
• Betriebsfestigkeit
• Energiemanagement
• Klimatisierung
• Aerodynamik
Neben der Zeitersparnis konnte so der Reifegrad des ersten fahrbereiten Prototyps stark erhöht werden, was insgesamt eine höhere Fahrzeugqualität mit sich
bringt.
Insgesamt zeigt sich mit diesen Beispielen, dass der Einsatz von Virtual und
Augmented Reality sehr vielfältig ist, aber auch erhebliche Vorteile auf dem
Automobilmarkt bringt.
5 Virtuelle Realität im medizinischen Bereich
Ein interessantes Einsatzfeld für VR ergibt sich mit medizinischen Anwendungen.
Mit dem Begriff der Telemedizin wurde ursprünglich die Idee formuliert, „im
Kriegsfall Operationen an verwundeten Soldaten mit ferngesteuerten Robotern
10
aus sicherem Abstand heraus durchzuführen“ [TSB+ 00]. Eine verwandte Anwendung wäre es, Astronauten von der Erde aus zu behandeln. Die Grenzen
und Anforderungen dieser Art von Medizin sowie anderen Anforderungen sind
dadurch gegeben, dass hier u.U. das menschliche Leben von der Genauigkeit und
Zuverlässigkeit der Methode abhängt. Es sind bereits einige Verfahren im Einsatz,
die sich als effektiv erwiesen haben. Von diesen sollen in Kapitel 5.1 und 5.2 kurz
chirurgische und radiologische Anwendungen vorgestellt werden. Anschließend
wird in Kapitel 5.3 die Anwendung in der psychologischen Therapie vorgestellt,
die bereits große Erfolge zeigt.
5.1 Neurochirurgie
Die computerintegrierte Chriurgie soll die Kooperation zwischen Mensch und
Maschine verbessern, sodass „Effektivität des Eingriffs, die Sicherheit für den
Patienten und das Nutzen-Risiko-Verhältnis gesteigert werden“ [TSB+ 00]. Chirurgen sind zwar dazu ausgebildet, Eingriffe „sicher, schnell und manuell“ [TSB+ 00]
geschickt auszuführen. Die Qualität des Eingriffes ist aber begrenzt durch Geschicklichkeit und menschliche Präzisionsarbeit. Maschinen können den Menschen hier unterstützen ohne zu ermüden und liefern eine hohe Präzision.
Die computerassistierte Chrirurgie verwendet virtuelle Realität u.a. für sog.
Navigationssysteme, die ein präoperatives Modell liefern. Die echte virtuelle
Chrirurgie würde dem Operierenden per Joystick oder Datenhandschuh die Möglichkeit geben, einen Medizinroboter zu steuern. Dies ist aber je nach benötigter
Genauigkeit nur teilweise möglich Es ist aber zu erwarten, dass mit wachsender
Rechenleistung in der Neurochriurgie VR-Techniken noch intensiver zum Einsatz
kommen werden [TSB+ 00].
5.2 Radiologie
An diesen medizinischen Anwendungen wird deutlich ersichtlich, dass virtuelle
Realität weit mehr als nur ein Spielzeug ist. In der Radiologie liefert VR bspw.
den Vorteil, dass es neben dem geometrischen Modell auch eine funktionales
Modell bietet und Manipulation und Analyse desselben erlaubt [PP00]. Während
bei anderen Anwendungen wie der Automobilindustrie der kostspielige Einsatz
von VR durch hohe Gewinne und Produktionszahlen leicht zu rechtfertigen
ist, könnte dies im klinischen Umfeld nur mit einem relativ günstigen Preis
11
geschehen.
Anders als beispielsweise bei CAD-Anwendungen hängt die Genauigkeit bei
radiologischen Anwendungen, die hauptsächlich auf auf präzise Diagnosen
ausgerichtet sind, ab von den bildgebenden Verfahren. Dank der technischen
Weiterentwicklungen, der größeren Akzeptanz von Technik an sich und dem sich
positiv entwickelnden Preis/Leistungsverhältnis von VR-Techniken sind viele
der anfänglichen Zweifel an VR in der Radiologie aus dem Weg geräumt. Für
Anwendungen, die über Visualisierung hinaus gehen, sind die vorhandenen
Werkzeuge jedoch oft nicht flexibel und universell genug, sodass zukünftig noch
mehr Potenzial der Techniken ausgeschöpft werden kann.
Abbildung 4: Resektionsvorschlag mit Sicherheitsabstand einer Leber [PP00]
Mögliche Nutzungen von VR in der Radiologie sehen Peitgen und Preim [PP00]
beispielsweise bei der Planung von Operationen anhand Magnet-ResonanzTomographie-Bildern. Ein Beispiel hierfür ist in Abb. 4 dargestellt: Hier kann für
eine Leber ein möglicher Schnitt bei einer Operation visualisiert werden. Das
Hauptproblem bei VR in der Radiologie sehen Peitgen und Priem darin, dass
Aufwand und Nutzen schwer einzuschätzen sind.
5.3 Psychologische Behandlung
Auch im psychologischen Bereich ist eine sinnvolle Nutzung von VR möglich:
Zum Einsatz kommen entsprechende Techniken bei der Konfrontations-Therapie.
Diese ist eine wirkungsvolle Verhaltenstherapie, die bei Angststörungen eingesetzt wird. Dabei wird der Patient „wiederholt, stufenweise und systematisch“
[BBGP+ 08] der Situation ausgesetzt, die beim irrationale Angst hervorruft. Durch
12
Gewöhnung und emotionale Verarbeitung können so Ängste überwunden werden. Dies kann entweder in der realen Welt, also in-vivo, oder in der Imagination
des Patienten geschehen. Im Gegensatz dazu bietet eine Behandlung mittels VR
folgende Vorteile [BBGP+ 08]:
• Die Konfrontation ist für den Patienten oft einfacher akzeptierbar.
• Feine Abstufung der Konfrontationsschritte sowie exakte Wiederholung
von Situationen
• Erweitern der Realität wie z. B. Veränderung des Raumes
• Einfache Umsetzung, die Zeit und Geld spart
• Verbesserung der Vertraulichkeit
Studien haben gezeigt, dass diese Therapieform sehr wirksam ist [BBGP+ 08].
Abbildung 5: Die Landschaften in EMMA’s Welt [BBGP+ 08]
Für eine andere Anwendung, die Behandlung der Post-Traumatischen Verhaltensstörung (PTBS) ist ebenfalls eine Behandlung mit VR möglich. Diese muss
jedoch i.Allg. sehr spezialisiert sein und ist daher teuer. Daher schlagen Baños et
al. [BBGP+ 08] eine VR-Welt namens „EMMA’s Welt“ vor, die im Rahmen des europäischen Gemeinschaftsprojektes EMMA (Engaging Media for Mental Health
13
Application) entstanden ist. Hier kann der Patient wahlweise zwischen der realen
und der virtuellen Welt wechseln. Die Inhalte der virtuellen Welt werden vom Therapeuten on-the-fly angepasst an die Bedürfnisse des Patienten. Die virtuelle Welt
besteht unter anderem aus Landschaften mit Wiese, Strand, Wüste, Wald oder
Schnee, die für verschiedene Emotionen eingesetzt werden können (siehe Abb. 5).
Da für das System lediglich zwei PC, zwei Projektoren, eine Projektionsleinwand,
eine drahtlose Konsole und Lautsprecher benötigt werden, ist es relativ kostengünstig. Dadurch, dass kein HMD zum Einsatz kommt, können Therapeut
und Patient sich gleichzeitig in der VR-Welt befinden. Baños et al. [BBGP+ 08] beschreiben Szenarien, wo EMMA’s Welt sehr erfolgreich zur Anwendung kommt,
wenngleich die VR-Erfahrungen in der psychologischen Behandlung noch am
Anfang stehen.
6 Fazit und Ausblick
In dieser Arbeit wurde zunächst das Konzept der virtuellen Realität und die
praktische Nutzung von VR-Anwendungen vorgestellt. Es wurde gezeigt, dass
die Einsatzgebiete sehr vielfältig und unterschiedlich sind und dass das Potenzial
längst nicht ausgeschöpft ist.
Aus den vielen verschiedenen Anwendungen wurden zwei konkretere Beispiele
vorgestellt: Die Automobilindustrie und der medizinische Bereich. Während im
Automobilbereich längst virtuelle Realitäten das Mittel der Wahl für Präsentation,
Produktentwicklung und Simulation sind, sind mit dem Fortschritt der Technik
immer lohnenswertere Anwendungen zu beobachten. Im Gegensatz zu anderen
Branchen und kleineren Unternehmen fällt hier die Kosten-Nutzen-Rechnung
deutlich einfacher und positiver aus. Anders ist dies auch im medizinischen Bereich, wo der lohnenswerte Einsatz von VR sich nicht so sehr und kurzfristig aus
betriebswirtschaftlicher Sicht zeigt. Dennoch sind diese Ansätze für die Medizin
ein Fortschritt: Beispielsweise in Operationsplanung, Chirurgie und Psychologie
kommt VR vorteilhaft zum Einsatz. Anhand dieser durchaus verschiedenen Beispiele aus dem medizinischen Bereich wurde deutlich, dass VR längst mehr als
ein Spielzeug ist und den Menschen bei wichtigen Aufgaben behilflich sein kann.
Eines der Hauptprobleme besteht darin, dass mit den vorhandenen Techniken
derzeit noch keine solche Genauigkeit erzielt werden kann, die das Risiko großen
menschlichen Schadens auf ein Minimum reduziert.
14
Diese Arbeit konnte einen kleinen Ausschnitt der Thematik zeigen. Es bieten
sich aber auch noch weitere Sichten an, wie z.B. die ethische Frage nach dem
immer größer werdenden Einfluss von virtuellen Realitäten auf unser tägliches
Leben. Die Entwicklung von Techniken der virtuellen Realität wird mit der
Entwicklung der verfügbaren Rechenleistung in den kommenden Jahren voraussichtlich deutlich voranschreiten und noch weiter an Wichtigkeit und Akzeptanz
gewinnen.
15
Literatur
[BBGP+ 08] Baños, Rosa M. ; Botella, Cristina ; Garcia-Palacios, Azucena ; Quero, Soledad ; Alcañiz, Mariano ; Guillén, Verónica: Virtuelle Realität
und psychologische Behandlungen. In: Bauer, Stephanie (Hrsg.) ;
Kordy, Hans (Hrsg.): E-Mental-Health. Springer Berlin Heidelberg,
2008. – ISBN 978–3–540–75736–8, S. 191–204
[BMW06]
BMW Group PressClub Deutschland. https://www.press.bmwgroup.
com/pressclub/p/de/pressDetail.html?outputChannelId=
7&id=T0002397DE&left_menu_item=node__2369. Version: 2006
[BR03]
Brockhaus-Redaktion: Virtuelle Realität. In: Paulick, Siegrun
(Hrsg.):
Der Brockhaus in einem Band. 10., neu bearbeitete Auflage. Leipzig,
Mannheim : F.A. Brockhaus, 2003. – ISBN 3–7653–1680–6, S. 957
[Bri08]
Brill, Manfred: Virtuelle Realität. Berlin : Springer, 2008. – ISBN
978–3540851172
[Cav]
http://www.vrarchitect.net/anu/cg/Display/cave.en.html
[Com]
Computerwoche: Virtueller Erlkönig: Autodesigner lieben Computergrafiken. http://www.computerwoche.de/mittelstand/1856079/
[Hau10]
Hausstädtler, Uwe: Der Einsatz von Virtual Reality in der Praxis.
Berlin : Rhombos Verlag, 2010. – ISBN 978–3–941216–14–3
[HMD]
http://www710.univ-lyon1.fr/~sbrandel/en/research/VR/
[LGD+ 99] Lamadé, W. ; Glombitza, G. ; Demiris, A. M. ; Cardenas, C. ; Meinzer,
H. P. ; Richter, G. ; Lehnert, T. ; Herfarth, C.: Virtuelle Operationsplanung in der Leberchirurgie. In: Der Chirurg 70 (1999), S. 239–245. –
ISSN 0009–4722. – 10.1007/s001040050637
[Pow]
http://de.wikipedia.org/w/index.php?title=Datei:
3d-powerwall.jpg&filetimestamp=20101030063735
[PP00]
Peitgen, H. O. ; Preim, B.: Virtuelle Realität in der Radiologie. In: Der
Radiologe 40 (2000), S. 203–210. – ISSN 0033–832X
[Tho11]
Thompson, Craig W.:
Next-Generation Virtual Worlds: Architecture, Status, and Directions.
In: IEEE Internet Computing 15 (2011), S. 60–65.
http://dx.doi.org/http://
DOI
doi.ieeecomputersociety.org/10.1109/MIC.2011.15. –
http://doi.ieeecomputersociety.org/10.1109/MIC.2011.15. – ISSN 1089–
7801
[TSB+ 00]
Tronnier, V. M. ; Staubert, A. ; Bonsanto, M. M. ; Wirtz, C. R. ;
Kunze, S.: Virtuelle Realität in der Neurochirurgie. In: Der Radiologe
40 (2000), S. 211–217. – ISSN 0033–832X. – 10.1007/s001170050659
[Wor]
http://www710.univ-lyon1.fr/~sbrandel/en/research/VR/
[Zim01]
Zimmermann, Peter: Virtual Reality - Forschung und Anwendung bei Volkswagen. www.umi.cs.tu-bs.de/full/information/
literature/sonderheft/shvirt7.pdf. Version: 2001
Bildverarbeitung mit OpenCV und
PCL
Seminararbeit
im Rahmen der Projektgruppe Virtual Reality“
”
Themensteller:
Vorgelegt von:
Abgabetermin:
Prof. Dr. Wolfgang P. Kowalk
Christian Herz
07. Juli 2011
Inhaltsverzeichnis
Inhaltsverzeichnis
Inhaltsverzeichnis
1 Motivation
3
2 Einleitung
4
3 OpenCV - Open Computer Vision
3.1 Aufbau von OpenCV . . . . . . . . . .
3.2 Funktionalitäten . . . . . . . . . . . .
3.2.1 Optical Flow Tracking . . . . .
3.2.2 Camshift Tracking . . . . . . .
3.2.3 Gesichtserkennung mit OpenCV
3.2.4 Skeletterkennung . . . . . . . .
3.2.5 Maschinelles Lernen . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
6
6
7
8
9
10
4 PCL - Point Cloud Library
12
4.1 Was sind Punktwolken und wozu dienen sie? . . . . . . . . . . . . . . 12
4.2 Aufbau von PCL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.3 Funktionalitäten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5 Fazit/Nutzbarkeit
15
Literaturverzeichnis
16
2
1 MOTIVATION
1 Motivation
Die Motivation dieser Arbeit besteht darin, in der Computer Vision verwendete
Bibliotheken vorzustellen und anhand dieser einige interessante Möglichkeiten aufzuzeigen. Computer Vision ist ein weites Feld mit einer Menge von Potenzial. Faszinierend daran ist, maschinelles Sehen zu ermöglichen und dadurch beispielsweise Roboter dazu zu bringen, Gegenstände zu identifizieren, diese zu greifen und
durch Räume mit vielen Hindernissen zu einer Person zu transportieren. Für viele
Menschen könnte, gerade in hohem Alter, ein solches System den Lebensalltag in
enormen Maße erleichtern. Gerade durch die Kinect wurde ein revolutionärer Fortschritt erreicht, der es ermöglicht mit wenig Mitteln (insbesondere finanziell gesehen)
in Echtzeit Tiefeninformationen der Umgebung zu bekommen. Dadurch stehen der
Computer Vision neue Wege offen und schon befassen sich viele Interessierte mit
der Analyse und Verarbeitung der Daten von der Kinect. Weitergehend liegt die
Motivation in der erfolgreichen Implementierung einer Arbeit, die es ermöglicht, etwas entwickelt zu haben, das womöglich einigen Menschen das Leben erleichtern
könnte.
3
2 EINLEITUNG
2 Einleitung
Im Rahmen der Computer Vision spielen Bildverarbeitungsbibliotheken eine wichtige Rolle. Computer Vision ist die Verarbeitung von Bilddaten, kommend von einer
Kamera oder einer Videokamera, um Entscheidungen zu treffen, Bilder zu verstehen
oder diese in eine andere Repräsentation zu überführen. All diese Veränderungen
von Bilddaten haben einen speziellen Grund. So kann zum Beispiel die Segmentierung eines Tumors innerhalb der Leber ein Grund sein oder die Erkennung einer
Hand in Bilddaten. OpenCV - Open Computer Vision“ stellt dabei ein mächtiges
”
Toolkit dar, das eine Reihe von Algorithmen für die Bildverarbeitung anbietet, die
stets ergänzt werden. Außerdem ist OpenCV eine OpenSource-Bibliothek und somit für alle frei zugänglich. Speziell für die Thematik Kinect“ in der Projektgruppe
”
Virtual Reality“ kann die Verarbeitung von Punktwolken von Interesse sein. Die
”
OpenSource-Bibliothek PCL - Point Cloud Library“ stellt hier das Mittel der Wahl
”
dar. Aufgrund der aktuellen Kooperation mit OpenCV spannt es ein weites Feld
von Möglichkeiten auf. Deswegen werden in dieser Ausarbeitung sowohl OpenCV,
als auch PCL aufgeführt, wobei das Hauptaugenmerk auf OpenCV liegt. Außerdem
wird der Zugang zur Kinect mit OpenCV und PCL untersucht, sowie Funktionalitäten, die interessant und nützlich für die Verarbeitung der erhaltenen Daten aus
der Kinect sein könnten.
In Abschnitt 3 wird OpenCV behandelt, wobei dort der Aufbau und Nutzungsmöglichkeiten erwähnt werden. Abschnitt 4 beschreibt PCL, dessen Funktionalitäten
und Aufbau. Zum Schluss wird in Abschnitt 5 eine kurze Zusammenfassung und
Bewertung der verwendeten Bibliotheken, bezogen auf die Projektgruppe Virtual
”
Reality“, gegeben.
4
3 OPENCV - OPEN COMPUTER VISION
3 OpenCV - Open Computer Vision
OpenCV ist eine OpenSource-Bibliothek, die der BSD-Lizenz unterliegt und folglich für kommerzielle und Forschungszwecke zur Verfügung steht. Die Bibliothek
wurde ursprünglich in C geschrieben, wobei für C++ und Python jeweils ein Interface existiert und jede Weiterentwicklung in C++ stattfindet. Außerdem soll es
laut [BK08] eine aktive Entwicklung von Interfaces für Ruby, Matlab und weiteren
Programmiersprachen geben. Eine weitere wichtige Eigenschaft ist die Plattformunabhängigkeit. OpenCV kann auf Linux, Windows, Mac OS X und seit Version
2.2 sogar auf Android benutzt werden. Dem Anwender stehen durch OpenCV eine Vielzahl an Möglichkeiten zur Verfügung, durch die unterschiedliche Bereiche
der Computer Vision abgedeckt sind. Dabei legt OpenCV Wert auf die medizi”
nische Bildverarbeitung“, Sicherheit“, Kamerakalibrierung“ und Stereoskopie“,
”
”
”
sowie auf maschinelles Lernen“ besonderen Wert. Abschließend ist zu bemerken,
”
dass OpenCV besonders darauf ausgelegt ist Echtzeitanwendungen zu entwickeln.
(vgl. auch [BK08])
3.1 Aufbau von OpenCV
OpenCV ist in fünf Hauptkomponenten eingeteilt, von denen jedoch nur vier in Abbildung 1 aufgeführt sind.
Abbildung 1: Basisstruktur von OpenCV aus [BK08]
5
3.2 Funktionalitäten
3 OPENCV - OPEN COMPUTER VISION
Die Komponente cv“ stellt grundlegende Algorithmen für die Bildverarbeitung
”
zur Verfügung. Diese beinhalten insbesondere Bild -und Bewegungsanalyse, Objektverfolgung, Objekt -und Gesichtserkennung, sowie Kamerakalibrierung und 3DRekonstruktionen. Die Komponente highgui“ beinhaltet Funktionen für die Bild”
und Videoaufnahme, sowie eine einfache Oberflächendarstellung. In der Komponente cxcore“ sind, wie der Name schon sagt, die Kernfunktionalitäten vertreten.
”
Darunter fallen beispielsweise Arrayoperationen, mathematische Funktionen, XML,
Zeichenfunktionen in 2D, sowie komplexe Datenstrukturen. Die MLL - Machine
”
Learning Library“ enthält Funktionen für neuronale Netze, Entscheidungsbäume,
statistische Klassifikationen und andere. Die letzte, nicht in der Abbildung aufgeführte Komponente, hat die Bezeichnung CvAux“. Sie wurde nicht in der Abbil”
dung abgebildet, weil sie experimentelle Algorithmen enthält und außerdem nicht
gut dokumentiert wurde. (vgl. auch [BK08])
3.2 Funktionalitäten
In diesem Abschnitt werden interessante Funktionalitäten für die Projektgruppe
Virtual Reality“ behandelt und mit etwaigen Beispielen veranschaulicht.
”
3.2.1 Optical Flow Tracking
Bei dem Verfolgen von Objekten beliebiger Art über den optischen Fluss“ (engl.
”
Optical Flow) wird anhand von Helligkeitsmustern die Bewegung eines Pixels innerhalb aufeinander folgender Bilder einer Bildsequenz berechnet. Dabei wird die
Annahme gemacht, dass der Helligkeitswert der betrachteten Pixel über die Zeit konstant bleibt, sich also von einem Bild in das nächste nicht verändert. Es resultiert
ein Vektorfeld, das Orientierung und Bewegungsgeschwindigkeit jedes betrachteten
Pixels angibt. Durch OpenCV ist eine solche Verfolgung ohne weiteres möglich.
Problematisch wird es nur, wenn sich das betrachtete Objekt zu sehr von der äußerlichen Erscheinung verändert oder rapide Intensitätsveränderungen auftreten. (vgl.
auch [BK08])
In [ehc] verwendet Daniel Baggio Optical Flow“ für die Verfolgung des Gesichts.
”
Dort wird vorerst auf dem erkannten Gesicht nach Punkten mit einem markanten Charakteristikum gesucht. Anschließend werden diese Punkte verfolgt. Nachteil
6
3.2 Funktionalitäten
3 OPENCV - OPEN COMPUTER VISION
bei diesem Verfahren ist, dass diese Punkte verloren gehen, sobald sie im darauf
folgenden Bild nicht mehr gefunden werden. Statt einmal die Robustheit des implementierten Systems zu zeigen, bewegt der Entwickler sich besonders langsam und zu
sehen ist, dass auch dort Punkte verloren gehen. Um dies zu umgehen, initialisiert
er immer wieder manuell neue Punkte auf dem erkannten Gesicht. Dadurch kommt
die Vermutung auf, dass der Entwickler dies besser automatisieren hätte sollen, so
dass eine erneuerte Initialisierung stattfindet, sobald die Anzahl der Punkte unter
einen Schwellwert fällt. Womöglich wäre dadurch eine effizientere Lösung gegeben,
die jedoch immer noch gegen eine Rotation des Kopfes empfindlich ist.
3.2.2 Camshift Tracking
Der Camshift Algorithmus (Camshift - continuously adaptive mean shift) ermöglicht
es, Verschiebungen von Objekten nachzuvollziehen und diese ggf. zu verfolgen. Der
Algorithmus sucht im Bereich eines vorher definierten Suchfensters nach lokalen
Gipfeln (Maxima) einer Verteilung beliebiger charakteristischer Merkmale (z. B.
Farbverteilung, Form usw.). So könnte z. B. eine Farbe das besondere Merkmal der
Verteilung sein oder die geometrische Form eines Objektes. Im Suchfenster würden
dann, sobald Pixel dieser Form/Farbe zu sehen sind, unterschiedliche Gipfel auftauchen, anhand derer dann ein Objekt verfolgt werden könnte. Je nachdem, welches
Charakteristikum für die Wahrscheinlichkeitsdichtefunktion gewählt wurde, ändern
sich dementsprechend die Maxima. Bei Objekten, die sich in der Größe verändern
können, wird eine automatische Größenänderung des Suchfensters vorgenommen.
Wenn sich das zu verfolgende Objekt beispielsweise weiter von der Kamera entfernt
und das Objekt kleiner wird, dann resultiert darin die Verkleinerung des Suchbereichs. Gleiches gilt bei Vergrößerungen von Objekten. (vgl. auch [BK08])
Als Vorgehensweise des Camshift-Algorithmus werden folgende Aktionen abgearbeitet:
1. Wahl einer intitialen Umgebung und Größe für das Suchfenster (Könnte zum
Beispiel durch einen initialen Bereich oder eine Geste gemacht werden)
2. Berechnung von dem Massezentrum des Suchfensterinhalts
3. Zentrieren des Suchfenstermittelpunkts auf das Massezentrum
7
3.2 Funktionalitäten
3 OPENCV - OPEN COMPUTER VISION
4. Anpassung der Suchfenstergröße
5. Wiederholung ab Schritt 2, sofern Suchfenster in Bewegung ist
Bezogen auf die Kinect könnte ein Camshift-Tracking anhand der Farbe des initialisierten Anwenders erfolgen. Dabei müsste entweder ein Bereich definiert werden, in
dem sich der Anwender befinden soll und darf oder der Anwender muss zu Beginn
der Applikation eine initiale Geste machen. Auch wäre eine manuelle Selektion des
Anwenders durch dessen Markierung im Bild mit Tiefeninformationen möglich.
3.2.3 Gesichtserkennung mit OpenCV
In OpenCV existiert die Möglichkeit eine Gesichtserkennung durchzuführen und anschließend das Gesicht zu verfolgen. Dabei orientiert sich OpenCV an Kontrasten in
unterschiedlichen Regionen des Bildes. Diese Besonderheiten werden auch als Haar”
like Features“ bezeichnet. Das menschliche Gesicht kann durch den Zusammenhang
dieser Regionen definiert werden. Ein Problem bei dieser Vorgehensweise ist jedoch,
dass das Gesicht vor der Erkennung über mehrere hundert Bilder trainiert werden muss. Aus den gelernten Gesichtern wird anschließend eine XML-Datei erstellt,
anhand dieser anschließend Gesichter erkannt werden können. OpenCV bietet bereits eine solche XML-Datei an, so dass dem Entwickler das Training erspart wird.
Grundlegender Nachteil ist die Anwendung eines Templates der Größe 20x20, der
für eine Gesichtserkennung über das gesamte Bild gezogen wird. Dabei wird dieses
Template auf jeweils eine ROI (Region Of Interest) der selben Größe angewendet.
Sobald eine Region dem Template entspricht, gibt der Algorithmus eine 1“ zurück.
”
Damit sichergestellt werden kann, dass das Gesicht auch bei anderen Entfernungen von der Kamera erkannt werden kann, wird das Template bei unterschiedliche
Auflösungen auf das Bild angewendet. Diese Methode nimmt einen ziemlich großen
Rechenaufwand ein und deswegen eine Gesichtserkennung in Echtzeit fragwürdig.
Der Test ergab kein zufriedenstellendes Ergebnis. Zwar wird das Gesicht in Videobildern erkannt, aber dazu muss das Gesicht gerade auf die Kamera gerichtet sein.
Zudem darf der Kopf nicht geneigt oder gedreht werden. Leider ist diese Feature von
OpenCV viel zu langsam für eine Echtzeitanwendung. Auch ändert sich nichts an
der Geschwindigkeit, wenn die Auflösung auf 180 x 144 runterskaliert wird. In Abbil-
8
3.2 Funktionalitäten
3 OPENCV - OPEN COMPUTER VISION
dung 2 ist ein Beispielbild zu sehen. Womöglich wird es mit einem leistungsstärkeren
Prozessor bessere Ergebnisse geben. (vgl. auch [fac])
Abbildung 2: Gesichtserkennung bei einer Auflösung von 180x144
3.2.4 Skeletterkennung
In [Rus11] zeigen Corey Manders und Farzam Farbiz eine Skeletterkennung. Benutzt wird dafür eine 3D-Webcam, die in der PG Virtual Reality“ jedoch nicht
”
benötigt wird, da bereits Tiefeninformationen über die Kinect vorhanden sind. Lediglich müssen die ausgegebenen Werte mit der tatsächlichen Entfernung abgeglichen
werden, um eine Konsistenz zwischen Bild und Realität herzustellen. Der Algorithmus für die Positionsbestimmung geht wie folgt vor:
1. Gesichtserkennung aus OpenCV
2. Annahme, dass sich der Nacken des Benutzers 0.5*Kopfradius unter dem erkannten Gesicht befindet.
3. Schultern des Anwenders ab dem Hals 2*Kopfradius auf einer horizontalen
Linie.
4. Erkennung der Hände (erst die linke Hand, dann die rechte Hand) anhand der
Bilder mit Tiefeninformationen und Annahme, dass die Hände näher als der
9
3.2 Funktionalitäten
3 OPENCV - OPEN COMPUTER VISION
Kopf des Anwenders an der Kamera sind.
a) Linksseitig vom Kopf nach der linken Hand suchen
b) Dafür ROI (Region Of Interest) definiert
c) Innerhalb der ROI maximalen Wert feststellen (Tiefeninformation)
d) Thresholding, so dass nur noch die Werte der Hand im Bild zu sehen sind
e) Massenzentrum bestimmen und Hand identifizieren
f) Gleiches Vorgehen für die rechte Hand
5. Erkennung des Unterarms entlang der y-Achse mit der jeweiligen Hand als
Starpunkt.
6. Erkennung des Oberarms durch das Zeichnen einer Linie vom untersten Punkt
des Unterarms bis zu den Schultern.
Zwar werden in den Veröffentlichungen gute Ergebnisse gezeigt, dennoch ist zu bezweifeln, dass die implementierte Anwendung eine Verarbeitung in Echtzeit ermöglicht.
Mit der Benutzung der Gesichtserkennung von OpenCV, die in Abschnitt 3.2.3
erläutert und getestet wurde, sind keine zufriedenstellenden Ergebnisse zu erwarten. Dennoch könnte die Gesichtserkennung für eine Initialisierung des Gesichts
benutzt werden, so dass anschließend weitere Aktionen, z. B. mit in Abschnitt 3.2.5
aufgeführten Möglichkeiten, ausgeführt werden können.
3.2.5 Maschinelles Lernen
OpenCV ermöglicht das maschinelle Lernen aus vorhandene Daten. So können z.
B. Rückschlüsse aus gesammelten Daten gezogen, Modelle erstellt und Vorhersagen
über mögliche Folgezustände getroffen werden. Unter das maschinelle Lernen in
OpenCV fallen folgende Klassifikatoren:
• statistische Modelle
• Bayes Klassifikator
• KNN - K Nearest Neighbors
10
3.2 Funktionalitäten
3 OPENCV - OPEN COMPUTER VISION
• Entscheidungsbäume
• Boosting
• Expectation-Maximization-Algorithmus
• Neuronale Netzwerke
• Support Vector Machine
Näheres zu den Algorithmen ist in [BK08] zu finden.
11
4 PCL - POINT CLOUD LIBRARY
4 PCL - Point Cloud Library
PCL stellt einen wichtigen Teil des ROS - Robot Operating System“ dar. Sie ist
”
eine vollständig in C++ implementierte Bibliothek mit einem Eigen“-Backend für
”
die Verarbeitung von n-dimensionalen Punktwolken und 3D Geometrieverarbeitung.
Enthalten sind aktuelle Algorithmen für Filterung, Oberflächenrekonstruktion, Registrierung und Segmentierung. PCL unterliegt der BSD-Lizenz und ist somit frei
zugänglich und verwendbar für alle. Außerdem bietet PCL eine weitgehend plattformunabhängige Benutzung (Linux, Windows, MacOS und sogar Android. (vgl.
[Rus11])
4.1 Was sind Punktwolken und wozu dienen sie?
Eine Punktwolke (engl. point cloud) stellt ein n-dimensionales Konstrukt bestehend
aus einer Anzahl von Punkten und optional zusätzlichen Informationen, wie z. B.
Farbe, Intensität, Distanz etc., im Raum dar. Ein Punkt kann somit wie folgt beschrieben werden.
pi = {xi , yi , zi , ri , gi , bi , disti , ...}
wobei eine Punktwolke definiert ist als:
P = {p1 , p2 , ..., pi , ..., pn }
Die Menge der Punkte hängt dabei von der Komplexität des betrachteten Objekts
ab. In der Regel werden solche Punktwolken mit teuren 3D-Laser-Scannern (hohe
Qualität) oder Stereo-Kameras (abhängig von den Texturen) erstellt. Mit der Kinect
hingegen ist dies ohne den Einsatz von Lasern möglich. Die Kinect macht sich das
TOF - Time of Flight“-Prinzip zunutze, durch das Tiefeninformationen ermittelt
”
werden können. Auch interessant ist, dass die Kinect neben 2D-Bilder sogar Punktwolken in Echtzeit ausgibt. Im Vergleich zu dem 3D-Laser-Scanner ist diese Methode also vergleichsweise günstiger. Verwendung finden Punktwolken in verschiedenen
Bereichen wie z. B. der Visualisierung, also der Darstellung von Objekten oder
Oberflächen auf Computern. Auch verwendet werden sie in der Modellierung zur
Rekonstruktion von Oberflächen mit sogenannten “Meshes“ und Polygonen. Wei-
12
4.2 Aufbau von PCL
4 PCL - POINT CLOUD LIBRARY
tergehend ist eine geometrische Berechnung wie z. B. das Objekte vermessen von
Bedeutung, sowie die Erkennung von Menschen und Gegenständen oder die Navigation entlang einer Umgebung mit räumlichen Informationen möglich. [vgl. [Teu07],
[PCL], [Mic]]
4.2 Aufbau von PCL
Der Aufbau von PCL ist modular. Durch die Nutzungsmöglichkeit auf verschiedenen
Plattformen mit unterschiedlicher Leistung war dies nötig, da jedem System ein
anderes Leistungsspektrum zur Verfügung stehen kann. Deswegen ist PCL in eine
Serie von einzelnen Bibliotheken aufgegliedert, so dass diese auch separat kompiliert
werden können. Unter die wesentlichen Bibliotheken fallen:
• common: Datenstrukturen, mathematische Funktionen wie Kovarianz oder
Entfernungsberechnung
• filters: Datenfilter, z. B. für das Entfernen von Rauschen aus Punktwolken
• features: Berechnung der Normalen einer Oberfläche, Grenzpunkte finden,
Integralbilder etc.
• io: Ein -und Ausgabefunktionen
• segmentation: Segmentierungsalgorithmen, z. B. das Teilen einer Punktwolke
und die unabhängige Verarbeitung der Teile
• surface: Oberflächenrekonstruktion, sowie Funktionen für die Vermaschung
und für konvexe Hüllen
• registration: Registrierung von Datensätzen anhand der Position und Orientierung in Punktwolken
• keypoints: Featurebeschreibung (Punkte, die als besonders erscheinen) vorverarbeiten und extrahieren
• range image: Bilder mit Tiefeninformationen anhand der Kalibrierungswerte
der Kamera in Punktwolken überführen
13
4.3 Funktionalitäten
4 PCL - POINT CLOUD LIBRARY
• octree: Hierarchische Datenstrukturen in Form eines Baumes von Punktwolkendaten erstellen. Ermöglichung der räumlichen Trennung, Suchoperationen
auf den Datensätzen und Downsampling
4.3 Funktionalitäten
Es existieren eine Reihe von Funktionalitäten die für die Verarbeitung und Benutzung von Punktwolken interessant sein könnten. Infrage kommen würde sicherlich die
Registrierung von Punktwolken und eine daran angelehnte Verfolgung des registrierten Objekts, wobei sich dies bei flexiblen Objekten als sehr schwierig herausstellen
kann. Auch wäre es interessant die Normalen von Oberflächen zu berechnen, um
etwaige Orientierungen zu ermitteln, was wahrscheinlich auch in Verbindung mit
OpenCV möglich ist. Insbesondere die Erkennung von räumlichen Veränderungen,
so dass z. B. Menschen als eine Veränderung im Bild erkannt werden können sobald
sie sich bewegen, sollte von Interesse sein. Da Punktwolken nicht nur Informationen
über die dreidimensionale Position der einzelnen Punkte enthalten können, gibt es
weitergehend die Funktionalität, Punktwolken zu komprimieren. Dadurch können
selbst große Punktwolken mit vielen zusätzlichen Informationen verarbeitet werden.
Auf http://www.pointclouds.org/documentation/ befinden sich eine Reihe von
Anleitungen, die weitere Möglichkeiten beschreiben.
14
5 FAZIT/NUTZBARKEIT
5 Fazit/Nutzbarkeit
Für die von der Kinect ausgegebenen Bilddaten und deren Verarbeitung kann sowohl
OpenCV, als auch PCL verwendet werden, wobei PCL natürlich eher auf Punktwolken und deren Verarbeitung, Analyse und Ausgabe spezialisiert ist. Sicher ist,
dass eine Verbindung mit der Kinect mit OpenCV möglich ist. Leider war es bis
zum Abschluss dieser Seminararbeit nicht möglich unter Windows eine Verbindung
via PCL zur Microsoft Kinect herzustellen, die 30 Frames/s zeigt. Die Entwickler
arbeiten bereits daran den Fehler zu beheben. Für eine Verbindung der Microsoft
Kinect nutzen beide Bibliotheken unterschiedliche Komponenten. OpenCV nutzt
zum Einen den Treiber libfreenect“ oder die CL NUI Platform“ und PCL nutzt
”
”
die Middleware OpenNI“ in Verbindung mit Nite“ von der Firma PrimeSense,
”
”
welches zusätzlich eine Skeletterkennung und -Verfolgung implementiert. Weiterhin
ist zu sagen, dass sowohl PCL, als auch OpenCV mit C++ ansprechbar sind und
beide Bibliotheken untereinander kommunizieren können sollten. Wenn also zusätzliche Funktionalitäten erwünscht sind, die nicht in PCL implementiert sind, kann
noch immer auf OpenCV zurückgegriffen werden. Weitergehend stellt OpenCV viele
Algorithmen zur Verfügung, die von Interesse sein könnten. Insbesondere das maschinelle Lernen kommt für die Erkennung von Gesten infrage. Durch Trainingssätze
können die in Abschnitt 3.2.5 gezeigten Klassifikatoren trainiert und anschließend
für Vorhersagen verwendet werden. Abschliessend ist noch zu sagen, dass auch die
Möglichkeit besteht Motion Capturing“ durchzuführen und die erhaltenen Daten
”
beispielsweise in einem XML-Format zu speichern. Die gemessenen Daten können
vorzugsweise in Verbindung mit einem 3D-Modell (z. B. ein Gesicht) gebracht werden und in einer Animation resultieren.
15
Literatur
Literatur
Literatur
[BK08] Bradski, Gary ; Kaehler, Adrian: Learning OpenCV: Computer Vision
with the OpenCV Library. Cambridge, MA : O’Reilly, 2008
[ehc]
http://code.google.com/p/ehci/
[fac]
http://opencv.willowgarage.com/wiki/FaceDetection
[Mic]
http://research.microsoft.com/en-us/um/redmond/events/
latamfacsum2011/presentations/day_2/Barahona_3/Hrvoje_Benko.
pdf
[Ope]
http://opencv.willowgarage.com/wiki/FullOpenCVWiki
[PCL]
http://pointclouds.org/
[ROS]
http://www.ros.org/
[Rus11] 3D is here: Point Cloud Library (PCL). Shanghai, China, May 9-13 2011
[Teu07] Teutsch, Christian: Model-based Analysis and Evaluation of Point Sets
from Optical 3D Laser Scanners. Aachen, Germany, Germany : Shaker
Verlag GmbH, Germany, 2007. – ISBN 3832267751, 9783832267759
16
Konfigurationsmanagement
Seminararbeit
Projektgruppe Virtuelle Realität
Tim Jörgen
31.05.201
1 Inhalt
1
2
Inhalt .................................................................................................................................... i
1.1
Einleitung..................................................................................................................... 1
1.2
Übersicht über das eingesetzt KM ............................................................................... 1
Versionsverwaltung ............................................................................................................ 2
2.1
Vergleich von Git und SVN ........................................................................................ 3
2.2
Hooks ........................................................................................................................... 4
2.2.1
2.3
3
Entscheidung ............................................................................................................... 5
Projektmanagement Tools .................................................................................................. 5
3.1
Übersicht ...................................................................................................................... 5
3.2
Vergleich von Issue-Tracking und Projektmanagement Systemen ............................. 6
3.2.1
Trac....................................................................................................................... 6
3.2.2
Retrospectiva ........................................................................................................ 6
3.2.3
Redmine ............................................................................................................... 7
3.3
4
Verwendete Hooks ............................................................................................... 5
Entscheidung ............................................................................................................... 7
Build Management .............................................................................................................. 8
4.1
CMake Einleitung ........................................................................................................ 8
4.2
Beispiel ........................................................................................................................ 8
4.3
Weitere Funktionen ..................................................................................................... 9
4.4
Integration in das Projekt ............................................................................................. 9
5
Fazit................................................................................................................................... 10
6
Literaturverzeichnis .......................................................................................................... 11
i
1.1 Einleitung
Softwareentwicklung ist typischerweise ein Prozess, welcher von mehreren Personen
vorgenommen wird. Daraus ergeben sich zwangsläufig starke Prozessverluste und Probleme,
die unterschiedlich große Auswirkungen auf das resultierende System, sowie auf die
Wirtschaftlichkeit der Entwicklung haben können. Oftmals werden bereits funktionierende
Teile eines Systems wieder fehlerhaft, es ist nicht klar, wer etwas geändert hat, oder es ist
einfach nicht klar, ob der aktuelle Zustand eines Systems bereits den durch das
Qualitätsmanagement geforderten Anforderungen entspricht (z.B. ob bereits getestet wurde).
Das Konfigurationsmanagement versucht auf diese Probleme einzugehen, koordiniert die
verschiedenen Versionen von Komponenten und stellt eine wichtige Instanz bei der
Minimierung von Prozessverlusten da.
Das Konfigurationsmanagement (KM) ist ein Bestandteil des Projektmanagements und
diesem untergeordnet. Es wurde vor allem 2003 von der DIN ISO 10007:2003 spezifiziert,
welche den bis dahin geltenden Standard ISO 10007:1996 ersetz.
Seinen Ursprung findet es in der Entwicklung von Hardware für den militärischen Bereich in
den 60er Jahren, doch es sei im wesentlichen unabhängig davon, was entwickelt und
hergestellt wird (Versteegen & Weischedel, 2003, S. 1). Das KM beinhaltet "alle technischen,
organisatorischen und beschlussfassenden Maßnahmen und Strukturen, die sich mit der
Konfiguration eines Produktes befassen" (Angermeier, 2004), wobei eine Konfiguration
"miteinander verbundende funktionelle und physische Merkmale eines Produktes [...]" sind
(Braun, 2009, S. 97).
Diese Arbeit beschäftigt sich mit dem Konfigurationsmanagement, welches im Rahmen der
Projektgruppe "Virtuelle Welten" der Carl von Ossietzky Universität eingesetzt wird und der
Organisation, sowie der Entwicklung behilflich ist. Dabei wird vor allem auf Technologien
eingegangen, die im Rahmen der Projektgruppe eingesetzt werden und nun der Projektgruppe
bei der Bewältigung der bevorstehenden Aufgaben zur Verfügung stehen.
1.2 Übersicht über das eingesetzt KM
In dem Projekt "Virtuelle Welten" wird über den Zeitraum von einem Jahr ein Projekt
entwickelt werden, dessen Anforderungen zum Anfang größtenteils unklar waren und erst im
Laufe der ersten Monate spezifiziert wurden. Parallel zur Spezifikation der Anforderungen
entstand das vorliegende Konfigurationsmanagement, welches der Projektleitung die
Möglichkeit gibt eine Aufgabenverteilung zu planen und den Überblick über den aktuellen
Systemzustand zu bekommen. Dabei wurde versucht ein großes Feld an Aufgaben und
Problemen zu adressieren, und eine möglichst wartungsfreie Umgebung zu schaffen, welche
sparsam mit den Vorhandenen Humanressourcen umgeht. Folgende Teilaufgaben wurden
dabei gelöst:




Versionsverwaltung
Dateiaustausch1
Informationsmanagement
Bug Tracking
1
Hiermit ist vor allem der Austausch von Binär Dateien gemeint, die aufgrund ihrer Größe nicht von dem
Versionskontrollsystem verwaltet werden können, ohne die Effektivität von diesem zu reduzieren.
1

Aufgabenverteilung mit Zeiterfassung
Es wurde versucht eine hohe vertikale Integration2 des KM innerhalb der Projektgruppe zu
erreichen, indem die einzelnen Teilbereiche durch den Einsatz von Tools miteinander
verknüpft wurden. Zudem wurde auf Standartsoftware und Lösungen gesetzt um wie bereits
erwähnt ein möglichst wartungsfreies System zu erhalten.
Folgende Software und Tools werden eingesetzt:




Ubuntu 10.10 LTS3
Git
VSFTP
Redmine
Wobei sehr viele Features direkt von Redmine geboten werden, was die Zahl der benötigten
Tools deutlich reduziert hat.
2 Versionsverwaltung
Eine
Versionsverwaltung
ist
für
Software
Projekte
unerlässlich.
Ein
Versionsverwaltungssystem stellt eine Funktionalität bereit, mit der Unterschiedliche
Zustände von Dateien und Dokumenten gespeichert werden können. So kann nach
Änderungen an einer Datei zurückverfolgt werden, wer was und wann geändert hat. Auch
kann zu alten Zuständen zurückgekehrt werden.
Dadurch dass mehrere Programmierer an demselben Projekt arbeiten ergeben sich zudem
verschiedene Probleme. Das bekannteste ist sicherlich das Lost Update Problem, bei dem
Änderungen, die von einer Person vorgenommen wurden die Änderungen einer anderen
Person überschreiben (siehe Abbildung 1).
Abbildung 1 - Lost Update (Hasselbring, 2007)
2
Die vertikale Integration bezeichnet in einem Unternehmen den Grad der Integration von der strategischen
Ebene bis hin zur operativen Ebene.
3
LTS = Long Time Service
2
Dieses Problem wird von allen aktuelleren Versionsverwaltungssystemen durch das
Einführen von Locks und das teilweise automatisierte Zusammenführen von Dateien
behoben. Gerade bei älteren Systemen (wie z.B. RCS) ist diese Funktionalität allerdings nicht
gegeben, wodurch diese Systeme für unser Projekt als unbrauchbar angesehen werden.
Aufgrund der Erfahrungen in der Gruppe wurden vor allem zwei Systeme verglichen, welche
sich grundlegend im Aufbau unterscheiden: SVN und Git.
Nicht betrachtet wurden Systeme, die grundlegend ähnlich wie SVN sind (z.B. CVS), oder
grundlegend ähnlich wie GIT (z.B. Mercurial (hg) oder Bazaar), da in der Gruppe mit diesen
keine großen Erfahrungen vorliegen und eine Einarbeitungszeit erforderlich gewesen wäre.
Auch kommerzielle Systeme wie Microsoft Visual Source Safe (Microsoft VSS) wurden
nicht betrachtet. Die Versionsverwaltung war das erste was im Rahmen des
Konfigurationsmanagements beschlossen und umgesetzt wurde und aufgrund der startenden
Entwicklung engen zeitlichen Grenzen unterworfen.
2.1 Vergleich von Git und SVN
Der Hauptunterschied zwischen Git und SVN ist, dass es sich bei Git um ein sogenanntes
verteiltes Versionsverwaltungssystem handelt. Im Gegensatz zu SVN wird nicht ein zentraler
Server benötigt, sondern es gibt mehrere redundante Instanzen des gesamten Repositories,
wodurch alle Nutzer den vollständigen Funktionsumfang von Git nutzen können, auch wenn
sie den Haupt Server, welcher auch oft als Master bezeichnet wird, nicht erreichen können.
Jeder Nutzer kann also lokal in sein eigenes Repository Änderungen übertragen, welche dann
nach Belieben auf einmal zum Server gesendet werden (man spricht hier von pushen). Auch
ist es möglich, dass zwei oder mehrere Nutzer gegenseitig commits (also Übertragungen)
austauschen,
was
das
kollaborative
Arbeiten
deutlich
erhöht.
Auch wird es so ermöglicht lokal mehrere Zustände (Konfigurationen) der eigenen Arbeit zu
speichern, ohne jeweils den kompletten Ordner kopieren zu müssen. Gerade bei großen
Projekten ist dies sehr hilfreich, da beim Übertragen nur die Zahl der Änderungen von zwei
Konfigurationen untereinander, also die Deltas, gespeichert werden müssen.
Diese Funktionalität fehlt komplett bei SVN. Es ist lediglich möglich nach erledigter Arbeit
die vorgenommenen Änderungen zum Server zu schicken.
Ein weiterer großer Vorteil von Git gegenüber SVN ist die Geschwindigkeit, mit der das
Repository Dateien austauscht. Bei SVN werden Änderungen einzeln und nacheinander
übertragen. Dies ist gerade bei sehr vielen Dateien, oder bei extrem großen Dateien sehr
zeitaufwendig. Git hat aufgrund dieses Problems eine komprimierte Übertragung eingeführt,
welche die Geschwindigkeit deutlich erhöht. In einem ersten Schritt werden dabei die
Unterschiede zwischen dem Zustand der lokal vorliegenden, sowie des entfernten Repositorys
komprimiert und gemeinsam als ein einziger Stream über das Netzwerk versandt. Gerade
Projekte, welche aus Dateien bestehen, bei denen sich hohe Kompressionsraten erzielen
lassen profitieren deutlich von diesem Feature.
Bei der Einrichtung und Wartung sind die Unterschiede nicht sonderlich groß. Beide Systeme
lassen sich entweder als Teil eines Apache Servers laufen lassen, was den Vorteil mitbringt,
dass ein ausgereiftes Sicherheitsmanagement (z.B. htaccess) genutzt werden kann, sowie ein
sehr performanter Server existiert, welcher auch eine große Zahl an Zugriffen verarbeiten
kann. Alternativ lässt sich auch für beide Systeme eine Authentifikation über SSH
3
ermöglichen, welche das Unix Rechte Management nutzt. Dabei werden auf einem beliebigen
Unix artigem Betriebssystem normal Nutzer angelegt und einer gemeinsamen Nutzergruppe
zugewiesen. Das SVN oder Git Repository befindet sich dann ein einem normalen Ordner im
Verzeichnissystem und die komplette Kommunikation erfolgt danach über SSH. Ein eigener
Prozess für einen Server muss nicht mehr laufen. Aufgrund des geringeren
Wartungsaufwands haben wir uns für diese Lösung entschieden, da die Zahl der
Gruppenmitglieder mit sechs Personen doch eher überschaubar ist und eine hochperformante
Lösung nicht zu den Anforderungen gehört.
Für beide Systeme gibt es eine unterschiedlich gute Integration in die verbreiteten IDEs, was
sicherlich historische Gründe hat. So begann die Entwicklung von Git erst 2005 durch Linus
Torvalds, SVN hingegen existiert schon seit 2000 und erreichte ein Jahr vor dem Beginn der
Entwicklung Gits die Version 1.0. Zudem ist SVN eine quasi Weiterentwicklung des
Concurrent Versiosn System (CVS), welches seit 1989 entwickelt wird und als
Weiterentwicklung des Revisions Control Systems (RCS, seit 1982) gilt. Während SVN auf
weit verbreiteter Software basiert und Konzepte benutzt, die seit Jahrzenten in der Praxis
bewährt sind, ist Git erst seit einigen Jahren dabei Verbreitung zu finden. Es konnten leider
Keine Zahlen zur aktuellen Verbreitung gefunden werden, bei denen Angaben zur
eingesetzten wissenschaftlichen Methodik gemacht wurden, mit welcher diese erhoben
wurden, bzw. die einem Review Verfahren unterlagen und damit wissenschaftlichen
Ansprüchen genügen.4
Beide Systeme bieten zudem noch die Möglichkeit von Pre- und Post-commit Hooks, auf
welche im Folgenden noch näher eingegangen wird.
2.2 Hooks
Ein Hook ist ein Programm oder Skript, welches durch ein Event, welches im Repository
ausgelöst wird ausgeführt wird. Wichtig ist dabei vor allem der Post-commit Hook, welcher
nachdem Dateien in das Repository übertragen wurden ausgelöst wird. Dieser Hook kann für
verschiedenste Aufgaben genutzt werden, so müssen zum Beispiel die Meisten Groupware
Systeme und Bug Tracker, welcher oftmals eine nahezu nahtlose Integration in
Versionskontrollsysteme haben (oder umgekehrt) über Änderungen benachrichtigt werden.
Oder es können automatisch Emails versandt werden, nachdem bestimmte Änderungen
vorgenommen wurden.
Die Einrichtung eines solchen Hooks ist bei beiden betrachteten Systemen recht einfach
gehalten. Es gibt jeweils einen Ordner, in welchem die Programme, bzw. Skripte kopiert
werden. Diese müssen lediglich eine Konvention hinsichtlich des Dateinamens erfüllen (z.B.
pre-commit.sh) und die notwendigen Dateirechte haben (unter Unixoiden Systemen vor allem
das +x Flag). Relevante Daten werden diesen Skripten dann automatisch per Startargument
durch das jeweils verwendete System übergeben. Eine weitere Konfiguration ist nicht
notwendig, was einen sehr positiven Eindruck bei beiden Systemen hinterlassen hat.
4
Deshalb sei hier lediglich in einer Fußnote erwähnt, das in (Hammon, 2010) SVN mit einem Marktanteil von
33,4% auf dem ersten Platz gesehen wird, gefolgt von Microsoft VSS mit 12,5%. Git wurde auf dem siebten
Platz mit 2,7% gelistet. Auffallend ist die große Zahl kommerzieller Systeme unter den Top 10.
4
2.2.1 Verwendete Hooks
Als einziger Hooks ist momentan ein Post-commit Hook aktiviert, welche von der
eingesetzten Groupware benötigt wird. Diese bietet dann die Möglichkeit weitere Features,
wie das bereits erwähnte Versenden von Emails nach Dateiänderungen nach Belieben und
komfortabel zu konfigurieren.
Ein weiterer Post-commit hook, welcher automatisch Unit Tests ausführt ist in dem aktuellen
Projektstadium leider noch nicht integrierbar, allerdings geplant, sofern eine Testumgebung
beschlossen wird.
2.3 Entscheidung
Nach Abwägung aller Vor- und Nachteile haben wir uns letztlich für den Einsatz von Git
entschieden. Gerade der verteilte Ansatz verspricht die Produktivität deutlich zu erhöhen.
Auch die Möglichkeit lokal ein Repository zu benutzen, in welchem verschiedene
Konfigurationen des Projektes bei der Arbeit gespeichert werden können, und zwar ohne das
jedes Mal eine Änderung auf den Remote Server geschrieben werden muss, ist etwas das
eindeutig ein deutlich effizienteres Arbeiten verspricht, als es Subversion bietet.
Auch sind die Erfahrungen in der Gruppe mit Git überaus positiv, auch wenn noch nicht alle
dieses System kennen und bereits Erfahrungen damit sammeln konnten.
3 Projektmanagement Tools
Das Projektmanagement ist dazu da, um die vorhandene Arbeit so auf die einzelnen
Teilnehmer zu verteilen, dass die Effizienz maximiert wird und die Prozessverluste minimiert
werden. Auch ist es wichtig Aufgaben zu priorisieren, da keine unbegrenzten Ressourcen zur
Verfügung stehen.
Die Informationsfunktion bezeichnet alle Aufgaben, die zur Information und Kommunikation
gehören. In Projekten ist es im Rahmen der Business Intelligence wichtig über geeignete
Informationssysteme zu verfügen, die durch einen hohen Integrationsgrad die
Informationsfunktion gut und geeignet abbilden und vor allem repräsentieren. "Business
Intelligence umfasst Verfahren, Methoden und Werkzeuge, um entscheidungs- und
analyserelevante Daten aus unternehmensinternen und -externen Quellen zu integrieren und
für Analysezwecke optimiert aufzubereiten." (Gronau, 2010, S. 306)
Es ist wünschenswert ein System zu finden, dass dieser Aufgabe gewachsen ist.
3.1 Übersicht
Für den Einsatz in Softwareprojekten existieren mehrere, teilweise frei verfügbare
Programme, welche häufig als sogenannte Issue-Tracking-Systeme bezeichnet werden. Diese
Systeme bieten in der Regel eine Funktionalität um Aufgaben, Anfragen und ggf. Bugs als
"Tickets" zu speichern. Diese Tickets können dann in Kategorialen eingeteilt werden und im
simpelsten Fall an eine oder mehrere Personen zur Bearbeitung gegeben werden. Wir haben
früh beschlossen, dass alle erfolgreich identifizierten Aufgaben als Ticket gespeichert werden,
damit der Soll Zustand des Systems jederzeit abrufbar ist. Sobald eine Aufgabe erledigt
wurde, kann dieses in dem Entsprechenden Ticket vermerkt werden und dieses wird
5
aktualisiert und evtl. geschlossen. Durch automatisierte Benachrichtigungsfunktionen erhalten
zudem alle Gruppenmitglieder eine Email, welche über den geänderten Ist Zustand informiert.
3.2 Vergleich von Issue-Tracking und Projektmanagement Systemen
In der Gruppe existieren einige Vorerfahrungen mit dem System Trac von Edgewall Software
(Edgewall Software, 2011), die teilweise nicht nur positiv waren. Erfahrungen mit andren
Systemen existieren nicht. Nach einem anfänglichen groben Vergleich werden mehrere
Systeme verglichen um das geeignetste System zu finden. Die meisten Systeme bieten
Funktionalitäten an, die eigentlich nicht zu einem Issue-Tracking-System gehören (z.B.
Wikis), der Einfachheit halber wird im Folgenden allerdings weiterhin von Issue-TrackingSystemen gesprochen.
3.2.1 Trac
Bei Trac handelt es sich um eine Web basierte Applikation, welche in Python geschrieben ist.
Trac kann dabei entweder per WSGI, mod python, CGI oder FastCGI in einen bestehenden
Webserver eingebunden werden, oder falls dieser nicht vorhanden ist, bzw. der administrative
Aufwand für den Betrieb eines Servers zu hoch erscheint als eigener Prozess gestartet werden.
Der mitgelieferte Webserver lässt sich vergleichsweise einfach starten, es gibt jedoch einen
teilweise spürbaren Geschwindigkeitsnachteil. Die Konfiguration ist zudem überaus
kompliziert, fehleranfällig und zeitaufwendig.
Trac steht momentan in der Version 0.13, ist seit 2006 in der Entwicklung und steht zur Zeit
unter einer modifizierten BSD Lizenz.
Die zentralen Features sind ein Ticket System, welches allerdings nicht ermöglicht einzelnen
Tickets weitere Tickets als Unterticket zuzuweisen. Zudem existiert ein Wiki, welches eine
sehr simple Syntax verwendet (Moin Moin, 2011). Es gibt zudem noch viele verschiedene
Ansichten. Darunter befinden sich Ansichten, die die letzten Änderungen anzeigen, oder
Ansichten für geplante Features u.Ä.. Teilweise wirken diese allerdings vergleichsweise
unübersichtlich und überladen.
Eine Integration von Subversion ist zudem fehlerlos nutzbar, eine Git Integration ist zur Zeit
allerdings nicht ohne weiteres möglich.
Trac lässt sich durch seinen modularen Aufbau per Plugins erweitern, was allerdings häufig
vielerlei Probleme mit sich bringt. Die Plugins setzen teilweise sehr spezifische Versionen
voraus und erfordern mitunter einen hohen administrativen Aufwand.
Positiv ist die Stabilität. Nach persönlichen Erfahrungen ist es in zwei Jahren Dauerbetrieb,
lediglich unterbrochen von Reboots des kompletten Servers, nicht einmal zu einem Absturz
gekommen.
3.2.2 Retrospectiva
Retrospectiva (Retrospectiva, 2011) ist ein Open-Source Projekt, welches einen sehr
aufgeräumten und übersichtlichen Eindruck macht. Es handelt sich ebenfalls um eine Web
Anwendung und setzt eine eigens zu administrierende Datenbank, wie z.B. MySql voraus. Ein
eigener Webserver wird mitgeliefert und das gesamte Projekt ist in Ruby implementiert. Das
Ticket System macht einen übersichtlichen Eindruck und sehr positiv ist die Git Integration,
6
welche ohne Plugins auskommt und selbst zu den beworbenen Core Features gehört. Die
Weiterentwicklung des Projekts wird mit sich selbst verwaltet und geplant. Dabei wird Git als
Versionskontrollsystem eingesetzt. Es ist also anzunehmen, dass dieses Feature nicht plötzlich
seine Funktion einstellt (wie bei Git Plugins für Trac geschehen).
Meilensteine können verwaltet werden und über Plugins können Features wie ein Blog und
ein Wiki zugefügt werden. Auch agile Softwareentwicklung wird unterstützt, so gibt es zum
Beispiel Möglichkeiten einen Scrum Sprint komplett in Retrospektiva zu verwalten.
Die Administration erfolgt ebenfalls komplett über ein Web Frontend, welches ebenfalls
aufgeräumt und übersichtlich ist.
Trotz der sehr positiv wirkenden Feature Liste und dem übersichtlichen Interface ist der
Einsatz in Produktiv Umgebungen allerdings momentan nicht ratsam. Im eigenen Bug
Tracker häufen sich die Einträge von Usern, welche Tickets erstellt haben um Bugs zu
melden, und in vielen Fällen wird nicht geantwortet. So gab es bei der ersten Test Installation
Probleme durch einen Bug und auch nach über einem Monat ist das Ticket noch nicht
beantwortet wurden (Retrospectiva, 2011). Der letzte Blog Eintrag liegt auch schon lange
zurück und anscheinend ist das Projekt aufgrund mangelnder Entwicklung gestorben.
3.2.3 Redmine
Redmine ist eine Web Applikation, die in Ruby geschrieben ist und Rails verwendet. Es
macht einen sehr übersichtlichen Eindruck, ist seit 2006 in Entwicklung und unter der GNU
GPL v2 Lizenz veröffentlicht. Eine eigene Datenbank, in unserem Fall MySQL muss jedoch
manuell installiert werden.
Es gibt eine große Zahl an Features, die ohne Plugins auskommen. Das Ticket System
ermöglicht sogar das erstellen von Untertickets, was eine sehr flexible Aufgabenverteilung
ermöglicht. Die Aufgaben können in Gant-Diagrammen visualisiert werden.
Besonders positiv ist die Wandlungsfähigkeit einzelner Ansichten. So ist es möglich nahezu
jede Seite zu verändern und weitere Eingabefelder zuzufügen. So lässt sich z.B. in der
Nutzerübersicht ein weiteres Feld mit einem Eintrag für einen Jabber Account zufügen. Diese
Felder sind dabei beliebig und müssen nicht aus vorgefertigten Listen ausgewählt werden.
Alle Ereignisse im System lassen sich so konfigurieren, dass sie automatisch Emails
versenden, ähnlich wie post-commit Hooks. Eine Integration von Git und SVN ist problemlos
möglich, auch wenn ein Bug momentan verhindert, dass in den Beschreibungen einer
Übertragung direkt die Ticket Nummer des zugehörigen Tickets angegeben werden kann.
Ein Forum und ein Wiki sind ebenfalls enthalten und lassen sich in der Konfigurationsansicht
an und aus schalten.
Redmine wird von sehr vielen großen Projekten eingesetzt, darunter Ruby, Typo3 und KDE.
3.3 Entscheidung
Alles in allem macht Redmine den robustesten Eindruck. Die von Haus aus unterstützten
Features sind wirklich beeindruckend und der Administrationsaufwand ist sehr gering.
7
Nachdem das System einmal läuft kann alles Weitere bequem per Web Frontend administriert
werden.
Auch die Git Integration ist ein ausschlaggebender Punkt gewesen, die wir uns bereits in
einem frühen Projektabschnitt für Git entschieden hatten. Trac ist hinsichtlich Git leider nicht
kompatibel und fällt damit raus. Retrospektiva ist wie bereits erwähnt für einen Produktiven
Einsatz momentan ungeeignet und es bleibt abzuwarten ob es weiterentwickelt wird. Gerade
in Sachen Bedienbarkeit hat es Trac einiges voraus und die Git Integration ist ebenfalls ein
großes Pluspunkt.
Letztlich fiel die Entscheidung zugunsten von Redmine.
4 Build Management
Im Rahmen dieses Kapitels möchte ich den automatisierten Prozess beschreiben, mit dem das
letztlich resultierende Projekt erstellt wird.
Momentan wird höchstwahrscheinlich C++ als Programmiersprache verwendet. Für diese gibt
es verschiedene Tools, welche das automatisierte Erstellen des resultierenden Programes aus
dem Quellcode ermöglichen. Das bekannteste ist sicherlich make. Weitere bekannte Vertreter
sind noch CMake und Automake. Da viele der bis jetzt im Rahmen des Projektes untersuchte
Libraries CMake verwenden, wird dieses im Folgenden genauer betrachtet.
4.1 CMake Einleitung
CMake (CMake, 2011) ist ein Open Source Programm, welches von Kitware entwickelt wird.
Entstanden ist das Projekt im Jahr 1999, die eigentliche Entwicklung startete jedoch erst im
Jahr 2000 und seit dem in Entwicklung. Das besondere an CMake ist, dass es sich um ein
plattformunabhängiges Tool handelt und auch mit Hilfe von cross Compiling für
verschiedene Plattformen das resultierende Programm erstellt werden kann. Dies ermöglicht
einem Programmierer unabhängig vom Betriebssystem zu entwickeln.
CMake erstellt dazu mit Hilfe einer Datei namens CMakeLists.txt, welche für jedes Projekt
erstellt werden muss, das eigentliche resultierende Makefile. Dieses kann für die wichtigsten
Plattformen und IDEs erstellt werden. CMake ist sozusagen ein Meta Build Tool.
4.2 Beispiel
Im Folgenden soll die Funktionsweise anhand eines Beispiels verdeutlicht werden. Gegeben
sei folgendes C++ Programm, welches in der Datei hallo.cpp gespeichert ist.
#include <iostream>
#include <ostream>
int main()
{
std::cout << "Hallo Welt!" << std::endl;
}
8
Zudem wird im selben Ordner eine CMakeLists.txt erstellt, welche folgenden Inhalt hat:
Dies ist schon das komplette CMake Makefile. Durch den Aufruf von "cmake .." aus einem
cmake_minimum_required(VERSION 2.6)
project(hallo)
add_executable(hallo hallo.cpp)
beliebigen Unterordner heraus wird dann das eigentliche Makefile erstellt. Durch den Aufruf
von "make" wird dann eine Ausführbare Datei namens "hallo" erstellt.
Die Syntax ist dabei sehr simpel. mit cmake_minimum_required(VERSION 2.6) wird
angegeben, welche minimale CMake Version vorhanden sein muss. Der Projektname wird
dabei in Zeile zwei festgelegt und in der letzten Zeile wird der Name der Ausführbaren Datei,
sowie die Datei mit der main Funktion definiert. Befehlen in CMake können Argumente in
der Form cmake_minimum_required(Arg1 Arg2 ...) übergeben werden.
Dies ist ein minimales Beispiel und verdeutlicht gut die Funktionsweise von CMake,
allerdings nicht einmal ansatzweise den kompletten Funktionsumfang.
4.3 Weitere Funktionen
CMake bietet zudem weitere Funktionen, darunter das setzen und speichern von Variablen
mit SET(VARIABLE VALUE), sowie logische Operationen mit if(A AND B) [...]. In
Kombination mit Möglichkeiten das Betriebssystem abzufragen lassen sich individuelle
Skripte für verschiedene Plattformen erzeugen. Dies ist vor allem beim Einbinden von
weiteren Libraries sinnvoll, welche oftmals nur als Binärdateien ausgeliefert werden.
Weitere Ordner können mit INCLUDE_DIRECTORIES(/some/directory) angegeben
werden. Libraries können über das find_library sowie target_link_libraries
Kommando referenziert werden.
Die meisten Features können in recht kurzer Zeit umgesetzt werden. Hilfreich ist dabei das
sehr ausführliche Wiki5.
4.4 Integration in das Projekt
Zum aktuellen Zeitpunkt stehen immer noch wichtige Entscheidungen aus, welche für ein
fertiges Build Skript absolut notwendig sind. So ist zum Beispiel noch nicht klar, ob die
Ogre3D Engine, oder die Irrlicht Engine eingesetzt werden wird.
Beide Engines lassen sich mit CMake bauen, bzw. setzen dieses sogar voraus. Es gibt jedoch
sehr gute Beispiele und es sollte relativ schnell gehen ein fertiges Build Script zu erstellen.
5
http://www.cmake.org/Wiki/CMake, zuletzt aufgerufen am 30.05.2011
9
5 Fazit
Das im Rahmen des Projektes entstandene Konfigurationsmanagement ist vielen Aufgaben
gewachsen und bindet vor allem wenige der ohnehin begrenzten Humanressourcen. Es wurde
vor allem darauf geachtet, ein stabiles System zu erschaffen, welches von allen
Gruppenmitgliedern problemlos genutzt werden kann.
Am aufwendigsten war die Einrichtung der verschiedenen Projektmanagement Tools, was
dazu geführt hat, dass das gesamte Konfigurationsmangement jetzt auf einem eigenen Server
läuft da die Integration in einen bestehenden Server mit Mehrbenutzerbetrieb, welcher von der
Uni Oldenburg bereitgestellt worden war nicht problemlos ablief. Mit Redmine konnte jedoch
ein System gefunden werden, dass allen Anforderungen mehr als gerecht wird.
10
6 Literaturverzeichnis
Angermeier, D. G. (3. Februar 2004). ProjektMagazin. Abgerufen am 25. Mai 2011 von
http://www.projektmagazin.de//glossarterm/konfigurationsmanagement
Braun, R. (2009). Referenzmodellierung. Münster: Logos Verlag Berlin GmbH.
CMake. (29. 05 2011). Abgerufen am 29. 05 2011 von http://www.cmake.org/
Edgewall Software. (26.
http://trac.edgewall.org
05
2011).
Trac.
Abgerufen
am
26.
05
2011
von
Gronau, P. D. (2010). Enterprise Resource Management (2. Auflage Ausg.). München:
Oldenbourg Wissenschafts Verlag.
Hammon, J. (26. Janur 2010). Forrester Databyte: SCM Tool Adoption. Abgerufen am 27.
Mai 2011 von http://blogs.forrester.com/application_development/2010/01/forrester-databytedeveloper-scm-tool-adoption-and-use.html
Hasselbring, P. D. (2007). Modul Sofware Engineeing (Skript). Oldenburg.
Moin Moin. (2011). Abgerufen am 26. 05 2011 von http://mainmo.in
Retrospectiva. (26. 05 2011). Abgerufen am 26. 05 2011 von http://retrospectiva.org/
Retrospectiva. (2011). Abgerufen am 26. 05 2011 von http://retrospectiva.org/tickets/889
Versteegen, G., & Weischedel, G. (2003). Konfigurationsmanagement. Heidelberg: Springer.
11
Seminararbeit
Präsenzempnden in virtuellen
Umgebungen
Erstellt von:
Studienbereich:
Professor:
Tutor:
Jendrik Poloczek
Informatik
Prof. Dr. Wolfgang Kowalk
Dipl.-Inf. Stefan Brunhorn
Dieses Werk einschlieÿlich seiner Teile ist urheberrechtlich geschützt. Jede Verwertung auÿerhalb der engen Grenzen des Urheberrechtgesetzes ist ohne Zustimmung
des Autors unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen,
Übersetzungen, Mikroverlmungen sowie die Einspeicherung und Verarbeitung in
elektronischen Systemen.
Inhaltsverzeichnis
1 Einleitung
1
2 Grundlagen
2
2.1
Historie virtueller Umgebungen
. . . . . . . . . . . . . . . . . .
3
2.2
Anwendungsgebiete virtueller Umgebungen . . . . . . . . . . . .
4
2.3
Technische Realisierung virtueller Umgebungen
. . . . . . . . .
5
2.4
Projektziel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
3 Präsenzforschung
7
3.1
Wahrnehmungsprozess
. . . . . . . . . . . . . . . . . . . . . . .
8
3.2
Virtueller Körper
. . . . . . . . . . . . . . . . . . . . . . . . . .
9
3.3
Präsenzempnden . . . . . . . . . . . . . . . . . . . . . . . . . .
10
3.4
Räumliche Präsenz
. . . . . . . . . . . . . . . . . . . . . . . . .
11
3.5
Soziale Präsenz
. . . . . . . . . . . . . . . . . . . . . . . . . . .
12
3.6
Eigenwahrnehmung . . . . . . . . . . . . . . . . . . . . . . . . .
13
3.7
Sensomotorische Koordination . . . . . . . . . . . . . . . . . . .
15
4 Projektbezogene Untersuchung
4.1
Räumliche Präsenz
4.2
Soziale Präsenz
15
. . . . . . . . . . . . . . . . . . . . . . . . .
16
. . . . . . . . . . . . . . . . . . . . . . . . . . .
17
4.3
Eigenwahrnehmung . . . . . . . . . . . . . . . . . . . . . . . . .
17
4.4
Virtuelle Umgebung für das Präsenzempnden . . . . . . . . . .
18
5 Zusammenfassung
18
6 Ausblick
20
Literaturverzeichnis
21
I
Motivation
Die vorliegende Arbeit wurde im Rahmen der Projektgruppe Virtual Reality
im Fachbereich Informatik im Sommersemester 2010/2011 an der Carl-vonOssietzky Universität Oldenburg verfasst. Prof. Dr. Wolfgang Kowalk leitet
die Projektgruppe. Die Projektgruppe bietet den Studenten den Erwerb praxisnaher Erfahrungen bei der selbständigen Bearbeitung forschungsorientierter
Projekte.
Die Projektgruppe Virtual Reality befasst sich mit dem Entwurf eines VirtualReality-Systems mit dem es möglich ist in virtuelle Umgebungen einzutauchen. Dabei sind folgende Aspekte unter anderen als besonders bedeutsam
für das Gefühl der Präsenz in der virtuellen Umgebung eingestuft worden:
Übertragung der Körperbewegung des Benutzers, einschlieÿlich Blickrichtung,
auf einen virtuellen Körper, Interaktion mit der Umgebung, eine Kollisionserkennung zwischen dem Benutzer und Gegenständen in der Umwelt und eine
authentische Klanguntermalung.
Die Einstufung dieser Aspekte ist jedoch nur eine Annahme. Ausgehend von
der Frage, ob die genannten Elemente zu einem Gefühl von Präsenz in der virtuellen Umgebung führen, wird im Folgenden eine genauere Auseinandersetzung mit der interdisziplinären Thematik der Präsenzempndung in virtuellen
Umgebungen dargeboten. Es wird dabei ferner untersucht, welche Faktoren
für das Gefühl des Eintauchens in eine virtuelle Umgebung relevant sind
und wie sich dieses Gefühl intensivieren lässt. Mithilfe dieser Untersuchung
kann die Projektzielsetzung hinsichtlich des Präsenzempndens analysiert und
verbessert werden.
1
1 Einleitung
Die vorliegende Arbeit setzt sich mit dem Präsenzempnden in virtuellen Umgebungen auseinander. Es wurden dabei folgende Fragen motiviert: Welche
Faktoren sind für die Präsenzempndung relevant?, Wie lässt sich die Präsenzempndung intensivieren? und Wie hoch ist das Präsenzempnden des
Projekts auf Basis der Zielsetzung einzuschätzen?. Zur Beantwortung der Fragen wird ausgehend von einem Grundlagenkapitel, die erste Frage im Kapitel
Präsenzforschung (siehe Kapitel 3) beantwortet. Der zweiten und dritten
Frage ist das Kapitel Projektbezogene Untersuchung (siehe Kapitel 4) gewidmet.
Im Grundlagenkapitel werden die Historie der virtuellen Realtität (siehe Abschnitt 2.1, ab hier: VR), die Anwendungsgebiete der VR (siehe Abschnitt 2.2),
die technische Realisierung der VR (siehe Abschnitt 2.3) und das Projektziel
(siehe Abschnitt 2.4) erläutert. Nachfolgend wird der Wahrnehmungsprozess
des Menschen (siehe Abschnitt 3.1) und die Beziehung zwischen dem physischen, dem virtuellen Körper und der virtueller Umgebung untersucht (siehe
Abschnitt 3.2). Diese zwei Abschnitte bilden den Einstieg in die Präsenzforschung. Im Anschluss wird der Begri Präsenzempndung auseinandergenommen und in relevante Teilkomponenten zerlegt (siehe Abschnitt 3.3). Mithilfe der gewonnenen Erkenntnisse wird die Zielsetzung des zu entwerfenden
VR-Systems auf das Präsenzempnden hin untersucht (siehe Kapitel 4) und
eine virtuelle Umgebung skizziert, die das Präsenzempnden im Rahmen der
Projektzielsetzung intensiviert (siehe Abschnitt 4.4). Am Schluss wird die vorliegende Arbeit zusammengefasst (siehe Kapitel 5) und ein Ausblick gegeben
(siehe Kapitel 6).
2
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
2 Grundlagen
2 Grundlagen
Im folgenden Kapitel werden die Grundlagen von VR-Systemen vermittelt.
Dieses Wissen wird für die Untersuchung des Präsenzempndens benötigt. Es
wird zunächst die Historie von VR beleuchtet. Anschlieÿend werden die Anwendungsgebiete dargestellt. Danach folgt eine Einführung in die technische
Realisierung von VR-Systemen und am Schluss werden die Anforderungen und
Rahmenbedingungen des Projektziels erläutert.
2.1 Historie virtueller Umgebungen
Die Idee der VR ist seit Kindertagen der Mikrocomputer ein Thema in der Literatur. In dem bereits 1964 erschienenem Sciencection Roman Simulacron-3
von Daniel Francis Galouye wird die Geschichte eines Informatikers erzählt,
der an einem Simulationscomputer arbeitet. Der Computer simuliert eine Kopie der Stadt in der er wohnt. Ein ungewöhnlicher Todesfall in seinem Unternehmen veranlasst ihn in die virtuelle Stadt einzutauchen um den Mord
aufzudecken. Dieser Roman wurde zweimal verlmt und inspirierte Schriftsteller und Drehbuch-Autoren der folgenden Jahre.
Im Jahr 1965 wurde von Sutherland erstmals eine wissenschaftliche Veröffentlichung in Bezug auf die technologische Umsetzung von VR gemacht (vgl.
Sutherland [1965]). Der Begri Display (zu deutsch: Bildschirm) wird dabei als medialer Vermittler für die audiovisuellen Reize benutzt. Er beschreibt,
dass in Verbindung mit einem Computer die Chance ensteht nicht realisierbare
Konzepte der physikalischen Welt virtuell zu erproben.
Später, im Jahre 1968, folgte die erste Umsetzung mit einem sogenannten
stereoskopischen Head-Mounted-Display (ab hier: HMD) und einem Sensor,
der die Lage des Kopfes misst (vgl. Sutherland [1968]). Das HMD, seinerzeit als
Helm entworfen, besitzt typischerweise zwei eingebaute Bildschirme für visuelle
Reize, mit denen Stereoskopie möglich ist, und einen Kopfhörer für akustische
Reize. Dabei erlaubt die Stereoskopie dem Benutzer die gewöhnliche optische
Tiefe auch in der virtuellen Welt wahrzunehmen.
3
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
2 Grundlagen
2.2 Anwendungsgebiete virtueller
Umgebungen
In den folgenden Jahren wurde das Konzept der VR in verschiedenen Anwendungsgebieten erprobt. Die Anwendungen lassen sich in die Bereiche Bildung,
Psychologie, Konferenzen, Prototyping, Marketing und Unterhaltung einordnen. In Bezug auf die Bildung können beispielsweise Gebäude und Konstruktionen mithilfe von VR-Systemen unabhängig von dem realen Standort des
Gebäudes oder Existenz der Konstruktion studiert werden (vgl. Kahkonen u.
Whyte [2003]). Diese Möglichkeit unterstreicht zudem den Vorteil der VR im
Bereich der Produkt Prototyping (vgl. Sá u. Zachmann [1998]).
Ferner bietet sich das VR-System für virtuelle Labore an. Zweck dieser Labore
ist das Erlernen des Umgangs mit Apparaturen, die Durchführung von Experimenten und eine Erlangung von Wissen (vgl. Hoyer u. a. [2004]). Weitere
Anwendungen in denen Fachwissen vermittelt wird, sind das virtuelle Cockpit
(vgl. Bauer [2010]) und der virtuelle chirugische Eingri (vgl. Moraes u. a.).
Oensichtlich ist, dass eine Simulation zum Training von risikobehafteten Gefahrensituationen für den Menschen zum Training einen signikaten Vorteil
bietet.
Weitere Anwendungen des VR-Systems sind im Bereich der Psychologie angesiedelt. Forschungsprojekte der Psychologie untersuchen die Reaktion und
den Zustand des Probanden in bestimmten medial vermittelten Situationen.
Ein Beispiel dafür ist die Untersuchung von Paranoia in einer Population (vgl.
Freeman u. a. [2008]). Darüber hinaus werden VR-Systeme zur Therapierung
von Essstörungen, beispielsweise Magersucht, und Angststörungen, beispielsweise Phobien, verwendet (vgl. Gorini u. Riva [2008], Bush [2008]).
4
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
2 Grundlagen
2.3 Technische Realisierung virtueller
Umgebungen
Die technische Realisierung eines VR-Systems lässt sich in zwei Teilkomponenten zerlegen: Software- und Handwarekomponente. Es existieren verschiedene
Softwareimplementierungen für den Entwurf von virtuellen Umgebungen (vgl.
Backman [2005], Lennerz u. a. [1999]). Wesentliche Kernkomponenten sind dabei die grasche Anzeige, die Modellierung von Umgebungen und Avataren
inklusive Skripting, die Simulation von 3D-Klang und eine Schnittstelle zur
Ansteuerung der Hardwarekomponente.
Die Hardwarekomponente des VR-Systems dient als Benutzungsschnittstelle
zwischen Mensch und Computer. Sie besteht aus Eingabe- sowie Ausgabemöglichkeiten. Eingabemöglichkeiten sind beispielhaft die 3D-Maus oder der sogenannte Datenhandschuh (vgl. Steuer [1992]). Die 3D-Maus kann dabei als
Erweiterung der normalen Computermaus angesehen werden, die zudem die
Position im dreidimensionalen Raum registriert.
Bei dem Datenhandschuh wird die Neigung der gesamten Hand und die Neigung der Gelenke durch Neigesensoren gemessen. Dabei können verschiedene
Freiheitsgrade erreicht werden. Nach dem gleichen Prinzip arbeitet der Datenanzug. Der Messbereich schlieÿt jedoch auch Gliedmaÿen des gesamten Körpers
ein. Da eine Vielzahl an unterschiedlichen Eingabemöglichkeiten existieren sei
auf Bowman u. a. [2008] hingewiesen. In dieser Veröentlichung werden aktuelle 3D-Eingabemethoden untersucht. Im Folgenden werden die bekanntesten
Ausgabemöglichkeiten von VR-Systemen vorgestellt.
Das HMD stellt ein wesentliches Konzept für frühe VR-Systeme dar (vgl.
Sutherland [1968]). Auch heute dient das HMD als eine wichtige HardwareKomponente bei der Realisierung eines VR-Systems (vgl. And u. a.). Es können
mit dem HMD sowohl akustische als auch visuelle Reize vermittelt werden. Wie
bereits diskutiert, können HMDs stereoskopische Bilder erzeugen, mit denen
es dem Benutzer möglich ist die optische Tiefe wahrzunehmen. Ein integrierter Stereo-Kopfhörer dient zur Wahrnehmung von Geräuschen. Die StereoKopfhörer können dabei eine dreidimensionale Geräuschkulisse emulieren.
5
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
2 Grundlagen
Als Alternative zu dem HMD existieren verschiedene andere Ansätze: Das
CAVE
—
System ist ein begehbarer Würfel. Der Benutzer benötigt statt einem
HMD eine 3D-Brille. Auf die Wände des Würfels werden Bilder der virtuellen Umgebung projeziert. Der Benutzer hat somit die Möglichkeit sich frei
in dem Würfel zu bewegen. Das Konzept wird in Cruz-neira u. a. [1993] und
—
Gross u. a. [2003] erläutert. Eine kostengünstige Alternative zum dem CAVE
System ist die Single-Wall-Methode. Statt einen ganzen Raum zu simulieren
wird nur auf
eine
Wand projiziert. Dementsprechend muss der Benutzer zu
der Wand ausgerichtet sein. In Bezug auf kollaboratives Arbeiten gibt es auch
Ansätze mit denen mehrere Benutzer die VR erfahren können. Die sogenannte Holobench ist eine Werkbank-artige Konstruktion, die mithilfe einer 3DProjektionstechnik ein holographisches Bild über der Holobench erzeugt (vgl.
Büscher u. a. [2000]).
Die vorgestellten Systeme konzentrieren sich jediglich auf die audiovisuelle
Reizübermittlung. Mit dem Forschungsprojekt Lemoine u. a. [2004] soll jedoch auch ein System aufgegrien werden, das die Vermittlung von haptischem
Feedback ermöglicht.
2.4 Projektziel
Um eine Untersuchung der Zielsetzung der Projektgruppe VR in Bezug auf
die Präsenzempndung durchführen zu können, muss eine kurze Beschreibung
des Projektziels vornehmlich des technischen Aufbaus erfolgen.
Ziel des Projekts ist es, mithilfe von öentlich erhältlichen Hardwarekomponenten und auf Basis von freier Software ein VR-System zu entwerfen. Dabei
wurde das VR-System in zwei Teilsysteme aufgeteilt: die Middleware und die
Anwendung. Die Middleware soll in der Lage sein Körperbewegungen und Lage
des Kopfes in ein digitales Skelett zu transformieren und Gesten zu erkennen.
Die Anwendung verarbeitet die Eingabedaten, digitales Skelett und Gesten,
und erzeugt auf Basis einer simulierten virtuellen Umgebung die Ausgabedaten, die künstlich erzeugten Reize.
Folgende Anforderungen wurden für das VR-System formuliert: Der Benutzer
soll sich in der virtuellen Umgebung umschauen können. Ferner sollen seine
6
Körperbewegungen wahrgenommen und auf einen virtuellen Körper übertragen werden. Mithilfe des virtuellen Körpers soll der Benutzer in der Lage sein
mit der virtuellen Umgebung zu interagieren. Es wurden dabei besonders das
Präsenzempnden, die Kollionserkennung mit virtuellen Gegenständen und die
3D-Geräuschkulisse hervorgehoben.
Zur Umsetzung dieser Anforderungen wurde das Projektziel auf folgende Eingabeund Ausgabemethoden für die Reizvermittlung festgelegt: Ein stereoskopisches
HMD mit Stereo-Kopfhörer und Lagesensor zur Übertragung von audiovisuellen Reizen und Messung der Lage beziehungsweise Neigung des Kopfes. Für
die Messung von Körperbewegungen und die Erzeugung eines virtuellen Ske-
—
letts wird die Microsoft Kinect
verwendet. Mithilfe dieser Komponente ist
es möglich Tiefenwerte in einem Raum auszulesen. Durch die Anwendung des
in Shotton u. a. [2011] vorgestellen Algorithmus kann der physische Körper in
Echtzeit in eine digitales Skelett überführt werden.
Anforderungen für die virtuelle Umgebung, die Szenarie, sind jedoch noch nicht
festgelegt. Dies kann als Chance angesehen werden, da die vorgelegte Arbeit die
Faktoren des Präsenzempnden untersucht und die Erkenntnisse dieser Arbeit
in die Anforderungen an die virtuelle Umgebung einieÿen können.
3 Präsenzforschung
Die nachfolgenden zwei Kapitel bilden den Kern der Arbeit. In diesem Kapitel
wird intensiv auf die Thematik der Präsenz eingegangen. Das Präsenzempnden (im englischen: presence) beschreibt den subjektiven Zustand, das Gefühl,
sich in einer medial vermittelten virtuellen Umgebung anwesend zu fühlen.
Biocca beschreibt das Präsenzempnden mit: [Presence is] the illusion of feeling of being there whether there exists in a physical space or not (vgl. Biocca
[1997]). Slater macht deutlich, dass es sich bei der Präsenzempndung um ein
psychisches Phänomen handelt: Presence is a state of consciousness, the (psychological) sense of being in the virtual environment (vgl. Slater u. Wilbur
7
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
3 Präsenzforschung
[1997]). Das Präsenzempnden ist jedoch nicht auf virtuelle Umgebungen zu
beschränken. In Bracken u. Skalski [2010] wird verdeutlicht, dass das Präsenzempnden auch in klassischen Medien wie dem Fernsehen auftaucht. In allen
Medienformen soll laut Bracken u. Skalski [2009] gelten, dass mit gesteigertem
Präsenzempnden die Freude am Medienkonsum steigt.
Auch im relativ jungen Forschungsbereich der Game Studies werden Computerspiele auf die Präsenzempnden hin untersucht (vgl. Pietschmann [2009]).
Die Frage: Was ist Präsenzempnden? lässt sich jedoch nicht leicht beantworten und ist eine der zentralen Frage im Forschungsbereich der VR (vgl. Biocca
[1997]). Um bestehende Modelle zum Präsenzempnden vorzustellen muss zunächst der Wahrnehmungsprozess des Menschen und die Beziehung zwischen
dem physischen, dem virtuellen Körper und der virtuellen Umgebung dargelegt
werden.
3.1 Wahrnehmungsprozess
In Biocca [1997] wird argumentiert, dass alles was die Person wahrnimmt
zunächst, von den Sinnen produziert, in Form von Energie existiert. Mithilfe dieser Information erzeugt der Mensch automatisch und unterbewusst ein
mentales Modell seiner Umgebung. Dabei werden bereits erfahrene Situationen, Bilder im abstrakten Sinne, mit den aufgenommenen Reizen assoziert.
Gibt es Lücken in der Wahrnehmung, so werden diese aus alten Informationen
(Schemata) abgeleitet (vgl. Slater u. a. [2009]). Entspricht ein Schema nicht
der Realität, so muss es angepasst werden. Ein Beispiel soll die Funktionsweise des Wahrnehmungsapperates verdeutlichen: Eine Person steht auf einem
Metallboden. Sie sieht, dass groÿe Felsbrocken in Richtung Boden fallen. Im
Augenblick des Aufschlags hört sie jedoch kein Geräusch. In Slater u. a. [2009]
werden solche Situationen als Breaks in Presence bezeichnet. Die Person verliert das Gefühl in ihrer Welt anwesend, präsent zu sein. Da das mentale Modell
den Bezug zum Wahrgenommenen verliert. Je nach dem wie fest ein Muster in
der Person verankert ist lassen sich Irrtümer kompensieren. Es soll bereits an
dieser Stelle festgehalten werden, dass die Plausibilität der wahrgenommenen
Reize einer der entscheidenen Bedingungen für das Präsenzempnden ist (vgl.
Slater u. a. [2009], Biocca [1997]).
8
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
3 Präsenzforschung
3.2 Virtueller Körper
In Biocca [1997] wird mit dem Begri progressive embodiment die steigende
Tendenz immer engerer Kopplung zwischen Mensch und Benutzungsschnittstelle zum Computer bezeichnet. Eine engere Kopplung zwischen dem Menschen und der Schnittstelle impliziert eine engere Bindung zwischen physischem
und virtuellen Körper.
Der physische Körper stellt mit seinen Sinnen eine Schnittstelle zur der physischen Umgebung dar. Sekuler und Blake bezeichnen die Sinne als communication channels to reality (vgl. Sekuler u. Blake [1994]). In Gegenrichtung spricht
Biocca [1997] von Sinnen als Kanäle zum Verstand. Loomis argumentiert: [all]
Contact with the physical world is mediated (vgl. Loomis [1992]).
Da die Reizwahrnehmung unsere Welt beziehungsweise das mentale Modell
formt, lässt sich unsere Welt durch künstlich erzeugte Reize beliebig denieren. In diesem Zusammenhang spricht Biocca [1997] von der physischen Transzendenz: Der Mensch kann unabhängig von seiner physischen Verkörperung
an beliebigen Orten existieren. Laut Biocca [1997] existiert seit der Antike
der Wunsch nach physischer Transzendenz. Deutlich wird dieser Wunsch in
Sutherland [1965]:
A display connected to a digital computer gives us a chance to
gain familiarity with concepts not realizable in the physical world.
It is a looking glass into a mathematical wonderland.
Der virtuelle Körper ist dabei nicht nur ein Avatar mit dem sich der Benutzer
identiziert, wie beispielsweise in Computerspielen. Sondern in Analogie zu
unserem physischen Körper und der physischen Welt eine Schnittstelle, mit
der die virtuelle Umgebung wahrgenommen wird (vgl. Biocca [1997]). Loomis
argumentiert, dass aus Sicht des Benutzers der virtuelle Körper zu ihm gehört
und das er gleichzeitig die Trennschicht zwischen dem
Sein
und der virtuellen
Umgebung ist (vgl. Loomis [1992]).
9
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
3 Präsenzforschung
Präsenzempfinden
räumliche Präsenz
soziale Präsenz
Eigenwahrnehmung
Abbildung 3.1: Aufspaltung des Präsenzempndens
3.3 Präsenzempnden
Das Präsenzempnden wurde bisher abstrakt als ein psychologischer Zustand
beziehungsweise als ein Gefühl deniert sich an einem Ort präsent zu fühlen
(vgl. Abschnitt 3). Ferner wurde im Abschnitt 3.2 der Zusammenhang zwischen
dem Wahrnehmungsprozess und der Modellbildung dargelegt. Bereits an dieser
Stelle wurde eine wichtige Komponente für das Präsenzempnden hervorgehoben: Plausibilität. Im darauf folgendem Abschnitt 3.2 wurde auf den virtuellen
Körper als Schnittstelle zur virtuellen Umgebungen eingegangen. Mit diesen
grundlegenden Erkenntnissen werden in den folgenden Abschnitten die Modelle
von Lombard u. Ditton [1997] und Biocca [1997] vorgestellt.
Laut der Arbeit Pietschmann [2009], die verschiedene empirische und theoretische Arbeiten unter anderem Lombard u. Ditton [1997] und Biocca [1997]
zusammenfasst, lässt sich das Gesamtkonzept des Präsenzempndens in Teilbereiche aufspalten (vgl. Abbildung 3.1): räumliche Präsenz, auch physische
Präsenz genannt, soziale Präsenz und die Eigenwahrnehmung (im Orginal:
Spatial Presence, Social Presence und Self-Presence). Die räumliche Präsenz
beschreibt dabei die Illusion, sich in einem virtuellen Raum aufzuhalten. Die
soziale Präsenz umfasst die Empndung sich mit einer oder mehreren medial vermittelten Personen oder künstlichen Avataren zusammen an einem Ort
zu sein. Mit der Eigenwahrnehmung, auch als Selbstwahrnehmung bezeichnet,
wird ein Zustand beschrieben, in dem der Benutzer seinen virtuellen Körper
so wahrnimmt, als sei dieser sein reales Selbst (vgl. Pietschmann [2009]).
10
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
3 Präsenzforschung
Räumliche Präsenz
Lebendigkeit
Interaktivität
Abbildung 3.2: Aufspaltung der räumlichen Präsenz
3.4 Räumliche Präsenz
Die räumliche Präsenz wird durch technische Merkmale wie Lebendigkeit
(im Orginal: vividness) und Interaktivität deniert (vgl. Abbildung 3.2). Der
Begri Lebendigkeit beschreibt dabei die technische Möglichkeit eine sensorisch reichhaltige virtuelle Umgebung zu erzeugen (vgl. Steuer [1992]). Die
Lebendigkeit wird durch die Terme Breite und Tiefe deniert. Die Breite
der Lebendigkeit beschreibt die Anzahl simultaner Sinneskanälen, während die
Tiefe die Auösung der einzelnen Sinneskanäle beschreibt (vgl. Pietschmann
[2009]).
Beispielsweise erzeugt ein Telefon akustische Reize niedriger Auösung und ist
folglich schmal und ach im Sinne der Lebendigkeit. Eine virtuelle Umgebung
hingegen bietet hochauösende audiovisuelle Reize und möglicherweise haptisches Feedback an. Sie ist dementsprechend in Bezug auf die Lebendigkeit
breit und tief. Biocca beschreibt mit dem Begri sensory engagement ein
Maÿ, das die Quantität und Qualität von nicht-medial vermittelten Reizen der
physischen Umgebung mit medial-vermittelten Reizen in Beziehung setzt (vgl.
Biocca [1997]).
Der Begri Interaktivität bezieht sich auf die Möglichkeit eines Benutzers
die virtuelle Umgebung zu beinussen. Laut Steuer [1992] ist die Interaktivität
abhängig von Geschwindigkeit, Reichweite und Zuordnung.
Der Faktor Geschwindigkeit beschreibt die Reaktionszeit der Umgebung auf
Eingaben. Die Menge aller Einussmöglichkeiten und Handlungsalternativen
wird durch die Komponente Reichweite abgedeckt.
Die Zuordnung bezieht sich auf die Authentizität bzw. die Natürlichkeit und
Zuordnung der Eingabe (vgl. Pietschmann [2009]). Wie bereits in Abschnitt
11
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
3 Präsenzforschung
Soziale Präsenz
Kopräsenz
Psychische
Involvierung
Verhaltensaustausch
Abbildung 3.3: Aufspaltung der sozialen Präsenz
3.1 angesprochen, ist auch die Plausiblität der wahrgenommenen Umgebung
eine weitere wichtige Bedingung für das Präsenzempnden in virtuellen Umgebungen und lässt sich der räumlichen Präsenz zuordnen.
3.5 Soziale Präsenz
Ursprünglich wird der Begri Soziale Präsenz in der Kommunikationsforschung verwendet. Die soziale Präsenz beschreibt die Wahrnehmung der Verkörperung einer anderen Person oder mehrerer Personen. Im Zusammenhang
mit VR können dies auch Verkörperungen künstlicher Intelligenzen sein. Laut
Biocca [1997] ist die Wahrnehmung anderer Intelligenzen nur über deren Handlung abzuleiten. Dementsprechend sorgt eine starke Interaktion in der virtuellen Umgebung dafür, dass sich die Teilnehmer untereinander als intelligente
Wesen erkennen. Biocca deniert die soziale Präsenz (vgl. Biocca [1997]):
The amount of social presence is the degree to wich a user feels
access to the intelligence, intentions, and sensory impressions of
another
Ferner vermutet Biocca, dass sich der Turing-Test als nützliches Werkzeug zur
Überprüfung von sozialer Präsenz mit einem künstlichen Gegenüber eignet.
Biocca und Lombard gehen davon aus, dass Avatare, Verkörperungen künstlicher Intelligenzen den Umgang mit Computern revolutionieren werden. Anstatt einer graschen Oberäche sollen Computer der Zukunft digitale Repräsentationen von künstlichen Personen oder Wesen beherbergen mit denen eine
Unterhaltung, wie sie zwischen Menschen geführt wird, möglich ist (vgl. Biocca
[1997], Lombard u. Ditton [1997]).
12
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
3 Präsenzforschung
Die soziale Präsenz wird in Pietschmann [2009] aus den Teilkomponenten Kopräsenz, Psychische Involvierung und Verhaltensaustausch zusammengesetzt (vgl. Abbildung 3.3). Die Kopräsenz beschreibt die gegenseitige Wahrnehmung von Verkörperungen, aber auch: mit einer anderen Person in einer
entfernten Umgebung sozial anwesend zu sein (vgl. Pietschmann [2009]). Die
zweite Teilkomponente Psychische Involvierung umfasst die Wahrnehmung
von anderen Intelligenzen. Kann der Benutzer durch Handlung auf Intelligenz schlieÿen, so werden die Personen als sozial gleichwertig angesehen. In
Pietschmann [2009] wird in Bezug auf Computerspiele hervorgehoben, dass
die künstliche Intelligenz von Agenten meist nicht ausreicht um diese als völlig
gleichwertige soziale Wesen akzeptieren zu können. Es wird betont, dass der
Agent zumindest Hinweise auf Handlungsabsichten oder emotionale Zustände
geben sollte.
Die Komponente Verhaltensaustausch wird als nächstes beleuchtet. Der Verhaltensaustausch, wie er in den physischen Umgebung zwischen Personen möglich ist, kann dabei komplexe Kommunikationsabläufe umfassen, die beispielsweise durch Verhaltensmuster des Menschen bedingt sind. Es sind jedoch auch
kulturell abhängige Verhaltenstraditionen denkbar. Dabei werden verschiedene
Sinnenskanäle wie verbale (beispielsweise Voice-Chat) und nonverbale Kommunikation (beispielsweise Mimik und Gestik) verwendet (vgl. Pietschmann
[2009]). Es ist klar ersichtlich, dass die soziale Präsenz besonders im Anwendungsgebiet virtueller Konferenzen eine vorrangige Anforderung darstellt. Verhandlungen erfordern Menschenkenntniss und Fingerspitzengefühl im Lesen
von Emotionen und beim Umgang des Gegenüber. Im folgenden Abschnitt
wird die Eigenwahrnehmung als letzte Teilkomponente des Präsenzempndens
untersucht.
3.6 Eigenwahrnehmung
Die Eigenwahrnehmung wurde bereits im Abschnitt 3.2 angerissen. Es wurde
die Notwendigkeit des virtuellen Körpers und die Beziehung zwischen dem Benutzer, seinem physischen Körper, seinem virtuellen Körper und der virtuellen
Umwelt verdeutlicht. Im Folgenden wird die Unterteilung der Eigenwahrnehmung in Pietschmann [2009] aufgerien und auf bereits erläuterte Aspekte
13
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
3 Präsenzforschung
Eigenwahrnehmung
Physischer Körper
Virtueller Körper
Mentales Modell
Abbildung 3.4: Aufspaltung der Eigenwahrnehmung
Stellung bezogen. Die Eigenwahrnehmung wird, wie in Pietschmann [2009],
in die Teilkomponten Physischer Körper, Virtueller Körper und Mentales
Modell des Körpers zerlegt (vgl. Abbildung 3.4).
Der physische Körper ist mit den Eingabe- und Ausgabemöglichkeiten des VRSystems verbunden. Der Benutzer identiziert sich, abhängig vom Grad des
allgemeinen Präsenzempndens, mit dem virtuellen Körper. Der virtuelle Körper ist dabei, wie bereits in Abschnitt 3.2 diskutiert, analog zum natürlichen
Wahrnehmungsprozess, die Schnittstelle zu der virtuellen Umgebung.
In Slater u. Usoh [1994] wird hervorgehoben, dass es ein Schock sein kann, die
virtuelle Umgebung zwar als präsent zu empnden, jedoch die eigene Hand als
Drahtgitter-Modell zu sehen. Dies ist darin begründet, dass der Mensch seit Geburt an eine mentale Vorstellung seines Körpers hat, auch als Körperschema
bezeichnet. Entspricht der wahrgenommene Körper nicht dem Körperschema,
so ensteht ein innerer Konikt und das Körperschema wird an den wahrgenommenen Körper angepasst. Der wahrgenommene Körper kann mithilfe des
VR-Systems frei deniert werden. Psychologen machen sich das Verhalten des
Menschen, in Bezug auf Anpassung des Körperschemas, und die Möglichkeit,
den wahrgenommenen Körper frei zu denieren, zu nutze. Sie untersuchen neue
Therapiemethoden für Esstörungen, mit denen es anhand der genannten Vorteile möglich ist, ein verzerrtes Körperschema zu entzerren (vgl. Bush [2008],
2.2).
14
3.7 Sensomotorische Koordination
Das in Pietschmann [2009] vorgeschlagene Modell wird an dieser Stelle noch
um die sensomotorische Koordination aus Biocca [1997] erweitert. Die Erweiterung tangiert die Teilkomponente Geschwindigkeit der Interaktivität in der
räumlichen Präsenz (vgl. Abschnitt 3.4) und die im voherigen Abschnitt dargebotene Eigenwahrnehmung.
Die sensomotorische Koordination (vgl. Biocca [1997]), auch sensormotorische
Schleife (vgl. Slater u. a. [2009]) oder I/O-Loop (vgl. Pietschmann [2009]) bezeichnet den stetigen latenzarmen koordinierten Wechsel zwischen Aktion mit
und Reaktion von der virtuellen Umgebung. Hebt die Person ihren Arm, so
weiÿ sie, ohne visuelle Reize aufzunehmen, dass sich ihr Arm in der Umgebung anhebt. Entspricht jedoch das Körpergefühl nicht dem Gesehenen: der
Arm bewegt sich nicht, ensteht ein Konikt zwischen Körperschema und den
externen Reizeinüssen.
In Slater u. a. [2009] wird berichtet, dass das dargelegte Beispiel bei den Probanden zur Panik führte. Im Zusammenhang mit diesem Phänomen wurde der
Begri simulation sickness geprägt (vgl. Held u. Durlach [1991]). Es wird in
Biocca [1997] argumentiert, dass ein unvollständiges Abbilden von Sinnen und
Interaktionsmöglichkeiten zu diesem Zustand führt.
Im nachfolgenden Kapitel wird das Projektziel anhand der gesammelten Erkenntnisse auf die Intensität des Präsenzempndens hin untersucht. Ferner
wird eine beispielhafte virtuelle Umgebung beschrieben, die auf Grundlage der
voherigen Untersuchung begründet, und im Rahmen der technischen Möglichkeiten des Projekts, dem Benutzer ein starkes Präsenzempnden vermittelt.
4 Projektbezogene Untersuchung
Das Projektziel wurde bereits in Abschnitt 2.4 im Grundlagenkapitel dargeboten. Die folgende Untersuchung bezieht sich dabei auf die Rahmenbedingungen
15
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
4 Projektbezogene Untersuchung
und Anforderungen des Projekts. Das Präsenzempnden wurde in Abschnitt
3.3 als die Summe der drei Teilkomponenten Räumliche Präsenz, Soziale
Präsenz und Eigenwahrnehmung vorgestellt. Nachfolgend wird das Projektziel auf Grundlage der Teilkomponenten hin untersucht.
4.1 Räumliche Präsenz
Die räumliche Präsenz wird durch die beiden Faktoren Lebendigkeit und Interaktivität gebildet (vgl. Abschnitt 3.4). Durch die medial vermittelten akustischen sowie visuellen Reize werden die beiden wichtigsten Sinne, Sehen und
Hören, angesprochen. Der Vermittler ist das HMD. Die Breite der Lebendigkeit ist somit gewährleistet. Die Tiefe der Lebendigkeit ist durch die Auösung
deniert, in der die Reize von den Sinnen wahrgenommen werden.
In Bezug auf die Akustik kann mit Hilfe der Stereotechnik eine dreidimensionale Geräuschkulisse emuliert werden. Durch das Umschlieÿen der Ohrmuscheln können externe Reize der physischen Umgebung ausgeblendet werden.
Mithilfe dieser Konstruktion werden verfälschende Störungsgeräusche unterbunden. Wie bereits erwähnt, kann allein durch die Verwendung eines HMD
das Präsenzempnden signikant intensiviert werden (vgl. Biocca [1997] und
Abschnitt 2.3).
Der andere Teilaspekt der räumliche Präsenz bildet die Interaktivität (vgl.
Abschnitt 3.4). In Bezug auf die Geschwindigkeit der Interaktivität kann für
das Projektziel festgehalten werden, dass die Notwendigkeit einer latenzarmen
Verarbeitung von sensomotorischen Schleifen (vgl. Abschnitt 3.7) zur Unterbindung von simulation sickness (vgl. Abschnitt 3.7) und Intensivierung des
Präsenzgefühls (vgl. Abschnitt 3.4) von der Projektgruppe bei der Festlegung
der Ziele bereits intuitiv bedacht wurde.
Die Reichweite der Interaktivität (vgl. Abschnitt 3.4) ist, bezogen auf die
Bewegung von Gliedmaÿen des physischen beziehungsweise virtuellen Körpers,
sehr exibel. Ein Konzept für die Bewegung in virtuellen Umgebungen wurde
jedoch noch nicht ausgearbeitet und ein Fehlen dieser Funktion schränkt den
Benutzer bei der Erkundung der Umgebung signikant ein.
16
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
4 Projektbezogene Untersuchung
Die authentische Zuordnung der Interaktivität ist, im Bezug auf das Umsehen
durch die Verwendung eines Lagesensors und auf die Körperbewegung durch
—
die Verwendung der Microsoft Kinect , gewährleistet. Eine unauthentische Zuordnung würde beispielsweise die Verwendung eines Joysticks zur Erkundung
der Umgebung darstellen.
4.2 Soziale Präsenz
Die soziale Präsenz setzt sich aus den Teilkomponenten Kopräsenz, Psychische Involvierung und Verhaltensaustausch zusammen (vgl. Abschnitt 3.5).
Da das Projektziel keine Mehrbenutzerumgebung vorsieht, fehlt die soziale
Präsenz vollständig. Eine mögliche Lösungen um diesen Aspekt zu kompensieren ist die Erzeugung virtueller Lebewesen, wie beispielsweise Vögel mit
einem künstlich repräsentierbarem Verhaltensmodell, wie beispielsweise dem
Schwarmverhalten. Eine andere Lösung ist: die virtuelle Umgebung so zu entwerfen, dass es
plausibel
erscheint, dass sich dort keine Lebewesen oder andere
Personen aufhalten.
4.3 Eigenwahrnehmung
Es wird nun die Eigenwahrnehmung untersucht. Diese setzt sich aus dem Physischen Körper, dem Virtuellen Körper und dem Mentalen Modell des Körpers zusammen (vgl. Abschnitt 3.6). Die Eigenwahrnehmung des physischen
Körpers wird durch Verwendung des HMD akustisch sowie visuell ausgeblendet. Der virtuelle Körper wird nach Zielsetzung durch die Egoperspektive erfahren. Der Benutzer kann sich umsehen und seine eigenen virtuellen Gliedmaÿen erkennen. Es wurde bei der Zielsetzung jedoch nicht auf die Aufrechterhaltung des Körperschemas eingegangen. Dieser Aspekt ist besonders wichtig,
da die enstehenden Konikte zu einer Verzerrung des Körperschemas führen
können 3.6. In Slater u. Usoh [1994] wird ein Fall dargestellt, in dem ein Proband, nach Aufhenthalt in der virtuellen Umgebung, nicht mehr in der Lage
war seinen physischen Körper korrekt zu steuern.
17
4.4 Virtuelle Umgebung für das
Präsenzempnden
Im nachfolgenden Abschnitt wird eine virtuelle Umgebung beschrieben, die
auf Grundlage der festgelegten Rahmenbedingungen für das Projekt (vgl. Abschnitt 2.4) ein möglichst intensives Präsenzempnden erzeugt. Die räumliche
Präsenz des Projektziels wurde in Abschnitt 4.1 beschrieben. Das fehlende
Konzept sich frei fortzubewegen stellte dabei ein wesentliches Manko für die
räumliche Präsenz dar. Um dies zu kompensieren, bietet es sich an, den Benutzer in der physischen sowie virtuellen Welt auf einen Stuhl zu setzen. In
diesem Zustand ist die freie Fortbewegung nicht notwendig, sodass das Fehlen
erst nach Aufstehen von dem Stuhl zu wesentlichen Einbuÿen im Präsenzempnden führt.
Da das Projektziel keine Mehrbenutzerumgebung vorsieht, bietet es sich an,
wie in Abschnitt 4.2 erläutert, das Fehlen von anderen Personen dem Benutzer
plausibel
darzustellen. Vorzugsweise wird dem Benutzer nur ein kleiner
frei einsehbarer Bereich gewährt, wie beispielsweise ein kleiner Raum oder ein
Garten. Innerhalb dieser Umgebungen ist es
plausibler, dass keine anderen Per-
sonen anwesend sind, als beispielsweise in einem Kaufhaus oder einem Park.
Die Belebtheit der gesamten virtuellen Umgebung, auch das was der Benutzer nicht sieht, kann dabei durch Hintergrundgeräusche, beispielsweise durch
redende Menschen, kompensiert werden (vgl. Abschnitt 3.1). Eine dreidimensionale Positionierung der Geräusche kann auf Basis der Lage des virtuellen
Kopfes das soziale, räumliche Präsenzgefühl und ferner die Orientierung in der
virtuellen Umgebung unterstützten. Eine Simulation von Lebenwesen mit einfachem Verhaltensmuster, wie Vögel mit Schwarmverhalten, soll hier als weitere Möglichkeit zur Intensivierung und Kompensation der sozialen Präsenz
dienen.
Für den Entwurf einer virtuellen Umgebung, die die Eigenwahrnehmung intensiviert, bietet es sich zudem an, dynamischen Schattenwurf und dynamische
Reektionen des virtuellen Körpers auf Boden, Wänden und Gegenständen zu
simulieren (vgl. Slater u. a. [1995]).
18
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
5 Zusammenfassung
5 Zusammenfassung
Es wurden in dieser Arbeit die Fragen, ob die Anforderungen des Projektziels
zu einem Gefühl von Präsenz in einer virtuellen Umgebung führen, welche
Faktoren für das Präsenzempnden relevant sind und wie sich dieses Gefühl
intensivieren lässt, beantwortet. Ausgehend von der Historie der VR (vgl. Abschnitt 2.1), wurden zunächst technische Realisierungen vorgestellt (vgl. 2.3).
Anschlieÿend wurde die Zielsetzung der Projektgruppe VR dargeboten (vgl.
Abschnitt 2.4).
Als Einstieg in die Präsenzforschung wurden zu Beginn verschiedene Ansichten beleuchtet und es wurde auf den Wahrnehmungsprozess des Menschen eingangen (vgl. Abschnitt 3.3, Abschnitt 3.1). Nachfolgend wurde die Beziehung
zwischen dem physischen Körper, dem virtuellen Körper und der virtuellen
Umgebung dargestellt (vgl. Abschnitt 3.2).
Auf Basis des in Pietschmann [2009] zusammenfassenden Modells von Präsenzempnden wurden die relevanten Faktoren des Präsenzempndens aufgezeigt
(vgl. Abschnitt 3.3). Anhand dieser Erläuterung wurde die Frage, ob die Anforderungen des Projektziels zu einem Gefühl von Präsenz führen, im Kapitel 4
beantwortet. Am Schluss wurde sich der Frage, wie sich das Präsenzempnden
intensivieren lässt, zugewendet. Für die Beantwortung der Frage wurde eine
virtuelle Umgebung skizziert, die im Rahmen des Projektziels nicht mögliche
Aspekte kompensiert und damit das Präsenzempnden intensiviert.
19
6 Ausblick
Wie bereits 1997 in Biocca [1997] argumentiert gibt es verschiedene Gründe
sich besonders in Zukunft mit der Thematik des Präsenzempndens in virtuellen Umgebungen zu befassen: Es lassen sich verschiedene Anwendungsbereiche
für die VR angeben (vgl. Abschnitt 2.2) und die Tendenz zur immer engeren Kopplung zwischen Mensch und der Benutzungsschnittstelle zum Computer (progressive embodiment) impliziert, dass auch in Zukunft neue Anwendungsgebiete erschlossen werden, die auf Präsenzempnden hin untersucht
werden können. In Biocca [1997] wird beschrieben, dass die VR in Zukunft
als Alltagswerkzeug zur Lösung von Problemen und Aufgaben genutzt wird.
Ferner soll die VR die Aufgabe eines physisch transzendenten Ortes übernehmen, an dem sich Benutzer verschiedener physischer Orte treen können. Diese
Arbeit schlieÿt mit einer oenen Frage, rezitiert aus Biocca [1997], ab:
Es sei davon auszugehen, dass die Kopplung zwischen Mensch und der Schnittstelle zum Computer soweit verwoben ist, das progressive embodiment soweit
fortgeschritten, dass die Wahrnehmung vollständig virtuell ist. Der Mensch sich
der Maschine annähert, und die Maschine dem Menschen. So ist die physische
Transzendenz, unabhängig von einem physischen Ort an verschiedenen virtuellen Orten zu existieren, erreicht, da unsere wahrgenommene Umgebung das
Produkt unserer Sinne ist (vgl. Sekuler u. Blake [1994]). Es stellt sich jedoch
dann in Analogie zum Skeptizismus in der Philosophie die Frage: An welchem
Ort existiert der Mensch?.
20
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
Literaturverzeichnis
Literaturverzeichnis
[And u. a. ] And, Jannick R. ; Roll, Jannick ; Cakmakci, Ozan:
Present, and Future of Head Mounted Display Designs
The Past,
2.3
[Backman 2005] Backman, Anders: Colosseum3D Authoring Framework for
Virtual Environments. In:
In Proceedings of EUROGRAPHICS Workshop
IPT, EGVE Workshop, 2005, S. 225226
2.3
Einsatzmöglichkeiten heutiger Virtual-RealityTechnologie im zivilen Pilotentraining am Beispiel zweier Szenarien im
Rahmen einer Studie. http://tuprints.ulb.tu-darmstadt.de/2043/.
[Bauer 2010] Bauer, Marcus:
Version: February 2010 2.2
[Biocca 1997] Biocca, Frank: The Cyborg's Dilemma: Progressive Embodiment in Virtual Environments [1]. In:
Journal of Computer-Mediated Com-
munication 3 (1997), Nr. 2, 0. http://dx.doi.org/10.1111/j.1083-6101.
1997.tb00070.x. DOI 10.1111/j.10836101.1997.tb00070.x 3, 3.1, 3.2, 3.3,
3.3, 3.4, 3.5, 3.7, 4.1, 6
[Bowman u. a. 2008] Bowman, Doug A. ; Coquillart, Sabine ; Froehlich,
Bernd ; Hirose, Michitaka ; Kitamura, Yoshifumi ; Kiyokawa, Kiyoshi
; Stuerzlinger, Wolfgang: 3D User Interfaces: New Directions and Perspectives.
20-36.
In:
IEEE Comput. Graph. Appl.
28 (2008), November, Nr. 6,
http://dx.doi.org/10.1109/MCG.2008.109.
DOI 10.1109/M-
CG.2008.109. ISSN 02721716 2.3
[Bracken u. Skalski 2009] Bracken, Cheryl C. ; Skalski, Paul: Telepresence
and video games: The impact of image quality. In:
PsychNology
7 (2009),
Nr. 1, S. 101112 3
Immersed in media : telepresence in everyday life / edited by Cheryl Campanella Bracken and Paul D. Skalski. Routledge, New York :, 2010. xviii,
[Bracken u. Skalski 2010] Bracken, Cheryl C. ; Skalski, Paul D.:
21
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
Literaturverzeichnis
254 p. : S. ISBN 9780415993395 0415993393 9780415993401 0415993407
9780203892336 020389233 3
[Büscher u. a. 2000] Büscher, Monika ; Christensen, Michael ; Grønbæk,
Kaj ; Krogh, Peter ; Mogensen, Preben ; Shapiro, Dan ; Ørbæk, Peter:
Collaborative Augmented Reality Environments: Integrating VR, Working
Materials, and Distributed Work Spaces. In:
In Proc. Collaborative Virtual
Environments 2000, ACM, ACM Press, 2000, S. 4756
[Bush 2008] Bush, Jimmy:
a treatment alternative.
3, 1032-1040.
2.3
Viability of virtual reality exposure therapy as
In:
Comput. Hum. Behav.
24 (2008), May, Nr.
http://dx.doi.org/10.1016/j.chb.2007.03.006.
DOI
10.1016/j.chb.2007.03.006. ISSN 07475632 2.2, 3.6
[Cruz-neira u. a. 1993] Cruz-neira, Carolina ; Sandin, Daniel J. ; Defanti,
Thomas A.:
Surround-screen projection-based virtual reality: The design
and implementation of the CAVE, 1993, S. 135142 2.3
[Freeman u. a. 2008] Freeman, Daniel ; Pugh, Katherine ; Antley, Angus ;
Slater, Mel ; Bebbington, Paul ; Gittins, Matthew ; Dunn, Graham ;
Kuipers, Elizabeth ; Fowler, David ; Garety, Philippa: Virtual reality
study of paranoid thinking in the general population. In:
of Psychiatry
192 (2008), apr, Nr. 4, 258-263.
1192/bjp.bp.107.044677.
The British Journal
http://dx.doi.org/10.
DOI 10.1192/bjp.bp.107.044677 2.2
[Gorini u. Riva 2008] Gorini, Alessandra ; Riva, Giuseppe: Virtual reality in
anxiety disorders: the past and the future. In:
peutics
8 (2008), Nr. 2, 215-233.
8.2.215.
Expert Review of Neurothera-
http://dx.doi.org/10.1586/14737175.
DOI 10.1586/14737175.8.2.215 2.2
[Gross u. a. 2003] Gross, Markus ; Würmlin, Stephan ; Naef, Martin ; Lam-
boray, Edouard ; Spagno, Christian ; Kunz, Andreas ; Koller-meier,
Esther ; Svoboda, Tomas ; Gool, Luc V. ; Lang, Silke ; Strehlke, Kai
; Moere, Andrew V. ; Oliver ; Zürich, Eth ; Staadt, Oliver: blue-c:
A Spatially Immersive Display and 3D Video Portal for Telepresence. In:
ACM Transactions on Graphics, 2003, S. 819827
2.3
[Held u. Durlach 1991] Held, Richard ; Durlach, Nathaniel: Telepresence,
time delay and adaptation. In:
Pictorial Communication in Virtual and Real
Environments, chapter 14, Taylor and Francis, 1991, S. 232246
3.7
22
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
Literaturverzeichnis
[Hoyer u. a. 2004] Hoyer, H. ; Jochheim, A. ; Röhrig, C. ; Bischoff,
A.:
A Multiuser Virtual-Reality Environment for a Tele-Operated Labo-
ratory.
126.
In:
IEEE Transactions on Education
47 (2004), Nr. 1, S. 121
http://dx.doi.org/http://dx.doi.org/10.1109/TE.2003.822263.
DOI http://dx.doi.org/10.1109/TE.2003.822263 2.2
[Kahkonen u. Whyte 2003] Kahkonen, Kalle ; Whyte, Jennifer:
Industrial
Applications of Virtual Reality in Architecture and Construction.
2003 2.2
[Lemoine u. a. 2004] Lemoine, Patrick ; Gutierrez, Mario ; Vexo, Frederic
; Thalmann, Daniel: Mediators: Virtual Interfaces with Haptic Feedback.
In:
In Proceedings of EuroHaptics 2004, 5th-7th, 2004, S. 6873
2.3
[Lennerz u. a. 1999] Lennerz, C. ; Schömer, E. ; Warken, T.: A Framework for Collision Detection and Response. In:
Symposium, ESS'99, 1999, S. 309314
in 11th European Simulation
2.3
[Lombard u. Ditton 1997] Lombard, M. ; Ditton, T. B.: At the heart of
it all : The concept of presence. In:
munication
13 (1997), Nr. 3.
lombard.html
Journal of Computer- Mediated Com-
http://jcmc.indiana.edu/vol3/issue2/
3.3, 3.3, 3.5
[Loomis 1992] Loomis, Jack M.: Distal Attribution and Presence. In:
Presence
1 (1992), Nr. 1, S. 113119 3.2
[Moraes u. a. ] Moraes, Ronei Marcos D. ; Machado, Liliane Dos S. ; Souza,
Online Assessment of Training in Virtual Reality Simulators
Based on General Bayesian Networks 2.2
Ro Carlos D.:
[Pietschmann 2009] Pietschmann, Daniel:
Das Erleben virtueller Welten.
Verlag Werner Hülsbusch, 2009 (Game Studies) 3, 3.3, 3.4, 3.4, 3.5, 3.6, 3.7,
5
[Sá u. Zachmann 1998] Sá, Antonino Gomes d. ; Zachmann, Gabriel: Integrating Virtual Reality for Virtual Prototyping. In:
Design Engineering Technical Conferences.
Proc. of the 1998 ASME
Atlanta, Georgia, sep 1998. paper no. DETC98/CIE-5536 2.2
[Sekuler u. Blake 1994] Sekuler, R. ; Blake, R.:
Perception.
McGraw-Hill,
1994 3.2, 6
[Shotton u. a. 2011] Shotton, Jamie ; Fitzgibbon, Andrew ; Cook, Mat
; Sharp, Toby ; Finocchio, Mark ; Moore, Richard ; Kipman, Alex ;
23
Seminararbeit
Präsenzempnden in virtuellen Umgebungen
Literaturverzeichnis
Blake, Andrew: Real-Time Human Pose Recognition in Parts from Single
Depth Images, 2011 2.4
The inuence of dynamic shadows on presence in immersive virtual environments.
[Slater u. a. 1995]
In: Slater, M. ; Usoh, M. ; Chrysanthou, Y.:
Bd. 95. Springer-Verlag, 1995, 8-21 4.4
[Slater u. a. 2009] Slater, Mel ; Lotto, Beau ; Arnold, Maria M. ;
Sanchez-Vives, Maria V.: How we experience immersive virtual environments : the concept of presence and its measurement. In:
cología
Anuario de Psi-
http://www.raco.cat/index.php/
AnuarioPsicologia/article/view/143105 3.1, 3.7
40 (2009), Nr. 2773, 193-210.
[Slater u. Usoh 1994] Slater, Mel ; Usoh, Martin:
Self
Body Centred Inter-
http:
//scholar.google.com/scholar?hl=en\&btnG=Search\&q=intitle:
Body+Centred+Interaction+in+Immersive+Virtual+Environments#0
action in Immersive Virtual Environments.
In:
(1994), 1-22.
3.6, 4.3
[Slater u. Wilbur 1997] Slater, Mel ; Wilbur, Sylvia: A Framework for Immersive Virtual Environments (FIVE): Speculations on the Role of Presence
in Virtual Environments. In:
PresencePAGES
(1997) 3
[Steuer 1992] Steuer, Jonathan: Dening Virtual Reality: Dimensions Determining Telepresence. In:
JOURNAL OF COMMUNICATION
42 (1992), S.
7393 2.3, 3.4, 3.4
Proceedings of the Congress of the Internation Federation of Information Processing (IFIP) Bd. volume 2, 1965, 506-508 2.1, 3.2
[Sutherland 1965] Sutherland, Ivan E.: The Ultimate Display. In:
[Sutherland 1968] Sutherland, Ivan E.: A head-mounted three dimensional
Proceedings of the December 9-11, 1968, fall joint computer
conference, part I. New York, NY, USA : ACM, 1968 (AFIPS '68 (Fall, part
display.
In:
I)), 757-764 2.1, 2.3
24
Die Kinect
Robert Schadek
Carl von Ossietzky Universität Oldenburg
robert.schadek@informatik.uni-oldenburg.de
4. Juli 2011
Inhaltsverzeichnis
1 Einleitung
2
2 Infrarot Kamera
2.1 Structured Light . . . . .
2.1.1 Emitter Techniken
2.1.2 Emittierte Muster .
2.2 Kinect Tiefenbild . . . . .
2
2
3
3
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 RGB Kamera
4
4 Microphone
5
5 USB Anbindung
6
6 Motion Capture und Skelett Tracking
6.1 Einleitung . . . . . . . . . . . . . . . .
6.2 Techniken Motion Capture . . . . . . .
6.2.1 Passive optical system . . . . .
6.2.2 Active marker optical systems .
6.2.3 Inertial motion capture systems
6.2.4 Mechanical motion systems . .
6.3 Skelett Rekonstruktion . . . . . . . . .
6.4 Microsoft Bodypart Detection . . . . .
7 Fazit und Ausblick
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
. 6
. 6
. 7
. 7
. 8
. 8
. 8
. 10
11
1
1
Einleitung
Die Vorstellung der Kinect stößt auf großes Interesse. Von vielen als Innovation angesehen, werden doch Techniken eingesetzt, die teilweise bereits
Jahrzehnte existieren. In dieser Arbeit wird zu Beginn auf die in der Kinect
verbaute Hardware eingegangen und deren Funktionsweise erklärt. Darauf
aufbauend werden zuerst generelle Motion Capture Verfahren erklärt, sowie
die Skelett rekonstruktion aus einem Tiefenbild. Abschließend wird ein von
Microsoft entwickeltes Skelett Rekonstruktionsverfahren präsentiert, welches
zusammen mit der Kinect eingesetzt wird.
2
Infrarot Kamera
Die Kinect erzeugt ein Tiefenbild mit Hilfe einer Technik names Light Coding.
[1] Diese Technik ist im weitesten Sinne eine Technik aus der Klasse der
Structured Light sensors.
2.1
Structured Light
Unter Structured Light versteht man eine Technik, die mit Hilfe mindestens
einer Kamera, sowie mindestens einer Lichtquelle, ein Tiefenbild erstellt. Der
Name leitet sich von der Technik selbst ab. Eine Muster wird von einem
Punkt auf die zu scannende Oberfläche projiziert. Dieses Muster wird von
einem anderen Punkt durch eine Kamera aufgezeichnet. Durch diese Form der
Oberfläche und dem anderem Blickwinkel auf das Muster wird ein verzehrtes
Abbild des Musters aufgezeichnet. Aus dieser Aufzeichnung lässt sich die
Struktur der Oberfläche errechnen. [14] [3] Zur grafischen Erleuterung siehe
Abbildung 1.
Abbildung 1: Structured Light Aufbau
Auf den mittleren Bild ist das projektierte Muster zu erkennen.
2
2.1.1
Emitter Techniken
Structured Light Techniken lassen sich ein drei Kategorien unterteilen.
InfraRed Structured Light (IRSL) Wie der Name andeutet, handelt es
sich bei der Lichtquelle um intrarotes Licht.
Imperceptible Structured Light (ISL) Bei dieser Technik wird das Muster mit Licht aus dem sichtbaren Spektrum erzeugt. Um anderen Aufnahmemedien zu beeinflussen wird das Muster mit einer sehr hohen
Frequenz projiziert. Mit der Frequenz ist in diesem Fall gemeint wie
lange das Muster proziert wird.
Filtered Structured Light (FSL) Hierbei handelt es sich um eine Lichtquelle, dessen Licht durch einen Filter geleitet wird, der nur den infraroten Anteil des Licht passieren lässt.
[3]
2.1.2
Emittierte Muster
Ein weiterer wichtiger Aspekt bei Structured Light ist das projizierte Muster.
Es gibt verschiedene Arten von brauchbaren Mustern. Als Beispiel zu nennen sind parallele, horizontal sowie auch vertikal Linien. Häufig werden auch
komplexere Muster, wie zum Beispiel grids oder Punktwolken, projiziert. Einige Techniken benutzten variable Muster-Generatoren. Darunter versteht
man, dass Projizieren das Muster mehrfach auf verschiedene Orte des zu
scannenden Objektes. Dieser Ansatz birgt sowohl Vorteile als auch Nachteile. In Abbildung 2 sind einige Arten von Mustern dargestellt. Angenommen
es wird als Muster eine vertikalverlaufende Linie projiziert. Ein Vorteil wäre
es, dass eine Linie in einem verrauschten Bild einfacher zu detektieren ist, als
mehrere Linien dicht nebeneinander. Der große Nachteil dieser Technik ist,
dass das Neuausrichtung der Lichtquelle viel Zeit in Anspruch nimmt. Der
Grund dafür ist, dass der Emitter in der Regel mechanisch verstellt werden
muss. Im Zuge besserer Kamerasysteme, mit besserem Rauschverhalten, wird
diese Technik heutzutage weniger häufig eingesetzt. Grids, wie in rechten unteren Bild, ermöglichen es horizontale sowie vertikale Tiefenunterschiede zu
erkennen. Allerdings muss ein solches Grid feinmaschig genug sein um alle
Tiefenunterschiede zu erkennen. Wird ein sehr feines Grid projiziert kann es
zu Schwierigkeiten kommen, die einzelnen Linien zu erkennen.
3
Abbildung 2: Projizierte Muster
2.2
Kinect Tiefenbild
Die Kinect for XBox 360, oder kurz Kinect, verwendet kontinuilich projiziertes InfraRed Structured Light. Dieses projizierte Bild wird unter Zuhilfenahme eines Infrarot-Sensors aufgezeichnet. Das projizierte Infrarotbild ist
eine pseudozufällige Punktwolke. Nachdem das, durch die zu betrachtende
Oberfläche verzehrte, Bild aufgenommen wurde, wird die mit hilfe der StereoTriangulation das Tiefenprofil gewonnen. Der Trick hierbei ist, dass für die
stereo Triangulation zwei Bilder von Nöten sind, aber nur Eines aufgezeichnet
wird. Das zweite Bild liegt im Speicher der Kinect vor, da das pseudozufällig
Muster dort abgespeichert ist. [5] Das aufgezeichnete Graustufenbild hat eine Auflösung von 632x480. Die Auflösung pro Pixel beträgt 11Bit. [8] Das
Sichtfeld des Tiefenensensors beträgt 57◦ Horizontal sowie 43◦ vertical. [6]
Somit beträgt die Tiefenauflösungs, bei einer Distanz von 2m 1cm. [2] Es ist
wichtig zu erwähnen, dass Objekte nicht freigestellt werden.
3
RGB Kamera
Bei der Kamera handelt es sich um eine übliche CMOS Kamera. Sie hat eine
Auflösung von 640x480 Pixel bei einer Farbtiefe von 32Bit. Die Frabinfor-
4
mationen werden als Bayer-Pattern übertrage.1 [6] [8] Aufgrund des kleinen
physichen Abstands der RBG Kamera sowie des IR-Sensors ist es möglich,
die Farbwerte direkt auf die Tiefenwerte abzubilden. Das Ergebnis dieser
Überlagerung ist in Abbildung 3 zu sehen. Das Bild zeigt, wie das Tiefenbild
Abbildung 3: Farbiges Tiefenbild
mit den Farbwerten der RGB Kamera dargestellt wird. Es ist klar zu erkennen, dass es keine Informationen für die Rückseite der gezeigten Person gibt.
Dies ergibt sich daraus, dass die virtuelle Kamera, die die Szene aufzeichnet,
nicht dieselbe Position hat, wie die Kamera, die das Tiefenbild sowie das
RGB Bild aufzeichnet.
4
Microphone
Die Kinect besitzt vier Mikrophone, die es ermöglichen, Stimmerkennung für
eine Person durchzuführen. Aufgrund dieser vier Mikrophone ist es möglich,
die Position der Geräuschquelle zu bestimmen, sowie noise cancellation durchzuführen. [7] [13] Genauere Informationen über die angewandten Techniken
sind nicht verfügbar.
1
Bayer-Pattern ist eine Farbkodierung die speziellen Wert auf den Grünanteil in einem
Bild legt, da das menschliche Auge auf Grün-Werte empfindlicher wahrnimmt als z.B.
Rot-Werte.
5
5
USB Anbindung
Die Kinect wird über USB2 angesprochen. Die Fähigkeit von USB2 mit einer
Verbindung mehrere Divices anzusprechen, wird genutzt, um die einzelnen
Komponenten der Kinect unabhängig zu nutzten. So gibt es vier ansprechbare
Divices. [9]
• Stellmotor
• RBG-Kamera
• Depth-Kamera
• Mikrophone
Um die Kinect mit ausreichend Strom zu versorgen, besitzt das USB-Kabel
einen weiteren Anschluss, der an ein Netzteil angeschlossen werden kann.
6
6.1
Motion Capture und Skelett Tracking
Einleitung
Unter Skelett Erkennung bzw. Motion Capture versteht man Verfahren, bei
denen die Bewegungen einer Person digitalisiert werden. Das Ergebnis dieser Digitalisierung kann verschiedene aussehen: Es gibt Verfahren, bei denen
die gesamte Körperoberfläche aufgezeichnet wird, einschließlich aller Texturinformationen. Andere Verfahren hingegen erzeugen eine schemenhafte
Repräsentation der Person. Wieder Andere erzeugen ein sogenanntes Skelet.
Dieses Skelet enthält Information über die Position der einzelnen Körperteile.
Weitere Abstufungen zwischen den Verfahren sind ebenfalls denkbar.
6.2
Techniken Motion Capture
Motion Capture Techniken lassen sich grob in zwei Kategorien einordnen:
Die eine Kategorie sind die aktiven Verfahren. Hierbei befinden sich auf dem
zu verfolgenden Objekt Systeme, die aktiv ihre Position übermitteln bzw.
ermitteln. Der andere Kategorie gehören Systeme an, deren Position passiv ermittelt werden. Passive Systeme benötigen weitere Hardware um ihre
Position zu ermitteln.
6
Abbildung 4: Inertial motion capture system
6.2.1
Passive optical system
Das Passive optical system gehört zu der Kategorie der passiven Verfahren.
Beim Passive optical system motion capturing werden am aufzunehmenden
Objekt lichtreflektierende Systeme angebracht. Diese werden durch eine stationäre Lichtquelle angestrahlt. Das Licht befindet sich meist im InfrarotSpektrum und wird von mehreren Kameras aufgezeichnet. Aus der Menge
von einzelnen Bilder lässt sich die genaue Position jeder Markierung im Raum
rekonstruieren [10].
6.2.2
Active marker optical systems
Dieses Technik gehört in die Kategorie der aktiven Verfahren. Ähnlich wie
beim Passive optical system werden Markierungen auf dem zu verfolgenden
Objekt angebracht. Allerdings emittieren die Markierungen Licht. Je nach
Ausführung des Systems, kann entweder Licht in unterschiedlichen Spektren
oder unterschiedlichen Intervallen emittiert werden, um die einzelnen Markierungen zu unterscheiden.
7
Abbildung 5: Mechanical motion capture system
6.2.3
Inertial motion capture systems
Bei initialen Systemen werden am zu verfolgenden Objekt mehrere Beschleunigungssensoren befestigt. Jeder dieser Sensoren zeichnet Beschleunigungen
in allen drei Freiheitsgraden auf. Somit gehört diese Systeme zu den aktiven Motion Capture Systeme. Die aufgezeichneten Informationen werden je
nach System entweder von jedem Sensor einzeln verschickt oder zusammen
übertragen. Beide Ansätze haben Vor- und Nachteile. Wenn alle Sensoren
einzeln senden, müssen alle Signale genau synchronisiert werden. Wird nur
ein Signal gesendet, müssen die einzelnen Sensoren vernetzt werden. Diese
Vernetzung kann die Flexibilität des Trägers einschränken. Abbildung 4 zeigt
ein solches System.
6.2.4
Mechanical motion systems
Dieses Verfahren zählt zu den Verfahren der aktiven Kategorie. Mechanical
motion systems funktionieren, indem sie mechanische Gelenke am zu verfolgenden Objekt anbringen. Diese Systeme bieten eine hohe Genauigkeit, allerdings ist die Benutzung zuweilen nicht ergonomisch [12]. Ein solches System
ist in Abbildung 5 zu sehen.
6.3
Skelett Rekonstruktion
Ein grundsätzlich anderes Verfahren wird bei der Skelett Rekonstruktion verwendet. Hierbei wird aus einem Bild bzw. einem Tiefenbild das Skelett eines
Akteurs rekonstruiert. Der Vorteil hierbei ist, dass der Akteur keine speziellen Anzüge bzw. Markierungen am Körper tragen muss. Wie bereits im
Kapitel 2.2 beschrieben, können Objekte nicht freigestellt werden. Personen,
8
für die Skelette erstellt werden sollen, müssen durch Filterverfahren freigestellt werden.
Verfahren für diesen Schritt sind unter dem Namen Edge Detection bekannt.
Generell arbeiten diese Verfahren, indem sie starke Helligkeitsunterschiede
in einem Bild als Kante interpretieren. Obwohl, wie in 2.2 beschrieben, das
Tiefenbild ein Graustufenbild ist, lassen sich diese Verfahren anwenden, um
Kanten freizustellen.
Der nächste Schritt ist es, das freigestellt Objekt mit Mittellinien zu versehen. Diese teilen die Oberfläche so ein, dass der Abstand zu den Rändern
für jeden Punkt der Linie gleich ist. Zwei Verfahren werden für diese Aufgabe hauptsächlich benutzt: Zum einen Distance Transformation zum anderen
Voronoi diagrams.
Distance Transformation erzeugen die Mittellinien, indem zuerst alle Pixel des Bildes in feature und non-feature eingeteilt werden. Feature bedeutet soviel wie, Teil des Objektes. Danach wird eine Entfernungskarte
erzeugt, die für jeden Pixel angibt, wie weit der nächste Feature Pixel
entfernt ist. In der daraus resultierenden Karte werden alle Übergange
von feature zu non-feature Pixel als Kante markiert. Die Mittellinie
dieser Kanten ist dann die Mittellinie des Objektes. Abbildung 6a sowie 6b zeigen jeweils die Aufteilung in feature und nicht non-feature
Blöcke, sowie die Distanzen zu den feature Blöcken.
Voronoi diagrams erzeugen aus einer Eingabemenge von Punkten Zellen,
die genau einen Punkt als Zentrum haben. Aus der Position der Zellen zueinander entstehen die Grenzlinien zwischen den Zellen. Plaziert
man nun Punkte auf den Kanten zwischen freigestellten und nicht freigestellten Flächen, ist eine der Linien des Diagramm die Mittellinie
des freigestellten Objekts. Abbildung 7 zeigt zwei Mittellinien für eine
Echse sowie ein Nashorn.
Nachfolgend müssen die extrahierten Linien begradigt werden. Hierbei
ist darauf zu achten, dass keine Winkel, die durch Gelenke entstanden sind,
entfernt werden. Dieses Skelett lässt sich dann mit einem Referenz-Skelett
vergleichen, um die eigentliche Position der Knochen zu bestimmen. Dieses
Vergleichen ist beispielhaft durch Bayessches Netz möglich. [11] [4] Zusätzlich
besteht die Möglichkeit, die Bewegung des Skelett über die Zeit zu betrachten und in Kombination mit dem aktuell berechneten Skelett eine genauere
Annäherung an die wahre Position zu erhalten.
9
(a) feature, non-feature
(b) Distanz
Abbildung 6: Distance Transformation
6.4
Microsoft Bodypart Detection
Zeitgleich mit der Veröffentlichung der Kinect präsentierte Microsoft eine
Software, die Skelette mit bis zu 200 Frames pro Sekunde erkennt. Dieses
Verfahren arbeitet auf Tiefenbildern. In Kombination mit einer Menge an
Trainingsdaten ermöglicht es das schnelle Erkennen von Körperteilen, aus
denen sich ein Skelett erzeugen lässt. Die wichtigeste Komponenten des Systems sind die Trainingsdaten. Diese wurden erzeugt, indem eine vorher bestehende Menge von Motion Capture Aufnahmen auf zufällig erzeugte 3DKörpermodelle verschiedenster Form übertragen wurden. Diese Modelle wurde daraufhin mit hilfe bestehenden Grafikpiplines in Tiefenbilder umgewandelt. In Abbildung 8 und Abbildung 9 sind zum Vergleich Posen entstanden
aus Motion Capture Aufnahmen sowie zufällig erzeugt zu sehen. Die farbigen
Körper repräsentieren die erkannten Körperteile. Da es sich um 3D-Modelle
handelt, können beliebige Blickwinkel analysiert werden. Die somit prinzipiell
beliebig großen Menge an Bilder wurde dazu genutzt, ein lernendes System
zu trainieren, um Körperteile pixelweise zu identifizieren. Ein pixelweises
Verfahren eignet sich gut, da es effektiv auf Grafikkarten ablaufen kann.
Der Grund dafür ist, dass Grafikkarten über massive parallele Architekturen
verfügen. Die Genauigkeit dieses Verfahrens hängt von verschiedenen Parameter ab. Ein wichtiger Faktor ist beispielweise die Tiefe des Suchbaumes,
beim Plazieren der Pixel. Ebenso ausschlaggebend ist die Anzahl der Posen,
die zum Vergleich stehen. Je nach Wahl der Parameter liegt der durchschnittliche Fehler pro Pixel zwischen 30% und 1.2%.
10
Abbildung 7: Voronoi Diagram
7
Fazit und Ausblick
Der Structured Light Ansatz in Verbindung mit leistungsstarken Softwaresystemen, wie z.B. das Bodypart Detection Verfahren von Microsoft, ermöglichen
es einfach und kostengünstig die Bewegungen von Benutzern in Echtzeit auszuwerten. Die Kombination mehrerer Kinects sowie die Einführung höher
auflösender Structured Light Verfahren dürft in Zukunft auch intessante Alternative im professionellen Motion Capturing sein. Hierbei muss allerdings
erhöhter Aufwand für die Synchronization der Kinects betrieben werden. Die
Techniken der Kinect mögen nicht innovativ sein - ihre Kombination und An-
Abbildung 8: Motion Capture Daten
11
Abbildung 9: Zufällig erzeugte Posen
wendung hingegen schon.
Literatur
[1] PrimeSense, PrimeSense FAQ, http://www.primesense.com/?p=535 ,
2010.
[2] PrimeSense, PrimeSense FAQ, http://www.primesense.com/?p=514,
2010.
[3] David Fofi, Tadeusz Sliwa, Yvon Voisin, A comparative survey on invisible
structured light, Fofi EI2004.pdf, 2004.
[4] Yuan-Kai Wang, Kuang-You Cheng, Two-Stage Bayesian Network Method for 3D Human Pose Estimation from Monocular Image Sequences,
761460.pdf, 2009.
[5] Sergey Ten, How Kinect depth sensor works – stereo triangulation?,
http://mirror2image.wordpress.com/2010/11/30/
how-kinect-works-stereo-triangulation, 2010.
[6] play.com, Kinect Including Kinect: Adventures!, http://www.play.
com/Games/Xbox360/4-/10296372/Project-Natal/Product.html#
jump-tech, 2010.
[7] Microsoft Store, Kinect for XBox 360, http://store.microsoft.com/
microsoft/Kinect-Sensor-for-Xbox-360/product/C737B081,
Juli
2010.
[8] OpenKinect, What is the frame size/bitrate of the rgb/depth/IR
stream contained in the isochronous usb tranfers etc.?, http:
//openkinect.org/wiki/FAQ#What_is_the_frame_size.2Fbitrate_
12
of_the_rgb.2Fdepth.2FIR_stream_contained_in_the_isochronous_
usb_tranfers_etc..3F, 2011.
[9] OpenKinect,
Kinect
Protokoll,
Protocol_Documentation, 2011.
http://openkinect.org/wiki/
[10] Xsens.com,
Human
MoCap,
http://www.xsens.com/en/
company-pages/company/human-mocap/, 2011.
[11] Institute of Informatics Szeged Skeletonization , http://www.inf.
u-szeged.hu/~palagyi/skel/skel.html, 2011.
[12] metamotion.com, Gypsy 7, http://www.metamotion.com/gypsy/
gypsy-motion-capture-system.htm, 2011.
[13] Sennheiser, Hör-/Sprechgarnituren für die Luftfahrt mit aktiver
Lärmkompensation NoiseGardTM – Einführung Noisegard dt.pdf 2000.
[14] P.M. Will K.S. Pennington, GRID CODING: A PREPROCESSING TECHNIQUE FOR ROBOT AND MACHINE VISION,
10.1.1.96.2088.pdf, Pedings of the IEEE, 1972.
13