Gordon Bernedo, Manuel Boeck, Michael Elbers

Transcription

Gordon Bernedo, Manuel Boeck, Michael Elbers
Gordon Bernedo, Manuel Boeck, Michael Elbers, Stefan
Scherbaum, Tobias Widdra, Jens Wissmann, Nadja Althaus,
Kathrin Beck, Jasmin Bennöhr
MAPA
A Mapping Architecture for People’s Association
PICS
Publications of the Institute of Cognitive Science
Volume 6-2004
ISSN:
1610-5389
Series title:
PICS
Publications of the Institute of Cognitive Science
Volume:
6-2004
Place of publication:
Osnabrück, Germany
Date:
September 2004
Editors:
Kai-Uwe Kühnberger
Peter König
Petra Ludewig
Cover design:
Thorsten Hinrichs
© Institute of Cognitive Science
A Mapping Architecture for People’s Associations
Abschlussbericht des Studentenprojekts MAPA
im Masterprogramm Cognitive Science
an der
Universität Osnabrück
Gordon Bernedo, Manuel Boeck, Michael Elbers,
Stefan Scherbaum, Tobias Widdra und Jens Wissmann,
Nadja Althaus, Kathrin Beck, Jasmine Bennöhr
Dr. Petra Ludewig, Dr. Veit Reuer,
Prof. Dr. Claus R. Rollinger
mapa@cogsci.uni-osnabrueck.de
http://www.cogsci.uni-osnabrueck.de/˜mapa/
01. Mai 2004
Zusammenfassung
Im Rahmen des MAPA-Studienprojektes entwickelten Studenten der Universitäten Osnabrück, Tübingen und Bochum gemeinsam ein Framework, das die kognitiv adäquate
Abbildung von Wissen ermöglicht, und eine Beispielanwendung, welche die Möglichkeiten dieses Frameworks exemplarisch nutzt. Der Projektname MAPA, eine Abkürzung für „Mapping Architecture for People’s Associations“ , und gleichzeitig das spanische Wort für „Landkarte“ beschreibt bereits den Grundgedanken der räumlichen,
vernetzten Wissenabbildung. Unser Ansatz verbindet die Ideen existierender Techniken, wie dem MindMapping, dem ConceptMapping und ähnlichem. Dabei ist unsere
Annahme, dass die innere mentale Repräsentation von Wissen netzartig ist und somit
eine entsprechende Externalisierung von ähnlicher Struktur sein muss. Aufgrund der
Komplexität von „Wissen“ verstehen wir diese externen Repräsentationen eher als Cues
(Hinweise) auf Wissen denn als wirkliche Repräsentation von Wissen selbst.
Die Basis von MAPA bildet eine Software-Architektur, welche die verteilte Speicherung von und den einfachen Zugriff auf Wissens-Cues ermöglicht. Solche WissensCues werden durch Entitäten repräsentiert, welche die elementare Datenstruktur eines
MAPA-Systems bilden. Ihre Verwendung kann durchaus vielseitiger sein als die Darstellung einfacher Knoten und Relationen. Eine Entität kann unterschiedlichste Informationen aufnehmen, von einfachem Text bis hin zu Bildern oder anderen Dateitypen.
Da der Benutzer selbst dafür verantwortlich ist, sein Wissensnetz zu konstruieren und
die eigene Semantik aufzubauen, benötigen wir nicht mehr als diese eine Datenstruktur.
Darin spiegelt sich unser Wunsch nach einem System wider, das den Benutzer so wenig
wie möglich im Bezug auf die einzubindenden Daten einschränken soll. Der Prozess der
Konstruktion und somit der Aufbau eines Netzes von Entitäten, fordert vom Anwender, einander semantisch nahe stehende Cues zu verbinden. Dieser Vorgang könnte ein
wesentlicher Aspekt menschlichen Lernens sein, auf den wir uns konzentrieren werden.
Schließlich möchten wir die Bedeutung zweier Punkte betonen: Die Visualisierung
und die Kollaboration. Im Bezug auf MAPA bedeutet Visualisierung die Darstellung
von Information als Netz. Unsere Anwendung ermöglicht hier eine große Zahl verschiedener Perspektiven auf ein und dasselbe Netz. Das Ziel dieser verschiedenen Ansichten
ist es, die Navigation in komplexen Graphen zu erleichtern und so die räumliche Orientierungsfähigkeit des Menschen zu nutzen. Bezüglich der Kollaboration haben wir
das Ziel, eine Architektur zu entwerfen, die prinzipiell vielen Anwendern den Austausch und die Verwaltung ihres gemeinsamen Wissens ermöglicht. Zudem unterstützt
der Einsatz von Computern als Mittler für die Zusammenarbeit die Kommunikation
zwischen verschiedenen Menschen.
Zur technischen Implementierung des Beschriebenen nutzten wir aktuelle Technologien und die damit verbundenen existierenden Standards. Unser Ziel ist ein nonproprietäres System, das erweiterbar und portabel ist und als open-source frei zur Verfügung steht.
Während das Framework und das Basis-System von einer Gruppe von Studenten
des Master-Studienganges Cognitive Science in Osnabrück implementiert wurden, arbeitete die Gruppe von Studenten der Computerlinguistik in Tübingen und Bochum an
der auf diesem System aufbauenden Beispielanwendung: einem Wissensnetz-basierten
Vokabeltrainer.
Inhaltsverzeichnis
1
Einleitung
1
1.1
Idee, Vision und Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.2
Projektziel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.3
Rahmen des Projektes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.4
Überblick über das Dokument . . . . . . . . . . . . . . . . . . . . . . . . . .
7
I
Wissenschaftliches Fundament und State of The Art
2
Lernen und Gedächtnis
2.1
2.3
2.4
3
10
Modell des Gedächtnisses . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1
2.2
Implizites und explizites Gedächtnis . . . . . . . . . . . . . . . . . . 11
Lerntheorien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1
Behavioristische Lerntheorien . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2
Kognitivistische Lerntheorien . . . . . . . . . . . . . . . . . . . . . . 14
2.2.3
Konstruktivistische Lerntheorien . . . . . . . . . . . . . . . . . . . . 15
Lernstrategien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.1
Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.2
Kognitive Lernstrategien . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.3
Metakognitive Lernstrategien . . . . . . . . . . . . . . . . . . . . . . 23
2.3.4
Resourcenbezogene Lernstrategien . . . . . . . . . . . . . . . . . . . 23
2.3.5
Individuelle Lernstile . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.6
Die Rolle des Lernmaterials bei der Auswahl der Strategie . . . . . 26
Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Mapping
3.1
3.2
8
28
Mapping als visuelles, kognitives Werkzeug . . . . . . . . . . . . . . . . . 28
3.1.1
Geschichte des Mappings . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1.2
Verwandte Begriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.3
Anwendungsfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Mappingverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1
MindMapping . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.2
ConceptMapping und KnowledgeMapping . . . . . . . . . . . . . . 35
i
INHALTSVERZEICHNIS
3.2.3
3.3
3.4
3.5
4
Spatial Hypertext . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Mappingsoftware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.3.1
Konstruktionsmodi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3.2
Navigationsmodi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.3
Lern- / und Prüfmodi . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3.4
Vor- und Nachteile computergestützten Mappings . . . . . . . . . . 44
Theoretische Annahmen und Empirische Studien . . . . . . . . . . . . . . 46
3.4.1
Theoretische Hintergründe . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.2
Empirische Forschung zum Mapping . . . . . . . . . . . . . . . . . 47
Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
Kollaboration
55
4.1
Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2
Computerunterstützte kollaboratives Arbeiten . . . . . . . . . . . . . . . . 55
4.3
Computerunterstütztes kollaboratives Lernen . . . . . . . . . . . . . . . . 57
4.4
Mapping und Kollaboration . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.5
Anforderungen an CSCW/CL Systeme . . . . . . . . . . . . . . . . . . . . 60
4.5.1
Synchrone bzw. asynchrone Kommunikation . . . . . . . . . . . . . 60
4.5.2
Transparenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.5.3
Behandlung von Gleichzeitigkeit . . . . . . . . . . . . . . . . . . . . 62
4.5.4
Benutzerfreundliches Interface . . . . . . . . . . . . . . . . . . . . . 63
4.5.5
Benutzerautorisation und -administration . . . . . . . . . . . . . . . 63
4.5.6
Sicherheit und Legalisierung . . . . . . . . . . . . . . . . . . . . . . 64
4.5.7
An Alltagskommunikation orientierte Modalitäten . . . . . . . . . 64
4.5.8
Visualisierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5.9
Datenrepräsentation . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5.10 Suchverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.5.11 Planungs- und Entscheidungsunterstützung . . . . . . . . . . . . . 65
4.5.12 Offenheit und Konfigurierbarkeit . . . . . . . . . . . . . . . . . . . . 65
4.5.13 Technische Anforderungen an das System . . . . . . . . . . . . . . 65
4.6
5
II
6
Small-World-Hypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Synthese: MAPA als konstruktivistisches kollaboratives Wissens- und Mapping-Werkzeug
67
MAPA - Konzeption und technische Umsetzung
Architektur des Frameworks
6.1
69
70
Anforderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
ii
INHALTSVERZEICHNIS
6.2
6.3
6.4
7
6.1.1
Kognitive Adäquatheit . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.1.2
Plattformunabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . 72
6.1.3
Verteiltheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.1.4
Flexibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Konzeption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.2.1
Frameworkgedanke . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.2.2
Anwendungsebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.2.3
Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2.4
Datenstruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2.5
Topic Maps als Gliederungsmechanismus . . . . . . . . . . . . . . . 80
Kernarchitektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.3.1
Entity-Orientiertes Datenmodell . . . . . . . . . . . . . . . . . . . . 80
6.3.2
Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.3.3
Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.3.4
Komponentenentwurf . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.3.5
Anwendungslogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.3.6
Visualisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
Gesamtbild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
Implementierung und Ergebnisse
7.1
7.2
7.3
7.4
94
Implementierungsumgebung . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.1.1
Java . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.1.2
XML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.1.3
Eclipse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.1.4
GEF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.1.5
Dom4J . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.1.6
Xindice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.1.7
ANTLR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.1.8
JUnit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
Umfang der Implementierung . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.2.1
Features . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.2.2
Einschränkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
Implementierungs-Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
7.3.1
Einbindung der Technologien . . . . . . . . . . . . . . . . . . . . . . 99
7.3.2
Umsetzung von Konzepten . . . . . . . . . . . . . . . . . . . . . . . 103
Arbeit mit MAPA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.4.1
Grafische Oberfläche . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.4.2
Kommandozeile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.4.3
Beispielablauf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
iii
INHALTSVERZEICHNIS
7.5
8
Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Beispielanwendung
8.1
8.2
8.3
112
MAPA-Netz mit lexikalischem Inhalt: Hintergrund . . . . . . . . . . . . . 113
8.1.1
Die Idee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
8.1.2
Motivation: MAPA und Vokabeln . . . . . . . . . . . . . . . . . . . 113
8.1.3
GermaNet als Import-Quelle . . . . . . . . . . . . . . . . . . . . . . 115
8.1.4
Die Zielgruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Realisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
8.2.1
Exploration und Wortschatzauswahl . . . . . . . . . . . . . . . . . . 118
8.2.2
Das Karteikastensystem . . . . . . . . . . . . . . . . . . . . . . . . . 123
8.2.3
Abfragemethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
8.2.4
Ablauf der Vokabel-Abfrage . . . . . . . . . . . . . . . . . . . . . . 129
8.2.5
Speicherung des Benutzerprofils . . . . . . . . . . . . . . . . . . . . 130
8.2.6
Vokabellern-Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
8.3.1
Kollokationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
8.3.2
Grammatikalische Abfrage . . . . . . . . . . . . . . . . . . . . . . . 131
8.3.3
Einbindung von multimedialen Ressourcen . . . . . . . . . . . . . . 131
8.3.4
Einbindung weiterer Informationstypen . . . . . . . . . . . . . . . . 132
8.3.5
Mündliche Abfrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
8.3.6
Fehleranalyse und Feedback . . . . . . . . . . . . . . . . . . . . . . 132
8.3.7
Lösung des Problems der nicht verbundenen Knoten . . . . . . . . 132
8.3.8
Vorgefertigte Lektionen . . . . . . . . . . . . . . . . . . . . . . . . . 133
8.3.9
Automatische Auswahl des Übungsprogramms . . . . . . . . . . . 133
8.3.10 Evaluation des Vokabeltrainers . . . . . . . . . . . . . . . . . . . . . 133
III
9
Ausblicke und Fazit
134
Ein erweitertes Bild
9.1
Zur Vergangenheit von Denkwerkzeugen . . . . . . . . . . . . . . . . . . . 136
9.1.1
9.2
135
Sozio-Konstruktivismus . . . . . . . . . . . . . . . . . . . . . . . . . 136
Zur Zukunft von Denkwerkzeugen . . . . . . . . . . . . . . . . . . . . . . . 138
9.2.1
Drei Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
10 Fazit
141
10.1 Fachliche Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
10.2 Projektmethodische und persönliche Einsichten . . . . . . . . . . . . . . . 144
iv
INHALTSVERZEICHNIS
11 Ausblick
147
11.1 Visualisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
11.2 Kollaboration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
11.3 Arbeit mit Ontologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
11.4 Standards . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
11.5 Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
11.6 MAPA als offene Community . . . . . . . . . . . . . . . . . . . . . . . . . . 149
Literaturverzeichnis
158
v
Abbildungsverzeichnis
1.1
Vernetzung von Wissensknoten . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.2
Ein kleines Wissensnetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.3
Übersichts-MindMap über das Dokument . . . . . . . . . . . . . . . . . . .
7
2.1
Für explizites Lernen wichtige Gehirnregionen . . . . . . . . . . . . . . . . 12
2.2
Das Zusammenwirken von Kognitivismus und Konstruktivismus im Falle der „cognitive tools“ (aus Jonassen, 1992b) . . . . . . . . . . . . . . . . . 18
2.3
„Cognitive tools“ als aktivierende, lerner- und konstruktionsorientierte
Lerninstrumente (aus Jonassen, 1992b) . . . . . . . . . . . . . . . . . . . . . 19
3.1
MindMap zum Thema Mappingverfahren (erstellt mit: MindManager,
vgl. Mappingsoftware 3.1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2
ConceptMap zum Thema Mappingverfahren (erstellt mit: CMap, vgl.
Mappingsoftware 3.1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3
Spatial Hypertext zum Thema Mappingverfahren (erstellt mit: Visual
Knowledge Builder, vgl. Mappingsoftware 3.1) . . . . . . . . . . . . . . . . . 37
3.4
Vergleich von Mappingsoftware – Teil 1, übernommen aus Haller (2002) . 39
3.5
Vergleich von Mappingsoftware – Teil 2, übernommen aus Haller (2002) . 40
4.1
Verschiedene Aspekte CSCW . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2
allgemeine Funktionen von Groupware mit einigen Beispielen . . . . . . . 57
4.3
Prozess des Problembasierten Lernen nach Barrows (1994) . . . . . . . . . . . 58
4.4
Austausch von Propositionen mit CmapTools/Knowledge-Soup . . . . . . . 60
4.5
WIKI mit Graph-Visualisierung . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.6
Vereinfachte Darstellung einer Kollaborationssituation (Kraut et al., 1986)
4.7
In einer Kollaborationssituation auftretende Fragen (Kraut et al., 1986) . . 62
5.1
MAPA als integrativer Ansatz im Bereich der Überschneidungen von
Konstruktivistischer Lehre, Mapping und Kollaboration . . . . . . . . . . 67
6.1
Eine erste Ebenenaufteilung des Gesamtsystems in eine Anwendungsund eine Datenhaltungsschicht . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2
Aufteilung des Systems in 3 Ebenen: Anwendungs-, Datenhaltungs- und
Serviceschicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.3
Topic Maps als Gliederungsmechanismus . . . . . . . . . . . . . . . . . . . 80
vi
62
ABBILDUNGSVERZEICHNIS
6.4
Die Entität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.5
Zwei verknüpfte Entitäten – Anwendungsabhängige Darstellung bei einheitlichem Datenformat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.6
Der Mechanismus der Typresolution (mit Entity-Typsystem als Beispiel) . 85
6.7
Aufbau der MAPA Query Language . . . . . . . . . . . . . . . . . . . . . . 88
6.8
Der Message Broker und die ihn umgebende Infrastruktur aus MessageAdapter und Service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.9
Die Komponenten der Java Integration Library (JIL) ermöglichen ein einfaches und flexibles versenden von MAPA-Nachrichten . . . . . . . . . . . 90
6.10 Die fünf Komponenten von MAPA: die Teile des Frameworks, das
System als Referenzimplementierung der Standards und eine MAPAbasierte Anwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.11 Ein MAPA-System und seine Aufteilung in Anwendungs-, Datenhaltungs- und Service-Schicht im Überblick. Dazu noch die MessageBrokerKomponente als vermittelndes Kontaktportal zur Außenwelt . . . . . . . 93
7.1
Verschiedene Extension-Points der Eclipse-GUI . . . . . . . . . . . . . . . . 100
7.2
UML-Diagramm der Klassen für die Anbindung verschiedener Datenbanken über das Datenbanktyp-unabhänige Interface Persistence . . . . . 101
7.3
UML-Diagramm des GEF-Modells . . . . . . . . . . . . . . . . . . . . . . . 102
7.4
Ausschnitt aus einem MAPA-Beispiel-Netz . . . . . . . . . . . . . . . . . . 104
7.5
Erstellen von Inhalten mit der Kommandozeile. . . . . . . . . . . . . . . . 106
7.6
Erstellen einer ConceptMap . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.7
Anzeige linguistischer Daten . . . . . . . . . . . . . . . . . . . . . . . . . . 110
8.1
Zeitersparnis bei erneutem Lernen (Stangl, 2002)
8.2
Zeitersparnis bei erneutem Lernen von wiederholten Vokabeln (Stangl,
2002) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.3
System des Karteikastens (Rädle, 2003)
8.4
Übungsmodus mit fehlendem zentralem Knoten
8.5
Übungsmodus mit fehlenden Relationen . . . . . . . . . . . . . . . . . . . 128
8.6
Übungsmodus mit fehlenden Nachbarknoten
. . . . . . . . . . . . . . 124
. . . . . . . . . . . . . . . . . . . . 126
. . . . . . . . . . . . . . 127
. . . . . . . . . . . . . . . . 128
10.1 Ein Ausschnitt unseres im Projekt erworbenen arbeitsmethodischen Wissens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
vii
Tabellenverzeichnis
3.1
Mappingsoftware (Stand: März 2004) . . . . . . . . . . . . . . . . . . . . . . 38
viii
Kapitel 1
Einleitung
von Tobias Widdra
1
KAPITEL 1. EINLEITUNG
1.1
Idee, Vision und Motivation
Wir leben in einer Zeit, in der der Umgang mit Wissen immer wichtiger wird und gleichzeitig ein enormes Wachstum der weltweit verfügbaren Menge an Informationen stattfindet – man denke z. B. an die heute modischen Schlagwörter wie Informationsgesellschaft und Wissensmanagement. Dabei ist die Darstellung von Wissensinhalten zu dem
Zweck, sie anderen (oder sich selbst zu einem späteren Zeitpunkt) verfügbar zu machen bzw. zu verdeutlichen, eines der wichtigsten Themen. Es geht hierbei um die Auslagerung oder Externalisierung von Wissen (bzw. Teilen von Wissen oder sog. „Cues“
als Erinnerungshilfen für Wissen) aus den „Köpfen“ von Menschen, sozusagen um eine
Abbildung mentaler Inhalte auf „rein“ physische Strukturen.
Wenn man geschichtlich zurückblickt, finden sich die ersten Ansätze hierzu im
Grunde in der Höhlenmalerei, wobei sich die Erfindung der Schrift sicherlich als der
wichtigste Schritt zur Externalisierung von Wissen betrachten lässt: Nun konnten durch
symbolische Zeichenkombinationen unendlich viele Gedanken widergespiegelt werden. Der Buchdruck eröffnete die Möglichkeit, durch effiziente Vervielfältigung dieses abgebildete Wissen für eine größere Anzahl von Menschen zugänglich zu machen.
Durch den Einzug des Computers in unser Leben und schließlich die weltweite Vernetzung via Internet ist die prinzipielle Möglichkeit gegeben, das sehr viele Menschen
unabhängig von ihrem Standort auf eine schier unüberschaubare Menge an Daten, Informationen und Wissensinhalten zugreifen können.
Dieser geschichtliche Rückblick zeigt eine Entwicklung, die dazu führt, dass das Externalisieren von Wissen (bzw. der Zugang dazu) überhaupt möglich ist. Die Entwicklung hat uns heute zu einem Punkt gebracht, an dem wir – wissenschaftlich unterstützt
durch Erkenntnisse der Kognitiven Psychologie und der Kognitions- und Neurowissenschaften – eine neue Dimension der Fragestellung eröffnen können: Wie sollte eine
solche externe Abbildung am sinnvollsten gestaltet werden? In anderen Worten, welche Form der Abbildung ist am besten den mentalen oder kognitiven (und evtl. auch
emotionalen) Fähigkeiten angepasst, sozusagen am ehesten gehirngerecht oder kognitiv
adäquat?
Es geht hierbei vor allem darum, sowohl den Prozess des Externalisierens als auch
den des Internalisierens effizient zu gestalten. Diese Vorgänge sollten folglich möglichst
optimal an die jeweiligen perzeptiven Fähigkeiten und kognitiv/emotionalen Verarbeitungsprozesse angepasst sein, um zusätzlichen Aufwand zu minimieren. Des Weiteren erhöht ein guter Überblick, ein klares Erkennen relevanter Zusammenhänge und
eine gute Orientierung im stark ansteigenden Wissensraum die Effizienz des jeweils
gewünschten Arbeitsprozesses. In natürlicher Sprache verfasste Texte sind vermutlich
sehr hilfreich bei intensiver Beschäftigung mit detailierten Informationen, doch scheinen sie wenig kognitiv adäquat, wenn man obige Kriterien eines effizienten Verarbeitungsprozesses anlegt – oder ihnen die introspektiv erlebte Reichhaltigkeit der mentalen Welt entgegenstellt: Den sequentiell-abstrakten Eigenschaften natürlichsprachlicher
Texte lässt sich die Metapher vom Wissensnetz gegenüberstellen.
Was ist damit gemeint? Was passiert „im Kopf“ wenn jemand diesen Begriff ließt?
Der Begriff suggeriert, dass das zugrunde liegende Konzept etwas mit „Wissen“ und
mit „Netz“ zu tun habe. So wird – falls der Begriff neu für die Person ist – unweigerlich
eine Verbindung zu diesen beiden Konzepten hergestellt werden. Mit anderen Worten:
Ein neues „Wissensbröckchen“ wird an vorhandene Strukturen „angeknüpft“ und eine
Verbindung (Assoziation) wird zwischen diesen Teilen gebildet (siehe Abbildung 1.1).
2
KAPITEL 1. EINLEITUNG
Abbildung 1.1: Vernetzung von Wissensknoten
Wenn wir davon ausgehen, die Person lese diesen Text, lässt sich des weiteren vermuten, dass – durch den oben gegebenen Kontext, die hier geschriebenen Worte oder
vorhandenes Vorwissen – eine assoziative Verbindung von „Wissen“ zu „Abbilden“
entstehen könnte und hiermit möglicherweise Beispiele wie natürliche oder formale
Sprachen, oder auch eine visuelle Darstellung (z. B. eine Landkarte) verbunden sind,
usw.
Der Metapher vom Wissensnetz liegt die Vorstellung zugrunde, dass eine netzartige
Organisation ein sinnvolles Modell derjenigen allgemeinen, Wissen zugrunde liegenden Strukturen darstellt, die sich sowohl auf neuronaler als auch auf kognitiver Ebene
finden lassen. Für das Ziel, Wissensinhalte möglichst gehirngerecht bzw. kognitiv adäquat abzubilden, bietet sich folglich eine netzartige Struktur an. Man bekommt sozusagen eine Abbildung des internen in ein externes Wissensnetz, dass z.B. wie in Abbildung 1.2 dargestellt werden könnte.
Die Idee, netzartige Strukturen als Metapher für Wissensstrukturen zu verwenden
ist bei weitem nicht neu und findet sich z. B. in den Ansätzen der sog. semantischen
Netze wieder. Im MAPA-Projekt geht es jedoch um den Fokus der kognitiven Adäquatheit und weniger um die Suche nach einem Wissensrepräsentationsformat. Doch auch
dieser Aspekt ist nicht neu und lässt sich in Konzepten (bzw. Techniken) wie MindMap,
ConceptMap und dergleichen wieder finden (siehe Kapitel 3). Hier kommt neben der statischen Darstellungsform ein weiterer wichtiger Gedanke hinzu: Der Vorgang, dass wie
bei obigem Beispiel nach und nach neue Gedanken/Assoziationen an ein vorhandenes
Netz „angebaut“ werden, passt zu den Ideen konstruktivistischer Lerntheorien, die Lernen bzw. die Aufnahme von neuen Informationen als einen aktiven Konstruktionsprozess
betrachten. Wissenserwerb wird somit zu einem Strukturaufbau- bzw. Reorganisationsprozess, der wiederum eine Voraussetzung für das Erinnern als Rekonstruktionsprozess
darstellt.
In dem hier vorgestellten Projekt geht es ebenso wie beim MindMapping und ähnlichen Verfahren folglich nicht nur um eine Möglichkeit, Wissen darzustellen, sondern
vielmehr um ein Werkzeug, mit dem der Benutzer interagieren kann und das ihn im
Aufbau bzw. Umbau von externen und damit einhergehend auch internen Wissensstrukturen unterstützt. MAPA, die „Mapping Architecture for People’s Associations“ , bildet
sozusagen eine „kognitive Prothese“ die dem Benutzer bei seinen Denk- und Verarbeitungsprozessen zur Hilfe steht. Letztlich wirkt das Werkzeug durch die Widerspie3
KAPITEL 1. EINLEITUNG
Abbildung 1.2: Ein kleines Wissensnetz
gelung dieser Prozesse auf die benutzende Person zurück und kann damit sowohl kognitive Prozesse als auch (durch die verbesserte Reflexionsmöglichkeit) metakognitive
Prozesse unterstützten.
Dies lässt sich noch einmal durch die Vorstellung verdeutlichen, dass eine Person
ihren kreativen „kognitiven Fluss“ protokollieren möchte (als eine Art Brainstorming):
Die Wahrnehmung des soeben Konstruierten beeinflusst unmittelbar den weiteren Verlauf der Gedanken. Hier wird auch die Forderung nach einem kognitiv adäquaten
Werkzeug mit möglichst intuitiver Interaktion noch einmal deutlich, da das Protokollieren all zu leicht den Fluss zum stoppen bringen kann.
Stift (bzw. bunte Stifte) und Papier lassen sich z. B. als ein solches Werkzeug auffassen. Hierbei sind der Kreativität der Darstellungsformen kaum Grenzen gesetzt und
wir sind außerordentlich gut trainiert darin, dieses Werkzeug zu benutzen. Als Nachteil
lässt sich aber insbesondere die schlechte Möglichkeit des Editierens und Reorganisierens aufzeigen. Im Vergleich dazu hat ein entsprechend implementiertes Computerprogramm hierin natürlich einen entscheidenden Vorteil. Außerdem kann mit einem solchen „Computerwerkzeug“ die Möglichkeit eröffnet werden, an große Datenbestände
anzuknüpfen und nicht nur Vernetzung innerhalb einzelner Blätter (oder Seiten eines
Buches) herzustellen. Als Nachteile lassen sich die potentielle Einschränkung der möglichen Darstellungsformen, die fehlende (und evtl. für manche Menschen sehr wichtige)
haptische Erfahrung und vor allem die weniger intuitive Bedienung anbringen. Doch
hier könnten neue Eingabegeräte wie Grafiktablett, Datenhandschuh oder Spracherkennung eine deutlich natürlichere Mensch-Computer-Interaktion herbeiführen und somit
im Laufe der Weiterentwicklung dieser Techniken die Nachteile des Computers immer
geringer werden lassen.
4
KAPITEL 1. EINLEITUNG
Dieser Idee eines computergestützten Werkzeuges zur gehirngerechten Unterstützung kognitiver Prozesse sind wir in unserem Projekt nachgegangen.
In der oben erwähnten Idee, dass neue Wissensinhalte an ein vorhandenes (internes)
Wissensnetz angehängt werden, verbirgt sich die Vorstellung, dass letztlich einzelne
„Wissensstückchen“ – also irgendwelche (mentalen) Entitäten – verbunden werden. Für
das mit dem Werkzeug aufgebaute, externalisierte Wissensnetz kann man sich darunter
Wörter, aber auch Bilder, Geräusche, ja prinzipiell Daten aus allen möglichen Modalitäten vorstellen. Bei einem computergestützten Werkzeug ergibt sich der weitere Vorteil,
dass sich nicht nur Wörter (oder andere Platzhalter) für ein Dokument vernetzen lassen, sondern (elektronische) Dokumente selbst als Teil des Netzes eingebaut werden
können. Dies führt von der Idee des Wissensnetzes zur Frage der Organisation von Ressourcen, was sich gut mit dem momentanen Trend von einer anwendungsorientierten
hin zur datenorientierten Arbeit vereinbaren lässt.
Wir wünschen uns also ein Werkzeug, das sich intuitiv bedienen lässt und unseren kognitiven Fähigkeiten und Eigenschaften angepasst ist. Doch sind diese denn bei
allen Menschen gleich? Wenn man die Vision weiterdenkt, so wäre es doch wünschenswert, wenn es ganz unterschiedliche Darstellungen des Wissensnetzes gäbe, so dass
jede Person eine ihren Kognitiven Stilen, Lernstilen und individuellen Vorlieben entsprechende Darstellung des Netzes bekommen könnte. Da man für unterschiedliche Aufgaben unterschiedliche Aspekte der Daten hervorheben möchte, ist es auch hierfür wünschenswert, ganz unterschiedliche Ansichten zu bekommen (z. B. eine Netzansicht und
ein Bildverarbeitungsprogramm für einen ausgewählten Bildknoten). Für unser Projekt folgt hieraus eine möglichst große Offenheit gegenüber Weiterentwicklung, was
sowohl die Darstellungsformen, Netztypen und die Integration verschiedener existierender Mappingtechniken beinhaltet als auch die technische Seite betrifft, auf der wir
uns eine möglichst große Unabhängigkeit von konkreten Implementierungen und möglichst weitreichende Integration verschiedener Anwendungen wünschen. Anders ausgedrückt: Die Vision, auf einer riesigen, netzartig organisierten Datenmenge mit unterschiedlichsten individuell kognitiv angepassten Werkzeugarten operieren zu können,
führt unweigerlich zum Fokus auf die Entwicklung und Integration von Standards im
Rahmen eines Frameworks.
Möchte man diese Vision weiterspinnen, so gehört hierzu die Idee, die externalisierten Wissensnetze vieler Menschen zu verknüpfen, sozusagen ein riesiges Netz aufzubauen und ihnen darüber hinaus Möglichkeiten für Kommunikation, Kollaboration
und allgemein den Austausch von Daten ihrer (Teil-) Netze als integrierten Teil ihres
Werkzeugs zur Verfügung zu stellen.
Unsere Vision birgt folglich sowohl für ein einzelnes Individuum als auch für die
gesamte Gesellschaft einen großen Vorteil: Durch einen intuitiveren und gehirngerechteren Umgang mit Darstellungsformen von Wissensinhalten könnte eine ganz neue
Qualität des Austausches ermöglicht werden, die sowohl die Effektivität von Arbeitsund Organisationsprozessen als auch die Motivation und Freude am Nachdenken,
Kommunizieren und Zusammenarbeiten auf eine neue Stufe stellen könnte.
1.2
Projektziel
Ziel des Projektes war es, der Vision eines in Abschnitt 1.1 skizzierten Tools näher zu
kommen. Konkret haben wir uns für Folgendes entschieden:
5
KAPITEL 1. EINLEITUNG
• auf Basis wissenschaftlicher Erkenntnisse Anforderungen zu spezifizieren (Teil I
und 6)
• eine Architektur für ein Mapping-Framework zu entwerfen (Kapitel 6)
• einen Prototyp des Frameworks zu implementieren (Kapitel 7)
• einen Prototyp einer beispielhaften, auf dem Framework aufbauenden Anwendung zu erstellen: einen Vokabeltrainer, der auf netzartig organisierten Daten operiert (Kapitel 8)
1.3
Rahmen des Projektes
An dem hier vorgestellten Projekt haben zehn Studierende und vier Betreuer teilgenommen. Für die Mehrheit der Studierenden stellte das Projekt einen Teil des Masterstudienganges Cognitive Science der Universität Osnabrück dar, namentlich Gordon Bernedo, Manuel Böck, Michael Elbers, Felix Kugel, Stefan Scherbaum, Tobias Widdra und
Jens Wissmann – betreut von Dr. Petra Ludewig, Dr. Veit Reuer und Prof. Dr. Claus Rollinger. Unterstützt wurden sie von zwei Studentinnen der Universität Tübingen, Nadja Althaus und Kathrin Beck – betreut von Dr. Karin Krüger-Thielmann, und Jasmine
Bennöhr, einer Studentin aus Bochum, die gerade ihr Auslandsjahr an der University of
Edinburgh absolvierte – ebenfalls von Dr. Karin Krüger-Thielmann betreut. Dieser verteilte Projektrahmen war eine zusätzliche Herausforderung, die einige Erfahrungen mit
verschiedenen Kommunikationsmitteln (und deren kognitiver Adäquatheit) mit sich
brachte.
Unter anderem hing die überregionale Beteiligung damit zusammen, dass das hier
vorgestellte Projekt in ein Verbundprojekt integriert wurde, an dem die Universitäten
Tübingen, Saarbrücken, Gießen, Bonn und Osnabrück beteiligt sind. Dieses Verbundprojekt mit dem Namen „Medienintensive Lehrmodule in der ComputerlinguistikAusbildung“ (MiLCA) wird vom Bundesministerium für Bildung und Forschung im Rahmen des Programms „Neue Medien in der Bildung“ mit dem Förderkennzeichen
01NM167A unterstützt. Es beschäftigt sich mit der Erstellung multimedialer Lernmaterialien und enthält von Osnabrücker Seite aus das Teilmodul „Language Processing
and Intelligent Computer-Assisted Language Learning“ (ICall), zu dem das hier vorgestellte MAPA-Projekt gehört. Der Zusammenhang von ICall und MAPA wird verständlicher, wenn man die im folgenden Abschnitt erwähnte Idee eines auf netzartigen Daten
operierenden Vokabeltrainers berücksichtigt.
Der offizielle Zeitrahmen des Masterprojektes bestand aus einem Kalenderjahr. Es ist
natürlich nicht möglich, im Rahmen dieses einen Jahres der großen Vision sehr nahe zu
kommen. Von Beginn an war jedoch geplant, das MAPA-Projekt auch außerhalb dieses
Masterprojektrahmens weiterzuführen. Im Ausblick (Abschnitt 11) wird hierauf noch
einmal eingegangen.
Eine ausführliche Erläuterung des Konzeptes der Studienprojekte im Masterstudiengang Cognitive Science findet sich bei Reuer et al. (2003).
6
KAPITEL 1. EINLEITUNG
1.4
Überblick über das Dokument
Zum Abschluss der Einleitung soll noch ein Überblick über die Gliederung des Dokuments gegeben werden.
Abbildung 1.3: Übersichts-MindMap über das Dokument
Der Teil I stellt die wissenschaftlichen Erkenntnisse, die als Grundlage für das Design von MAPA dienen, ausführlich dar. Dabei wird auf die Erkenntnisse der Lernund Gedächtnisforschung (Kapitel 2), die Grundlagen des Mappings (Kapitel 3) und
die Hintergründe zum Thema Kollaboration (Kapitel 4) eingegangen. Zum Abschluss
werden darauf aufbauend die zentralen Eigenschaften und Funktionalitäten eines entsprechenden „Werkzeuges“ charakterisiert (Kapitel 5).
Der darauf folgende Teil II beschreibt die technische Umsetzung der entwickelten
Ideen in die Software MAPA. Im Kapitel 6 werden aus diesen Anforderungen technische Voraussetzungen abgeleitet und daraus die Architektur für das MAPA-Framework
entwickelt. In darauf folgenden Kapitel 7 werden der auf Basis der Architektur entwickelte Prototyp, bestimmte Details seiner Implementierung und die dabei verwendeten Technologien vorgestellt. Kapitel 8 beschäftigt sich mit der Beispielanwendung –
einem netzbasierten Vokabeltrainer – und damit zugleich mit der Anwendbarkeit der
Architektur und des Prototyps für Software, die auf MAPA-Wissensstrukturen aufbaut.
Der letzte Teil III präsentiert eine erweiterte Sichtweise der Themen, welche MAPA berührt und schließt mit einem Fazit und einem Ausblick auf die weitere Entwicklung. Das Kapitel 9 erweitert den hier aufgebauten Betrachtungsraum. Die konstruktivistische Perspektive wird um eine soziokulturelle ergänzt und ein weitreichender
Zukunftsausblick auf die Entwicklung von „Denkwerkzeugen“ wird gewagt. Kapitel
10 fasst die Ergebnisse zusammen und zieht ein Fazit aus dem Projekt, wobei sowohl
die fachlichen als auch die persönlichen und projektmethodischen Aspekte beleuchtet
werden. Ein Ausblick auf die weitere Entwicklung von MAPA und die Fortführung der
Projektidee im Rahmen des kognitionswissenschaftlichen Programms der Universität
Osnabrück beendet mit Kapitel 11 die Arbeit.
7
Teil I
Wissenschaftliches Fundament
und State of The Art
8
Der erste Teil ist eine Einführung in die fachlichen Grundlagen, auf welchen MAPA
aufbaut. Zunächst werden die Themen Lernen und Gedächtnis diskutiert. Anschließend wird eine Übersicht über Mapping, dessen Anwendbarkeit, die bisherige Unterstützung durch Software und deren Grenzen gegeben. Im Beitrag zum Thema Kollaboration wird sowohl auf die Vorteile einer Verbindung kollaborativer Elemente und
Mappingverfahren eingegangen als auch generelle Anforderungen an kollaborationsunterstützende Software vorgestellt. Das letzte Kapitel dieses Teils führt die Erkenntnisse dieser Forschungsbereiche in einer Synthese zusammen und präsentiert somit die
grundlegenden Eigenschaften der Software MAPA.
9
Kapitel 2
Lernen und Gedächtnis
von Gordon Bernedo und Stefan Scherbaum
2.1
Modell des Gedächtnisses
Als Gedächtnis bezeichnet man die Fähigkeit, Wissen zu speichern und wieder abzurufen (Kandel et al., 1996). Doch wie ist diese Fähigkeit im Gehirn realisiert? Noch vor
zwanzig Jahren gab es das Modell vom Biocomputer im Kopf, der alle eingehenden
Informationen unterschiedslos aufzeichnet. Doch wie man mittlerweile weiß, ist das
Gehirn vor allem ein Meister darin, Überflüssiges aus dem Datenstrom auszusortieren.
Wie ein grobmaschiges Netz sorgt es offenbar dafür, dass nur die dicken Fische hängen bleiben (Fernandez and Weber, 2003). Doch wie unterscheiden wir nun zwischen
relevanter und irrelevanter Information? Und wie schaffen wir es unserem Gehirn Informationen so schmackhaft zu machen, dass es diese behält?
In den letzten zwei Jahrzehnten hat das Wissen über die Arbeitsweise des Gedächtnisses nicht zuletzt dank neuer bildgebender Verfahren sehr stark zugenommen. So
fand man beispielsweise heraus, dass das Gedächtnis keineswegs ein einheitliches System darstellt. Vielmehr scheinen verschiedene Hirnareale auf bestimmte Gedächtnisaufgaben spezialisiert zu sein. Auf diese Aufgaben soll im nächsten Abschnitt eingegangen werden, indem zunächst zwei Lernsysteme, das explizite (manchmal auch deklaratives Gedächtnis genannt) und das implizite (emotionale oder auch nicht-deklarative)
Gedächtnis vorgestellt werden.
10
KAPITEL 2. LERNEN UND GEDÄCHTNIS
2.1.1
Implizites und explizites Gedächtnis
Beim Erlernen von Bewegungsabläufen ist vor allem das so genannte implizite Gedächtnis beteiligt. Das implizite Gedächtnis ist eher reflexiver und automatischer Natur und
sowohl seine Bildung als auch der Abruf sind nicht unbedingt an bewusste Aufmerksamkeit oder kognitive Prozesse gebunden (Kandel et al., 1996). Dies gilt auch für Verhaltensprogramme, die im impliziten Gedächtnis gespeichert werden.
Für bewusste Erinnerungen, wie etwa der Inhalt eines zuletzt gehörten Vortrags
oder Vorlesung, ist hingegen das explizite Gedächtnis zuständig. Brenda Milner gelang es in den frühen fünfziger Jahren, die Rolle des Temporallappen für das explizite
Gedächtnis zu erhellen. Sie untersuchte bei einer kleinen Zahl von Patienten mit Temporallappenepilepsie, welche Auswirkungen die operativ beidseitige Entfernung des
Hippocampus und dessen benachbarten Strukturen im Temporallappen zeigten. Der
erste und am besten untersuchte Fall war Henry M.. Nach einer Operation, bei der ihm
beidseitig der mediale Teil des Temporallappens entnommen wurde, erlitt er eine anterograde Amnesie (Milner, 1985). H. M. verlor sein explizites Gedächtnis. Das explizite
Gedächtnis, so weiß man heute, codiert nicht nur Faktenwissen, sondern auch Informationen über das eigene Leben. H. M. büßte vollständig die Fähigkeit ein, neue, bewusste
Langzeitgedächtnisinhalte zu speichern. Seine sonstigen geistigen Fähigkeiten waren
unbeeinträchtigt (Kandel et al., 1996).
Erst durch Untersuchungen an H.M. hat man überhaupt erfahren, dass das Hirnsystem, das an der Bildung neuer Kurzzeit-Erinnerungen mitwirkt, ein anderes ist als
jenes, welches ältere Langzeit-Erinnerungen speichert. Die an H. M. festgestellten Befunde ließen also eine klare Unterscheidung zwischen Kurzzeitgedächtnis und Langzeitgedächtnis zu, und sie legten außerdem die Vermutung nahe, dass das Langzeitgedächtnis mindesten zweistufig arbeitet. An der ersten Stufe sind die Regionen des Temporallappens beteiligt, die bei H. M. entfernt wurden, während an der zweiten Stufe
andere Hirnregionen mitwirken, höchstwahrscheinlich Gebiete des Neokortex (Squire,
1993; McCelland, 1995). Der Temporallappen ist also erforderlich, um Langzeiterinnerungen zu bilden, jedoch werden die Erinnerungen mit den Jahren von diesem Hirnsystem unabhängig.
Obwohl Untersuchungen von Patienten mit lokalisierbaren Hirnschäden wie H.M.
einen gewaltigen Erkenntnisgewinn über den Ort der expliziten Gedächtnisbildung mit
sich brachten, sagten sie selbst jedoch nichts über die genauen Vorgänge und deren zeitlichen Abläufe aus. Um Aufschluss über die zugrunde liegenden Mechanimen zu bekommen, misst man die Hirnaktivität von Menschen, bei denen Merken und Erinnern
normal vor sich gehen. So fand beispielsweise der Psychologe Sanquist (1980) von der
California University in Los Angeles heraus, dass sich das EEG bereits in den ersten
Sekunden unterscheidet, je nachdem, ob wir uns etwas einprägen oder nicht. Darauf
aufbauend zeigten Ergebnisse erster fMRT-Studien zur expliziten Gedächtnisbildung,
dass je höher die Aktivität im parahippocampalen Cortex ist, auch die Wahrscheinlichkeit, dass man sich später daran erinnert, höher ist (Brewer, 1998; Wagner et al., 1998).
Da fMRT-Studien schnell an ihre Grenzen stoßen, wenn es um Abläufe im Sekundenbereich geht, machte Fernandez (1999) weitere Studien unter Zurhilfenahme eines
EEG. Bei diesem Versuch sitzt der Epilepsie-Patient vor einem Bildschirm, auf dem in
Abständen von drei Sekunden ein Wort erscheint. Die Aufgabe lautet, sich möglichst
viele der zwölf gezeigten Begriffe zu merken. Im Schläfenlappen des Probanden befinden sich Elektroden, die kontinuierlich elektrische Potenziale und ihre Änderung über
11
KAPITEL 2. LERNEN UND GEDÄCHTNIS
Abbildung 2.1: Im Temporallappen befinden sich die für die Bildung expliziter Gedächtnisinhalte wichtigen Hirnregionen, Hippocampus und parahippocampalen Cortex. Die
Wahrscheinlichkeit, dass man sich später Wissensinhalte merken kann steigt, je höher
die Aktivität im parahippocampalen Cortex ist (Braak, 2004).
die Zeit aufzeichnen. In der Regel hat sich der Proband einige Wörter gemerkt, an andere kann er sich nicht erinnern. Und genau das interessiert die Forscher. Bei der Auswertung des Experiments verglichen sie die Aktivität des Gehirns zum Zeitpunkt der
Präsentation der Begriffe, an die sich der Proband erinnern konnte, mit dem Aktivitätsmuster für nicht erinnerte Wörter.
Die Ergebnisse ergaben folgendes Bild: Die erste Station aller Wörter ist die primäre
Sehrinde (V1). Dort maßen die Forscher etwa 100 Millisekunden nach der Präsentation
stets eine erhöhte Aktivität. Weitere 210 Millisekunden später erreichte die Information den rhinalen Cortex im Schläfenlappen und hier konnten die Forscher auch erstmals auffällige Unterschiede beobachten. Die elektrische Neuronenaktivität war bei den
Wörtern, an die sich der Proband erinnern konnte, deutlich ausgeprägter als bei denjenigen, die er beim Gedächtnistest nicht mehr wusste. Je mehr Nervenzellen also im
rhinalen Cortex in der ersten halben Sekunde an der Verarbeitung eines Ereignisses beteiligt sind, desto größer ist offenbar die Wahrscheinlichkeit, dass man sich später an
das erlebte erinnert.
Die Aktivitätsdifferenz zwischen Merken und Vergessen tauchte bei den Probanden
200 Millisekunden später im Hippocampus wieder auf. Und auch hier hing vom Ausmaß der neuronalen Aktivität ab, ob sich ein Wort im Gehirn einprägte (Fernandez and
Weber, 2003).
Der Hippocampus und der rhinale Cortex bilden das Tor zum Gedächtnis. Da die
beiden Areale anatomisch sehr unterschiedlich aufgebaut sind, werden sie aber kaum
für ein und dieselbe Aufgabe verantwortlich sein. Was also passiert in diesen beiden
Strukturen des mittleren Schläfenlappens genau?
Um diese Frage zu beantworten, wandelten die Forscher das „Erlebnis“ im Wörterexperiment etwas ab. Die Probanden erhielten nun Wortlisten mit zwei unterschiedlich12
KAPITEL 2. LERNEN UND GEDÄCHTNIS
en Klassen von Wörtern: Zum einen Begriffe, die im alltäglichen Sprachgebrauch sehr
oft auftauchen, zum anderen solche, die eher selten benutzt werden. Das Wort „Haus“
etwa ist der Versuchsperson vertrauter als das Fremdwort „Katafalk“ und weckt deshalb auch mehr Assoziationen. Bei der Verarbeitung von selten benutzten Wörtern zeigte sich der Aktivitätsunterschied zwischen erinnerten und nicht-erinnerten Wörtern nur
im Hippocampus! Offensichtlich versucht der rhinale Cortex, die Wörter mit Hilfe einer Bedeutungsanalyse in ganze Sätze einzubinden oder Verknüpfungen herzustellen.
Dies gelingt beim Einprägen von „Haus“ recht gut – wie die erhöhte Aktivität im rhinalen Cortex zeigt -, bei „Katafalk“ jedoch nicht. Vermutlich erleichtert der rhinale Cortex
das Merken, indem er das Erlebnis mit bereits gespeicherten Informationen verknüpft
(Fernandez and Weber, 2003).
Im Gegensatz dazu kommt der Hippocampus offenbar ohne diese Bedeutungsassoziationen aus. Während der rhinale Cortex also die Gedächtnisbildung positiv beeinflussen kann, bewerkstelligt der Hippocampus das Merken im engeren Sinne.
Es stellt sich die Frage, ob und wie sich der rhinale Cortex mit dem Hippocampus
„verständigt“. Schon seit längerem weiß man, dass eine Erinnerung letztendlich nicht
als Ganzes, sondern in Teilkomponenten an ganz verschiedenen Orten im Gehirn abgelegt wird. So ist ein Pferd eben nicht einfach ein Pferd, sondern eine Mischung aus
Vierbeiner, Stallgeruch, Bonanza und vielem mehr. Zudem hat jeder Mensch seine eigenen Assoziationen. Taucht das Pferd wieder im Bewusstsein auf, werden die Teilaspekte
zu einem Gesamten verknüpft, indem sich die beteiligten Neuronenverbände zu einem
Netz verschalten. Wie Forscher herausfanden, feuern die Nervenzellen dazu synchron
(Fernandez, 1999). Wurden Wörter erfolgreich ins explizite Gedächtnis übertragen, so
fingen viele tausend Nervenzellen ungefähr 200 Millisekunden nach Präsentation eines Wortes an, sich im Hippocampus und im rhinalen Cortex exakt im Gleichtakt zu
entladen.
Die vorübergehenede Synchronisierung „überträgt“ die Information vom rhinalen
Cortex auf den Hippocampus. Obwohl eine erhöhte Neuronenaktivität im Zusammenhang mit einem präsentierten Wort erst nach 310 Millisekunden im rhinalen Cortex
nachgewiesen werden konnte, lässt sich das Synchron-Feuern schon nach 200 Millisekunden beobachten. Stimmen sich die Strukturen schon vorher ab, noch bevor die
Information im mittleren Schläfenlappen ankommt? Erklärbar ist dieses Phänomen tatsächlich durch Aufmerksamkeitseffekte: Offenbar nehmen die notwendigen Strukturen
im Gehirn der Probanden eine Art Erwartungshaltung ein, sie bereiten sich sozusagen
auf die eintreffende Information vor.
Eine Aufmerksamkeitsform ist die Top-down-Form. Diese Aufmerksamkeit setzen
wir aktiv und gezielt ein – etwa jetzt, während Sie diesen Abschnitt hier lesen. An Topdown-Prozessen sind sehr viele Hirnareale beteiligt, vor allem Regionen des Stirn- und
Scheitellappens. Sie machen es möglich, einen Großteil der geistigen Kapazität auf eine
bestimmte Aufgabe zu lenken. Hier spielen Vorkenntnisse eine Rolle. Je vielmaschiger
das Netz aus Informationen und Erlebnissen bereits geknüpft ist, desto leichter bleibt
ein Erlebnisfisch hängen (Fernandez and Weber, 2003).
2.2
Lerntheorien
Im Folgenden sollen verschiedene Lerntheorien vorgestellt werden. „Lerntheorien gehen dem Versuch nach, Kenntnisse über das Lernen zu systematisieren“ (Lefrancois,
13
KAPITEL 2. LERNEN UND GEDÄCHTNIS
1994). Dabei folgen sie in der folgenden Darstellung der historischen Entwicklung, wobei keine der vorgestellten Theorien nicht auch den Erkenntnissen der modernen Psychologie genügen würde. Jede Theorie beleuchtet bestimmte Aspekte des menschlichen
Lernens und Denkens (Brombach, 2000).
2.2.1
Behavioristische Lerntheorien
Die behavioristische Lerntheorie erfuhr in ihrer historischen Entwicklung unterschiedliche Ausprägungen, die aber alle allein auf beobachtbarem und messbarem Verhalten
beruhen. Deshalb sind beispielsweise auch die auf dieser Theorie basierenden Lernprogramme auf die Überprüfung eines erfolgreichen Lernprozesses angewiesen, der
sichtbar ist. Durch die Konditionierung eines bestimmten Inhalts, wird den Postulaten des Behaviorismus Folge geleistet. Festzuhalten bleibt jedenfalls, dass das Lernen
hier insbesondere als eine Reiz-Reaktions-Verbindung beschrieben wird, die auf unterschiedliche Weise beeinflusst werden kann. Ziel ist es eine Verhaltensänderung durch
Anreiz und Strafe zu erreichen. Behavioristische Lernprogramme haben die Entwicklung computerunterstützten Lernens bis heute geprägt. Da für unser Interesse aber behavioristische Lerntheorien eine untergeordnete Rolle spielen, soll an dieser Stelle auf
Brombach (2000) verwiesen werden, der Vor- und Nachteile von Software, die sich auf
behavioristische Lerntheorien stützt, detailliert diskutiert.
2.2.2
Kognitivistische Lerntheorien
Das moderne Paradigma des Kognitivismus betont im Gegensatz zum Behaviorismus
jene Prozesse, die sich im Gehirn abspielen, und versucht diese zu identifizieren, zu untersuchen und miteinander in ihrer jeweiligen Funktion in Beziehung zu setzen. Nach
Schulmeister (1997) ist der Kognitivismus ein an der Heuristik menschlichen Denkens
orientierter Erkenntnisprozess. Es gibt zwar auch hier eine ganze Reihe unterschiedlicher Strömungen, insgesamt ist ihnen jedoch allen gemeinsam, dass das menschliche
Denken als ein Prozess der Informationsverarbeitung begriffen wird (Klimsa, 1993).
Durch den grundlegenden Informationsverarbeitungsansatz bestehen enge Beziehungen zum Forschungsgebiet der Künstlichen Intelligenz. Da die Kognitivisten sich also
nicht mehr lediglich für die von Außen beobachtbaren Verhaltensänderungen interessieren, sondern für die „innere Repräsentation der Umwelt“ (Edelmann, 1996), wird die
Kategorisierung von Wissen zu einer wichtigen Grundlage der kognitivistischen Lernforschung. Bildung wird demnach als Internalisierung, d. h. Aufnahme und Verarbeitung von Wissen z. B. durch den Aufbau mentaler Modelle, Schemata, o. ä. verstanden.
Die Aufnahme von Wissen – also das Lernen – wird als Wechselwirkung eines externen
und objektiven Angebots mit der internen Struktur verstanden – im Gegensatz zum
Konstruktivismus (vgl. Abschnitt 2.2.3.1), bei dem die Bildung interner Strukturen als
im wesentlichen durch innere Zustände determiniert angesehen wird. Zusammen mit
der Anerkennung individueller Differenzen bei den Lernenden entwickelte sich die Systemklasse adaptiver Systeme, insbesondere Intelligente Tutorielle Systeme (ITS). Dabei
wird versucht, das Verhalten eines Lehrers in Abhängigkeit vom Fachgebiet, einer Reihe
instruktionaler Strategien und Informationen über den Lernenden zu simulieren. Der
Kognitivismus rückte aber zudem noch eine andere Anschauung in den Mittelpunkt:
Das entdeckende Lernen. Das Prinzip ist sicherlich sehr alt, die Theorie des entdeckenden Lernens wurde jedoch in den 60er Jahren von Bruner wieder aufgegriffen. Darunter
14
KAPITEL 2. LERNEN UND GEDÄCHTNIS
kann eine Gruppe von Lehr-/Lernansätzen gefasst werden, die folgende Aspekte des
Lernens betonen (Edelmann, 1996):
• Entdeckendes Lernen wird durch den Lernenden selbst gesteuert.
• Statt alle relevanten Informationen fertig strukturiert zu präsentieren, muss der
Lernende Informationen finden, priorisieren und neu ordnen, bevor er daraus Regeln ableiten und Probleme lösen kann.
• Die Exploration wird geleitet von Neugier und Interesse des Lernenden. Er soll
Lösungen für interessante Fragen entwickeln, statt Fakten auswendig zu lernen.
Besonders wichtig ist dabei, wie bei jeder Form des selbstgesteuerten Lernens, ein
hoher Grad an intrinsischer Motivation. Der Stellenwert des impliziten Lernens
und der Intuition wird ebenfalls betont. Dem Entdeckenden Lernen wird insgesamt eine motivierende Wirkung zugesprochen. Diese wird auch im Allgemeinen
bestätigt (Schulmeister, 1996).
• Ziel des Lernens ist die Ausbildung der Problemlösungsfähigkeit. 1
Wendet man das Konzept des entdeckenden Lernens auf computergestützte Lernsysteme an, so führt dies zur Entwicklung reicherer und flexiblerer Lernumgebungen mit einer Vielzahl von Möglichkeiten. Diese lassen unterschiedlichen Lernern auch verschiedene Wege offen und legen stärkeren Wert auf Metawissen. Der Begriff der Metakognition umfasst nach Weidenmann et al. (1993) das „Wissen über die eigenen kognitiven Prozesse und deren Bedingungen“. Dabei sind drei Bereiche relevant: Wissen über
die Person (z. B. über eigene Stärken und Schwächen), über Aufgaben (z. B. über die
Bearbeitung schwieriger Texte) sowie über kognitive Strategien (z. B. Strategien zum
Auswendiglernen). Grundlegend wichtiger Bestandteil des Kognitivismus ist, wie bereits angedeutet die Möglichkeit für den Lernenden, die Strategie zur Lösung eines Problems selbst bestimmen zu können. Das Lernen selbst findet hierbei durch Einsicht statt
und wird nicht zuletzt dadurch erleichtert, dass das Wahrnehmungsfeld lernfördernd
gestaltet wird. Wissen kann nicht einfach von einer Person an eine andere Person weitergereicht werden, sondern entsteht immer durch einen aktiven Konstruktionsprozess
des Lernenden. Wissen ist zudem stark kontextgebunden (Mandl et al., 1995). Diesem
wichtigen Aspekt wird besonders im Kapitel über das Mapping (Kapitel 3) Rechnung
getragen.
Abschließend sei noch anzumerken, dass beim Kognitivismus die Formulierung
operationalisierbarer Lernziele eine wichtige Rolle spielt. In der Nachfolge der behavioristischen Lerntheorien soll also auch hier die Überprüfbarkeit eines Lernziels festgeschrieben werden (Brombach, 2000).
2.2.3
Konstruktivistische Lerntheorien
2.2.3.1
Konstruktivismus als Erkenntnistheorie
Die kognitivistischen Theorien sehen „den Wahrnehmungs- und Erkenntnisprozess als
einen informationsverarbeitenden Prozess“ (Wolff, 1994, S. 410) an und gehen davon
1 Bei Durchsicht der Eigenschaftsliste wird klar, dass entdeckendes Lernen gut mit konstruktivistischen
Auffassungen zur Gestaltung von Lernumgebungen vereinbar ist. Zur Realisierung können unter anderem
Simulationen, Hypermedia oder Mapping Tools (wie z.B. MAPA) eingesetzt werden.
15
KAPITEL 2. LERNEN UND GEDÄCHTNIS
aus, dass eine Wechselwirkung zwischen der externen Präsentation und dem internen Verarbeitungsprozess stattfindet (vgl. Blumstengel, 1998). Im Gegensatz zu diesem
informationstheoretischen Ansatz ist es im Konstruktivismus nicht möglich „der Außenwelt Informationen zu entnehmen und diese kognitiven Strukturen und Symbolen
zuzuordnen, welche dann im Geist weiterverarbeitet werden können“ (Wolff, 1994, S.
411). Menschen werden vielmehr „als autonome und rekursiv organisierte System verstanden“ (Wolff, 1994, S. 411), deren Wissen in der Struktur des Nervensystem abgelegt ist. Dieses Nervensystem kann als „geschlossenes und strukturdeterminiertes System [...] von außen nicht gesteuert, sondern nur perturbiert werden und lässt nur jene
Zustandsveränderungen zu, die im Sinne der Strukturdeterminiertheit ’erlaubt’ sind“
(Peschl, 1990, S. 26). Durch die Strukturdeterminiertheit jedes Individuums betont der
Konstruktivismus die subjektive Wahrnehmung und Veränderung (Lernen) jedes Einzelnen.
„Menschen werden im radikalen Konstruktivismus als [...] Systeme verstanden, die Wörter und Symbole benutzen, um die Umwelt zu beschreiben. Es
ist der menschliche Beobachter, der den Phänomenen, die er beobachtet, eine
Art konzeptuelles System aufstülpt und dadurch Welt hervorbringt“ (Wolff,
1994, S. 411 ff.).
Somit gibt es auch „kein objektives Wissen über die Welt, das Da-Draußen, das Ding-ansich (Kant), sondern immer nur unsere Wahrnehmung von Welt“ (Thissen, 1997, S. 72).
Jeder Mensch konstruiert sich seine Welt aus seinen Konzepten und Wahrnehmungen.
Diese Position steht im deutlichen Gegensatz zum so genannten Objektivismus:
„Objectivism equates Information and knowledge as far as the learner is
concerned. [...] There is an external reality that each individual can come
to know in the same way. Knowledge is externally referenced rather than
internally generated“ (Jonassen, 1992b).
2.2.3.2
Konstruktivistische Lerntheorien
Aus dieser erkenntnistheoretischen Basis gehen einige Überlegungen zum Lernen hervor, selbst wenn „der radikale Konstruktivismus bisher keine eigene Lerntheorie entwickelt“ (Wolff, 1994, S. 414) hat. So wird dem Informationsverarbeitungsprozess nun
die individuelle Konstruktion des Wissens durch den Lernenden gegenübergestellt. Das
Vorwissen spielt hier eine entscheidende Rolle, da die Konstruktion des neuen Wissens
vom vorhandenen Wissen abhängig ist. Somit ist beim Lernen nun besonders die Aktivierung von Vorkenntnissen, dessen Struktur und Ausdifferenzierung von entscheidender Bedeutung. Das Lernen baut individuelle Konstrukte auf und verknüpft, reorganisiert und verändert diese (vgl. Blumstengel, 1998). Auch hier tritt wieder die Individualität jedes einzelnen Lernenden in den Vordergrund. Diese besteht sowohl im unterschiedlichen Vorwissen als auch in der Aktivität des Lerners. „Lernen ist ein aktiver
Prozess der Wissenskonstruktion, d.h. der Reorganisation und Erweiterung menschlicher Konstrukte“ (Thissen, 1997, S. 73). Der Lernende erarbeitet sich sein Wissen (und
damit seine Konstrukte) selbst. Diese Ansicht widerspricht z.B. deutlich dem Modell
des Nürnberger Trichters, bei dem Wissen in den Lernenden bildhaft hineingeschüttet wird und er es passiv aufnimmt (vgl. Spitzer, 2002). Ebenso tritt sie den behavioristisch gestützten, objektivistischen Theorien entgegen. „Knowledge, according to an
objectivist epistemology, is determined by the teacher and not the learner“ (Jonassen,
16
KAPITEL 2. LERNEN UND GEDÄCHTNIS
1992b, S. 3). Dieses Verhältnis dreht sich in der konstruktivistisch basierten Lerntheorie um: Wichtig wird nun die aktive, selbstgesteuerte Auseinandersetzung mit Inhalten
und Zusammenhängen und den eigenen Konzepten (Reorganisation). Zu dieser Auseinandersetzung zählt auch die mit den bereits vorhandenen Wissensstrukturen und
Konstrukten.
2.2.3.3
Wissen aus konstruktivistischer Sicht: ein Netz
Wissen entsteht im Konstruktivismus durch das interne subjektive Konstruieren von
Ideen und Konzepten (vgl. Blumstengel, 1998). Es ist „im Gehirn ein komplexes, vernetztes, dynamisches System, das sich in der Vernetzung von Neuronen manifestiert.
Wir speichern Muster und Strukturen.[...] Dieses Konstrukt von Welt wird im Lernprozess verändert und angepasst. Sämtliche Außeneinflüsse werden entweder in das vorhandene Wissensnetz integriert oder verworfen“ (Thissen, 1997, S. 73). Gelernte Sachverhalte stehen also nicht isoliert sondern immer im Kontext des bereits Erlernten. So
betont Wolff (1994): „Es kann nur das verstanden und gelernt werden, was sich mit bereits vorhandenem Wissen verbinden (assimilieren) lässt“ (Wolff, 1994, S. 414). Diese
Zusammenhänge legen es nahe, Wissen als ein Netz aus Gelerntem anzusehen. Dieses Netz wächst und verändert sich mit jeder neuen gelernten Information, wobei die
Möglichkeit besteht, das Neue in das vorhandene Netz zu integrieren oder dieses zuvor
umzuorganisieren.
2.2.3.4
Tools zur Unterstützung der Wissenkonstruktion
Werkzeuge, welche die in den letzten Abschnitten beschriebenen Prozesse unterstützen,
werden von Jonassen (1992b) unter dem Schlagwort „cognitive tools“ folgendermaßen
definiert:
„Effective cognitive tools are those that support cognitive processes, those
that enable learners to engage in higher order thinking, that help learners
engage in cognitive processes that would normally be impossible [...]“ (Jonassen, 1992b, S. 6).
Der Begriff des Kognitiven im Namen „cognitive tool“ mag zwar irritieren, verweist er
doch anscheinend auf die Grundlagen der kognitiven Lerntheorien.
Laut Jonassen (1992b) begründet sich dies in der mangelnden Ausrichtung bisheriger kognitiver Instrumente auf die kognitiven Theorien und das (implizite) Festhalten
am behavioristischen Objektivismus, was eine gewisse Begriffsverschiebung zwischen
zu Grunde liegender Lerntheorie und der Einordnung des Werkzeugs verursacht:
„Even the most advanced, computer-based learning techniques, as intelligent tutoring, are largely objectivistic. Although intelligent tutors make cognitive assumptions about the learning process, they still assume that the experts’s knowledge structure is mapped onto the student’s“ (Jonassen, 1992b,
S.4).
So machte erst der konstruktivistische Einfluss „cognitive tools“ zu dem, was sie sein
sollten. Die Abbildung 2.2 verdeutlicht dies noch einmal, indem sie die kognitivistische Theorie dem Behaviorismus entgegenstellt und dem Objektivismus die konstruk17
KAPITEL 2. LERNEN UND GEDÄCHTNIS
Abbildung 2.2: Das Zusammenwirken von Kognitivismus und Konstruktivismus im
Falle der „cognitive tools“ (aus Jonassen, 1992b)
tivistische Theorie. Im Falle der „cognitive tools“ ziehen Kognitivismus und Konstruktivismus in diesem Modell an einem Strang. Kognitive Werkzeuge sind also insofern
konstruktivistisch, als dass sie den Lernenden aktiv in die Entstehung seines Wissens
einbinden. Dieses Wissen basiert auf dem Verständnis der Informationen. Im Gegensatz
dazu steht die (wie auch immer geartete) Präsentation objektiven Wissens, welche dem
Lerner passiv dargebracht wird und seine Aktivität nicht voraussetzt (vgl. Jonassen,
1992b). In Abbildung 2.3 ist dieser Zusammenhang als ein Modell aus drei Dimensionen noch einmal dargestellt.
Wolff (1994) sieht zwei Möglichkeiten, die Wissenskonstruktion mit diesen kognitiven Werkzeugen am Computer zu unterstützen: Zum einen „durch das Bewusstmachen
des Prozesses selbst, und zum anderen durch das Bereitstellen von Ordnungshilfen, die
die Verarbeitung des Wissens einfacher machen“ (Wolff, 1994, S. 421). Dieses Bewusstmachen des Lernprozesses zählt auch Blumstengel (1998), unter der Bezeichnung Artikulation und Reflexion, zu den wichtigen Eigenschaften konstruktivistischer Lernumgebungen. Zum einen fördert sie die Mulitperspektivität und die Bildung vielseitiger
Kontexte durch den Austausch mit Anderen, denn die eigene Sichtweise muss zum
vorgetragen expliziert und anschließend mit anderen verglichen werden. Zum anderen
wird durch sie auch der Prozess der Metakognition, d.h. das Nachdenken über die eigenen Denkprozesse, angeregt. Besonders dieses wird im konstruktivistischen Ansatz
eine große Bedeutung zugemessen (vgl. Blumstengel, 1998). Zusätzlich zur eigenen Reflexion erhält also die soziale Umgebung Bedeutung, denn „der Lerner braucht die Interaktion mit anderen, um seinen eigenen Konstruktionen zu validieren“ (Wolff, 1994, S.
415). Im Bezug auf die Vereinfachung der Wissensverarbeitung fordert Wolff (1994) von
unterstützenden Tools, dass sie „Wissenskonstruktionsprozesse beispielhaft modellieren und den Lernenden verdeutlichen“ (Wolff, 1994, S. 421). Allerdings betont Jonassen
(1992b): „Cognitive tools are not designed to reduce information processing, that is, to
make a task necessarily easier, as has been the goal of instructional design and most
instructional technologies“ (Jonassen, 1992b, S. 5). Die Vereinfachung bezieht sich also
nicht darauf, dass der Lerner nun nichts mehr tun muss, um zu lernen. Aus dem bisher
dargelegten ergibt sich aus konstruktivistischer Sicht eher das Gegenteil.
18
KAPITEL 2. LERNEN UND GEDÄCHTNIS
Abbildung 2.3: „Cognitive tools“ als aktivierende, lerner- und konstruktionsorientierte
Lerninstrumente (aus Jonassen, 1992b)
Eine konkrete Software muss folglich diese Forderung nach der aktivierenden, expliziten Modellierung des Konstruktionsprozesses mit der in Abschnitt 2.2.3.3 diskutierten
netzartigen Ablage von Wissen verbinden. Sie muss es dem Lernenden ermöglichen,
sein Wissen darzustellen, zunächst als einzelne Wissensstücke, später vernetzt, und so
alle Verbindungen zu explizieren. Neue Informationen können vom Benutzer anschließend in dieses Netz integriert werden. Dabei kann er sein bisheriges Wissen und die
internen Verbindungen reflektieren und umstrukturieren und gleichzeitig die neuen Informationen bewusst integrieren. Zudem sollte eine solche Software den Austausch des
Wissensnetzes mit anderen Benutzern erlauben, um so den Lerneffekt durch soziale
Reflexion und Artikulation zu erhöhen. Bei diesem Austausch kann die netzartige Darstellung sinnvoll sein, vermittelt sie doch den anderen Lernern möglichst umfassend die
Konstrukte und Zusammenhänge des Benutzers und eröffnet so für die Betrachtenden
ebenfalls neue Beziehungen zwischen bei Ihnen schon vorhandenen Informationen.
2.3
2.3.1
Lernstrategien
Einleitung
Der Lernende kann zwar bei der Organisation von Lerninhalten vermutlich durch Software Tools wie MAPA erheblich unterstützt werden, (die Vorteile von Mappingverfahren werden in Kapitel 3 diskutiert) jedoch bleibt die Verantwortung für die Auswahl
der für den Lernenden individuell am besten geeigneten Strategien größtenteils beim
Anwender selbst. Erst die Kenntnis von Strategien versetzt Lerner in die Lage, ihr eigenes Lernen zu regulieren (Zimmerman and Martinez-Pons, 1990). Die Erforschung von
Lernstrategien zielt also u.a. darauf ab, die Frage zu beantworten, wie wir es schaffen
19
KAPITEL 2. LERNEN UND GEDÄCHTNIS
können unserem Gehirn Informationen so schmackhaft zu machen, dass es diese auch
behält? Wie können wir also unser Gedächtnis-Netz so fein weben, dass jene Fische, also Inhalte für die wir uns interessieren, auch wirklich darin hängen bleiben? Und wie
schaffen wir es diese Informationen anschließend auch wieder abzurufen?
In den 80-er und 90-er Jahren war ein regelrechter Boom von Forschungen und Publikationen auf dem Gebiet der Lernstrategien zu verzeichnen (Baumert, 1993; Lompscher, 1994; Mandl and Friedrich, 1992). Mit den gegenwärtig verfügbaren theoretischen
und methodischen Mitteln werden sie in unterschiedlichen Dimensionen untersucht.
So beschränken sich einige Forscher auf kognitive Aspekte, während andere darüber
hinausgehen und beispielsweise soziale Aspekte mit einfliessen lassen. Wieder andere Richtungen sind mehr anforderungsorientiert, während andererseits mehr individuumsorientierte Aspekte herausgegriffen werden. Auch in den Zielvorstellungen sind
zahlreiche Unterschiede zu finden. So reicht es den einen aus Phänomene zu beschreiben, während andere sich zum Ziel setzen diese Phänomene auch erklären zu wollen.
Sollte man sich – z.B. bei der Entwicklung von Lern-Software – zum Ziel setzen die
Anpassung an die bei den Lernenden bereits vorhandenen Lernstrategien fördern, oder
sollte man mehr auf Intervention und Ausbildung von neuen Lernstrategien achten?
Festzuhalten bleibt, dass Lernstrategien auf unterschiedlichen Analyse-Ebenen (z.B. mit
Makro- oder Mikrostrukturanalysen, in Befragungs- oder Handlungssituationen) untersucht wurden. Die intensive Bearbeitung dieser Thematik, so liest man bei Alexander
and Murphy (1994), ist ein Ausdruck der zunehmenden Orientierung auf den aktiven
Lerner und die psychologischen Grundlagen selbstgesteuerten Lernens.
Der Begriff der Lernstrategien selbst wird in der neueren Literatur recht unterschiedlich gebraucht, was schon bei der Verwendung der Termini beginnt. So sind Unterscheidungen oder auch Gleichsetzungen von Begriffen wie z.B. Methode, Verfahren, Technik,
Taktik, Fertigkeit, Plan, Stil usw. zu finden. Fest steht jedenfalls, dass es sich bei Lernstrategien nicht um starre Abläufe oder Automatismen z.B. im Sinne stur eingesetzter
Lerntechniken handelt, sondern um Prozesse, die bewusst und kontrolliert ausgewählt,
verwirklicht und angepasst werden. Eine mögliche Definition von Lernstrategien ist bei
Lompscher (1994) zu finden:
„Lernstrategien sind mehr oder weniger komplexe, unterschiedlich weit generalisierte bzw. generalisierbare, bewusst oder auch unbewusst eingesetzte Vorgehensweisen zur Realisierung von Lernzielen, zur Bewältigung von
Lernanforderungen.“ (S. 114)
Lernstrategien sind, wie oben bereits angedeutet, nicht identisch mit Lernhandlungen,
sondern betreffen die individuelle Art und Weise der Handlungsausführung. Sie sind
in die Struktur und den Kontext einer Tätigkeit mit konkreten Motiven, Bedingungen
und Mitteln eingebettet.
Lernstrategien lassen sich grob in drei Arten klassifizieren: Kognitive Lernstrategien, Metakognitive Lernstrategien und Resourcenbezogene Lernstrategien (Wild et al.,
1992; Friedrich, 1995). Diese Einteilung ist beim jetzigen Diskussionsstand weniger als
theoretisch fundierte und empirisch gesicherte Taxonomie zu sehen; sie dient vielmehr
angesichts des geringen Integrationsstandes innerhalb des Forschungsgebietes als vorläufige Gliederung, die es erlaubt, die Konzepte verschiedener Richtungen aufzunehmen und zu ordnen (Wild and Klein-Allermann, 1995).
20
KAPITEL 2. LERNEN UND GEDÄCHTNIS
2.3.2
Kognitive Lernstrategien
Kognitive Lernstrategien bezeichnen solche Lernaktivitäten, die der unmittelbaren Informationsaufnahme, -verarbeitung, und -speicherung dienen. Hier sollen Fragen beantwortet werden, wie z.B.: Welche konkreten Lernaktivitäten werden vom Lernenden
genutzt, um sich die neuen Informationen einzuprägen? Und welche nutzt der Studierende, um zu einem tieferen Verständnis zu gelangen? Hierbei lassen sich vier Hauptbereiche bzw. Hauptstrategien identifizieren: Elaborieren, Organisieren, kritisches Prüfen
und das Einprägen durch Wiederholen.
2.3.2.1
Elaborationsstrategien
Unter den Begriff der Elaborationsstrategien fallen solche Lerntätigkeiten, die dazu geeignet sind, das neu aufgenommene Wissen in die bestehende Wissensstruktur zu integrieren. Ziel des Elaborierens ist es, die neuen Informationen mit verwandten und/oder
bereits bekannten Informationen in Beziehung zu setzen, um so das Neue besser verstehen zu können. Das Bilden von Analogien zu bereits vorhandenen Wissensstrukturen
gehört ebenso zu Elaborationsstrategien, wie das Ausdenken von konkreten Beispielen oder Überlegungen zu praktischen Anwendungsmöglichkeiten der neuen Inhalte.
Auch das Verknüpfen des neu gelernten Materials mit Alltagsbeispielen sowie mit persönlichen Erlebnissen führt zu einer Verbesserung der Gedächtnisleistung. Weiterhin
typische Elaborationstechniken sind das Finden von Umschreibungen, das eigene Entwerfen von Aufgaben und Fragen, sowie das Aufstellen von Vermutungen und das
Ziehen von Schlussfolgerungen zu einer zu einem Lehrinhalt oder einer Aufgabe. Elaborieren kann schwerpunktmäßig bildhaft oder verbal geschehen (Metzig and Schuster,
1993; Wild and Klein-Allermann, 1995).
Gewissermaßen bilden so genannte Mnemotechniken einen Kontrast zu Elaborationsstrategien, denn interessanterweise beruht ihr Erfolg darauf, dass Informationen in
einen gemeinsamen Kontext gebracht werden, die an sich in keinem logischen oder natürlichen Zusammenhang stehen.2 Lebhaftigkeit von Bildern fördert deren Einprägsamkeit. Reim und Rhythmus wirken ebenfalls behaltensfördernd, dadurch wird zusätzlich
zum bildlichen das akustisch-motorische Gedächtnis angesprochen. Beispielsweise ist
Farbe, sofern sie sparsam und eindeutig genutzt wird, vor allem im grammatikalischen
Bereich sinnvoll mnemotechnisch einzusetzen. In der Lexik kann durch farbliche Markierungen die Aufmerksamkeit auf Ausnahmen, Schwierigkeiten oder Besonderheiten
gelenkt werden. Selbstgenerierte Bilder haben leichte Vorteile gegenüber vorgegebenen
Bildern, da hier die eigene Kreativität besser angespornt wird (Stangl, 2003).
2.3.2.2
Organisationsstrategien
Unter die Kategorie der „Organisationsstrategien“ fallen alle Lernaktivitäten, die geeignet sind, die vorliegende Information in eine leichter zu verarbeitende Form zu transformieren. Ziel des Organisationsprozesses ist es, die neuen Informationen nach ihren Teilen und deren Beziehungen zu ordnen, um so die Informationsfülle zu reduzieren und
den Abruf von Informationen über Strukturen zu lenken. Geht es beim Elaborieren um
das Anreichern der Information, handelt es sich hier um den entgegengesetzten Prozess
2 Ist hier von einem natürlichen Zusammenhang von Informationen die Rede, so ist darunter eine starke
semantische Verwandtschaft zu verstehen.
21
KAPITEL 2. LERNEN UND GEDÄCHTNIS
der Reduktion. Typische Formen der Stofforganisation sind das Identifizieren wichtiger
Fakten und Argumentationslinien und das Kennzeichnen wichtiger Textstellen. Das Erstellen von Zusammenfassungen und Gliederungen gehört ebenso zu diesem Prozess,
wie das Anfertigen von Tabellen, Diagrammen, Maps und Skizzen, um den Stoff in einer besser strukturierten Form vorliegen zu haben (Wild et al., 1992; Stangl, 2003; Wild
and Klein-Allermann, 1995).
2.3.2.3
Kritisches Prüfen
Eng verwandt mit den oben aufgeführten Elaborationsstrategien sind solche Studientätigkeiten, die das Verständnis für den Stoff durch eine kritische Prüfung von Aussagen
und Begründungszusammenhängen vertiefen. Dies geschieht etwa durch die Überprüfung der Schlüssigkeit textimmanenter Argumentationsketten, das Prüfen, ob die in einem Text dargestellten Theorien, Interpretationen oder Schlussfolgerungen ausreichend
belegt und begründet sind und das Nachdenken über Alternativen zu den vorgestellten Behauptungen oder Schlussfolgerungen. Zum kritischen Prüfen gehört ebenfalls
der Vergleich verschiedener theoretischer Konzeptionen oder Ansätze (Wild et al., 1992;
Wild and Klein-Allermann, 1995).
2.3.2.4
Wiederholungsstrategien
Durch das Wiederholen von einzelnen Fakten versucht der Lernende eine feste Verankerung des Stoffs im Langzeitgedächtnis zu erzielen. Zu Wiederholungsstrategien gehören beispielsweise die wiederholte Durcharbeitung von Wortlisten, das Auswendiglernen von Schlüsselbegriffen, um sich beispielsweise in einer Prüfung besser an wichtige
Inhaltsbereiche erinnern zu können und das Durchlesen eigener Zusammenfassungen,
Maps, Diagrammen usw. (Wild et al., 1992). Um ins Langzeitgedächtnis zu gelangen,
sollte das im Kurzzeitgedächtnis gespeicherte Material jedoch mit Assoziationen angereichert werden und für eine gewisse Zeit im Focus der Aufmerksamkeit bleiben. Das
Hauptproblem sehen viele Forscher nicht in der Speicherung, sondern im Abrufen und
Verfügbarmachen von Inhalten. Doppelkodierungstheoretiker wie Paivio (1978) glauben, dass jede Information an sensorische Eingaben gebunden ist. Was durch den visuellen Sinn hereinkommt, wird bildhaft gespeichert, was durch Hören aufgenommen
wird, verbal. Auch die Kombination von visueller und verbaler Speicherung ist möglich; schließlich kann auch über die Bedeutung gespeichert werden (Stangl, 2003)(Wild
and Klein-Allermann, 1995).
2.3.2.5
Vergleich und Einordnung
Elaborationstrategien und das kritische Prüfen von neuen Inhalten werden vornehmlich zu den tiefenorientierten Lernstrategien gezählt. Bei alleiniger Anwendung von
Wiederholungsstrategien handelt es sich hingegen um oberflächenorientierte Lernstrategien, da hier kein tieferes Verständnis angestrebt oder realisiert wird. Wiederholungsstrategien sind überwiegend in Lernsituationen funktional, die von Prüfungsvorbereitungen gekennzeichnet sind und bei denen der Lernende kein besonderes inhaltliches
Interesse für die zu lernenden Wissensbestände aufbringt. Für Wissen über Begriffe und
Zusammenhänge ist dagegen das anschließende, vertiefte geistige Verarbeiten entscheidend.
22
KAPITEL 2. LERNEN UND GEDÄCHTNIS
Organisationsstrategien bekleiden eine Stellung, die zwischen Elaborations- bzw.
prüfenden Strategien und Wiederholungsstrategien zu finden ist. Sie können einerseits
dazu dienen, unübersichtliche Strukturen durch Aufgliederung in wichtige Teilkomponenten besser zu verstehen; sie können aber auch dazu dienen, eine Gesamtübersicht
für ein späteres Auswendiglernen bereitzustellen.
Für alle kognitiven Lernstrategien gilt, dass sie sich im konkreten Lernprozess nicht
gegenseitig ausschließen, sondern je nach individuellem Lernverhalten und je nach den
speziellen Anforderungen des Fachs in unterschiedlichem Ausmaß miteinander kombiniert werden (Stangl, 2003).
2.3.3
Metakognitive Lernstrategien
Beim Lernen spielen nicht nur kognitive Prozesse eine Rolle, sondern auch weitere Strategien, die darauf ausgerichtet sind, das geeignete „Lernklima“ zu schaffen. Diese Strategien reichen von mehr arbeitstechnischen Vorgehensweisen wie z.B. dem Erstellen
eines Zeitplans, Gestaltung des Arbeitsplatzes, Zielformulierung, Ausschalten externer
Störfaktoren, bis zu tiefgründigeren psychischen Prozessen. Letztere betreffen die Themen Stress, Motivation und Lebensgestaltung. Obwohl sich die Ansichten der LernTheoretiker hinsichtlich der Charakterisierung einiger metakognitiver Aspekte unterscheiden (Schneider and Pressley, 1989), so machen doch viele eine grobe Unterscheidung zwischen metakognitiven Wissen (metacognitive knowledge) und metakognitiver
Kontrolle (metacognitive regulation). Metakognitives Wissen bezieht sich auf Informationen, die jemand über seine eigene Kognition oder über Kognition im Allgemeinen
hat. Der Lernende soll sich des ganzen Lernprozesses bewusst werden. Fragen, die sich
der Studierende stellt, betreffen die gestellte Aufgabe und Lernsituation, die eigene Person (Vorwissen, Lerngewohnheiten, Motivation, Fähigkeiten) und Lernstrategien (welche, wann, warum, wie). Bei der metakognitiven Kontrolle wird die eigene Lernaktivität
zum Gegenstand gedanklicher Überlegungen gemacht, indem sie laufend überwacht,
reflektiert bzw. beurteilt und anschließend ggf. reguliert wird. Diese drei Komponenten
metakognitiver Lernstrategien (Überwachen, Reflektieren, Regulieren) bilden im Idealfall einen fein aufeinander abgestimmten Regelkreis, der Studierende in die Lage versetzt, den eigenen Lernprozess ohne externe Hilfe oder gar Kontrolle zu optimieren.
2.3.4
Resourcenbezogene Lernstrategien
Den eigentlichen Kern individueller Lernsteuerung machen die oben geschilderten kognitiven und metakognitiven Lernstrategien aus, da sie in unmittelbarem Zusammenhang mit den zu lernenden Inhalten stehen. Sie werden deshalb oft als Primärstrategien
bezeichnet. Das Lernen kann jedoch nur dann optimal stattfinden, wenn Studierende
die für das Lernen notwendigen inneren und äußeren Ressourcen hinreichend aktivieren können. Um dies zu gewährleisten bedarf es ressoucenbezogener Strategien, die
auch als Sekundärstrategien bezeichnet werden. Sie beziehen sich auf Maßnahmen, die
sich auf die Nutzung von Informationsmaterialien die investierte Zeit sowie auf die
Gestaltung des Arbeitsplatzes beziehen. Prinzipiell werden die Aktivitäten ressoucenbezogener Strategien sehr weit gefasst. So fallen beispielsweise auch die eigene Anstrengung, die Zusammenarbeit mit Studienkollegen und die eigene Aufmerksamkeit
in diesen Kompetenzbereich (Wild and Klein-Allermann, 1995).
23
KAPITEL 2. LERNEN UND GEDÄCHTNIS
2.3.5
Individuelle Lernstile
Es lässt sich beobachten, dass verschiedene Lernende bei gleicher Lernumgebung unterschiedliche Leistungen erbringen. Dies lässt sich zum einen durch unterschiedliche
Vorkenntnisse, Motivation und intellektuelle Fähigkeiten der Lerner erklären. Zum Anderen liegt die Vermutung nah, dass verschiedene Personen auch unterschiedliche Fähigkeiten oder Präferenzen bezüglich der Sinnesmodalität und/oder der Codalität3 aufweisen: „Jeder Erwachsene hat seinen eigenen Lernstil, um notwendige Verhaltensänderungen einzuleiten und einen individuellen Kognitionsstil, mit Informationen umzugehen“ (Klimsa, 1993). Aufgrund dieser individuellen Differenzen werden auch verschiedene Bedürfnisse beim Lernen und eine unterschiedliche Lerneffektivität vermutet. Die Kategorisierung von Persönlichkeitsmerkmalen und individuellen Präferenzen
werden häufig unter dem Begriff der „Lernstile“ zusammengefasst. Jonassen and Grabowski (1993) sehen individuelle Unterschiede u. a. bezüglich Cognitive Controls, Cognitive Styles (Kognitionsstilen) und Learning Styles (Lernstilen im engeren Sinne). Dabei werden Cognitive Controls und Cognitive Styles als Persönlichkeitsmerkmale aufgefasst, Learning Styles hingegen als Präferenzen, die von den Lernenden selbst gesetzt
werden. Die Unterscheidungen beruhen meist auf Selbsteinschätzungen und Beschreibungen der Präferenzen durch den Lerner selbst. Besonders auf dieser Ebene wird deshalb eine Vielzahl unterschiedlicher Kategorisierungen vorgenommen (Stangl, 2003).
2.3.5.1
Cognitive Controls
Cognitive Controls sind Persönlichkeitsmerkmale, die die Wahrnehmung von Umweltreizen beeinflussen und steuern. Sie sind eng mit den individuellen mentalen Fähigkeiten verbunden und beeinflussen Lernen direkter als Kognitionsstile. Man klassifiziert
hier zwischen Feldabhängigkeit und Feldunabhängigkeit und meint damit den Grad, bis
zu dem das Umfeld die Wahrnehmung und das Verständnis von Informationen beeinflusst. Feldabhängige Lerner sind eher bereit, Sachverhalte so zu akzeptieren, wie sie
ihnen präsentiert wurden. Sie haben oft Probleme, Informationen in einem komplexen
Umfeld zu lokalisieren und brauchen mehr Führung. Sie sind also stärker extern orientiert. Der sozialen Interaktion kommt eine höhere Bedeutung zu.
Feldunabhängige Lerner neigen dagegen stärker zu eigener Reorganisation und Restrukturierung von Informationen, brauchen tendenziell weniger Führung und sind
insgesamt auch weniger an sozialer Interaktion orientiert. Sie sind experimentierfreudig und arbeiten eher konzeptionell. In der Regel sind Kinder vorwiegend feldabhängig
und neigen mit zunehmendem Alter stärker zur Feldunabhängigkeit. Jede der Gruppen
hat ihre besonderen Stärken und Schwächen. Weitere Unterscheidungskategorien sind
z. B. die Frage der Konzentrationsfähigkeit mit einer Reihe assoziierter Orientierungen
(field articulation), der Grad der Impulsivität (cognitive tempo), und die Art der Kategorisierung (category width) (Jonassen and Grabowski, 1993).
2.3.5.2
Cognitive Styles (Kognitionsstile)
Kognitionsstile sind allgemeinere Charakteristiken als Cognitive Controls und beschreiben typische Herangehensweisen bei der Informationssammlung und -organisation.
3 Die Unterscheidung zwischen dem wahrnehmenden Sinnesorgan, der Modalität und der Codalität, die
dagegen das verwendete Zeichen- bzw. Symbolsystem betrifft (verbal, piktorial, Zahlensystem etc.), geht auf
Weidenmann (1997) zurück.
24
KAPITEL 2. LERNEN UND GEDÄCHTNIS
Dabei wird davon ausgegangen, dass Lerner sich einen Stil aneignen und ihn konstant
über die Zeit und für verschiedene Aufgaben behalten. Bezüglich der Informationssammlung wird zunächst die Präferenz für visuelle Informationsgewinnung im Gegensatz zur Informationsgewinnung über taktile Interaktion unterschieden (visual/haptic).
Eine andere häufige Kategorisierung wird nach der besseren Fähigkeit zur Aufnahme
bildlicher Information als Gegenpol zu gesprochener oder geschriebener verbaler Information getroffen (visualizer / verbalizer), sie ist also eher an der Codalität orientiert
(Jonassen and Grabowski, 1993). Diese Unterscheidung ist eng mit der Theorie der Doppelcodierung verbunden (vgl. Abschnitt 2.3.2.4). An anderen Stellen findet man schlicht
Kategorisierungen anhand einzelner Sinnesmodalitäten (visuell, auditiv, haptisch, olfaktorisch, audiovisuell) und eine Klassifizierung in den abstrakt-verbalen, kontaktbzw personenorientierten, den medienorientierten und den einsicht- bzw. sinnstrebenden Typen. Keiner dieser Typen besteht für sich allein. Vielmehr gibt es in der Praxis
nur Mischtypen, die sich auch mehr oder weniger flexibel den jeweiligen Gegebenheiten anpassen. Die unterschiedliche Herangehensweise unterschiedlicher Lerntypen soll
anhand eines Beispiels verdeutlicht werden. Verstanden und gelernt werden soll das
Raumvolumen der Kugel:
• Der auditive Typ kann sich die Formel durch bloßes Hören merken, nämlich dass
er den „Radius hoch drei zu nehmen und mit 4/3 Pi zu multiplizieren hat“.
• Der einsichtanstrebende Typ benötigt unbedingt den Beweis; vor allem stört ihn
die Zahl 4/3 oder Pi. Bekommt er den Beweis nicht, hat dieser Typus immer
Schwierigkeiten, sich die Formel zu merken.
• Der visuelle Typ muss ein Bild vor sich haben, also in diesem Fall eine Schemazeichnung der Kugel mit den entsprechenden Bemaßungen.
• Der kontakt- bzw. personenorientierte Typ benötigt „seinen Lehrer“. Vom unsympathischen Lehrer nimmt er keine Erklärungen an.
• Dem abstrakt-verbal denkenden Typ genügt die Formel alleine.
• Der mediumorientierte Typ entwickelt die Formel lieber selbständig am Computer
In Bezug auf die Informationsorganisation ist vor allem eine Kategorisierung nach
dem Grad der Detailorientierung zu nennen. Man unterscheidet hier zwischen Serialisten und Holisten. Serialisten konzentrieren sich zunächst stark auf Details. Erst später wird ein allgemeines Konzept aufgebaut. Diese bottom-up-Vorgehensweise ist überwiegend linear. Serialisten tendieren dazu, wichtige Querverbindungen zu übersehen.
Dagegen sind Holisten stärker global orientiert und betrachten i. d. R. mehrere Aspekte
gleichzeitig. Sie neigen zu einer top-down-Vorgehensweise aus dem Gesamtzusammenhang und dazu, Details zu wenig Aufmerksamkeit zu schenken.
2.3.5.3
Learning Styles (Lernstile im engeren Sinne)
Lernstile beschreiben Präferenzen der Lernenden für unterschiedliche Lern- und Lehrarten. Die Unterscheidungen beruhen auf Selbsteinschätzungen und Beschreibungen
der Präferenzen durch die Lerner selbst. Besonders auf dieser Ebene wird deshalb eine
25
KAPITEL 2. LERNEN UND GEDÄCHTNIS
Vielzahl unterschiedlicher Kategorisierungen vorgenommen. Zu den bekanntesten Unterscheidungen zählen die Lernstile nach Kolb (1981). Dabei werden die beiden Dimensionen Verständnis und Transformation betrachtet. Abstrakte Lerner entwickeln Verständnis primär über konzeptionelle Informationen, konkrete Lerner dagegen über direkte Erfahrung. Aktive Lerner wirken experimentierend auf ihre Umwelt ein, während
sich reflektive Lerner eher passiv und beobachtend verhalten. Aus einer Kombination
der Ausprägungen ergeben sich die vier Lernertypen (Kolb, 1981):
• Diverger (konkret/reflektiv),
• Assimilator (abstrakt/reflektiv),
• Converger (abstrakt/aktiv) und
• Accomodator (konkret/aktiv).
Mit jedem dieser vier Grundtypen sind eine Reihe von Eigenschaften sowie bestimmte Stärken und Schwächen assoziiert. Kolb stellte u. a. einen Zusammenhang zwischen
dem Lernstil einer Person und dem von ihr gewählten Berufsfeld fest. Neben den Lernstilen nach Kolb gibt es eine Reihe anderer Kategorisierungen, allein Jonassen and Grabowski (1993) nennen zusätzlich vier, ohne Anspruch auf Vollständigkeit zu erheben.
2.3.6
Die Rolle des Lernmaterials bei der Auswahl der Strategie
Ob ein Lerner auf (Mapping)-Werkzeuge zur Strukturierung von Wissen zurückgreifen sollte und welche Lernstrategie optimaler Weise für das Memorieren des Stoffes
ausgewählt wird, hängt nicht zuletzt vom Lernmaterial selbst ab. Nicht jegliche Art
von Lernmaterial kann gleichermassen sinnvoll mit allen denkbaren Lernstrategien bearbeitet werden. Möchte ein Student beispielsweise einen umfangreichen Text durchdringen und dennoch Licht in weniger gut strukturierbare Problembereiche und Fragestellungen bringen, so ist es aufgrund der Kapazitätsbegrenzungen des menschlichen
Gedächtnisses sinnvoll, dieses Material nicht in seiner „Rohform“, sondern in einer verdichteten, auf die zentralen Aspekte reduzierten Form zu lernen. Eine andere Situation
stellt sich uns dar, wenn das Lernmaterial lediglich aus isolierten Fakten besteht. Eine
Vernetzung wäre in einem solchen Fall nicht wirklich machbar. Ein Beispiel, das sich
hier anführen lässt ist das Einprägen der Semantik und Syntax einer Programmiersprache. Da es sich bei den zu erlernenden Zeichen um relativ willkürliche Festlegungen
handelt, können sie kaum nach bekannten Oberbegriffen geordnet oder mit verwandten Begriffen in Beziehung gebracht werden. Ob ein Programm mit dem Befehl „Run“
oder „Go“ gestartet wird, kann der Benutzer nicht aus anderen Informationen erschliessen – er muss sich den richtigen Befehl schlicht merken.
2.4
Zusammenfassung
Die Hirnforschung hat gezeigt, dass Gedächtnisinhalte nicht als Ganzes, sondern in vielen Teilkomponenten abgespeichert werden. Zudem sind diese Speicherungen im Gehirn verteilt und netzartig miteinander verbunden. Dem MAPA-System liegt die Annahme zugrunde, dass auch die Externalisierung von Wissen in gleicher Form geschehen sollte. Wie gut wir uns an etwas erinnern können – so bestätigen neueste Studien
26
KAPITEL 2. LERNEN UND GEDÄCHTNIS
(vgl. Abschnitt 2.1) – hängt mitunter davon ab, welche Vorkenntnisse wir mitbringen.
MAPA ermöglicht es, diese Vorkenntnisse zu aktivieren, bzw. bewusst und sichtbar zu
machen. MAPA untertützt den Nutzer also bei der Artikulation und damit auch der
Reflexion über das eigene Wissen. Diese Unterstützung metakognitiver Aspekte kennzeichnet MAPA als ein Wissens-Werkzeug, welches konstruktivistischen und lerntheoretischen Überlegungen gerecht wird.
Eine Lerntheorie (vgl. Abschnitt 2.2) zielt darauf ab, Kenntnisse bzw. Auffassungen
über das Lernen in einem einheitlichen System zusammenzufassen. Sie bestimmt damit
einen allgemeinen Rahmen für die Art wie Wissen präsentiert werden sollte, aber auch
für didaktische Überlegungen. MAPA ist im starken Maß von der konstruktivistischen
Lerntheorie geprägt. Auch das Selbstgesteuerte Lernen spielt hier eine entscheidende
Rolle.
Eine solide Wissensbasis im Hinblick auf Lernstrategien ist eine zentrale Voraussetzung für erfolgreiches selbstgesteuertes Lernen (vgl. Abschnitt 2.3) . Ein flexibel einsetzbares Repertoire an Strategien zur Wissensaufnahme und Wissensverarbeitung und die
Kontrolle der Lernprozesse bilden den Kern des selbstgesteuerten Lernens. Aber auch
motivationale Prozesse wie Selbstmotivierung und das Setzen realistischer Ziele gehören zum selbstgesteuerten Lernen dazu. So lässt sich selbstreguliertes Lernen als ein
dynamisches Wechselspiel zwischen kognitiven, metakognitiven und motivationalen
Aspekten des Lernens kennzeichnen.
Kognitive Strategien folgen prinzipiell bewusstseinsfähigen, häufig automatisierten
Handlungsfolgen, die unter bestimmten Bedingungen aus dem Repertoire abgerufen
werden und der Situation angemessen eingesetzt werden um Lern- oder Leistungsziele
optimal zu erreichen.
Metakognitives Wissen dient vor allem der Steuerung des Lernprozesses (Regulation des Lernprozesses). Hierzu zählen Planung (Lernziel – Zielerreichung durch welche
Mittel), Überwachung (z.B. des Lernfortschrittes), Steuerung (Veränderung der Mittel)
und Evaluation (Bewertung der Zielerreichung und Rückmeldung für die neue Planung).
Zu der Wahl von Zielen und Ressourcen (Regulation des Selbst) gehört die Bereitschaft und Fähigkeit sich selbstständig Ziele zu setzen, sich zu motivieren und Erfolg
und Misserfolge angemessen zu verarbeiten. Wichtig erscheint hier auch die Feststellung, dass hinreichende Motivation Voraussetzung für den Beginn und die Durchführung von Lernprozessen ist.
27
Kapitel 3
Mapping
von Michael Elbers und Tobias Widdra
3.1
Mapping als visuelles, kognitives Werkzeug
Mapping, was übersetzt schlicht „Kartenzeichnen“, im engeren Sinne auch „Abbilden“,
bedeutet, kann als Oberbegriff für eine Reihe von Techniken gesehen werden, die es erlauben sollen, mittels räumlicher, karten- oder netzähnlicher Darstellungsformen Wissensinhalte zu visualisieren und zu organisieren. Steht das Wort Mapping eher für den
Prozess des „Kartenzeichnens“ bzw. „Abbildens“, so verwendet man die Bezeichnung
Map (dt.: Karte) meist, um dem Ergebnis dieses Vorgangs einen Namen zu geben1 . Begriffsstrukturdarstellung und Wissensstrukturdarstellung sind weitere Begriffe, die oftmals
synonym zu Mapping oder Map verwendet werden. Sie erfassen allerdings das Mapping als Prozess nur unzureichend.
Obwohl im Detail recht unterschiedlich, haben alle derzeit existierenden Verfahren eine zentrale Eigenschaft gemein. Sie organisieren sich über Konzepte und Relationen, welche die Konzepte miteinander verknüpfen. Die Elemente einer Map dienen als
visuelle Hinweisreize (Cues), die das Memorieren bzw. den Abruf von memorierten
Wissensinhalten unterstützen sollen. Konzepte werden in der Regel als Knoten dargestellt, denen ein beschreibender Text, ein Bild oder andere Informationen beigefügt
werden. Relationen dagegen werden üblicherweise als Kanten visualisiert2 , d.h. als Linien oder Pfeile, die Knoten miteinander verbinden. Auch wenn es je nach gewähltem
1 In der deutschsprachigen Literatur wird Map interessanterweise nicht einheitlich derselbe Artikel zugewiesen. So heißt es beispielsweise bei Grillenberger and Niegemann (2000) „die Map“, hingegen bei Mandl
and Fischer (2000) „der Map“. Letztere Verwendung tritt aufgrund ihrer Konnotation zum „Mapping“ als
Prozess häufig dort auf, wo eben dieser betont werden soll.
2 Die Begriffe Knoten und Kante stammen im Übrigen aus der Graphentheorie
28
KAPITEL 3. MAPPING
Mappingverfahren gewisse Einschränkungen, Erweiterungen oder Vermischungen bezüglich der Darstellung und auch der verwendeten Termini gibt, so bilden Konzepte
und Relationen doch die allgemeine Grundlage aller Mappingtechniken. Der Abschnitt
„3.2 Mappingverfahren“ wird sich den jeweiligen Eigenheiten der zurzeit gängigsten
Verfahren widmen.
Herkömmlicherweise findet Mapping mit „Papier und Bleistift“ statt. In den letzten
Jahren sind jedoch mehr und mehr Computeranwendungen entwickelt worden, die die
eine oder andere Mappingtechnik unterstützen. Durch diesen Schritt erfährt das Mapping einen Entwicklungsschub, der Anwendern viele neue Einsatzmöglichkeiten eröffnet. Abschnitt „3.3 Mappingsoftware“ wird sich auch mit ihnen beschäftigen. Dabei
wird aufgezeigt, welche generellen Eigenschaften heutige Mappingsoftware besitzt. Im
letzten Abschnitt „3.4 Theoretische Annahmen und Empirische Studien“ soll darüber
hinaus beschrieben werden, welche Erkenntnisse sich bis dato aus der Anwendung von
Mappingverfahren und Mappingsoftware in der Forschung ergeben haben.
3.1.1
Geschichte des Mappings
Die historische Entwicklung der Mappingtechniken lässt sich nach Mandl and Fischer
(2000) grob aus drei Perspektiven betrachten: einer psychometrisch-strukturellen, einer
kognitiven und einer pädagogisch-psychologischen. Bernd et al. (2000) erwägen noch eine
weitere Perspektive, die das Mapping in einem größeren, evolutionstheoretischen Zusammenhang sieht. Diese vier Betrachtungsweisen stellen sich dementsprechend so dar:
Psychometrisch-Strukturelle Perspektive Eine Inspirationsquelle, die für das Mapping von Bedeutung war und ist, ist der Wunsch nach einer formalen Analyse
graphischer Strukturen zum Zwecke der mathematischen Quantifizierung psychischer Phänomene. Dazu wurden bereits eine Reihe unterschiedlicher Formen der
Ähnlichkeitsskalierungen und Strukturparameter, besonders aus der so genannten Graphentheorie entwickelt, um Wissen gewissermaßen „messbar“ zu machen.
Gerade Lehrenden wird so eine Möglichkeit geboten die Lernerfolge ihrer Schüler
zu evaluieren.
Kognitive Perspektive Aus dieser Perspektive ist das Mapping vor allem als Ergebnis der kognitionspsychologischen Bemühungen der 70er und 80er Jahre zu sehen, allgemeine Ansätze zur Wissensrepräsentation zu entwickeln, insbesondere
solcher, die deklaratives Wissen als propositionales, kognitives Begriffsnetz auffassen. Diese Ansicht entspricht der Ansicht der konstruktivistischen Lerntheorie,
wie sie im vorangegangenen Kapitel ausführlich besprochen wurde. So ist es auch
nicht verwunderlich, dass sich die Vertreter des Mappings nahezu ausnahmslos
als Konstruktivisten bezeichnen und den Netzwerkgedanken propagieren.
Pädagogisch-Psychologische Perspektive Gemäß dieser Betrachtungsweise steht die
Unterstützung von Verstehensprozessen beim Lesen im Vordergrund. So wurden
die ersten Mappingtechniken der 70er und der 80er Jahre (SpiderMapping, MindMapping, ConceptMapping usw., siehe Abschnitt 3.2) in der Tat mit Blick auf die
Verbesserung des Textverstehens entworfen und weiterentwickelt.
Evolutionstheoretische Perspektive Dieser Perspektive zufolge steht Mapping in der
langen menschlichen Tradition des Werkzeuggebrauchs. Menschen haben sich im
29
KAPITEL 3. MAPPING
Laufe ihrer Entwicklung zunächst „Hardware-Werkzeuge“ geschaffen, wie etwa Faustkeil oder Speer. Zu diesen zählen Bernd et al. (2000) auch „ErfassungsInstrumente“, mit denen man die Begrenztheit der eigenen Sinnesorgane überwinden konnte (Fernrohr, Mikroskop, Thermometer und Röntgengerät). Später
entwickelten sich dann auch „Software-Werkzeuge“, die dem Verstehen/Erklären
sonst nicht sichtbarer Zusammenhänge und Strukturen dienten. Hierzu gehören
neben Atom- und Molekülmodellen, Plan- und Verlaufsdiagrammen auch die modernen Mappingtechniken.
3.1.2
Verwandte Begriffe
Was die Begriffe Mapping und Map betrifft, kommt es oftmals zu folgenden inhaltlichen
Konfusionen mit anderen ähnlichen Begriffen. Es stellt sich z.B. die Frage, worin der
Unterschied zwischen einer Map und einem herkömmlichen Diagramm liegt oder die
nach dem Zusammenhang zu den – gerade in der kognitionswissenschaftlichen Gemeinde sehr verbreiteten – Begriffen Cognitive Map (dt.: kognitive Karte) und Semantic
Map bzw. Semantic Web3 oder auch Semantic Network (meist alle drei zu dt.: semantisches
Netz). Zu den genannten Begriffen gesellen sich außerdem noch solche, die den Werkzeugcharakter des Mappings und ähnlicher Verfahren unterstreichen, also von einem
Tool (dt.: Werkzeug) sprechen: z.B. cognitive tool (dt.: kognitives Werkzeug) oder visual
tool (dt.: visuelles Werkzeug). Schließlich werden noch zwei weitere Begriffe erläutert,
Graphic Organizer und Thinking Maps. Diese Auswahl an Begriffen ist keineswegs erschöpfend und es wird an der einen oder anderen Stelle auf weitere Begriffe hingewiesen, die aus Platzgründen hier allerdings nicht näher diskutiert werden sollen.
Hyerle (1996) unterscheidet generell zwischen visual tools (zu denen er auch die
Mappingverfahren zählt) und anderen graphischen Repräsentationsformen, insbesondere den Diagrammen:
„There are many valuable graphic representations that are used primarily
for storing, graphing, or displaying information, often after much of the
thinking about a problem has been completed. These forms include matrix
diagrams, tables, basic charts, axis diagrams, bar graphs, and pie diagrams.
[...] But they are often used as place-holders and displays for information and
not specifically as constructive tools.“(S. 24)
Hyerle weist mehrfach auf die Bedeutung des Begriffs Tool hin, um die dynamische
und konstruktivistische Natur von visual tools zu bekräftigen. Dabei schlägt er folgende
Definition vor:
„Visual tools are symbols graphically linked by mental associations to create
a pattern of information and a form of knowledge about an idea. These linear
or nonlinear forms are constructed by individual or collaborative thinkers on
paper, board, or computer screen.
There are three basic types of visual tools: brainstorming webs, task-specific
organizers, and thinking-process maps. Though each of these types of visual tools may be defined for a specific purpose or used together, each form
3 hier nicht mit dem SemanticWeb zu verwechseln, wie es im gleichnamigen Abschnitt noch beschrieben
werden wird
30
KAPITEL 3. MAPPING
also may require the use of one or several different global processes, including generating, analyzing, organizing, synthesizing, and evaluating meanings.“(S. 24)
Die von Hyerle vorgeschlagene Definition für visual tools könnte man ebenso als Grundlage für eine Definition des Begriffs Mapping in seiner hier verwendeten, allgemeinen
Form gebrauchen, auch wenn er neben Mappingverfahren wie MindMapping (siehe Abschnitt 3.2.1) oder ConceptMapping (siehe Abschnitt 3.2.2) noch andere Methoden (Webbing, Clustering, decision trees etc.) als visual tools kategorisiert. Mappingverfahren und
moderne Mappingsoftware erstrecken sich zunehmend über alle drei von Hyerle aufgestellten Typen: Brainstorming Webs (für persönliches Wissen), Task-Specific Organizers
(für Aufgaben mit isoliertem Inhalt), Thinking-Process Maps (für den Transfer von Denkprozessen über Themenbereiche hinweg) (Hyerle, 1996, Abbildung 2.1, S. 27).
Hyerle (1996, S.23) befasst sich auch mit dem Begriff Graphic Organizer und führt
folgende Definition von Clarke an (vgl. Clarke, 1991, S. 31):
„[Words] on paper, arranged to represent an individual’s understanding of
the relationship between words. Whereas conventions of sentence structure
make most writing linear in form, graphic organizers take their form from
the presumed structure of relationships among ideas.“
Graphic Organizers zu visual tools absetzend, konstatiert Hyerle, der Begriff impliziere,
dass „visuelle“ Werkzeuge ausschließlich zum Organisieren von Informationen verwendet würden. Im Gegensatz dazu umfasse der Begriff visual tools auch solche Werkzeuge, die zum Brainstorming, als Kommunikationshilfen, zur Mediation oder zur Förderung metakognitiver Fähigkeiten eingesetzt werden. Wie im vorherigen Abschnitt
bereits festgestellt, gehören hierzu auch die Mappingverfahren.
Hyerle (1996) stellt eine Fülle von Mappingverfahren vor und ordnet sie den drei
oben erwähnten Typen von visual tools zu. Er betont allerdings, diese Dreiteilung sei
keineswegs als strikte Trennung zu sehen, sondern lediglich als eine grobe Entscheidungshilfe für die Wahl einer der jeweiligen Aufgabe angemessenen Technik zu verstehen. Aus dieser Überlegung heraus entwickelte Hyerle Ende der 80er Jahre die so
genannten Thinking Maps, eine Ansammlung von acht graphischen Notationsformen
(„Maps“ ), zu einer gemeinsamen „visuellen Sprache“. Grundlage für diese acht Formen
ist jeweils ein konkreter, grundlegender Denkprozess (gemäß einer Einteilung in elementare kognitive Prozesse nach Upton und Samson bzw. Piaget, siehe S. 105 ff.): „Kontext / Geltungsbereich“ (Circle Map), „qualitative Beschreibungen“ (Bubble Map), „Vergleich und Kontrast“ (Double Bouble Map), „Klassifikation“ (Tree Map), „Teil / Ganzes“
(Brace Map), „Abfolgebeschreibung“ (Flow Map), „Ursache und Wirkung“ (Multiple-Flow
Map) und „Analogiebildung“ (Bridge Map).
Die Begriffe Semantic Map, Semantic Web und Semantic Network werden hin und wieder synonym verwendet, obwohl es sich bei den ersten beiden eher um Bezeichnungen
für Mappingtechniken ähnlich dem MindMapping (siehe Abschnitt 3.2.1) handelt, bei
letzterem jedoch um eine Form der Wissensrepräsentation aus dem Bereich der klassischen Künstlichen Intelligenz. Semantic Map wird auch sehr häufig als genereller Oberbegriff für Maps aller Art verwendet. Der Begriff Semantic Network wurde in den 60er
Jahren von Quillian geprägt. Bei Russell and Norvig (1995, S. 331 ff.) ist hierzu eine historische Einordnung nachzulesen, in der auch der Bezug zu anderen ähnlichen Verfahren der semantischen Informationsverarbeitung (wie z.B. den frames) hergestellt wird.
31
KAPITEL 3. MAPPING
An dieser Stelle sei ein wichtiger Aspekt von Mappingverfahren festgehalten, der sie
fundamental von Formalismen der klassischen Wissensrepräsentation und damit auch
den Semantic Networks unterscheidet. Die klassische Künstliche Intelligenz ist daran interessiert Wissen formal zu repräsentieren, um unter Zuhilfenahme berechenbarer Inferenzalgorithmen, automatisches logisches Schließen zu ermöglichen. Derartige Überlegungen fließen in die Entwicklung von Mappingverfahren aber nur ganz am Rande ein,
da es beim Mapping vielmehr um den Einsatz geeigneter Struktureigenschaften und
visueller Hinweisreize geht. Geeignet in dem Sinne, dass sie das Memorieren von Wissensinhalten und deren späteren Abruf positiv beeinflussen sollten. Ansonsten ähneln
Semantic Networks in ihrer graphischen Notation allerdings stark den noch vorzustellenden ConceptMaps und besonders deren Derivat, den KnowledgeMaps. Dennoch gilt
für das Mapping im Allgemeinen, was McAleese (1998) für das ConceptMapping im
Speziellen feststellt:
„The representation of an idea does not determine its truth value as individuals may hold ’non-truthful’ understandings [...] [They] are not snap-shots
of what is known – rather they allow off-loading of thinking and show the
result of engaging in knowledge construction.“(S. 2)
Bleiben zuletzt noch die beiden Begriffe Cognitive Map und cognitive tool zu diskutieren. Mit Cognitive Map ist weder ein Mappingverfahren noch dessen Produkt gemeint. Es handelt sich dabei um einen von Tolman (1948) geprägten Begriff, der die
Ausbildung einer mentalen, kartenähnlichen Repräsentation bei Tieren und Menschen
beschreibt, die es ihnen erlaubt, einmal besuchte oder wahrgenommene Orte im Raum
später wieder zu lokalisieren ohne sie direkt wahrnehmen zu können. Ein cognitive tool
definiert Jonassen (1992b) als
„vehicle that often requires learners to think harder about the subject matter domain being studied while generating thoughts that would be difficult
without the tool.“(S. 5)
Diese Definition ist, im Lichte des bereits zum Mapping gesagten, sicherlich gut mit
diesem zu vereinen, wenngleich nochmals hervorzuheben ist, dass sich das Mapping
nicht auf das Thema Lernen beschränkt.
Zusammenfassend ist festzuhalten, dass man das Mapping (und dementsprechend
auch die im MAPA-Projekt entstehende Mappingsoftware) wohl am besten als eine Art
„visuelles, kognitives Werkzeug“ oder „visual cognitive tool“ bezeichnen kann.
3.1.3
Anwendungsfelder
Der Bereich traditioneller und computergestützter Lehr- und Lernumgebungen ist derjenige, in dem Mappingtechniken am häufigsten zum Einsatz kommen. Es geht vorrangig um die Ausbildung innovativer Lehr- und Lernstrategien mithilfe von Maps
vor dem Hintergrund einer konstruktivistischen Lerntheorie. Übergreifende Ziele sind
ein tieferes Verständnis inhaltlicher Zusammenhänge, eine Wissenskonsolidierung und
langfristige Verbesserung der Behaltensleistung, aber vor allem auch eine größere
Selbstständigkeit des Lerners. Mappingtechniken sollen helfen mit komplexen Sachverhalten und umfangreich vernetzten Wissensgebieten zurecht zu kommen, die jeweils
geeignetste Lernstrategie zu finden und diese dann effektiv einzusetzen. Neben der reinen Wissensorganisation gilt es im Besonderen, Mapping als lehr- und lernwirksames
32
KAPITEL 3. MAPPING
Werkzeug einzuführen, d.h. die Lerner (aber auch die Lehrer) in der Wahl und dem
Umgang mit Mappingtechniken zu schulen.
Maps dürfen allerdings nicht einfach nur als schlichte Abbildungen von Expertenwissen dienen (Bernd et al., 2000). Gerade in amerikanischen Schulen scheint das Mapping auch bereits recht häufig in dem geforderten lernerorientierten Sinne zum Einsatz
zu kommen. Für deutsche Schulen gilt jedoch meist noch, was Bernd et al. (2000) feststellen. Der traditionelle Frontalunterricht in Schulen verwende zwar seit jeher Strukturdarstellungen, nie bzw. äußerst selten geschehe dies aber systematisiert. So entstehen
oftmals unscharfe, missverständliche und inkonsistente Darstellungsformen, die sich
meist auch noch von Lehrer zu Lehrer und Fach zu Fach stark unterscheiden und die
Lerner insgesamt eher verwirren. Diese Darstellungsformen können von den Schülern
kaum als allgemeines, domänen- und inhaltsunabhängiges Lernwerkzeug genutzt werden, da sie gar nicht als Hilfe zur Wissensorganisation vermittelt werden. Auch die Forderung von Gesellschaft, Politik und Wirtschaft zu mehr „selbstgesteuertem Lernen“
zielt in diese Richtung ab. Selbstgesteuertes, „lebenslanges“ Lernen in Schule, Hochschule und durch berufliche Fortbildungen, sowie ein effektives Wissensmanagement
werden jedoch als essentielle Grundvoraussetzungen gesehen, um in der heutigen Informationsgesellschaft bestehen zu können (Friedrich, 1999; Hyerle, 1996).
Aus diesen Überlegungen heraus ergeben sich weitere wichtige Zielsetzungen, wie
das rasche Entlarven diffusen Wissens oder das Fördern geeigneter Strategien, die nicht
nur zum Lernen, sondern auch zum systematischen Problemlösen dienen. Des Weiteren
sollen Maps die Metakognition und die Selbstreflexion über die eigenen Denkprozesse
fördern und durch ständige Begriffsrevisionen eine so genannte Begriffsflexibilisierung
herbeiführen helfen, d.h. die Fähigkeit Begriffe aus anderen als den gewohnten Perspektiven zu betrachten und in anderen als den gewohnten Zusammenhängen anzuwenden
(Mandl and Fischer, 2000; Bernd et al., 2000).
Dem Lehrenden kann durch das Mapping ein Einblick in die Struktur des Wissens
seiner Schüler ermöglicht werden, um daraus eventuell Rückschlüsse auf deren Denkprozesse zu ziehen. Darüber hinaus können Wissensveränderungen im Laufe des Lernprozesses leichter wahrgenommen und beurteilt werden, so dass auch gezielter gegengesteuert werden kann. Zu diesem Zweck kann das Mapping in allen Stadien des Lernprozesses zum Einsatz kommen:
• in der Lernzielanalyse,
• zur (Vor-)Wissensdiagnose,
• zum Wissenserwerb,
• zum Wissenserhalt und
• zum Abprüfen von Wissen bzw. zur Wissensanalyse.
Umgekehrt können aber auch Lerner etwas über die Vorgehensweisen und Wissenskonstrukte eines Experten erfahren, wenn sie eine so genannte Expertenmap explorieren oder ihre eigene Map mit dieser vergleichen (Bernd et al., 2000; Fischer and Mandl,
2000).
Wenngleich Lehr-/Lernumgebungen bis dato noch immer das wichtigste Anwendungsfeld für Mappingtechniken darstellen, so erstreckt sich ihr Einsatz in zunehmendem Maße auch auf andere Domänen. Im Grunde kann es überall dort zur Anwendung
33
KAPITEL 3. MAPPING
kommen, wo Informationen eine hohe Verflechtung aufweisen, stark voneinander abhängen oder deren Zusammenhänge schlicht unüberschaubar sind. So z.B. in der Medizin, wo der Hypothesenraum in der Diagnostik von Krankheiten strukturiert werden
will oder im (betrieblichen) Wissensmanagement, wo es darum geht das Filtern der täglichen Informationsflut zu unterstützen, aber auch bei der Fahndung nach Verbrechern,
um sich einen Überblick über die Zusammenhänge von Straftaten, Verdächtigen und
Opfern zu verschaffen. In allen drei Anwendungsfällen ist es primäres Ziel, das Treffen
guter Entscheidungen zu erleichtern. Des Weiteren eignen sich Mappingtechniken sowohl innerhalb als auch außerhalb von Lernumgebungen bei kreativen Prozessen zum
Brainstorming und in kollaborativen Umgebungen zum gemeinsamen Bau und zur interaktiven Strukturierung eines Wissensraums.
3.2
Mappingverfahren
Nachdem nun ein erstes, einfaches Grundgerüst rund um den Begriff Mapping konstruiert ist, werden wir in den kommenden Abschnitten einen weiteren Ausbau vornehmen
und ein paar der derzeit bekanntesten und meist verwendeten Mappingverfahren etwas genauer betrachten. Obwohl sie nur eine kleine Auswahl darstellen, repräsentieren
sie doch die Gesamtheit der Mappingverfahren recht gut, auch wenn sie diese aber
natürlich nicht vollständig abdecken können. Es handelt sich dabei um das der so genannten SpiderMap von Hanf (vgl. Hanf, 1971) entsprungene MindMapping von Buzan
(vgl. z.B. Buzan and Buzan, 1996), das ursprünglich von Novak entwickelte ConceptMapping (vgl. z.B. Novak and Gowin, 1984) und dessen Derivate mit formalisierter Semantik, nach O’Donnell, Dansereau und Hall auch KnowledgeMaps genannt (O’Donnell
et al., 2002), sowie den Spatial Hypertext, wie er von Marshall and Shipman (1993) entwickelt wurde. Wichtig im Hinblick auf die Integration in einem unfassenden Software
Tool (wie etwa dem im MAPA-Projekt entwickelten) ist selbstverständlich auch die Betrachtung aktueller Software zu den genannten Mappingverfahren. Auch dies soll im
Folgenden kurz geschehen, indem die wichtigsten funktionalen und nicht-funktionalen
Eigenschaften aufgezeigt werden.
3.2.1
MindMapping
Wahrscheinlich das bekannteste Mappingverfahren ist das MindMapping. Buzan entwickelte das MindMapping in der Form, wie es heute verbreitet ist, zum Zwecke der
Ideengenerierung, des Notierens, der Entwicklung von Konzepten und der Verbesserung der Gedächtnisleistung (Buzan, 1996). In der zuvor erwähnten Klassifikation der
visual tools nach Hyerle (1996) befindet sich das MindMapping in der Kategorie „Brainstorming Webs“. Ebenso finden sich auch die verwandten, teils fast identischen Verfahren, wie Webbing, Clustering, Semantic Mapping und Mindscaping in dieser Kategorie wieder. Hyerle fasst die Technik, die diesen Ansätzen gemein ist, folgendermaßen zusammen:
„Most of these processes have similar techniques, each generating from a
central point on a page to the outward perimeters to fully capture a concept,
much like a spider spinning a web to trap flies.“(S. 36)
34
KAPITEL 3. MAPPING
Verwendet man Buzans Methode des MindMappings, so beginnt man mit einem Begriff oder einem Bild in der Mitte der Seite. Von diesem aus und darum herum werden
Verbindungen, häufig ungerichtete Kanten, zu weiteren Begriffen und/oder Bildern gezogen. Auf diese Weise lässt man immer weitere, hierarchisch angeordnete Ebenen von
Verzweigungen nach außen zum Seitenrand ausstrahlen, so dass eine Baumstruktur
entsteht. Verzweigungen können im Grunde beliebiger Ausprägung sein, sie werden
allerdings in den meisten Fällen als Äste (Linien) dargestellt, auf denen Begriffe stehen.
Die hierarchische Anordnung der Konzepte wird bei Buzan betont. Buzan erhebt zudem die Forderung, alle Wörter in Großbuchstaben zu schreiben und möglichst wenige
Wörter pro Ast zu verwenden, bestenfalls nur ein einziges. Er weist außerdem darauf
hin, dass es der Behaltensleistung zuträglich ist, wenn man die Mindmap mit Symbolen,
kleinen Bildern oder Pfeilen versehen wird.
Wie in Abschnitt 3.1 angeklungen, verwenden alle Mappingverfahren in irgendeiner Form Konzepte und Relationen. Beim MindMapping ist diese Unterscheidung jedoch
nicht immer so leicht zu erkennen. Zwar gibt es die Möglichkeit Knoten/Ellipsen (Konzepte) über Kanten/Pfeile (Relationen) miteinander zu verbinden, man verwendet allerdings meistens Verästelungen zur Darstellung, so dass Begriffe und Relationen etwas
verschmelzen (siehe Abbildung 3.1). Man kann die Linien der Äste oder vielmehr deren
hierarchische Anordnung aber auch als Relationen auffassen, wo hingegen die darauf
eingetragenen Begriffe Konzepte repräsentieren. Häufig ist der zentrale Knoten, der das
Thema vorgibt, auch der Einzige „wirkliche“ Knoten.
Abbildung 3.1: MindMap zum Thema Mappingverfahren (erstellt mit: MindManager,
vgl. Mappingsoftware 3.1)
3.2.2
ConceptMapping und KnowledgeMapping
Beim ConceptMapping handelt es sich um die am besten untersuchte Methode unter den
Mappingverfahren. Hyerle (1996) stellt sie zusammen mit dem Systems Thinking und
den Thinking Maps in die Reihe der Thinking-Process Maps. Ein wichtiger Unterschied
zwischen dem von Novak and Gowin (1984) eingeführten ConceptMapping und dem Systems Thinking, besteht jedoch darin, dass Novak und Gowin auf eine hierarchische Darstellungsweise bestehen, während so genannte „Systemdenker“ eine Art nichtlineares,
nichthierarchisches und dynamisches Regelkreis- oder Flusssystem vertreten. Letztere
befürchten, dass andernfalls eine zu sehr „traditionell westliche“ Sichtweise von der
35
KAPITEL 3. MAPPING
Struktur des Wissens propagiert würde und das Einnehmen einer anderen Sichtweise
dadurch behindert werden könnte. Dem entgegnend schreibt z.B. Jonassen (1992a):
„concept maps are representations of the cognitive structure, perhaps crude
and simplistic, albeit effective in helping learners describe and analyse their
knowledge structures“ (Jonassen, 1992a, S. 21).
So befassen wir uns an dieser Stelle dennoch mit dem weiter verbreiteten ConceptMapping.
Konstruiert man eine ConceptMap, so beginnt man am oberen Rand einer Seite und
baut von dort eine hierarchische Struktur aus Konzepten und Relationen. Hierbei ist zu
beachten, dass sowohl Konzepte (Ellipsen oder Kästen), als auch Relationen (gerichtete
oder ungerichtete Kanten/Pfeile) benannt werden. Dies soll so geschehen, dass stets
zwei Konzepte zusammen mit der Relation, die sie verbindet, eine Proposition formen,
z.B.: „Baum“, „hat (als Teil)“ und „Stamm“ bilden die Aussage „ein Baum hat einen
Stamm“. Anstelle von Begriffen, können auch hier Bilder oder Symbole zur Darstellung
einzelner Konzepte dienen.
Abbildung 3.2: ConceptMap zum Thema Mappingverfahren (erstellt mit: CMap, vgl.
Mappingsoftware 3.1)
Der eng damit im Zusammenhang stehende Begriff KnowledgeMapping, von
O’Donnell et al. (2002) geprägt, bezeichnet keine eigene Mappingtechnik, sondern eine
in gewisser Weise eingeschränkte Variante des ConceptMapping. Eingeschränkt deshalb, weil hier die Relationen nicht beliebig bezeichnet oder auch gezeichnet werden
können. Vielmehr muss man geeignet erscheinende Relationen aus einem vordefinierten Fundus auswählen und bestimmt folglich ihre Semantik nicht völlig selbst. Anstatt
36
KAPITEL 3. MAPPING
zwischen ConceptMaps und KnowledgeMaps zu unterscheiden, wird übrigens gelegentlich auch von formalisierten und nicht-formalisierten ConceptMaps gesprochen.
3.2.3
Spatial Hypertext
Der Spatial Hypertext ist das neueste der hier vorgestellten Verfahren. Es ist zwar in Anlehnung an den traditionellen Hypertext, wie er im Internet Verwendung findet entworfen worden, kann aber ohne weiteres als Mappingtechnik aufgefasst und genutzt werden. Was ihn einzigartig macht, ist sein Verzicht auf explizite Relationen zwischen Konzepten. Spatial Hypertext besteht also oberflächlich gesehen lediglich aus einer Menge
von Konzepten bzw. Knoten. Aus der räumlichen Anordnung bzw. Nähe der Konzepte
zueinander kann man allerdings leicht implizite Relationen ablesen. Nach der Kategorisierung von Hyerle (1996), der den Spatial Hypertext nicht behandelt, müsste man ihn
wahrscheinlich am ehesten als Brainstorming Web bezeichen, selbst wenn er rein graphisch natürlich nicht sehr an ein „web“ (dt.: Netz) erinnert.
Abbildung 3.3: Spatial Hypertext zum Thema Mappingverfahren (erstellt mit: Visual
Knowledge Builder, vgl. Mappingsoftware 3.1)
3.3
Mappingsoftware
Widmen wir uns nun computergestützten visual cognitive tools, sprich: widmen wir uns
den Eigenschaften heutiger Mappingsoftware. Da es zu weit führen würde alle oder
auch nur einen Großteil der erhältlichen Mappinganwendungen im Einzelnen zu behandeln, beschränken wir uns an dieser Stelle, auf deren wichtigste Merkmale hinzuweisen. Wichtig zu wissen ist jedoch, dass derzeit scheinbar kein Tool alle Eigenschaften
zur Verfügung stellt. Eine Liste der wichtigsten Mapping Tools ist in Tabelle 3.1 aufgeführt.
37
KAPITEL 3. MAPPING
Software
URL
MindMapping
MindManager
MindMapper
VisualMind
Ygnius
http://www.mindjet.de
http://www.mindmappe.com
http://www.visual-mind.com
http://www.ygnius.com
ConceptMapping
Inspiration
SmartIdeas
KnowledgeManager
cMapTools
http://www.inspiration.com
http://www.smarttech.com/smartideas/
http://www.knowledgemanager.it
http://cmap.coginst.uwf.edu
Spatial Hypertext
VisualKnowledgeBuilder
http://www.csdl.tamu.edu/VKB/
Andere Verfahren
Axon
TheBrain
http://web.singnet.com.sg/~axon2000
http://www.thebrain.com
Tabelle 3.1: Mappingsoftware (Stand: März 2004)
3.3.1
Konstruktionsmodi
Erstellen, Platzieren und Benennen Grundsätzlich fallen einem zwei Philosophien
auf, was das Erstellen, Platzieren und Benennen graphischer Elemente (hier: Knoten, Relationen und Annotationen) durch den Benutzer betrifft: entweder sind
diese Prozesse in gewissem Sinne „frei“ oder sie sind „eingeschränkt“. Selbstverständlich kann es nahezu beliebig viele Abstufungen zwischen diesen beiden
Extremen geben.
Freies Erstellen graphischer Elemente bedeutet, dass der Benutzer Form, Farbe
und Größe frei bestimmen kann, eingeschränktes Erstellen dagegen, dass eine
oder mehrere dieser Eigenschaften nicht selbst gewählt werden können. des Weiteren kann man darunter den Unterschied zwischen solchen Anwendungen verstehen, die es generell erlauben Knoten erst einmal ohne jede Beziehung zu anderen Knoten zu erstellen und solchen, die dies nicht zulassen. An dieser Stelle
sollte auch auf den in einigen wenigen Produkten bereits vorhandenen Einsatz
eines schnellen „Brainstorming-Modus“ hingewiesen werden. Dieser erlaubt es,
über nur einige wenige Tastendrücke Knoten bzw. Relationen zu erstellen ohne
sich zunächst um deren Platzierung kümmern zu müssen.
38
KAPITEL 3. MAPPING
Freies Platzieren bezieht sich auf die Möglichkeit einiger Anwendungen graphische Elemente genau oder an gewissen Ankerpunkten im (meist 2-dimensionalen)
Raum zu platzieren und später dort auch wieder zu finden. Eingeschränkt wäre
das Platzieren bei solchen Anwendungen zu nennen, die die Anordnung der Elemente durch eine vordefinierte Struktur (z.B. Hierarchie) vorgeben oder durch
einen Algorithmus automatisiert vornehmen. Letzteres kann entweder nach einfachen Übersichtskriterien oder intelligenteren semantischen Kriterien erfolgen,
z.B. anhand von benutzerdefinierten Gewichtungen oder Typen (siehe unten).
Abbildung 3.4: Vergleich von Mappingsoftware – Teil 1, übernommen aus Haller (2002)
Das Benennen von Knoten und Relationen kann ebenfalls entweder vollkommen
frei erfolgen (durch Eingabe einer Bezeichnung) oder nur als eingeschränkte Aus-
39
KAPITEL 3. MAPPING
Abbildung 3.5: Vergleich von Mappingsoftware – Teil 2, übernommen aus Haller (2002)
40
KAPITEL 3. MAPPING
wahl aus einer Menge von Namen oder Typen. Oftmals ist dann auch die visuelle
Darstellung daran gekoppelt und somit eingeschränkt. Im Extremfall kann freies Benennen auch bedeuten, dass der Benutzer einzelne Knoten oder Relationen
einfach unbenannt lassen kann und ihre Bedeutung durch andere visuelle Eigenschaften deutlich wird (Bilder, Formen, gerichtete Pfeile etc.). Umgekehrt kann ein
Programm den Benutzer so weit einschränken, dass er überhaupt nicht benennen
darf.
Referenzieren Unter Referenzieren ist das „In-Beziehung-Setzen“ zweier oder mehrerer Knoten (oder auch Gruppen bzw. Teilnetze, siehe unten) durch eine oder
mehrere Relationen zu verstehen. Auch bei dieser Funktion kann man zwischen
„freiem“ und „eingeschränktem“ Referenzieren unterscheiden, d.h. der Möglichkeit gewissermaßen „alles mit allem“ in Beziehung setzen zu können (Knoten mit
Knoten, Knoten mit Teilnetzen, Knoten mit Relationen, Relationen mit Relationen,
...) oder einer Einschränkung dieser Möglichkeit.
Gewichten Eine weitere Option, die dem Benutzer bereitgestellt werden kann, ist das
Gewichten von Relationen (also die Eingabe einer Verbindungsstärke). Hierdurch
ist eine weitere Ausdruckmöglichkeit gewonnen. Visuell kann dies in unterschiedlicher Art und Weise dargestellt werden. Eine Möglichkeit besteht darin, Größe
oder farblichen Abstufung von Verbindungslinien zu variieren, eine andere in der
Anfügung numerischer Werte. Eine dritte kann auch schlicht die örtliche Nähe
sein, die dann allerdings gleich eine Form von Gruppierung nach sich zieht.
Typisieren Beim Typisieren von Knoten und/oder Relationen gibt es erneut eine Reihe
an möglichen Formen. Rein visuell können sich Typen beispielsweise durch festgelegte Formen, Farben oder Bezeichnungen ausdrücken. Neben diesem Aspekt
der graphischen Einheitlichkeit, stellt sich die Frage der Definierbarkeit und Interpretierbarkeit von Typen, d.h. die Frage, ob und wenn ja, inwieweit sich der Benutzer eigene Typen definieren und systematisieren kann (z.B. als hierarchisches
Typsystem, also als Ontologie von Begriffen). Eine solche Formalisierung könnte
einem intelligenten Algorithmus möglicherweise erlauben, Inferenzen oder andere Formen semantischer Analyse über Netzdaten ausführen zu lassen. Oft werden
derartige Zusatzinformationen auch als Metadaten (Daten über Daten) bezeichnet.
Anmerken / Annotieren Annotationen bieten die Möglichkeit, Knoten oder Relationen weitere, u.U. detailliertere, meist textuelle, Informationen anzufügen. Wo diese eingegeben und platziert werden und wann diese erscheinen kann durchaus
recht unterschiedlich sein. So kann dies in einem separaten Fenster geschehen
oder dem selben Fenster, in dem sich auch das Netz befindet. Annotationen können direkt an dem Element „kleben“ zu dem sie gehören, sie können aber auch
als Inhalt des jeweiligen Knotens oder der jeweiligen Relation dargestellt werden,
mal erscheinen sie auf expliziten Wunsch des Benutzers (Knopfdruck, Verweilen
auf einem Knoten / einer Relation usw.), mal sind sie ständig zu sehen. So wie
Annotationen an Knoten und Relationen angefügt werden können, ist dies auch
für Anmerkungen, also Kommentare oder Hinweise, denkbar.
Gruppieren / Teilnetze bilden (Sub-Maps) Mit Gruppieren (auch Verschachtelung
oder Containerbildung genannt) ist hier das Zusammenfassen einer Menge von
Knoten und/oder Relationen zu einer Einheit gemeint, die als solche dann referenziert, eventuell benannt und typisiert werden kann. Handelt es sich um eine
41
KAPITEL 3. MAPPING
auch strukturell zusammenhängende Einheit, kann man auch von einem Teilnetz
(Sub- Map) sprechen. Sub-Maps ergeben sich in hierarchischen Mappingansätzen
quasi von selbst, bei anderen Ansätzen muss der Benutzer diese selbst definieren und kann sie, je nach Software, z.T. auch als separate Netze abspeichern und
editieren.
Multimedia einbinden Eine noch nicht sehr verbreitete Funktionalität innerhalb der
Mappingsoftware ist das Einbinden verschiedenster, vornehmlich multimedialer
Daten, wie beispielsweise Bilder, Videos, Klänge, Musikstücke, Sprachaufzeichnungen, Formeln, Texte oder dergleichen mehr. Statt derartige Daten direkt in eine Map einbauen, darstellen und ggf. skalieren zu können, begnügen sich heutige
Produkte meist damit Icons oder Hyperlinks als Platzhalter anzubieten und eine
externe Anwendung zu öffnen, um die Daten darzustellen bzw. abzuspielen.
Ressourcen verwalten / Ressourcen anbinden Neben dem tatsächlichen Einbinden
von Daten gibt es weit öfter die Option Verknüpfungen zu externen Ressourcen
einzufügen. Dies kann in Form von Verweisen in das lokale Dateisystem erfolgen oder allgemeiner in Form von Hyperlinks auf lokale oder globale Ressourcen.
Diese Möglichkeit bildet eine Grundlage dafür, dass Mappingsoftware auch als
Ressourcen- bzw. Informationsmanagementsystem genutzt werden kann und damit z.B. eine Alternative zu herkömmlichen Datei-Managern bilden könnte.
Daten austauschen / Kollaborieren Datenaustausch zwischen den Anwendern einer
Mappingsoftware kann in der Regel lediglich über das Versenden proprietärer
Datenformate stattfinden. Durch die Uneinheitlichkeit der Datenformate, in denen Maps abgelegt werden, wird das Wiederverwenden in anderen (Mapping)Anwendungen zusätzlich erschwert. Ein gemeinsames, verteiltes und synchrones Betrachten oder gar Editieren von Maps oder Teilen von Maps wird nur in
den seltensten Fällen zur Verfügung gestellt.
Protokollieren Eine Funktionalität, die in öffentlich erhältlicher Mappingsoftware derzeit noch weitgehend fehlt, ist die Protokollierung des Konstruktionsprozesses
von Maps. Hierbei wird jedes Einfügen, Löschen und Abändern „aufgezeichnet“
und kann später dann z.B. zu Analysezwecken wieder abgerufen werden. Eine
ähnliche, aber gängigere Funktion ist das Undo/Redo, seltener ist das nachträgliche Abspielen des gesamten Konstruktionsprozesses (Replay).
3.3.2
Navigationsmodi
Zoom / Sichtfenster verschieben Sehr verbreitet, zumal wenn es sich um bild- oder
graphikverarbeitende Software handelt, ist der Zoom. Auch in der Mehrzahl der
Mappinganwendungen fehlt er nicht. Meistens erfolgt dieses Vergrößern bzw.
Verkleinern des sichtbaren Bereiches einer Map in ein paar voreingestellten, grobschrittigen Größenabständen, es ist aber teilweise auch als „weiches“ kontinuierliches, stufenloses „Hinein- bzw. Herausgleiten“ implementiert. Das jeweils aktuelle Sichtfenster auf die Map kann nicht nur durch den Zoom, sondern auch durch
das seitliche Verschieben mithilfe von Schiebereglern (scroll bars) oder der Maus
erfolgen.
struktureller Zoom Aufgrund der Tatsache, dass viele Mappingverfahren eine gewisse Struktur der Knoten und Relationen vorgeben oder sich diese vom Anwen42
KAPITEL 3. MAPPING
der nachträglich festlegen lässt, bieten viele Mappinganwendungen eine weitere
Funktion an, den so genannten strukturellen Zoom (vgl. z.B. (Bernd et al., 2000)).
Aus Übersichtlichkeitsüberlegungen heraus wird damit die Möglichkeit geboten,
Teile einer Map (Sub-Maps) wahlweise auszuklappen (expand) oder einzuklappen
(collapse), also vollständig sichtbar oder auf einen Knoten reduziert sichtbar zu
machen.
Fokussieren / Surfen Schließlich noch eine letzte Funktion, die recht häufig anzutreffen ist. Das Fokussieren eines bestimmten Knotens wird meistens dadurch ausgelöst, dass man auf ihn klickt. Dies löst oft das Zentrieren des Knotens, das Einblenden seiner Nachbarknoten bis zu einer teilweise einstellbaren Tiefe, sowie deren
automatisches Neuanordnen aus. Der ausgewählte Knoten wird zumeist leicht
verändert dargestellt, um ihn als fokussiert zu markieren. Außerdem werden gelegentlich noch weitere Informationen wie Inhalte oder Annotationen, die mit ihm
verknüpft sind, angezeigt.
In Anlehnung an das „Surfen“ via Hypertext-Seiten im Internet, kann eine Folge
von Fokussieraktionen und somit das „Sich-entlang-hangeln“ an einer Map ebenfalls als „Surfen“ bezeichnet werden (vgl. hierzu auch das Kapitel zur Beispielanwendung des Vokabeltrainers). Neben der Navigation über Mausklicks auf den
zu fokussierenden Knoten sind auch andere Möglichkeiten wie die Auswahl des
Knotens aus einer Liste, die Eingabe per Tastendruck o.ä. denkbar und zum Teil
auch bereits implementiert.
3.3.3
Lern- / und Prüfmodi
Wie im vorherigen und in diesem Kapitel deutlich geworden sein sollte, kann bereits das bloße Konstruieren von Maps einen Lernvorgang darstellen. Gerade in Mappingsoftware, die rein zu Forschungszwecken erstellt wurde, finden sich aber auch
schon eine Reihe weiterer Lern- bzw. Prüfmodi, die den Lerner über die genannten
Konstruktions- und Navigationsmodi hinaus unterstützen können.
Lückennetze Bernd et al. (2000) berichten davon, dass es dem Lehrenden in ihrem
Ansatz möglich gemacht wird, anhand einer zuvor von ihm erstellten Expertenmap zu einem bestimmten Themenbereich, eine „Lücken-Map“ zu erstellen. Dies
bedeutet, dass er die ihm am wichtigsten erscheinenden Kernbegriffe oder deren Relationen zu anderen Begriffen entfernen kann, um den Lernenden so eine
unvollständige Map zu präsentieren, die diese dann ausfüllen sollen. In Zukunft
könnte es darüber hinaus möglich sein, solche Lückennetze automatisch zu erstellen, sofern es eine geeignete Formalisierung zulässt, die Inhalte der Ursprungsmap semantisch zu verarbeiten. Ein solche Funktionalität kann selbstverständlich
sowohl zum Lernen als auch zum Abprüfen des Gelernten eingesetzt werden.
Verschiedenwegiges Durchwandern Bernd et al. (2000) erwähnen noch einen weiteren Modus, der ihnen zufolge von der Theorie Aebli’s zum „Durcharbeiten“ von
Texten, Wissensnetzen etc. inspiriert ist. Sie stellen ihn damit in die „lange Tradition des role-taking“, wonach die Behaltensleistung, aber vor allem auch die flexible Verwendung von Begriffen steigt, wenn Lerner durch Perspektiven- oder Rollentausch Inhalte aus einem anderen Blickwinkel betrachten. Der entsprechende
Lernmodus fordert den Lerner auf, die Namen von Relationen umzukehren, d.h.
43
KAPITEL 3. MAPPING
die Map in entgegengesetzter bzw. beliebiger Richtung zu durchwandern und für
nichtvorhandene Bezeichnungen von Relationen geeignete Namen zu finden.
Bei Haller (2002) findet sich ein Gegenüberstellung von Mappingverfahren. Die aus
dieser Arbeit entnommenen Tabellen (siehe Abbildungen 3.4 und 3.5) zeigen einen Vergleich aktueller Mappingsoftware nach ganz ähnlichen Kriterien, wie den hier aufgezählten4 . Zum Verständnis muss noch gesagt werden, dass er Relationen als Links bezeichnet und Hyperlinks Verweise auf Maps oder auf beliebige andere Ressourcen sein
können.
3.3.4
Vor- und Nachteile computergestützten Mappings
In diesem Abschnitt wird das Mapping als computergestütztes Werkzeug mit dem „traditionellen“ Mapping als Arbeitsweise mit Stift und Papier verglichen. Viele der jeweiligen Vor- bzw. Nachteile lassen sich letzlich auf die grundsätzlichen Unterschiede
zwischen dem Arbeiten am Computer und dem entsprechenden handschriftlichen Vorgehen vergleichen. Viele der hier aufgezählen Verschiedenheiten sind somit nicht rein
mappingspezifisch und treten auch bei anderen Anwendung wie z. B. Textverarbeitungsprogrammen zu Tage. Dennoch ist die Erwähnung der vielen Vorteile elektronischer Datenverarbeitung im Rahmen des Vergleichs der beiden Varianten des Mappings
wichtig, da sie eine wesentliche Rolle bei der Beurteilung der Einsetzbarkeit computergestützten Mappings spielen.
Die bessere und elegantere Editierbarkeit am Computer lässt sich vermutlich als den
größten Vorteil gegenüber dem traditionellen Mapping nennen, da handschriftliches
Ändern und „Löschen“ nur mühsam und oftmals unschön zu handhaben ist. Betrachtet
man Mapping als kognitives Werkzeug zur Unterstützung mentaler Konstruktionen, so
wird deutlich, dass gerade Editieren ein wesentlicher Bestandteil des Prozesses der Mapkonstruktion ist. Erst das Verschieben und Löschen gerade entwickelter Begriffsknoten
ermöglicht z. B. dynamisches Kategorienbilden und bringt somit eine ganz neue Qualität mit sich. Brouillard und Baron weisen darauf hin, dass computergestütztes Mapping
für diese essentiellen Prozesse die Motivation erhöhen kann. Die Einfachheit von Konstruktion und Korrektur und die Möglichkeit der Anpassung an eigene Wünsche sei
mit Stift und Papier nicht in dem selben Ausmaß möglich (Bruillard and Baron, 2000, S.
335 f.). Nach Sturm und Erickson fanden Schüler computergestütztes Mapping zudem
leichter, ordentlicher und besser lesbar (Sturm and Rankin-Erickson, 2002, S. 136).
Teile einer Computermap können nicht nur eleganter editiert werden, sondern auch
leicht und beliebig oft in anderen Maps wieder verwendet werden. Hinzu kommt die
mit Stift und Papier nicht realisierbare Möglichkeit, die eigenen Maps (und damit Teilthemengebiete) durch Querbezüge zu verbinden und so prinzipiell an einer riesigen,
beliebig großen Map sowohl als Wissensbestand als auch als dynamischer Konstruktionsgeganstand zu arbeiten.
Dies wirft zwangsläufig die Frage nach der Übersichtlichkeit auf. Ein großes Blatt
Papier kann zwar mit der Möglichkeit des Überblicks herkömmliche Computerbildschirme übertreffen, Computertools können jedoch einen anderen Vorteil aufweisen:
Durch den unter Abschnitt 3.3.2 beschriebenen sog. Strukturellen Zoom können Teile
4 Unter http://www.heikohaller.de/toolvergleich/ (Stand: März 2004) werden die Tabellen ständig aktualisiert zur Verfügung gestellt. An dieser Stelle findet sich zusätzlich eine noch detailliertere Tabelle.
44
KAPITEL 3. MAPPING
der Map aus Übersichtlichkeitsgründen ausgeblendet werden. So lassen sich prinzipiell auch Filter und verschiedene Perspektiven auf die selben Daten realisieren.
Konsequent weitergedacht führt dieser Gedanke zur Idee der Trennung der eigentlichen Daten einer Map von deren Visualisierung, was einige Vorteile mit sich bringen kann. So weisen Fischer und Peuckert in diesem Kontext darauf hin, dass es viele
mögliche Externalisierungen und mentale Modelle von Wissen gibt und eine starke Uneinigkeit in der Forschung bzgl. der angemessensten Darstellung besteht (Fischler and
Peuckert, 2000, S. 7 f.). Unter Berücksichtigung persönlicher Vorlieben und individueller
Kognitions- und Lernstile (vgl. Abschnitt 2.3.5) scheint es zudem zweifelhaft, ob es die
beste Visualisierung geben kann. Hinzu kommen die in Abschnitt 3.4.2.2 beschriebenen
Resultate, die zeigen, dass vorgegebene Maps bei viel Vorwissen des Lerners Schwierigkeiten durch Konflikte mit den individuell vorhandenen Strukturen hervorrufen können. So wird eine strikte Trennung von Daten und deren Darstellung noch wichtiger, da
die Maps so leichter den individuellen Gegebenheiten angepasst werden können. Weiterhin kann durch solch eine Trennung der Computervorteil der Wiederverwendbarkeit
noch vergrößert werden, da so auf die Daten einer Map auch in anderen Kontexten, wie
z. B. anderen Mapformen oder gänzlich anderen Anwendungen, zugegriffen werden
kann. Als Beispiel sei hier die Verzahnung mit einem Terminorganizer angeführt.
Weitere generelle Vorteile der elektronischen Datenverarbeitung gelten natürlich
auch für Mappingsoftware. So können vielfältige Formen der Einbindung multimedialer Stimuli das Mapping von Hinweisreizen sehr unterstützen. Beim Vergleich mit
dem traditionellen Mapping sind hier insbesondere vorgegebene Bilder, Animationen
und die Berücksichtigung der auditiven Modalität zu erwähnen. Prinzipiell kann Mappingsoftware darüber hinaus auch zum allgemeinen Ressourcenverwalten verwendet
werden. Die Organisierung und Archivierung der eigenen Maps kann zudem elektronisch oftmals besser erreicht werden. Automatische Prozesse wie eine inhaltliche Suche
oder das Ersetzen einzelner Begriffe können einem selbstverständlich nur bei computergestütztem Mapping die Arbeit erleichtern. Zudem kann durch den Computer kollaboratives Mapping auch auf große räumliche Distanzen hinweg ermöglicht werden.
Für den didaktischen Kontext weisen Berendt and Reiska (2001) auf den großen Vorteil hin, den die Möglichkeit der automatischen Wissensdiagnose bietet (vgl. Abschnitt
3.4.2.2). Die Auswertung eines Netzes per Knopfdruck kann den Zeitaufwand bei vielen bzw. großen Maps deutlich minimieren, was selbst bei einer gewissen Vorarbeit „per
Hand“ (wie z. B. der Zuordnung verwendeter Relationsbegriffe zu bestimmten Kategorien) noch zutreffend sein kann. Auch das Protokollieren des Konstruktionsprozesses
kann für den Lehrer sehr aufschlussreich sein, da dieser Rückschlüsse auf Schwierigkeiten, Unsicherheiten und wichtige Lernprozesse erlaubt.
Dem großen Katalog an Vorteilen der Computerunterstützung beim Mapping stehen eher wenige, doch evtl. bedeutende Vorteile des Arbeitens mit Stift und Papier gegenüber. So ist die intuitivere und natürlichere Arbeitsweise zu nennen, die insbesondere bei kreativen Prozessen eine wichtige Rolle spielt. Den spontanen Darstellungswünschen sind hier keine Grenzen gesetzt, im Gegensatz zur potentiellen Limitierung durch
unüberwindbare Vorgaben eines Computerprogramms. Auch die motorische und sensorische (insbesondere haptische) Erfahrung des Arbeitens mit dem Stift kann unter Umständen eine wichtige Rolle spielen. So ist es gut vorstellbar, dass der Grad der Internalisierung des Konstruktionsprozesses z. T. von der Art und Weise abhängt, wie der Anwender motorisch und sensorisch mit seinem Werkzeug interagieren kann: Ein Knoten, der
per Mausklick oder Tastendruck angelegt (und oftmals sogar automatisch angeordnet
45
KAPITEL 3. MAPPING
wird), ist weniger selbstgesteuert konstruiert, als wenn die komplette Kontrolle über
den Entstehungsprozess wie beim Arbeiten mit einem Stift vorhanden ist. Darüber hinaus wird möglicherweise von manchen Menschen schon der simple Unterschied des
Sitzens vor einem Blatt Papier anstatt vor einem Computerbildschirm als angenehmer
und kreativitätsfördernder empfunden.
Es ist jedoch stark anzunehmen, dass viele dieser Vorteile des traditionellen Mappings im Laufe des technologischen Fortschritts immer geringer werden. Schon heute
existieren Entwicklungen wie Tablett-PCs oder elektronisches Papier, die im Vergleich
zu gängigen computergestützten Mapping Tools eine stärkere Anpassung an menschliche Anforderungen ermöglichen. Einerseits wird es schwer sein, die Vielfältigkeit der
Anwendungsmöglichkeit eines „echten“ Stiftes in Form eines „digitalisierten“ nachzubauen (beispielhaft seien feine, flächige Farb- oder Intensitätsübergänge genannt). Andererseits kann zumindest die Palette der vergleichbaren Zeichenwerkzeuge um neue
Dimensionen vergrößert werden (z. B. durch Datenhandschuh oder Visualisierungen
mittels 3D-Projektionen). So ist es zu erwarten, dass der Einsatz computergestützten
Mappings in Zukunft immer sinnvoller wird.
3.4
3.4.1
Theoretische Annahmen und Empirische Studien
Theoretische Hintergründe
Am Anfang wurde darauf hingewiesen, dass die Befürworter des Mappings in der Regel konstruktivistischen Lerntheorien anhängen. Da der Abschnitt „Konstruktivistische
Lerntheorien“ 2.2.3 schon auf die zentralen Annahmen und ihre unmittelbaren lerntheoretischen Konsequenzen hingewiesen hat, soll an dieser Stelle auf eine ausführliche
Diskussion verzichtet werden.
Die aus den 70er Jahren stammende Annahme, dass das menschlichen Gedächtnis
als ein Netzwerk organisiert sei (Netzwerkannahme, vgl. Mandl and Fischer, 2000; Bernd
et al., 2000), führte zu der Überzeugung, dass das Gedächtnis Wissen in Form eines
Netzes von Propositionen enkodiert (Collins and Loftus, 1975). Propositionen sind demnach kognitive Strukturen bestehend aus Elementen/Knoten und sie verknüpfenden
Relationen (Bernd et al., 2000). Bernd et al. (2000) schreiben:
„Es war dann (nach Annahme propositionionaler Strukturen im Gedächtnis)
unwesentlich, ob solche Element-Relation-Element-Beziehungen propositional kodiert wurden [...] oder unmittelbar grafisch repräsentiert wurden [...]“.
Wesentlich ist nach Schnotz (2002) allerdings, dass bildliche Informationen generell
leichter in mentale Modelle überführt werden können als textuell dargebotene Informationen. Während Erstere direkt eine zum Dargestellten analoge Struktur bieten, müssen
Letztere über eine Analyse der Symbolstrukturen zunächst in eine propositionale Repräsentation überführt werden und können erst danach zur Konstruktion mentaler Modelle herangezogen werden. Somit ist anzunehmen, dass eine Mapdarstellung in vielen
Fällen gegenüber einem Text vorzuziehen ist. Das gilt im Besonderen für solche Maps,
die bereits explizit Propositionen enthalten. Diese Vorzüge des Mappings gegenüber
textueller Darstellung wurden durch empirische Befunde immer wieder nachgewiesen
(siehe folgenden Abschnitt 3.4.2).
46
KAPITEL 3. MAPPING
McAleese (1998) führt an, dass die Annahme der Beschränktheit des Kurzzeitgedächtnisses dazu führt, dass es zu einem so genannten off-loading (Entlastung) des Kurzzeitgedächtnisses kommen muss, wenn Arbeit mit komplexen Sachverhalten überhaupt
möglich sein soll. Er sieht das Mapping als eine Art Leistungsunterstützung (performance aid), die gewissermaßen als externe Gedächtniserweiterung fungiert und dadurch off-loading ermöglicht.
Zu guter Letzt liegt noch eine weitere Überlegung der Annahme zugrunde Mappingverfahren seien besser als andere Lehr- und Lerntechniken geeignet Wissen zu organisieren und gezielt abzurufen. Sie rührt von der Forschung zu so genannten „kognitiven Karten“ (Cognitive Maps) her, wie sie Tolman (1948) iniziierte. Dabei wird angenommen, dass sich das menschliche Vermögen zur Orientierung im physischen Raum
(räumliches Denken) positiv auf die Orientierung in einem „Wissensraum“ auswirken
könnte, wenn dieser dieselben Kriterien einhält, wie etwa konstante örtliche Relationen der Objekte zueinander. Außerdem wird erwartet, dass sich als Folge eine bessere
Behaltensleistung ergibt (O’Reilly and Rudy, 2001), da sich so zusätzliche kognitive Ressourcen einbinden lassen.
3.4.2
Empirische Forschung zum Mapping
Im folgenden soll ein kurzer Überblick über einen Teil des Spektrums empirischer Forschung zum Thema Mapping gegeben werden.
3.4.2.1
Umgang mit der Technik
Grundvoraussetzung für den erfolgreichen Einsatz von Mappingverfahren ist es, dass
die jeweilige Technik möglichst gut beherrscht wird. Diese Erkenntnis zieht sich quer
durch alle Studien. Außerdem muss die Ausgestaltung der Maps gegebenenfalls dem
Lern- bzw. Untersuchungsziel, sowie individuellen Präferenzen und Verarbeitungsformen angepasst werden.
Bruillard and Baron (2000), die anhand einiger Studienergebnisse den Einsatz von
Concept Maps als Navigationshilfen für Hypertextdokumente diskutieren, nehmen an,
dass die Probleme im Umgang mit Maps zu einem Großteil vom mangelnden Wissen
über Maps herrühren. Eine von Grillenberger and Niegemann (2000) durchgeführte Studie bestätigt dies, indem sie zeigt, dass Effizienz und Akzeptanz der Arbeit mit Concept
Mapping direkt damit korrelierten, wie gut die Technik beherrscht wurde. Fischler and
Peuckert (2000) stellen zudem fest, dass die Ziele einer Untersuchung das geeignete
Format von Gestaltung und Bewertungssystem für Concept Maps bestimmen. So sei es
nicht verwunderlich völlig unterschiedliche Antworten von Studie zu Studie zu finden,
wenn man fragt, ob es gut ist Begriffe oder Relationen vorzugeben und ob vorgegebene
Begriffe schon strukturiert bzw. vorgegebene Relationen bereits benannt sein sollten.
O’Donnell et al. (2002) schildern die Ergebnisse dreier Experimente von Wiegmann
et al. zu dem, was man als Map Design bezeichnen könnte. In einem ersten Experiment
wurden dabei zwei Gruppen von Studenten mit inhaltlich isomorphen Maps ausgestattet. Die eine Gruppe erhielt jedoch Maps, die nach Gestaltgesetzen angelegt worden
waren. Verwendet wurden das Gesetz der Ähnlichkeit (similarity), das der Nähe (proxikity) und das der Fortsetzung (continuity), während die Maps der anderen Gruppe nicht nach derartigen Prinzipien gestaltet waren. Es zeigte sich ein Leistungsunterschied zugunsten der ersten Gruppe. Eine weitere von O’Donnell et al. (2002) zitierte
47
KAPITEL 3. MAPPING
Studie scheint diesen Befund zu bestätigen.
Ein zweites Experiment verglich die Leistungen von Studenten, denen eine einzige
große Map gegeben wurde, mit den Ergebnissen derjenigen, die einen Stapel kleiner
Ausschnittsmaps mit einer zusätzlichen Übersichtsmap bekamen. Hierbei hing der Erfolg der Studenten vom Grad ihrer Feldabhängigkeit ab (zum Begriff der Feldabhängigkeit vgl. Abschnitt 2.3.5.1). Feldabhängige Studenten erzielten bessere Behaltensleistungen mit der ganzen Map, während feldunabhängige Studenten eher mit den einzelnen
Maps zurecht kamen.
Schließlich wird an der selben Stelle noch ein drittes Experiment beschrieben, welches den Auswirkungen verschiedener Formen der Darstellung von Relationen auf den
Grund ging. Man konnte dabei nachweisen, dass Studenten mit geringen verbalen Fähigkeiten mehr von einfachen Linien ohne jede Verzierung profitierten, wo hingegen
Studenten mit größeren verbalen Fähigkeiten tendenziell besser mit verzierten Relationen arbeiteten, also Pfeilen, mit oder ohne Namen, gestrichelt oder durchgängig. Die
Forscher interpretierten diese Resultate dahingehend, dass sie den verzierten Relationen die Betonung semantischer Verarbeitung unterstellten, eine Betonung mit der verbal schwache Personen oftmals Probleme haben.
Es sei an dieser Stelle noch eine interessante Bemerkung von Fischler and Peuckert
(2000) angeführt. Sie weisen darauf hin, dass zahlreiche empirische Studien die Notwendigkeit einer streng hierarchischen Struktur von Maps, wie sie Novak noch gefordert hatte, heute deutlich in Frage stellen.
Mindestens genauso entscheidend wie der richtige Umgang mit der Technik ist jedoch – und das wird in der Literatur durchgängig betont – dass das eigenständige Erstellen und Revidieren einer Map stets dem Verwenden einer fremderstellten Map vorzuziehen ist. Ganz gemäß der konstruktivistischen Lerntheorie wird dies immer wieder
als eigentlich entscheidender Lernfaktor hervorgehoben. Dabei führt schon der schrittweise Aufbau einer bereits fertigen Map zu besseren Ergebnissen als die sofortige Präsentation der ganzen Map, wie O’Donnell et al. (2002) über eine Studie von Blankenship
et al. mit computerbasierten Präsentationen berichten.
3.4.2.2
Lehren und Lernen
Dem Haupteinsatzgebiet von Mappingverfahren folgend befasst sich das Gros der Studien damit, Klarheit über Nutzen und Effekte des Mappings in Lehr- und Lernsituationen zu erhalten, in denen Text eine zentrale Rolle spielt. Immer wieder werden die
Vorteile des Mappings bei der Wissensvermittlung betont. Es sei hierbei insbesondere
der Präsentation und Elaboration von Texten – Zusammenfassungstexten im Speziellen
– in vielen Belangen überlegen. Ebenso verbreitet scheinen die positiven Auswirkungen des Mappings auf die Konzeption und Produktion von Texten zu sein. Bernd et al.
(2000) und O’Donnell et al. (2002) kommen auf Grund ihrer eigenen als auch einer Reihe
anderer Studien zu dem Ergebnis, dass sich eindeutige Vorteile von Maps im Gegensatz
zu Texten erkennen lassen.
Sturm and Rankin-Erickson (2002) fanden heraus, dass das Mapping bei der Textproduktion hilfreich war, wenn Mapping zuvor zur Sammlung und Gliederung von
Kerngedanken angewendet wurde. So steigt die Anzahl der verwendeten Wörter, die
Kohärenz des Inhalts und auch die generelle „holistische“ Qualität der Texte, welche
sich anhand von Kriterien wie Umsetzung, Klarheit/Qualität, Organisation, Quantität/Dichte und ähnlichen mehr bewerten lässt (vgl. Sturm and Rankin-Erickson, 2002,
48
KAPITEL 3. MAPPING
zur Anwendung holistischer Bewertungskriterien). Mapping, ob als Hilfsmittel beim
Textverständnis oder der Textproduktion, fördert ganz wesentlich das Behalten zentraler Begriffe, so die einhellige Bewertung der Forscher auf diesem Gebiet. Die Makrostruktur eines Textes trete deutlicher zu Tage. Die Zusammenhänge im Großen und
die dazugehörigen Oberbegriffe ließen sich leichter erkennen und einprägen (das gilt
im Übrigen auch für kollaboratives Mapping, siehe Abschnitt 3.4.2.3). O’Donnell et al.
(2002) bezeichnen diesen Aspekt bezüglich ihrer eigenen Untersuchungen zu Knowledge Maps als „one of the most robust findings“. Geht es allerdings um das Erlernen
und Behalten von Detailwissen, so sind die Ergebnisse weitaus widersprüchlicher. In
einigen Studien lassen sich keinerlei Unterschiede zum Einsatz textueller Repräsentationen zeigen (vgl. die Zusammenfassung von Studien durch O’Donnell et al., 2002).
Andere verzeichnen hingegen auch bei den Details eine verbesserte Behaltensleistung
(vgl. die Zusammenfassung von Studien durch Sturm and Rankin-Erickson, 2002). Eine
mögliche Interpretation für das Phänomen, dass zumindest zentrale Konzepte durch
Maps besser haften bleiben, könnte die von Schnotz (2002) sein, nach der bildliche Informationen einfacher in mentale Modelle überführbar, also gewissermaßen kognitiv
adäquater sind. Er kommt schließlich zu dem Schluss, dass die in bildlichen Darstellungen vorgenommene Zusammenfassung von Informationen sparsamer sei, da Konzepte
ja nur einmal eingeführt werden müssten, statt mehrfach wie in Texten, wo sie nur so
zu anderen Konzepten in Beziehung gesetzt werden können.
Bernd et al. (2000) stellten darüber hinaus fest, dass die allgemeine Behaltensleistung
(und auch die Motivation) noch stärker zunimmt, wenn die Lernenden die Map selbst
konstruieren sollen, als wenn sie lediglich die Map eines Experten zur Durcharbeitung
präsentiert bekommen. Dieser Aspekt wurde bereits angesprochen. Doch selbst bei der
Verwendung von Expertenmaps konnten hier weitere positive Effekte erzielt werden,
sofern den Lernern Start- und Zielknoten des zu explorierenden Weges innerhalb der
Map vom Lehrer vorgegeben wurden. Der Weg durfte jedoch nicht allzu lang sein und
den Lernern keine Zeitbeschränkungen auferlegt werden. Dies fördere die Lerneffektivität und Lernökonomie. Fischer and Mandl (2000) beschreiben daran anknüpfend,
dass es dem Lernen anhand von Expertenmaps zuträglich ist, wenn den Maps zusätzliche, begründende Anleitungen seitens des Experten beigefügt werden. Hierdurch würden die Freiheitsgrade des Lerners im Bezug auf Annahmen zur eventuellen kognitiven
Strategie des Experten so weit eingeschränkt, dass gerade diejenigen mit wenig Vorwissen seltener dazu neigen entscheidende Aspekte der Map zu übersehen.
An dieser Stelle schließt sich ein weiterer Befund der Mappingforschung an. Personen mit wenig Vorwissen im betreffenden Wissengebiet profitieren oftmals besonders
von Maps. O’Donnell et al. (2002) zitieren hierzu eine Studie von Lambiotte und Dansereau, in der sich herausstellte, dass Studenten mit wenig Vorwissen den Inhalt einer
Biologievorlesung mit Unterstützung durch Knowledge Maps besser aufnahmen, als
wenn ihnen lediglich Schlüsselbegriffe gegeben wurden. Bei Studenten mit viel Vorwissen trat genau der umgekehrte Effekt auf. Sie lernten besser anhand der Schlüsselbegriffe. Das Ergebnis dieser Studie wurde mithilfe des so genannten model of assimilation
coding von Mayer interpretiert, nach dem derartige Maps für Personen mit wenig Vorwissen eine Art erste Ankerstruktur darstellen an welche dann neue Informationen angefügt werden können, während sie für Personen größeren Vorwissens eher einen Störfaktor bezüglich ihrer bereits vorhandenen eigenen Strukturen darstellen. Verwendet
man Maps als Navigationshilfen in Wissensräumen, so scheint ihr Nutzen mindestens
ebenso sehr vom Vorwissen wie von der Aufgabe abzuhängen (Bruillard and Baron,
2000). Des Weiteren hängt der Erfolg gelegentlich auch vom Themenbereich ab, aus
49
KAPITEL 3. MAPPING
dem das zu lernende Material stammt, wie O’Donnell et al. (2002) konstatieren (Thema
„Kokain“vs. Thema „Alkohol“, Thema „Wahrscheinlichkeitstheorie“ vs. Thema „autonomes Nervensystem“). In kollaborativen Settings kann das Vorwissen der beteiligten
Personen bezüglich der Anzahl an gesammelten Konzepten und Relationen und auch
der generellen Kreativität sogar noch weiter in den Hintergrund treten (Stoyanova and
Kommers, 2001). Hier ist dann der Prozess der Ideengenerierung wichtiger.
Neben denen mit wenig Vorwissen profitieren in ganz erheblichem Maße diejenigen
vom Einsatz des Mapping, deren verbale Fähigkeiten eher unterdurchschnittlich sind.
Dies bestätigen viele der von O’Donnell et al. (2002) zusammengefassten Studien. Auch
taube Menschen, die aufgrund ihrer Behinderung im Allgemeinen mehr Probleme haben komplexe, textuelle Informationen zu verarbeiten als hörende Menschen, können,
wie dort beschrieben, von Maps profitieren. O’Donnell und seine Kollegen interpretieren diese Effekte damit, dass Maps auf die Makrostruktur des Inhalts aufmerksam machen und so eine top-down-Verarbeitung unterstützen. Dies passt zu den in Abschnitt
3.4.2.1 erwähnten Ergebnissen zu Variationen der Darstellung von Relationen.
Chmielewski and Dansereau (1998) konnten zeigen, dass das Erlernen einer Mappingtechnik (hier KnowledgeMapping) einen positiven Transfer auf das allgemeine
Textverständnis bewirken kann, d.h. selbst dann das Textverständnis erhöht werden
kann, wenn Mapping gar nicht eingesetzt wird. In einer ersten Sitzung wurde eine
Gruppe Studenten im Mapping instruiert. In einer zweiten Sitzung wurden sowohl
der Gruppe Studenten, die Maptraining hatten als auch einer Kontrollgruppe ohne dieses Training zwei Texte zu lesen gegeben. Keine der beiden Gruppen verwendet dabei
Mapping als Unterstützung. Bei Abfragetest fünf Tage später stellte sich heraus, dass
die im Mapping trainierten Studenten signifikant mehr zentrale Ideen behalten hatten diejenigen ohne das Training. In einem zweiten Experiment war zudem auch der
Unterschied der Behaltensleistung auf der Detailebene signifikant. Interessanterweise
gaben die trainierten Studenten kein anderes Vorgehen beim Bearbeiten der Texte als
die der Kontrollgruppe an. So scheint der Transfer zumindest diesem Ergebnis nach
nicht bewusst zu sein. Auch Chmielewski und Dansereau vermuten, dass Mapping die
top-down-Verarbeitung verstärkt und so durch das Training die Fähigkeit verbessert
wurde, die zentralen Ideen erkennen zu können.
Im Teilgebiet der Wissensdiagnose und Wissensmodellierung beschäftigt man sich
mit der Frage, wie von Lernern erstellte Maps bewertet werden könnten bzw. ob man sie
überhaupt sinnvoll bewerten und vergleichen kann und sollte. Obwohl immer wieder
betont wird, dass es nicht per se gute und schlechte Maps gibt, stellen sich viele Forscher doch die Frage, welche Mittel und Wege man Lehrern und Lernern gleichermaßen zur Verfügung stellen kann, um die „Güte“ einer Map zu bewerten. Hierzu werden
Begriffsstruktur- und Inhaltsmaße entwickelt, die auf Maps angewendet werden können (Bernd et al., 2000; Janetzko and Strube, 2000). Da die Anwendung solcher Messverfahren stark vom Formalisiertheitsgrad der verwendeten Repräsentationsform (sprich
des Mappingverfahrens) abhängt, bedarf es u.U. einer vereinheitlichenden Nachbearbeitung der Novizenmaps durch einen Experten, um Vergleichbarkeit zu gewährleisten.
Dies kann natürlich zu der Gefahr führen, dass der Experte bestimmte Konzepte oder
Relationen anders interpretiert, als sie vom Ersteller der Map gemeint waren und somit das Resultat der Wissensdiagnose unabsichtlich „verfälscht“ (Gaßner and Hoppe,
2000).
50
KAPITEL 3. MAPPING
3.4.2.3
Kommunikation und Kollaboration
Auch als Kommunikations- und Kollaborationswerkzeug ist das Mapping Gegenstand
der Forschung. Man untersucht dabei, wie Mappingverfahren zum Sammeln und Konsolidieren von verteiltem Wissen und im Prozess der Ideengenerierung und Verständigung eingesetzt werden. Es handelt sich hierbei um die Frage, inwieweit es bei der
Gruppenarbeit von Vorteil sein kann, den gemeinsamen Problemraum zu visualisieren,
gemeinsam zu strukturieren und dadurch das häufig auftretende Problem der Konsensillusion zu vermeiden (Mandl and Fischer, 2000; Gaßner and Hoppe, 2000). Die Art und
Weise der Kollaboration (synchron oder asynchron, verteilt oder an einem Ort, computergestützt oder ohne Computer) steht dabei im Mittelpunkt. Die Notwendigkeit zu sozialem Austausch und seine Bedeutung im Prozess der Wissenskonstruktion ist bereits
in Abschnitt 2.2.3.4 diskutiert worden. Kapitel 4 wird zudem auf die grundsätzlichen
Eigenheiten von Kollaboration in der Praxis eingehen.
Die Zusammenarbeit mittels Maps betreffend stellen O’Donnell et al. (2002) fest,
dass die Ergebnisse von Studien zu diesem Thema darauf hindeuten, dass Mapping
einen positiven Einfluss auf den Lernverlauf hat. Auch hier scheinen Personen mit geringen verbalen Fähigkeiten besonders zu profitieren. Das Lernen wird als effektiver
beschrieben. Stoyanova and Kommers (2001) zeigen mit ihrer Studie, dass beim kollaborativen Mapping in der Regel gerade auf den ersten beiden Ebenen einer Map die
meisten Begriffe vorhanden sind. Dies könnte die bereits beim individuellen Mapping
erfassten Ergebnisse stützen, denen zu Folge hauptsächlich Kernideen gelernt werden.
In ihrer Studie untersuchten Stoyanova und Kommers drei verschiedene Interaktionsmodi:
Verteilte Interaktion (distributed interaction) Die Gruppenmitglieder erstellen autonom (individuell) vorläufige Maps, welche dann anderen Mitgliedern weitergereicht werden. Dieser Kreislauf wird so lange durchgeführt bis eine gemeinsame
Sicht des Problems erreicht ist. Der Prozess der Sammlung, Konstruktion und Internalisierung von Wissen ist hier individueller Art.
Moderierte Interaktion (moderated interaction) Die Interaktion wird hierbei durch
einen Moderator aus der Gruppe erleichtert, welcher die individuell angefertigten
Maps so lange anpasst bis eine gemeinsame Sicht des Problems erreicht wurde.
Die Repräsentationen individueller kognitiver Strukturen sind somit für andere
Gruppenmitglieder nicht direkt zugänglich. Die Gruppenmitglieder können sich
aber mit dem Moderator in einen Verhandlungsprozess über Bedeutungen und
Ideen begeben (Negotiation).
Gemeinsame Interaktion (shared interaction) Die Mitglieder der Gruppe interagieren
direkt und synchron miteinander und lösen so gemeinsam das Problem. Sie teilen
ihr Wissen sofort mit und erstellen ihre Map in kollaborativer Aktion.
In einem Experiment wurden Studenten demgemäß in Gruppen eingeteilt und es
wurde ihnen das ConceptMapping sowie der Umgang mit einer ConceptMappingSoftware beigebracht. Eine weitere Gruppe Studenten fungierte als Kontrollgruppe,
welche eine Brainstormingmethode einsetzen sollte. Die Durchführung verlief in drei
Schritten. In einem so genannten pre-test wurden die Studenten aufgefordert, eigene individuelle Maps zu einer bestimmten Aufgabenstellung zu erstellen. Danach wurden
diese Maps eingesammelt. Der zweite Schritt bestand in einer kollaborativen experimentellen Sitzung, in welcher die Studenten in den ihnen zugewiesenen Gruppen und
51
KAPITEL 3. MAPPING
im damit verbundenen Interaktionsmodus gemeinsam eine Map erstellen sollten. Diese Maps wurden dann ebenfalls eingesammelt. Zuletzt wurden die Studenten in einem
post-test noch einmal aufgefordert alleine eine Map zu erstellen, um die Veränderungen
im Vergleich zum pre-test ermitteln zu können.
Die so entstandenen Maps wurden anschließend vom Forscherteam unter einer Vielzahl von Gesichtspunkten analysiert und verglichen, sowohl bezüglich individueller als
auch gruppenspezifischer Aspekte und dem Transfer vom Einzelnen zur Gruppe und
umgekehrt. Als signifikante Ergebnisse ließen sich die Folgenden festhalten: Es zeigte
sich, dass bei gemeinsamer Interaktion kollaboratives Lernen und Problemlösen am effektivsten waren. Daraus wurde gefolgert, dass die Lerneffektivität stark davon abhängt
wie sehr die Lerner nicht nur die Ergebnisse ihrer jeweiligen Lernprozesse miteinander teilen, sondern vor allem auch den Lernprozess an sich. Insgesamt war eine klare
Rangfolge der drei Interaktionsmodi bei fast allen analysierten Aspekten der Lerneffektivität festzustellen, mit der gemeinsamen Interaktion an erster, der moderierten Interaktion
an zweiter und der verteilten Interaktion an dritter Stelle. Alle drei Mappingmodi waren
jedoch dem Brainstormingmodus deutlich überlegen. Die gemeinsame Interaktion scheint
nach dieser Studie klar im Vorteil zu sein, wenn man den Transfer von der Gruppe auf
den Einzelnen betrachtet. Kaum Unterschiede unter den Mappingmodi gab es bezüglich der Anzahl an Konzepten und Relationen, die im post-test im Vergleich zum pretest aufgegeben wurden und im Bezug auf die individuelle Kreativität und der Rekonfiguration der Map waren schließlich überhaupt keine Unterschiede mehr nachzuweisen.
Insgesamt ziehen Stoyanova und Kommers das Fazit, dass der Prozess der Ideengenerierung für die Anzahl an Konzepten und Relationen aber auch die Kreativität wichtiger ist als das individuelle Vorwissen der Gruppenmitglieder.
3.4.2.4
Weitere Aspekte
Es gibt neben den bis hierhin beschriebenen Effekten noch viele weitere. Hier seien nur
einige der wichtigsten erwähnt.
In der Studie von Grillenberger and Niegemann (2000) steigt beispielsweise die Akzeptanz der Arbeit mit Mappingverfahren mit der Fähigkeit diese anwenden zu können. Sturm and Rankin-Erickson (2002) stellten bei Schülern mit Lernschwächen fest,
dass computergestütztes Mapping die Motivation zum Mapping und zum Schreiben
deutlich steigerte. O’Donnell et al. (2002) berichten ebenfalls davon, dass eine erhöhte Motivation als Ergebnis des KnowledgeMappings im Vergleich zum Arbeiten mit
Texten festgestellt wurde. Diese geht in der dort zitierten Studie mit einer verbesserten
Konzentration einher. An anderer Stelle wird bei O’Donnell et al. (2002) eine Untersuchung von Lambiotte et al. zitiert, derzufolge auch die Selbstsicherheit zunehmen kann,
wenn mit KnowledgeMaps gearbeitet wird. Bei ohnehin selbstsicheren Personen konnte
allerdings gezeigt werden, dass sie Listen den KnowledgeMaps vorzogen.
Bruillard and Baron (2000) betonen, dass Mapping Schülern helfen kann AutoMonitoring-Techniken zu entwickeln und dadurch ihr kritisches Denken zu verbessern.
Eigens zu diesem Zweck wurden auch das bei Twardy (2004) beschriebene Argument
Mapping erfunden. Argument Mapping soll die Struktur logischer Schlüsse hervorheben. In einer Reihe Studien konnte gezeigt werden, dass dieses Verfahren vergleichbaren Ansätzen bei der Unterstützung kritischen Denkens überlegen ist.
Setzt man Maps zur Navigation in hypertext-basierten Anwendungen ein, kann dies
dazu führen, dass sich schlechtere Leistungen, seltenere Nutzung des Systems, eine
52
KAPITEL 3. MAPPING
als geringer wahrgenommene Kontrolle, sowie eine schlechtere Entwicklung kognitiver Karten bei den Benutzern einstellen. Dies resultiert aus der Zusammenfassung von
Studien zu diesem Einsatzbereich, die man bei Bruillard and Baron (2000) finden kann.
Als letztes sollte noch der Einfluss von Mappingverfahren auf die Kreativität genannt werden, was häufig mit dem Begriff des Brainstorming in Verbindung gebracht
wird. Hier fanden Stoyanova and Kommers (2001) z.B. keinerlei Unterschiede zwischen
Mapping und klassischer Brainstormingmethode, obwohl Letztere gerade zur Steigerung der Kreativität entwickelt wurde.
3.5
Zusammenfassung
Mapping steht als Oberbegriff für eine Vielzahl unterschiedlicher Verfahren zur Organisation, Modellierung und Elaboration von Wissen mittels vernetzter Darstellung von
Konzepten und Relationen. Derartige Verfahren lassen sich als visuelle kognitive Werkzeuge betrachten, die eine graphische Darstellung begrifflicher Zusammenhänge als so
genannte Maps hervorbringen. Maps unterscheiden sich grundsätzlich von Formen der
klassischen Wissensrepräsentation, da sie Wissenskonstrukte von Individuen mit Hilfe visueller Hinweisreize (Cues) abbilden und nicht den Anspruch haben, objektives
Wissen zum Zwecke maschineller Verarbeitung zu enthalten. Die visuelle Darstellung
begrifflicher Zusammenhänge kann durch das Anfügen von Bilder oder durch differenzierte farbliche Gestaltung angereichert werden, was den Abruf von Wissen zusätzlich
fördert.
Maps werden vor allem als Hilfsmittel zum systematischen und selbstgesteuerten
Lernen, als Kreativtechnik und als Kommunikationsmedium in kollaborativen Szenarien, aber auch zur Wissensorganisation und -diagnose verwendet. Als lernwirksames
Werkzeug dient das Mapping zur Aktivierung von Vorwissen, zum Erlangen eines
Überblicks über komplexe Sachverhalte, zum Entlarven unscharfen oder unvollständigen Wissens, sowie zur Ausbildung tiefer Gedächtnisspuren durch fortlaufendes Erweitern, Verändern und Analysieren der Netzstruktur. Die Metaebene, die durch das
bewusste Externalisieren individuellen Wissens eröffnet wird, macht es möglich, über
die eigenen Denkstrukturen und Lernstrategien zu reflektieren. Maps kommen über
Lehr-/Lernumgebungen hinaus auch in vielen anderen Anwendungsbereichen zum
Einsatz.
Einzelne Mappingverfahren wie MindMapping, ConceptMapping, KnowledgeMapping oder der Spatial Hypertext unterscheiden sich in den Möglichkeiten, die sie Anwendern zur strukturellen Organisation von Konzepten und Relationen bereitstellen.
Meist wird jedoch von hierarchischen Strukturen ausgegangen, die über Querverweise
allerdings zu echten Netzwerken erweitert werden können.
Gegenwärtig vollzieht sich ein Entwicklungsschritt vom Mapping als Technik mit
Stift und Papier zur Implementierung und Nutzung von Mappingsoftware. Die bereits heute zugänglichen Anwendungen zeigen, dass der Computer die Vorzüge des
traditionellen Mappings um eine Vielzahl Aspekte erweitern kann. So sind z. B. die
elegante Editierbarkeit, die verbesserte Übersichtlichkeit durch selektives Ausblenden
momentan unwichtiger Konzepte und die multimediale Einbindungsmöglichkeit ohne die Computerunterstützung nicht realisierbar. Auch die Anbindung an andere elektronische Ressourcen, wie z. B. ganze Textdokumente, kann einen großen Vorteil von
Mappingsoftware hervorbringen. Der Nutzen des Computers scheint jedoch noch wei-
53
KAPITEL 3. MAPPING
ter ausbaufähig. Eine konsequente Trennung von Daten und deren Darstellung könnte
erheblich dazu beitragen, dass verschiedene Mapformen bzw. Darstellungen verwendet
und den jeweils gegebenen Situationen angepasst werden können. Dies kann beispielsweise für unterschiedliche Kontexte und Aufgabenstellungen ebenso wie für persönliche Präferenzen oder individuelle Lern- und Kognitionsstile von Vorteil sein. Auch
die Anbindung an andere Software würde dadurch erheblich vereinfacht. Des Weiteren können durch den Computer automatische Prozesse bereitgestellt werden, die über
simple Funktionen wie „Suchen und Ersetzten“ hinausgehen. Ein vielfältiges Angebot
an interaktiven Lernmodi oder automatischen Analyseverfahren sind ebenso denkbar
wie prinzipiell jegliche Art von eingebundener Computersoftware. Der einfachere Austausch von Maps bei kollaborativen Prozessen ist ein weiterer Vorteil des Computers.
Doch der Vorteil gemeinsamen Arbeitens an ein und der selben Map von verschiedenen Orten aus, der durch eine kollaborative, internetbasierte Software ermöglicht werden könnte, ist noch gar nicht ausgeschöpft: Heutige Mapping Tools stellen höchstens
integrierte Schnittstellen zum Emailversand bereit.
Vorteile des traditionellen Mappings lassen sich bei den generellen Unterschieden
zwischen „Hand-“ und „digitalisierter“ Arbeit finden: Das Umgehen mit Stift und Papier ist natürlicher und damit Kreativität fördernder. Dieser Eindruck scheint insbesondere durch die intuitivere, motorisch und sensorisch anregendere Handhabung bedingt
zu sein. Auch die potentielle Einschränkung durch die vorgegebenen Möglichkeiten
eines Computerprogramms sprechen für den Griff zu Stift und Papier. Der technologische Fortschritt lässt jedoch vermuten, dass sowohl die Verbesserung der Bedienbarkeit
durch Entwicklung neuer Eingabegeräte als auch die Vergrößerung der Funktionspalette von Softwareprogrammen dazu führt, dass diese Nachteile des computergestützten
Mappings geringer werden. Hier wäre z. B. ein Mapping Tool auf einen Tablet-PC denkbar, bei dem durch ein integriertes Grafikprogramm ein kreativer Modus für „freies
Zeichnen“ bereit gestellt wird, so dass erst in einem zweiten Prozess eine Mapklassifizierung ausgewählt und auf die erstellten Grafikobjekte angewendet werden kann.
Abschließend lässt sich feststellen, dass
• keine der heutigen Mappinganwendungen alle unter 3.3 aufgeführten Funktionen
ermöglicht,
• jede Mappingsoftware nur für ein Mappingverfahren angelegt ist und
• es weitere wünschenswerte Funktionen gibt, insbesondere für die Adaption an
persönliche Präferenzen, für kollaboratives Arbeiten und im Bereich der Integration anderer Software.
Dieses Fazit führt zu der Idee eines Mapping-Frameworks, durch das die Entwicklung vieler Anwendungsmöglichkeiten und Funktionalitäten rund um die Idee eines
kognitiven Mappingwerkzeuges zusammengebracht und integriert werden können.
54
Kapitel 4
Kollaboration
von Jens Wissmann
4.1
Einleitung
Mappingverfahren versprechen einen Gewinn an Möglichkeiten zur Wissens-Bildung.
Dieser Gewinn begründet sich zum Teil dadurch, das nicht nur ein einzelnes Konzept,
sondern auch sein Beziehungsgefüge betrachtet werden kann (vgl. Kapitel 3). Dieses Beziehungsgefüge erhält seine Bedeutung aber nicht nur durch die Wissens-Beziehungen
im Kopf eines Menschen, sondern wesentlich durch eine soziale Praxis.
Die Entwicklung des Internets und die steigende Bedeutung damit verbundener Systeme (email, e-commerce, p2p etc.) im Alltag zeigen, welcher enorme Wissenszuwachs
möglich wird, wenn bewährte Praktiken (z.B. Dokument, Brief) größeren sozialen Kontexten und Menschengruppen zugänglich gemacht und kommuniziert werden können.
Es liegt daher nahe zu vermuten, dass sich der Wissensgewinn durch Mappingverfahren durch eine Kombination mit Kollaborations-Möglichkeiten potenzieren lässt.
In diesem Kapitel sollen deshalb Aspekte und Anforderungen der computergestützten Kollaboration beleuchtet werden.
4.2
Computerunterstützte kollaboratives Arbeiten
Computer Supported Cooperative Work (CSCW) stellt ein aus zahlreichen Wissenschaften (Informatik, Soziologie, Psychologie, Arbeits- und Organisationswissenschaften, Anthropologie, Ethnographie, Wirtschaftsinformatik, u.a.) zusammengesetztes Forschungsgebiet dar, das sich mit Gruppenarbeit und die Gruppenarbeit unterstützende
55
KAPITEL 4. KOLLABORATION
Informations- und Kommunikationstechnologie befasst (Grudin, 1991; Hasenkamp and
Syring, 1994).
Abbildung 4.1: Verschiedene Aspekte CSCW
CSCW versucht von der konkret eingesetzten Technologie (Hard/Software) zu abstrahieren und beschäftigt sich ganz allgemein mit der Rolle der Informations- und
Kommunikationstechnologie im Rahmen kooperativer Arbeit (Bornschein-Grass et al.,
1994). Allerdings ist CSCW stark von sozialen Einflüssen beeinflusst. Es beschäftigt sich
mit Interaktion und Zusammenarbeit von Personen und versucht Richtlinien für die
Entwicklung von Technologien, die den Kommunikationsprozess unterstützen, zu entwickeln. Abbildung 4.1 zeigt einige Aspekte, die CSCW prägen (nach Bornschein-Grass
et al., 1994).
Groupware
Unter dem Begriff Groupware wird die Hard- und Software verstanden, die Gruppenarbeit unterstützt und verstärkt. Groupware-Applikationen sind nicht dazu gedacht,
Personen in einem interaktiven Prozess zu ersetzen. Sie dient der Verbesserung und Erweiterung der Zusammenarbeit. Ziel von Groupware ist die ergonomische Gestaltung
der informations- und kommunikationstechnologischen Unterstützung und dadurch
die Steigerung der Effizienz und Produktivität sowie Flexibilität und Geschwindigkeit
(Bornschein-Grass et al., 1994, S. 14). Eine Groupware übernimmt verschiedene Funktionen, die erst durch Kombination zu einsetzbaren Lösungen führen (siehe Abbildung
4.2).
Benutzer unterscheiden sich in sozialem Background und Rollen. Daher ist es
schwierig, ein Interface zu kreieren, das alle Anforderungen der einzelnen Benutzer zufrieden stellt. Außerdem laufen Gruppenprozesse oftmals unterschiedlich ab und sind
zudem noch stark inhaltsabhängig. Jede Gruppe und ihr Verhalten ist von einer Reihe
von Einflüssen betroffen, während sie einer Beobachtung unterzogen wird. Daher kann
das Verhalten (innerhalb) einer Gruppe nicht generalisiert werden.
Häufig führen ähnliche Gründe zum Fehlschlagen von Groupware-Systemen. So
kann z.B. ein Ungleichgewicht von Aufwand und Nutzen Gruppenmitglieder verärgern oder demotivieren. Diese neigen dann dazu, das System weniger oft zu benutzen.
Außerdem werden oft soziale Aspekte der Kommunikation vernachlässigt.
56
KAPITEL 4. KOLLABORATION
Abbildung 4.2: allgemeine Funktionen von Groupware mit einigen Beispielen
4.3
Computerunterstütztes kollaboratives Lernen
Ein sich mit CSCW überschneidendes Gebiet ist Computer Supported Collaborative Learning (CSCL). Oft wird dieser Begriff im Zusammenhang von internetbasierter Aus- und
Weiterbildung in Gruppenform verwendet. Tatsächlich verbirgt sich hinter diesem Paradigma aber die allgemeinere Auffassung, dass Lernen ein verteilter, ständig im Aufbau
befindlicher Prozess ist. Lernen selbst wird somit nicht mehr als Resultat, sondern als
Prozess innerhalb einer Gruppe betrachtet. Anzeichen dafür, dass „tatsächlich“ etwas
gelernt wird oder wurde, sind in der Art und Weise wie Menschen gemeinsam lernen
und gemeinsam wahrnehmen, dass erfolgreich gelernt wurde, zu finden (Koschmann,
1996).
Für die Forschung hat dies viele Implikationen. So verschiebt sich der Fokus eher
auf den Vorgang des Wissenserwerbs, als auf das tatsächliche Ergebnis. Ein weiterer
Analyseschwerpunkt liegt auch auf den Artefakten, die einerseits einen Lernprozess
widerspiegeln und ihn andererseits auch unterstützen. Diese Artefakte umfassen alles Material, das einer Gruppe bei einem kollaborativen Lernprozess zur Verfügung
steht (z.B. in Form von vorgegebenen Programmen oder Dokumenten). Darüber hinaus schafft sich eine Gruppe solche Artefakte aber auch selbst, indem z.B. Beiträge und
Meinungen in einem kollaborativen Prozess archiviert werden. Diese können wiederum in ihrer Gesamtheit für weitere Problemlöseschritte greifbar sein. Artefakte können somit Produkte, Ergebnisse von Diskussionen, Kooperation und Kollaboration in
synchronen Lernumgebungen Arbeitsergebnisse oder andere symbolisch-physikalische
Repräsentationen der gemeinsamen Arbeit sein (vgl. Smith, 1994). Über diese Ebene
57
KAPITEL 4. KOLLABORATION
hinaus bestehen weitere zentrale Forschungsfragen darin, zu untersuchen, wie metakognitive Prozesse in einer Gruppe stattfinden, z. B. wie Wissenserwerbsprozesse in der
Kommunikation zwischen Lernenden reflektiert werden oder wie diese Reflexion durch
Gestaltung kollaborativer Lernplattformen unterstützt werden kann.
Die Unterstützung von Lernenden in einer vernetzt arbeitenden und lernenden
Kleingruppe kann im wesentlichen durch zwei Faktoren beeinflusst werden:
1. Durch die Gestaltung der Kommunikation und Interaktion durch ein kollaboratives Instruktionsdesign, wie z.B. Problem-basiertes Lernen nach Barrows (1994) (siehe Abbildung 4.3) oder Reciprocal Teaching nach Palinscar and Brown (1984).
2. Durch die Gestaltung der technischen Lernplattform (z.B. Scardmalia and Bereiter, 1994).
Abbildung 4.3: Prozess des Problembasierten Lernen nach Barrows (1994)
Da die konkrete Ausgestaltung sehr stark von der Domäne des zu Lernenden abhängig ist, wird in diesem Abschnitt auf eine weitere Ausführung verzichtet. Eine ausführlichere Diskussion des Themas ist u.a. bei Reimann and Zumbach (2001) zu finden.
Im weiteren werden in Abschnitt 8 Aspekte des Lernens für die Domäne des SprachVokabellernens weiter behandelt und zu MAPA in Verbindung gesetzt.
4.4
Mapping und Kollaboration
Der Einsatz von ConceptMapping und Kollaboration hat sich in einer Reihe von Studien
als nützlich erwiesen. Esiobu and Soyibo (1995) untersuchten den Effekt von ConceptMaps in einer Klassenraum-Unterrichts-Situation. Verschiedenen Konditionen wurden
getestet: Zusammenarbeit vs. Konkurrenzsituation, verschiedene Gruppengrößen und
eine Kontrollgruppe, die ohne Mapping arbeitete. Das im Unterricht erworbene Wissen wurde durch Multiple-Choice-Tests abgefragt. Wie in vielen der in Abschnitt 3.4.2
angeführten Studien, zeigten auch in diesem Experiment Studenten in den MappingKonditionen bessere Ergebnisse als in den Nicht-Mapping-Konditionen. Weiterhin waren die Ergebnisse in den Kollaborations-Konditionen besser als in den KonkurrenzKonditionen, so dass bei der Kombination von Mapping und Kollaboration die besten
Ergebnisse vorlagen.
58
KAPITEL 4. KOLLABORATION
Andere Studien ziehen allerdings den Nutzen der Kombination von Kollaboration
und Mapping in Frage. Chung et al. (1999) führten einen Versuche zum Einfluss von
Gruppenprozessen auf das Mapping während eines Kurses durch. Eine Gruppe von
Studenten arbeitete dabei über ein Netzwerk an einer Gruppen-Map, während in einer
anderen Gruppe an individuellen Maps gearbeitet wurde. Die individuell arbeitenden
Studenten hatten dabei Zugang zu Information aus dem Internet. Das Ergebnis war,
dass die inhaltliche Qualität der konstruierten Maps nicht von dem Gruppenprozess abhing. Ob Kollaboration positive Effekte hervorbringt, hängt allerdings auch sehr stark
von der Art der Interaktion unter den Teilnehmern ab (Chinn et al., 2000; Van Boxtel
et al., 1997). Unabhängig vom Resultat der Kollaboration, beeinflusst der Einsatz von
Mapping auf jeden Fall den Verlauf der Kollaboration. Studien von Baroody and Bartels (2000) und Baroody and Coslick (1998) sprechen dafür, dass Kollaboratives Mapping Debatieren, Schlussfolgern und Nachfragen in der Gruppe fördert. Stoyanova and
Kommers (2002) fanden heraus, dass im Falle der synchronen Kollaboration mit Maps
intensivere Zusammenarbeit stattfindet, als bei verteilter, asynchroner Arbeit und dichtere konzeptuelle Repräsentationen resultieren.
Chiu et al. (2000) betrachten Gruppeninteraktion während kollaborativem webbasierten ConceptMapping. Sie benutzten ein System zur Interaktionsanalyse, basiert
auf Systemen von Hertz-Lazorowitz (1992) und Webb (1995) und fanden heraus, dass
besonders eine Art von high-level Interaktion, die complex co-operation, am meisten mit
der Mapping-Performance korreliert ist.
Es gibt viele mögliche Anwendungsszenarien für kollaboratives Mapping. Zum Beispiel können Studenten zusammenarbeiten, um indirekt gegenseitiges Lernen zu unterstützen. Cañas et al. (2003) haben eine computer-basierte Kollaborations-Umgebung
aufbauend auf CmapTools implementiert, um lernen durch Kollaboration zu fördern.
Die Software erlaubt es Benutzern Propositionen einer ConceptMap zu einem beliebigen
Thema auszutauschen. Der Austausch wird durch die Knowledge Soup, einer ServerDatenbank, die die Propositionen speichert, vermittelt. Gibt ein Benutzer eine Proposition ein, versucht die Knowledge Soup automatisch ähnliche Propositionen anderer Benutzer zu finden, die dann an die eigene Map angefügt werden können (siehe Abbildung 4.4). Weiterhin können Propositionen anderer Benutzer kritisiert werden, wofür
eine peer-review-Umgebung zur Verfügung steht.
Cristea and Okamoto (2001) beschreiben eine Mappingumgebung zur kollaborativen Erstellung von Online-Kursen. Die Autoren glauben, das vor allem der kreativitätsfördernde Aspekt des Mappingprozesses und die effektive Externalisierungen und Visualisierung von Ideen für Kurs-Autoren hilfreich ist. Francisco et al. (1998) berichten
vom Einsatz von ConceptMaps in universitären Chemie-Kursen. In WiederholungsSitzungen vor den Examen erhielten Teilnehmer umfangreiche Maps, deren Informationen dann gemeinsam integriert und mit anderen Themen angereichert werden sollten. So wurde eine umfangreiche Ansicht auf die im Kurs behandelten Themen und
deren Zusammenhang mit weiteren Kontexten erarbeitet. In dieser Arbeit wurde kein
Gebrauch von computergestützten Mapping gemacht, aber es demonstriert das Potential von Mapping zum strukturierten Wissensaufbau. Dieses Potential wird in anderen
internet-basierten Kollaborationsformen heute schon entfaltet, die keine Mappingtechniken verwenden. Am bekanntesten sind die WIKI-Webs, eine Form von kollaborativen (meist offen und unüberwachten) Hypertext, die inzwischen in den verschiedensten Domänen Anwendung findet1 . Da Hypertext eine Netzstruktur (verbundene Do1 Die
mehrsprachige Enzyklopädie WIKIPedia (http://www.wikipedia.org/, Stand: April 2004) ist ein
59
KAPITEL 4. KOLLABORATION
Abbildung 4.4: Austausch von Propositionen mit CmapTools/Knowledge-Soup
kumente) zugrunde liegt, werden Hypertext-Systeme wie WIKIs zunehmend um Visualsierungskomponenten ergänzt (siehe z.B. Abbildung 4.5). Allerdings steht die Visualisierung bisher meistens noch am Ende der Arbeitskette, d.h. für die Kollaboration
werden andere Komponenten benutzt.
4.5
Anforderungen an CSCW/CL Systeme
Im folgenden sollen grundsätzliche Anforderungen an Kollaborations-Applikationen
beschrieben werden, wie sie bei Hasenkamp and Syring (1994) und Kraut et al. (1986)
beschrieben werden.
4.5.1
Synchrone bzw. asynchrone Kommunikation
Eine Kollaborationssituation besteht aus mindestens zwei Kommunikationspartnern
und im Falle der technischen Unterstützung (wie CSCW schon sagt) mindestens ein
Artefakt (siehe Abbildung 4.6). Für Zusammenarbeit im Web sind die Artefakte meist
Web Seiten oder elektronische Dokumente, die verändert werden. Da so keine direkte
Kommunikation zustande kommt, sollten CSCW Applikationen zusätzlich direkte synschönes Beispiel für einen großen kollaborativ gewachsenen Wissensraum.
60
KAPITEL 4. KOLLABORATION
Abbildung 4.5: WIKI mit Graph-Visualisierung
chrone und asynchrone Kommunikationsmittel zur Verfügung stellen. Bei synchroner
Kommunikation sind Echtzeitlösungen erforderlich.
4.5.2
Transparenz
Für erfolgreiche Kollaboration ist nach Kraut et al. (1986) wichtig, dass während der
Kollaboration auftretende Ereignisse für den Benutzer transparent sind. Die dabei auftretenden Fragen können anhand der Beziehungsstruktur der Situtation erläutert werden (siehe Abbildung 4.6). Zunächst ist wichtig zu erkennen, wer an einer Zusammenarbeit teilnimmt oder in einer Echtzeit-Situation präsent ist. Weiterhin ist aber auch essentiell, was passiert. Wenn ein Benutzer ein Artefakt ändert, so sollte es möglich sein,
dies auch für die anderen Benutzer sichtbar bzw. nachvollziehbar zu machen. Ebenfalls
wichtig ist, wie etwas geschehen ist. Dies ist möglicherweise die am schwierigsten zu
verwirklichende Anforderung, da das wie oft nur implizit verstanden wird wenn es
geschieht, aber schwierig im Nachhinein zu rekonstruieren ist. Es müssen daher Dinge
explizit dargestellt werden, die normalerweise nur implizit sind. Beispielsweise könnte
dies durch zusätzliche Erklärungen in einem Versionsmanagement geschehen. Durch
Kenntnis des „wer, was und wie“ kann oft erschlossen werden, warum etwas geschehen ist. Auch Kenntnis der sozialen Situation von Bedeutung, z.B. über die momentanen Handlungen anderer Benutzer oder deren Ansprechbarkeit. Viele Forscher sprechen von fundamentaler Wichtigkeit dieses sozialen Aspekts (Kraut et al., 1986).
Ein zentraler Punkt in Hinblick auf Transparenz ist, wie lange es dauert bis eine
Veränderung von anderen Benutzern erkennbar wird. Dies ist natürlich abhängig von
der Technologie (Latenzzeiten etc.), aber je nach Anwendung auch von dem Verhalten
der Benutzer, beispielsweise wie oft Veränderungen in das Netz geladen werden.
Ein zweiter Punkt ist, wer oder was das Erkennen ermöglicht, bzw. es initiiert. Für
herkömmliche Webseiten liegt die Initiative beim Benutzer, sie zu laden. Da dies i.a.
61
KAPITEL 4. KOLLABORATION
Abbildung 4.6: Vereinfachte Darstellung einer Kollaborationssituation (Kraut et al.,
1986)
Abbildung 4.7: In einer Kollaborationssituation auftretende Fragen (Kraut et al., 1986)
nicht ausreichend ist, werden beispielsweise so genannte „bulletin boards“ verwendet,
wo Veränderungen auf einem höheren Level (z.B. als eigene Seite) bekannt gemacht
werden. Wo auch dies nicht ausreicht, kann explizit über eigene Server den Benutzern
Veränderungen bekannt gemacht werden (Notifikation). Hierbei ist aber zu berücksichtigen, dass die Initiative nicht zur Störung wird. Beispielsweise können laufend erscheinende und piepende Dialogboxen inmitten einer schwierigen Aufgabe als störend empfunden werden. Prinzipiell sollte aber bei der Wahl der Mittel immer die Aufgabe berücksichtigt werden. So könnten piepende Dialogboxen durchaus sinnvoll sein, wenn
der Server heruntergefahren werden soll.
4.5.3
Behandlung von Gleichzeitigkeit
Wenn man die Artefakte im herkömmlichen Web betrachtet, so besteht ein starke Asymmetrie, in der folgenden Form: Webseiten können i.a. zwar von allen Benutzern gelesen,
aber nur vom Ersteller verändert werden. Sobald mehrere Benutzer zusammenarbeiten,
benötigen sie jedoch Lese- und Schreibzugriff auf die Artefakte. Wenn dies möglich gemacht wird, ist jedoch eine effiziente Kontrolle des gleichzeitigen Zugriffs (Concurrency
Control) notwendig, die folgende Aspekte berücksichtigen sollte:
Veränderungen der Anzahl der Benutzer Die Benutzer, die an einer Sitzung zu einem
62
KAPITEL 4. KOLLABORATION
Zeitpunkt beteiligt sind, können sich laufend ändern. Es sollte aber allen und daher auch gerade dazukommenden Benutzern ein konsistentes Bild der aktuellen
Situation gegeben werden.
Latenzzeiten Die Zeit zwischen der Aktion eines Benutzer und dem Erkennen der Antwort sollte unterhalb eines zumutbaren Grenzwertes liegen.
Konfliktbehandlung Hier können verschiedene Varianten unterschieden werden:
• Zu jeder Zeit darf nur ein Benutzer ein bestimmtes Dokument verändern
(Locking-Scheme).
• Jeder Benutzer darf jedes Dokument an jeder Stelle verändern bzw. löschen.
Unzulängliche Veränderungen werden nur durch den sozialen Druck innerhalb der Benutzergruppe vermieden. Dies ist unter anderem bei WIKI-Webs
der Fall. Natürlich setzt dies eine beschränkte Teilnehmeranzahl voraus.
• Benutzern wird die Möglichkeit gegeben werden, Konflikte in Bezug auf unterschiedliche Versionen und Rechte zu bereinigen.
Undo Der Effekt von Veränderungen ist oft schwierig vorherzusehen. Es sollte daher
möglich sein auf frühere, allgemein akzeptierte Versionen zurückzugreifen. Dies
könnte im Rahmen eines Versionsmanagement verwirklicht werden, wo auf frühere Versionen zugegriffen werden kann und so Veränderungen nachvollzogen
werden können.
4.5.4
Benutzerfreundliches Interface
Ein ergonomisches Interface kann die Akzeptanzschwelle wesentlich verringern und
ist somit zentral für den Erfolg von Applikationen. Einer der Gründe für die Expansion des WWW die Einfachheit der Standard-Benutzerschnittstelle des Web-Browsers.
Deshalb sollte erstens für den Zugriff auf die Applikation nur ein Minimum an Wissen
notwendig sein, wie durch einen Startpunkt (z.B. URL) und durch eine einfache Registrierungsprozedur (Name und Passwort). Zweitens können existierende unabhängige Plattformen (wie Browser oder Eclipse) verwendet werden, um Applikationen darauf laufen zu lassen. Unterschiedliche Hardware-Komponenten, Installationen und das
Starten der Applikation kann damit zu keinen Problemen führen, oder ist wesentlich
vereinfacht.
4.5.5
Benutzerautorisation und -administration
Da das Web für globalen Zugriff entworfen wurde, könnten die Zahl der Benutzer bis
in die hunderte Millionen gehen. Viele CSCW Applikationen sind aber für geschlossene
Arbeitsgruppen oder für eine Organisation entworfen. Wichtig ist, dass die Zielgruppe
der Benutzer klar ist, d.h. wie weit die Applikation für die Öffentlichkeit, oder nur für
eine eingeschränkte Benutzergruppe zugänglich ist. Grundsätzlich werden Benutzer,
die durch Namen und Passwort identifiziert werden können, Berechtigungen erteilt.
Hierbei gibt es unterschiedliche Berechtigungen (z.B. nur lesen, editieren von bestimmten Dokumenten, editieren von allen Dokumenten). Dabei wiederum muss spezifiziert
sein, wer das so genannte Accountmanagement, also wer diese Berechtigungen verwalten (erteilen, löschen,..) kann, durchführt. Ein wichtiges Kriterium hierfür ist die
63
KAPITEL 4. KOLLABORATION
interaktive Antwortzeit. Wenn sehr viele Benutzer an ein und derselben Aufgabe arbeiten, kann dies zu Ineffizienz führen, d.h. es sollten, wenn erforderlich, Möglichkeiten
vorgesehen sein, die Gruppenanzahl zu begrenzen.
4.5.6
Sicherheit und Legalisierung
Sicherheit und Schutzmechanismen können bei nicht entsprechender Anstrengung
leicht altern. Das Web stellt nur Basissicherheitsvorkehrungen zur Verfügung, d.h. Benutzeridentifikationen und Passwörter können verwendet werden, werden aber nicht
verschlüsselt übertragen. Allenfalls unklar ist, inwiefern die Sicherheitssysteme des
Webs für kooperative Systeme passend sind und wie sie gegebenenfalls erweitert werden sollten.
4.5.7
An Alltagskommunikation orientierte Modalitäten
Formen wie face-to-face-Kommunikation oder Telefonieren bewähren sich im Alltag.
Daher ist es wünschenswert diese Formen nachzuahmen bzw. zu ermöglichen. So tragen Audio- und Videokommunikation besonders zur Benutzerfreundlichkeit bei. Leider scheitert dies zurzeit aber oft grundsätzlich an den technische Voraussetzungen
(Hardware, Bandbreiten, Latenzzeiten).
4.5.8
Visualisierungsverfahren
Typische Web-Browser zeigen nur eine Seite, aber nicht die Position der Seite in einem
größeren Zusammenhang. Die Position von anderen Benutzern normalerweise nicht
dargestellt, und es gibt keine Möglichkeit zur Kooperation oder Interaktion mit diesen.
Neue Visualisierungsformen, die Browsing und Such-Aktivitäten2 der Gruppe unterstützen, können von Vorteil sein.
4.5.9
Datenrepräsentation
Neben der visuellen Präsentation der Daten ist auch die Struktur der Information wichtig. Im heutigen Internet werden die meisten Daten in Form von Webseiten ausgeliefert,
die wenig Metainformationen enthalten. Um Information besser strukturieren zu können, bieten sich Hierarchien und Mappingverfahren an. Weiterhin kann das Verwenden
von Ontologien den Austausch und das Teilen von Wissen einer Anwendungsdomäne
erleichtern. Auf der soziokulturellen Seite erfordern Ontologien, dass sich eine Gruppe
von Anwendern auf die jeweiligen Begriffe und deren Zusammenhänge einigt. Auf der
methodischen Seite werden Techniken der objektorientierten Modellierung konsequent
so weiterentwickelt, dass die Modelle nicht bloß zur Strukturierung von Software dienen, sondern auch ein explizites Element der Benutzerschnittstelle darstellen können
und zur Laufzeit verwendet werden.
2 Derzeit benutzen schon einige Suchmaschinen Graphvisualisierung, wie z.B. TheBrain (http://
www.thebrain.com/, Stand: April 2004) und auch für Google gibt es einen Browser (http://
www.touchgraph.com/, Stand: April 2004). Die Suchmaschine Kartoo zeigt in einer Mischung aus Graph
und Clustermap Webseiten und Stichworte an (http://www.kartoo.com/, Stand: April 2004).
64
KAPITEL 4. KOLLABORATION
4.5.10
Suchverfahren
Herkömmliche Suchmaschinen lassen im Allgemeinen keine wirkliche Zusammenarbeit zu. Es wäre vorstellbar, mit Hilfe der semantischen Inhalte und durch das Indizieren von Datenbasen gruppenbasierte Suchverfahren zu unterstützen.
4.5.11
Planungs- und Entscheidungsunterstützung
Ein Computer-Netzwerk kann verwendet werden, um Planungs- und Entscheidungsprozesse zu unterstützen. Darin können Dokumente strukturiert (z.B. in Pro- und Kontraargumente) und je nach Rolle und Funktion indiziert werden. Bei Bedarf können
verschiedene Gruppenabstimmungsverfahren in das System inkludiert werden.
4.5.12
Offenheit und Konfigurierbarkeit
CSCW-Applikationen sind untereinander meist inkompatibel. Ein allgemeines Framework, in dem Programmierer Applikationen entwerfen können, wäre wünschenswert.
Ebenfalls sollte es möglich sein, Arbeiten aus nicht- CSCW Applikationen (wie z.B. MSWord) in CSCW Programmen zu verwenden. Weiterhin könnte es von Vorteil sein, die
Ablauf- und Concurrency-Kontrollmechanismen einer Applikation zu verändern oder
zu erweitern. Gleiches gilt für die Sicherheitspolitik (Zulassung von Benutzern).
4.5.13
Technische Anforderungen an das System
Auch müssen CSCW Tools in Hinblick auf Zuverlässigkeit und Leistung den Benutzeranforderungen entsprechen. Bei der Systemarchitektur ist besonders zu berücksichtigen, dass der physikalische Speicherbereich im Allgemeinen völlig unabhängig von
der logischen Datenstruktur in der Applikation sein kann. Aufgrund der Anforderung
an die Zugriffsgeschwindigkeit kann es notwendig sein, Objekte an mehreren Stellen
zu speichern. Hierbei muss aber die Konsistenz und Sicherheit berücksichtigt werden.
4.6
Small-World-Hypothese
Der Begriff Small World (Buchanan, 2002) oder Kleinwelt bezeichnet eine Teilmenge von
Netzwerken oder Graphen. Ein Netzwerk besteht aus zwei Komponenten: Einer Menge von Knoten, die mit einem Objekt identifiziert werden, beispielsweise Personen oder
Computern, und einer Menge von Kanten, die diese Knoten miteinander verbinden. Eine Kante ist ein graphisches Symbol für eine bestimmte Beziehung, die die Objekte zueinander haben, beispielsweise eine Bekanntschaft per Vornamen unter Personen oder
eine Verkabelung von Computern.
In Small World-Netzwerken beobachtet man zwei Phänomene. Erstens ist die Wahrscheinlichkeit sehr hoch, dass zwei Knoten, die jeweils eine Kante zu einem dritten Knoten haben, auch untereinander verbunden sind. Auf soziale Netzwerke übertragen bedeutet das, dass die Freunde einer Person meistens auch untereinander per Vornamen
bekannt sind, weil sie sich über den gemeinsamen Freund kennen gelernt haben. Zweitens hat ein Small World-Netzwerk einen sehr hohen durchschnittlichen Clustering-
65
KAPITEL 4. KOLLABORATION
Koeffizienten3 und der Durchmesser4 dieser Netzwerke ist meist relativ klein. Das bedeutet, dass eine Nachricht, die jeweils von einem Knoten über eine Kante zu allen seinen Nachbarknoten weitergereicht wird, in kürzester Zeit alle Knoten in dem Netzwerk
erreicht hat.
Diese Eigenschaft ist insbesondere bei sozialen Netzwerken sehr gut zu beobachten,
für die die Vermutung gilt, dass zwei zufällig aus der Weltbevölkerung ausgewählte
Menschen durch eine Kette (Pfad) von durchschnittlich sechs oder sieben Bekannten so
miteinander verbunden werden können.
Am Beispiel der Bekanntschaftsbeziehung lässt sich die Beziehung der Small WorldHyphothese zu dem Ansatz von MAPA leicht verdeutlichen. Das „friend of a friend“Projekt5 gibt einem Benutzer die Möglichkeit seine eigenen Daten und Bekanntschaftsverhältnisse einzugeben. Er kann dann leicht seine Beziehung zu den anderen Benutzern erforschen und neue Beziehungen entdecken, indem er sowohl GraphVisualisierungen als auch die Suchmöglichkeiten, die sich durch die technische Datenstruktur (XML, RDF) ergeben, nutzen kann. Von zentraler Bedeutung ist aber, dass das
ansonsten nicht explizit greifbare Beziehungsgeflecht durch den gemeinsamen Aufbau
von Wissen nutzbar gemacht wird.
Die Small World-Hypothese lässt sich auf alle Arten von verlinkten Daten anwenden. Daher gehen wir davon aus, dass die Verbindung von Kollaboration, GraphEditoren und Ontologien in MAPA dazu führen kann, viele Arten von Beziehungsnetzwerken expizit greifbar und durch grafische Navigation und semantische Suche
handhabbar zu machen.
Somit sind Synergie-Effekte zwischen Netz-basierter Datenhaltung und Kollaboration zu erhoffen.
3 Als Clustering-Koeffizient eines Knotens in einem Graphen bezeichnet man den Quotienten aus der Anzahl der Kanten die zwischen seinen Nachbarn tatsächlich verlaufen und der Anzahl Kanten, die zwischen
seinen Nachbarn maximal verlaufen könnten.
4 Der Durchmesser eines Graphen als der längste kürzeste Pfad zwischen allen möglichen Knotenpaaren
definiert. Dabei ist ein Pfad zwischen zwei Knoten eine Menge von Kanten, von denen die erste mit dem einen
Knoten des Paares verbunden ist, alle weiteren jeweils mit dem Knoten der Vorgängerkante und deren letzte
Kante mit dem zweiten Knoten verbunden ist. Ein kürzester Pfad sind alle die Mengen von Kanten, die die
geringste mögliche Anzahl von Elementen (minimale Kardinalität) aufweisen. Der Durchmesser bezeichnet
damit die Länge der Pfade, die zwischen den am weitesten voneinander entfernt liegenden Knotenpaaren
liegen.
5 http://www.foaf-project.org (Stand: April 2004)
66
Kapitel 5
Synthese: MAPA als
konstruktivistisches
kollaboratives Wissens- und
Mapping-Werkzeug
von Stefan Scherbaum
Die in diesem Teil dargestellten Erkenntnisse ordnen den Ansatz von MAPA, der „Mapping Architecture for People’s Associations“ in die verschiedenen Fachgebiete ein und
definieren gleichzeitig die angestrebten Eigenschaften.
Abbildung 5.1: MAPA als integrativer Ansatz im Bereich der Überschneidungen von
Konstruktivistischer Lehre, Mapping und Kollaboration
67
KAPITEL 5. SYNTHESE: MAPA ALS KONSTRUKTIVISTISCHES
KOLLABORATIVES WISSENS- UND MAPPING-WERKZEUG
MAPA besteht somit aus drei Aspekten, die es als Werkzeug charakterisieren. Ein
MAPA-System ist
ein konstruktivistisches Werkzeug: Angelehnt an die in Abschnitt 2.2.3.4 genannten
„cognitive tools“ unterstützt es Lernprozesse durch die explizite Konstruktion des
Wissens und der darin enthaltenen Assoziationen. So fördert es die Artikulation
(und damit explizite Konstruktion), Reflexion (und damit explizite Rekonstruktion) des eigenen Wissens (der impliziten Konstruktionen). Durch die Verwendung
der Metapher des Wissensnetzes geht es von einem der konstruktivistischen Lehre
sehr ähnlichen Konzept der Wissenspeicherung aus.
ein Mapping-Werkzeug: Wissen kann kognitiv adäquat (vergleichbar mit einer Landkarte) abgebildet werden, wobei MAPA die verschiedenen Mappingansätze (vgl.
3.2) als einheitliches Mapping-Werkzeug zusammenführt und so eine MetaMapping-Struktur bereitstellt, welche maximale Flexibilität aufweist.
ein kollaboratives Werkzeug: Mehrere Benutzer sollen gleichzeitig an einem gemeinsamen Wissennetz arbeiten können. Dies ermöglicht die soziale Reflexion des Wissens (siehe Abschnitt 2.2.3.4) und eine erweiterte Assoziationsbildung.
MAPA stellt somit einen integrativen Ansatz dar (siehe Abbildung 5.1), verschiedenste Mappingmethoden zu kombinieren, diese lernenden Menschen zur Verfügung
zu stellen und sie gemeinsam an ihrem Wissensnetz arbeiten zu lassen. Die Überschneidungen der drei Bereiche finden sich besonders bei
geteiltem Wissen und sozialer Reflexion: Hier überschneiden sich kollaborative Ansätze und konstruktivistische Ansätze: Das soziale Reflektieren des eigenen Wissens führt automatisch zum Teilen mit anderen.
vernetztem Wissen und Maps: Hier überschneiden sich konstruktivistische Ansätze
und Mappingmethoden. Besonders Concept Maps kommen einer Abbildung vernetzen Wissens schon sehr nahe. Sie mit den anderen Mappingverfahren zu einer
Meta-Mapping-Methode zu verknüpfen wäre ein weiterer wichtiger Schritt.
Maps und kollaborativem Lernen: Mappingverfahren können sehr gut als Instrument
für kollaboratives Lernen in der Gruppe eingesetzt werden. Selbst im Falle einer
Lernkontrolle durch den Lehrer bieten Mappingverfahren die Möglichkeit, aus
der „Kontrollsituation“ zu lernen (vgl. Berendt and Reiska (2001)).
Dabei soll MAPA konzeptionell auf vorhandenen Standards aufbauen. Dies ermöglicht eine Integration in die zukünftig wachsenden Wissensstrukturen des Internet und
stellt somit eine sichere Entwicklungsbasis dar.
68
Teil II
MAPA - Konzeption und
technische Umsetzung
69
Kapitel 6
Architektur des Frameworks
von Michael Elbers und Stefan Scherbaum
70
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Im Folgenden werden zunächst die Anforderungen, welche aus dem im vorangegangen Kapitel dargelegten Sachverhalten hervorgehen, an MAPA als kognitivem
konstruktivistischem Werkzeug abgeleitet. Anschließend wird die Kernarchitektur von
MAPA vorgestellt, welche die grundlegenden Anforderungen erfüllt und die Basis für
die spätere Implementierung darstellt.
6.1
Anforderungen
Aus dem letzten Kapitel gehen sowohl benutzerorientierte als auch technische Anforderungen hervor, die im Folgenden ausführlich dargelegt werden.
6.1.1
Kognitive Adäquatheit
Die kognitive Adäquatheit umfasst mehrere Sachverhalte. Zum einen müssen bei MAPA als Wissens-Werkzeug die Kernaspekte relevanter Lerntheorien (vgl. hierzu den Abschnitt 2.2, besonders Abschnitt 2.2.3) berücksichtigt werden. Zum anderen sollte die
„Arbeit“ mit einem Mappingwerkzeug dem Anwender leicht fallen und ihm keine unnötigen Hürden in den Weg legen – dies würde der aktiven Auseinandersetzung mit
dem abgespeicherten Wissen im Wege stehen.
6.1.1.1
Netzartige Wissensdarstellung
Die im vorigen Kapitel beschriebenen Lerntheorien legen eine netzartige Ablage und
Darstellung des Wissens in MAPA nahe (vgl. Abschnitt 2.2.3.3). Wissen ist nicht hierarchisch organisiert (wie z.B. bei MindMaps (vgl. Abschnitt 3.2.1), sondern vielfältig
verknüpft, wobei die Verknüpfungen auf der Lerngeschichte jedes einzelnen Benutzers
basieren. Die Ablage einzelner Fakten als Netz zieht vielfältige Anforderungen an die
Software nach sich:
Übersichtlichkeit Wird das Wissensnetz zu komplex, kann sich der Benutzer dank vieler Querverweise leicht verlieren (ein ähnliches Phänomen kann man leicht selbst
beim Surfen um Internet erleben). Entsprechend muss die Navigation im Netz
übersichtlich sein.
Konsistenz des abgelegten Wissens Um das abgelegte Wissen, besonders bei der Bearbeitung durch mehrere Benutzer, konsistent zu halten, bedarf es eines flexiblen
Systems zur Typisierung. Diese muss z.B. die Verwendung bestimmter Verbindungsarten oder den Inhalt bestimmter Wissensnetzknoten restringieren können.
Die Typisierung sollte somit auch eine Prüfung des Netzes auf Validität zulassen und Probleme wie Definitionszirkel erkennen können. Ein weiterer Aspekt
der Datenkonsistenz, die Datenintegrität, tritt bei der verteilten Speicherung des
Netzes auf mehreren Rechnern in den Vordergrund. Hier muss z.B. verhindert
werden, dass Verweise plötzlich ins Leere zeigen, weil die entsprechende Wissensstruktur auf dem sie speichernden Rechner gelöscht wurde.
Gliederung des Netzes Als Verbindung aus Typisierung und Übersichtlichkeit geht
die Notwendigkeit einer Gliederung des Netzes in Bereiche hervor. So kann sich
ein Benutzer bewusst auf einen Themenbereich konzentrieren ohne von verwirrenden Querassoziationen belästigt zu werden.
71
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Konstante örtliche Relationen Die Anordnung der einzelnen Wissenselemente sollte
im Netz konstant bleiben. Wie unzählige Experimente zeigen, hilft das räumliche Denken erheblich bei der Orientierung im Lernraum und ermöglicht so eine
effektivere Navigation und ein besseres Memorieren der abgelegten Inhalte (vgl.
hierzu Abschnitt 3.4.1). Diese Forderung mag im Widerspruch zur Dynamik eines verteilt bearbeiteten Netzes stehen. Eine gewisse Abhilfe könnten individuelle
Perspektiven auf das Netz ermöglichen. Letztendlich wird hier ein Kompromiss
aus Dynamik und Ortsstabilität nicht zu vermeiden sein.
6.1.1.2
Einfache Bedienbarkeit und Transparenz
Ein Wissenswerkzeug, das seine Benutzer zur täglichen Anwendung bewegen will,
muss „Spaß machen“. Dieser schlichte Anspruch fordert vor allem eine einfache Bedienbarkeit des Systems. Viele erhältliche Mappingwerkzeuge (wie z.B. CMapTools1
oder Microsoft Visio) konfrontieren den Benutzer mit unzähligen Optionen, die eine
zügige Arbeit behindern. Für den Benutzer sollten die meisten im System ablaufenden
Vorgänge transparent bleiben, so dass er sich auf das Wesentliche, die Eingabe und Verlinkung seines Wissens, kümmern kann.
6.1.2
Plattformunabhängigkeit
Soll eine große Gemeinschaft von Nutzern zur gemeinsamen Arbeit mit MAPA bewegt
werden, so ist die Plattformunabhängigkeit des Systems unabdingbar. Diese Forderung
wirkt sich auf zwei Ebenen aus:
• Das MAPA-System sollte auf technisch unterschiedlichen Plattformen (Windows,
Linux etc.) lauffähig sein.
• Zur Bearbeitung eines MAPA-Netzes sollte prinzipiell der Einsatz verschiedener
Editoren möglich sein. Die Netzbearbeitung selbst sollte somit Plattformunabhängig sein. Auf diese Weise kann verschiedenen kognitiven Stilen (vgl. Abschnitt
2.3.5.2) entgegengekommen werden. Die Spanne kann von aufwändigen grafischen Editoren verschiedener Couleur (welche eher nonlineares, holistisches Denken begünstigen) über listenorientierte Werkzeuge (welche eher lineares, serialisiertes Denken begünstigen) bis hin zur schlichten Kommandozeile reichen.
6.1.3
Verteiltheit
Die Kollaboration in einem MAPA-Netz erfordert die Zugänglichkeit des abgelegten
Wissens für jeden Nutzer (vgl. Kapitel 4). Aus dieser Forderung ergibt sich als Folge,
dass MAPA als verteiltes System auftreten muss, um diesen verteilten Zugriff zu ermöglichen. Aus den verschiedenen Möglichkeiten, verteilte Systeme zu realisieren (zentralisiert, hierarchisch, dezentralisiert), kristallisieren sich letztlich folgende zwei Prinzipien
heraus (Minar, 2001):
Client-Server-basiert Die Daten werd zentral auf einem Rechner abgelegt, auf den die
Benutzer mit ihren Editoren zugreifen können, wobei auf ihren Computern keine
Daten dauerhaft abgelegt werden.
1 http://cmap.coginst.uwf.edu
(Stand: März 2004)
72
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Peer-to-Peer-basiert Die Daten jedes Nutzers werden dezentral auf den Rechnern der
Teilnehmer für jeden einzelnen zugänglich abgelegt.
Während die Client-Server-Architektur ein klassisches zentralisiertes und somit
einfach-hierarchisches System darstellt, ist die Peer-to-Peer-Architektur als dezentrale Topologie anzusehen. Zur Einordnung und Bewertung der Vor- und Nachteile dieser
unterschiedlichen Topologien nutzt Minar (2002) folgende Kriterien:
Manageability Wie hoch ist der Administrationsaufwand, um das System in einem
arbeitsfähigem Zustand zu halten?
Information Coherence Wie verlässlich ist die gefundene Information? Sind die Daten
konsistent und korrekt?
Extensibility Wie leicht kann das System um Ressourcen erweitert werden?
Fault Tolerance Wie gut kann das System mit Ausfällen und Fehlern umgehen?
Security Wie viel Sicherheit bietet das System? Hierzu zählen der Schutz vor der Einspeisung falscher Informationen, einem unberechtigten Zugriff auf gespeicherte
Daten und dem Missbrauch des Systems.
Resistance to lawsuits and politics Wie groß ist der Einfluss externer (staatlicher) Autoritäten auf das System? Wie „frei“ ist das System?
Scalability Wie gut kann sich das System an neu gestellte Anforderungen und eine
wachsende Anzahl von Benutzern anpassen?
Diese Kriterien finden sich auch in der von Hurley (2001) verwendeten, auf vier Eigenschaften reduzierten Bewertung wieder. Er stützt seine Einschätzungen auf folgende
Punkte:
• Skalierung
• Fehlersicherheit
• Sicherheit
• Datenintegrität
Eine Analyse der Client-Server-Topologie als zentralisiertem System auf Basis der Kriterien von Minar (2002) ergibt folgende Vorteile:
Manageability Da die „dummen“ Clients auf einen zentralen Server zugreifen, findet
die Administration nur dort statt. Auf den Clients muss nur eine einfache Zugriffssoftware vorhanden sein und die Adresse des Servers eingestellt sein. Aller
weiterer Aufwand konzentriert sich auf den Server.
Information Coherence Da die Information auf dem zentralen Server alleine liegt,
kann relativ einfach dafür gesorgt werden, dass sie verlässlich und konsistent
bleibt.
Security Zentrale Systeme sind prinzipiell sehr sicher, da sich alle Bemühungen zur
Sicherheit auf den Server beschränken können. Er ist das zentrale Eingangstor für
die Clients. Auf der Gegenseite steht der Server als alleinige Angriffsstelle, auf die
sich Attacken konzentrieren können.
73
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Diese Vorteile stellen die Grundlage dar, auf der sich das heutige World Wide Web erfolgreich entwickelt hat. Trotz dieser Erfolgsgeschichte haben Client-Server-Netze auch
erhebliche Nachteile in folgenden Punkten:
Extensibility Die Erweiterbarkeit ist vor allem auf den Server beschränkt, dieser kann
u.U. aber erweitert werden.
Fault Tolerance Die Fehlersicherheit bei einem zentralisiertem System zeigt ein deutlich binäres Verhalten: entweder das System funktioniert oder es gibt einen Totalausfall. Diese Eigenschaft relativiert die leichte Administration, da ein großer
Aufwand betrieben werden muss, um die Lauffähigkeit des Systems permanent
zu gewährleisten.
Resistance to lawsuits and politics Da ein Server an einem festen Ort stationiert sein
muss, ist er für die dortigen Autoritäten sehr einfach zu beeinflussen bzw. abzuschalten.
Scalability Ein Server wächst nicht automatisch mit der Anzahl der auf ihn zugreifenden Clients mit. Zwar bietet heutige Hardware große Ressourcen, die erst durch
eine hohe Anzahl an Clients ausgelastet werden können. Trotzdem ist voraussehendes Planen notwendig, um kommende Anforderungen beim Aufbau des Systems richtig einschätzen zu können. Gleichzeitig bleibt auf leer laufendenClients
vorhandenes Potential ungenutzt.
Angetrieben durch diese Nachteile versucht die Peer-to-Peer-Technologie einige dieser
Nachteile zu beheben. Zu ihren Vorteilen zählen:
Scalability and Extensibility Das Netz kann sich dezentral entwickeln, es wächst
selbstorganisiert. Jeder Client der hinzukommt, bringt auch Ressourcen in das
Netz mit ein.
Fault Tolerance Fällt ein Rechner aus, so gehen nur die Daten dieses Nutzers verloren.
Die anderen Nutzer können an ihren Daten weiterarbeiten.
Resistance to lawsuits and politics Da die Daten verteilt im ganzen Internet abgelegt
werden können, ist es für einzelne Autoritäten nahezu unmöglich, große Teile des
Netzes und damit den freien Informationsfluss zu beeinflussen.
Diese Vorteile bezahlt man allerdings durch ein Verlust an Einfachheit und Überwachbarkeit:
Manageability Da nun jeder Client auch Träger von Daten sein kann, muss jeder dieser Peers seine eigene Verwaltung übernehmen. Hinzu kommt, dass jeder Peer
auch den jeweils anderen finden können muss. Aus einer einfachen sternförmigen
Struktur wird so ein wirres Netz vieler miteinander interagierender Teilnehmer,
das nicht mehr überschaubar ist.
Security Da Sicherheitsrichtlinien nicht mehr zentral verwaltet werden können, wird
die Überwachung von Datenzugriffen ein kompliziertes Unterfangen. Aufgrund
des prinzipiell erwünschten Zugriffs von Peers auf die Daten eines jeden anderen
Peers besteht die Lösung des Problems nicht in der Abschottung der einzelnen
Teilnehmer. Vielmehr müssen Sicherheitsrichtlinien auf der Benutzerebene eingerichtet werden. Diese wiederum müssen auch dezentral verfügbar sein.
74
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Fault Tolerance and Information Coherence Während im Client-Server-Paradigma
ein totaler Datenverlust drohte, ansonsten aber ein stabiles Netz vorlag, können nun kleinere Ausfälle (besonders aufgrund der unzuverlässigeren, kleineren Peers) die Integrität der Daten im Netz gefährden. Mit diesem Problem muss
eine Peer-to-Peer-basierte Software umgehen können. Außerdem wird es durch
die dezentrale Speicherung von Daten leichter, ungeprüfte und auch schlichtweg
„falsche“ Daten in das Netz einzugeben. Die Verlässlichkeit der vorliegenden Informationen wird somit geringer. Durch Benutzerratings und eine aktive NutzerCommunity kann diesem Nachteil allerdings entgegengewirkt werden.
MAPA ist als kollaboratives System gedacht. Eine Grundlage hierfür stellt die freie
und gleichberechtigte Kommunikation der Teilnehmer dar. Der Gedanke der Freiheit
und Gleichberechtigung beim Austausch von Informationen lässt ein zentralistisches
System unattraktiv für eine solche Anwendung erscheinen. Gleichzeitig sollte der auf
Zusammenarbeit ausgerichtete Ansatz zur Entstehung sozialer Strukturen führen. Diese können einige der Nachteile, welche für die dezentralisierte Peer-to-Peer-Topologie
genannt wurden, mit sozialen Mechanismen kompensieren. Zu diesen Mechanismen
zählt die gegenseitige Kontrolle und das sozialen Ansehen im System (ähnlich der oft
genannten „Netiquette“). So ziehen wir, trotz der höheren Komplexität, welche dieser
Ansatz mit sich bringt, die dezentrale Peer-2-Peer-Lösung der zentralisierten ClientServer-Lösung vor.
6.1.4
Flexibilität
Die Forderung nach Flexibilität bezieht sich bei MAPA auf zwei Ebenen:
• Mappingsystem und
• Erweiterbarkeit.
6.1.4.1
Universelles Mappingsystem
Auf der Ebene des Mappingsystems sollte das MAPA zugrunde liegende Datenmodell
die Wissensmodellierung mit verschiedenen Mappingverfahren (vgl. Abschnitt 3.2) erlauben. So sollte das Anlegen einer ConceptMap ebenso möglich sein wie das einer
MindMap. MAPA stellt somit eine Metastruktur zur Verfügung, die als universelles
Mappingsystem verschiedenste netzartige Wissensmodellierungen unterstützt.
6.1.4.2
Erweiterbarkeit
MAPA sollte als System nicht starr bleiben, sondern vielfältige Erweiterungs- und Anpassungsmöglichkeiten bieten. So sollte es z.B. für die Einbindung verschiedenster Datenformate offen sein um eine umfassende Wissensablagemöglichkeit zu gewährleisten.
Ebenso sollte es möglich sein, Funktionalität nachzurüsten, wie z.B. im Hintergrund
permanent aktive Agenten, die für Benutzer nach Informationen suchen oder Netzveränderungsprozesse beobachten.
75
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
6.2
Konzeption
Im folgenden Abschnitt werden MAPA zugrunde liegende Konzepte diskutiert, die den
in Abschnitt 6.1 aufgeführten Anforderungen Rechnung tragen.
6.2.1
Frameworkgedanke
Den Anforderungen der Plattformunabhängigkeit und Flexibilität wird MAPA dadurch
gerecht, dass es als Framework ausgelegt ist. Ein Framework „enthält eine Sammlung
von Komponenten und fügt sie zu einem bestimmten Anwendungsfall zusammen. [...]
Ein Framework stellt damit ein unvollkommenes Anwendungssystem dar, das durch
Austausch von Komponenten auf den Benutzer ausgerichtet wird. Die Wiederverwendbarkeit gilt nicht nur für Komponenten, sondern auch für das Architekturwissen zur
Verknüpfung der Komponenten“ (Scheer, 1998, S. 24). Die Entwicklung des MAPASystems richtet sich also auf eine grundlegende Architektur und einzelne Komponenten, die innerhalb der Architektur bestimmten Vorgaben gerecht werden müssen, um
austausch- und erweiterbar zu sein. Auf diese Weise ist MAPA in hohem Maße erweiterbar und auch der Anspruch des universellen Mappings kann durch die Komponententrennung erfüllt werden. Betrachtet man unterschiedliche Editoren als verschiedene
Komponenten, so ist auch die Plattformunabhängigkeit durch dieses Konzept gewährleistet.
6.2.2
Anwendungsebenen
Eine erste Zerlegung des Gesamtsystems in Komponenten geschieht durch eine Aufteilung in Schichten. Eine erste Trennlinie zeichnet sich zwischen der Datenhaltung und
den darauf arbeitenden Anwendungen ab. Wenn verschiedene Mappingverfahren und
Editoren von unterschiedlichen Plattformen aus auf dieselben Daten zugreifen können
sollen, so bietet sich hier eine Aufspaltung des Systems an. Das Ergebnis ist eine Anwendungsschicht und eine Datenhaltungsschicht (siehe Abbildung 6.1).
Diese Trennung ermöglicht zudem einen neuen Blick auf das Thema Verteilung.
Wenn Anwendung und Datenhaltung getrennte Systeme darstellen, so können hier
auch mehrere verschiedene Systeme aufeinander zugreifen. Unter Berücksichtigung
des Frameworkgedankens bietet es sich an, die Datenhaltung als lauffähiges System
anzubieten, während die Anwendungen aus fertigen Komponenten, gegliedert in einer
Bibliothek, und spezifisch programmierten Teilen für den jeweiligen Zweck zusammengesetzt wird. Um auch auf der Datenhaltungsseite eine gewisse Flexibilität aufrecht
zu erhalten, wird diese Seite noch einmal in die eigentliche Datenhaltungs- und eine
Service-Schicht aufgespalten. Dies ermöglicht das nachträgliche Installieren von datenbezogenen Operationsmodulen, die komplexere Abläufe kapseln und für die Datenverwaltung nachrüsten (siehe Abbildung 6.2).
Als Beispiel für solche Services seien hier permanent tätige Software-Agenten genannt.
76
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Abbildung 6.1: Eine erste Ebenenaufteilung des Gesamtsystems in eine Anwendungsund eine Datenhaltungsschicht
6.2.3
Kommunikation
Um die Plattformunabhängigkeit der Anwendungsseite und eine sichere Kommunikation zwischen den soeben entwickelten Schichten zu gewährleisten, bietet sich ein
nachrichtenbasiertes System an. Ein Modul stellt eine Anfrage an ein anderes und erhält die Antwort darauf in Form einer Nachricht. Die Basis für diesen Nachrichtenaustausch sind Protokolle. Sie ermöglichen es, für unterstützte anwendungsseitige Plattformen fertige Komponentenbibliotheken anzubieten und trotzdem auch nicht bedachten Plattformen den (natürlich aufwändigeren) Zugang durch die Implementierung der
Protokolle zu ermöglichen. Für die sichere Zustellung der Nachrichten an die jeweiligen Module bietet sich in solchen Fällen eine Middleware (vgl. Vondrak, 1997) in Form
einer Messagequeue. Diese bearbeitet die Meldungen auf Protokollebene und stellt sie
dem richtigen Empfänger zu.
6.2.4
Datenstruktur
Um Daten, den obigen Anforderungen gerecht werdend, repräsentieren zu können sind
fünf Aspekte von zentraler Bedeutung.
Eindeutigkeit Um der Anforderung der Verteiltheit der Daten Rechnung zu tragen,
sollte die Referenzierung einzelner Daten und Datenstrukturen global eindeutig
sein
Abstraktion Aufgrund der Tatsache, dass MAPA als universelles Mapping Tool Verwendung finden soll, darf das Datenmodell keinerlei Annahmen über eine etwaige Interpretation der Daten machen. Es muss daher eine gewisse Flexibilität garantieren und somit einen gewissen Grad an Abstraktion bieten. Diese Forderung
wirkt sich mindestens auf zwei verschiedenen Ebenen aus:
77
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Abbildung 6.2: Aufteilung des Systems in 3 Ebenen: Anwendungs-, Datenhaltungs- und
Serviceschicht
• Knoten und Relationen dürfen im Datenmodell nicht unterschieden werden
(siehe z.B. MindMapping)
• Daten müssen generell in zweck-, anwendungs- und plattformunabhängiger
Weise repräsentiert werden
Erweiterbarkeit Neben der Abstraktion sollte das Datenmodell auch im Hinblick auf
Erweiterbarkeit flexibel gestaltet sein. Sind nämlich anwendungsseitig Informationen zur Interpretation der Daten notwendig und ist es erwünscht diese innerhalb der angebotenen Datenstrukturen abzulegen, so muss auch dieses nachträglich möglich sein
Vernetzbarkeit Das Datenmodell muss eine Vernetzung im Sinne eines Wissensnetzes
unterstützen
Aus dem Kriterium der Erweiterbarkeit und der Forderung nach Typisierung ergibt
sich ein weiterer Aspekt, der bei der Definition des Datenmodells sinnvoll erscheint,
nämlich
Metadatierung Es sollte eine Trennung zwischen eigentlichen inhaltlichen Daten (Text,
Bild, Video, Audio etc.) und Daten über Daten, also Metadaten, geben. Typinformationen sind hierbei als Metadaten zu verstehen. Weitere Metadaten könnten
beispielsweise Services (z.B. intelligenten Software-Agenten) zur semantischen Interpretation zur Verfügung gestellt werden.
6.2.4.1
Entities als vielfältige und abstrakte Datenstrukturen
Die oben angeführten Kriterien für das Datenmodell werden in MAPA im Grunde
durch eine einzige Datenstruktur, der so genannten „Entity“ (dt.: Entität) realisiert. Ihr
Aufbau wird weiter unten genauer beschrieben (siehe Abschnitt 6.3.1). Sie bildet die
vielfältige und abstrakte Grundlage des MAPA-Systems.
78
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
6.2.4.2
Typisierung als flexibler Mechanismus der Metadatierung
Ein Wissensnetz bietet an und für sich bereits die Möglichkeit semantische Sachverhalte
über Konzepte und Relationen auszudrücken. In der Regel geschieht dies jedoch beim
Mapping mit einem geringen Grad an Formalität. Für die Wiederverwendung von Wissen bzw. Wissensnetzen, sei es in kooperativen, interpersonellen Kontexten, sei es zur
maschinellen semantischen Verarbeitung jeglicher Art (Software-Agenten, intelligente
Suche, semantische Wissensanalyse etc.), ist es allerdings erforderlich, dass zusätzliche,
beschreibende Informationen beigefügt werden können, welche die intendierte Semantik von Konzepten und Relationen genauer, d.h. formal oder semi-formal, spezifizieren.
Im Allgemeinen werden zu diesem Zweck Ontologien eingesetzt, die es erlauben Daten
zu typisieren (semantisch zu klassifizieren) und auch Eigenschaften und Mechanismen
auf diesen Typen zu definieren (Fensel, 2001). Ontologien lassen die Definition solcher
Typsysteme auf verschiedenen Ebenen zu:
Domänenspezifische Ontologien erfassen das Wissen einer bestimmten Domäne
Metadatenontologien spezifizieren ein Vokabular, um den Inhalt von Informationsquellen zu beschreiben
Generische Ontologien des „gesunden Menschenverstandes“ erfassen generelles Wissen über die Welt, also domänenübergreifendes Wissen grundlegender Begriffe
Repräsentationale Ontologien definieren das Repräsentationsformat für Konzepte,
ohne festzulegen, was repräsentiert wird
Methoden- oder aufgabenspezifische Ontologien definieren Begriffe für spezifische
Aufgaben oder Methoden
Moderne Ontologiesprachen bieten dabei vor allem folgende Spezifikationsmöglichkeiten:
Spezifikation der Semantik von Typen
Spezifikation von Relationen zwischen Typen (meist hierarchisch)
Vererbung von Eigenschaften unter Typen
Um das gesamte Spektrum der Typisierung von einfachen Bezeichnern bis hin zu
komplex strukturierten Ontologien und den darauf operierenden Mechanismen abzudecken, bedarf es einer Repräsentation von Typen, die so wenig restriktiv und so flexibel
ist wie möglich. Das bedeutet, dass sie die Einbindung moderner Ontologiesprachen erlauben muss und beliebig erweiterbar sein sollte. Insbesondere muss gewährleistet sein,
dass mehrere Typsysteme parallel existieren können, also, dass ein Konzept mehr als
einen Typen aus mehr als einem Typsystem haben kann. Als konkrete Anforderungen
sind demnach die folgenden festzuhalten:
Offenheit Keinerlei Restriktionen in der Repräsentation einzelner Typsysteme bzw.
Ontologien
Erweiterbarkeit Keinerlei Einschränkung in der Zahl der Typsysteme bzw. Ontologien
79
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
6.2.5
Topic Maps als Gliederungsmechanismus
Um der Anforderung der Übersichtlichkeit und Gliederung des Netzes gerecht zu werden (vgl. Abschnitt 6.1.1.1), benötigt MAPA einen Mechanismus, der eine semantische
Aufteilung des Netzes unterstützt, ohne dabei die semantische Kohärenz des Netzes
zu zerstören. Beispielsweise kann eine Information sowohl zum Thema Philosophie als
auch zum Thema Neurobiologie zugeordnet werden. Außerdem ist diese Zuordnung
für jeden Benutzer anders. Eine Möglichkeit, dieses Problem zu beheben, liefert MAPA
bereits mit: Entitäten können als Gliederungsknoten gekennzeichnet werden und mit
allen Entitäten, die entsprechende Informationen tragen verbunden werden.
Abbildung 6.3: Topic Maps als Gliederungsmechanismus
Auf diese Weise bilden sich vernetzte Topic Maps (siehe Abbildung 6.3), deren Themenknoten selbst wieder miteinander als Netz verbunden sein können. Greift ein Nutzer einen seiner Themen-Knoten heraus, so kann er sich bei der Arbeit auf die damit
assoziierten Knoten beschränken und in einem übersichtlichen Teilnetz navigieren.
6.3
Kernarchitektur
Im Folgenden wird die auf den im letzten Abschnitt beschriebenen Konzepten aufbauende grundlegende Architektur des MAPA-Systems dargestellt.
6.3.1
Entity-Orientiertes Datenmodell
Im vorangegangen Abschnitt ist darauf hingewiesen worden, dass MAPA auf einer einzigen Datenstruktur gründet, der Entity. Aus diesem Grunde kann man auch ohne weiteres von einem „Entity-Orientierten Datenmodell“ sprechen. Der einfacheren Handhabung des Datenmodells halber und aus Gründen, die mit der Definition der Abfragesprache MQL zusammenhängen (siehe Abschnitt 6.3.3.3.2), wird allerdings eine weitere
abstrakte Datenstruktur durch die Kernarchitektur bereit gestellt, das EntitySet .
80
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
6.3.1.1
Entity
Die Datenstruktur Entity setzt sich aus folgenden Elementen zusammen:
ID Eine global eindeutige Kennung (Identifikator)
Content (optional) Die mit dieser Entity assoziierten Daten
Metadata Die mit dieser Entity assoziierten Metadaten. Dieses Element kann beliebig
erweitert werden, um unterschiedlichste Metadaten zu fassen. Es ist allerdings
zunächst unterteilt in
Applications (optional) Hier können sich Anwendungen im Stile einer „Registry“ eintragen und anwendungsabhängige Informationen vermerken, die
zur Interpretation der Daten dieser Entity notwendig sind
Info An dieser Stelle können anwendungsunabhängige Metadaten hinterlegt
werden, wie
Type Die mit dieser Entity assoziierten Typinformationen (siehe auch Abschnitt 6.3.1.3)
Version Die Versionskennung dieser Entity
Names (optional) Hier können Namensbezeichnungen für diese Entity abgelegt werden (nach Sprachen unterschieden)
Pointers (optional) Technische Referenzen auf Entities, mit denen diese Entity verbunden ist (unterschieden nach Ziel, Rolle (optional) und Name (optional))
Abbildung 6.4: Die Entität
6.3.1.2
EntitySet
Das EntitySet bietet die Möglichkeit eine beliebige Menge von Entities zusammenfassend zu repräsentieren. Die definierten Eigenschaften eines EntitySet sind:
81
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Abbildung 6.5: Zwei verknüpfte Entitäten – Anwendungsabhängige Darstellung bei
einheitlichem Datenformat
82
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
• Ein EntitySet enthält null (die leere Menge ∅) bis unendlich viele Entities
• Eine Entity, identifiziert über ihre eindeutige Kennung (ID), ist höchstens einmal
in einem EntitySet enthalten
S
• Das besondere Universal-EntitySet (auch ALL genannt) enthält alle Entities, d.h.
alle zu einem bestimmten Zeitpunkt verfügbaren Entities
Die elementaren Operationen auf EntitySets sind dieselben, die auch auf Mengen allgemein gelten:
• Vereinigung ∪ : Ergebnis der Vereinigung zweier EntitySets S1 und S2 ist ein einziges EntitySet S∪ mit der Eigenschaft, dass S∪ alle Entities aus S1 und alle Entities
aus S2 enthält
• Durchschnitt ∩ : Ergebnis des Durchschnitts zweier EntitySets S1 und S2 ist genau
ein EntitySet S∩ mit der Eigenschaft, dass S∩ alle Entities aus S1 und S2 enthält,
die gleichzeitig sowohl in S1 als auch in S2 enthalten sind
Ebenso gelten die Teilmengen-, Restmengen- und Gleichheitsbeziehungen der Mengenlehre:
• Gleichheit = : Zwei EntitySets gelten als gleich, wenn sie dieselben Entities enthalten. Die Gleichheitsbeziehung ist reflexiv, symmetrisch und transitiv
• Teilmenge ⊂ : Ein EntitySet S1 ist Teilmenge eines EntitySets S2 , wenn jede Entity
in S1 zugleich auch im EntitySet S2 enthalten ist
• Restmenge \ : Die Entities eines EntitySets S1 , die einem EntitySet S2 nicht angehören, bilden die Restmenge S1 \S2
6.3.1.3
Typsystem
Um den Anforderungen der Offenheit und der Erweiterbarkeit der Typisierung nachzukommen, ist das innerhalb einer Entity vorgesehene Type-Feld (siehe 6.3.1.1) in seinen
möglichen Ausprägungen vollkommen uneingeschränkt. Anwendungen können demnach wie auch immer geartete Informationen ablegen. Die Auswertung dieser Typinformation ist ebenfalls der Anwendung.
Das MAPA-Framework stellt allerdings abstrakte Schnittstellen zur Verfügung, um
Typinformationen auf Entityebene zu definieren und dynamisch aufzulösen (zu resolvieren):
Type Spezifikation der Semantik von Typen und evtl. ihrer Relationen untereinander
(d.h. von welchem Typ bzw. welchen Typen eine Entity ist). Diese Information
kann zum Zwecke der Typisierung im Type-Feld der Entity abgelegt werden
TypeResolver Spezifikation von Resolutionsmechanismen, um Relationen und ggf.
auch Vererbung zwischen Typen aufzulösen (d.h. um z.B. zu bestimmen, ob eine Entity von einem bestimmten Typ ist und welche Eigenschaften sie durch ihn
erbt)
83
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
TypeResult Spezifikation der Ergebnisse von Resolutionsanfragen gegen Entities, d.h.
welche Ergebnisse ein Resolutionsmechanismus’ auf Entities ergeben kann (z.B.
ob eine Entity von einem bestimmten Typ ist oder von welchem Typ bzw. welchen
Typen sie ist)
Typsysteme/Ontologien, die diese abstrakten Schnittstellen gemäß ihrer jeweiligen
Spezifikation implementieren, können durch das Framework generisch eingebunden
und nach ihrer Registrierung2 systemweit zur Typisierung von Entities genutzt werden.
Aus pragmatischen Gründen erscheint es sinnvoll, einige grundlegende Typsysteme bereits mit im Framework zu verankern. Dies ermöglicht eine schnelle und einfache Typisierung von Entities, ohne dass zuvor die einbindungsexternen Ontologiesprachen zwingend eingebunden und verwendet werden müssen. Im Folgenden werden
die zwei derzeit integrierten Typsysteme kurz vorgestellt. Beide spezifizieren die Semantik von Typen und von Relationen zwischen Typen, jedoch noch nicht die Vererbung von Eigenschaften durch Typen.
6.3.1.3.1 String-Typesystem Mithilfe dieses Typsystems können Entities durch eine einfache textuelle Repräsentation (String) mit Typen versehen werden. Das StringTypesystem setzt sich aus der spezifischen Implementation der drei vorgegeben Schnittstellen zusammen:
StringType Eine einfache Zeichenfolge als Typ („Nomen“, „Hyperonym“, „Wirbeltier“
etc.)
StringTypeResolver Ein Resolutionsmechanismus über StringTypes, der auf Grundlage einer Hierachie von StringTypes (Ontologie) den Typ bzw. die Typen einer
Entity auflösen kann
StringTypeResult Gibt an, ob eine Entity laut StringTypeResolver von einem bestimmten StringType ist oder nicht
6.3.1.3.2 Entity-Typesystem Das Entity-Typesystem macht sich die Datenstruktur
Entity selbst zu Nutze, um Entities zu typisieren. Jede Entity im Netz kann als Typ
jeder anderen Entity fungieren und gleichzeitig weiterhin als „ganz normale“ Repräsentation eines Konzeptes herhalten. Diese Herangehensweise hat den Vorteil, dass das
Entity-Datenmodel gewissermaßen in sich geschlossen bleibt und dass auf bereits vorhandene Mechanismen zur Verknüpfung von Entities zurückgegriffen werden kann.
Einen Nachteil könnte man darin sehen, dass die Grenze zwischen Daten und Metadaten verschwimmt und es nicht mehr notwendigerweise möglich ist auch in der Darstellung zwischen diesen zu unterscheiden (z.B. Typen gesondert ein- oder auszublenden).
Die drei vorgegebenen Schnittstellen stellen sich für das Entity-Typesystem folgendermaßen dar:
EntityType Eine technische Referenz (Pointer, siehe 6.3.1.1) auf die Entity, die als Typ
fungieren soll
2 Typsysteme bestehend aus Type-, TypeResolver- und TypeResult-Implementationen, können dem System
per Anmeldung bei der so genannten TypeRegistry explizit bekannt gemacht werden
84
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
EntityTypeResolver Ein Resolutionsmechanismus über EntityTypes (und damit über
Entities), der auf Grundlage der Verknüpfungen von Entities durch EntityTypeReferenzen (Ontologie) den Typ bzw. die Typen einer Entity auflösen kann
EntityTypeResult Gibt an, ob eine Entity laut EntityTypeResolver eine bestimmte andere Entity als Typ hat oder nicht
Abbildung 6.6: Der Mechanismus der Typresolution (mit Entity-Typsystem als Beispiel)
6.3.2
Ebenen
6.3.2.1
Datenhaltung
Die Datenhaltungsschicht übernimmt die Verwaltung der Entitäten im Entitätennetz.
Zu ihren Aufgaben zählen:
Konsistenthalten der Daten Einhaltung der prinzipiellen Eigenschaften des Netzes:
• Jede Entität hat eine im Entitätennetz eindeutige ID
• Jede Entität ist mit der Ursprungsentität über mindestens einen Weg verbunden
• Persistente und konsistente Speicherung der Entitäten
Bearbeitung komplexer Anfragen Anfragen an die Datenhaltung werden mit der Abfragesprache MQL (MAPA Query Language) formuliert. Diese Statements werden
von der Datenhaltung interpretiert. Dabei sind z.B. logische Verknüpfungen von
Entitätenmengen möglich sowie die Suche nach verbundenen Entitäten.
85
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Kapselung der Datenhaltung Welche Art von Datenbank Managementsystem hinter
der MAPA-Datenhaltung steht, ist von außen nicht ersichtlich. Für zugreifende
Systeme existieren nur Entitäten und EntitätenSets.
6.3.2.2
Anwendung
Die Anwendungsschicht stellt den für den Benutzer sichtbaren Teil des MAPA-Systems
dar. Dabei sind folgende Implementierungsmöglichkeiten gegeben:
Als unabhängige Software Die Anwendung ist komplett neu implementiert und basiert auf den MAPA-Protokollspezifikationen.
Als unabhängige Java-Software Die Anwendung ist in Java implementiert und benutzt die in einer Java-Integrations-Bibliothek zur Verfügung gestellten Komponenten, die unter anderem auch die MAPA-Protokollspezifikationen implementieren.
Als Eclipse-basierte Software Die Anwendung läuft als Teil (Plugin) des EclipseFrameworks. Dieses Anwendungsframework erleichtert die Implementierung benutzerfreundlicher Software mit grafischer Oberfläche in Java. MAPA stellt dafür sowohl die Integrationsbibliothek als auch einige MAPA-/Eclipse-spezifische
Komponenten zur Verfügung.
Im letzten Fall unterteilt sich eine typische MAPA-Anwendung in 3 Schichten:
• die Integrationsbibliothek (Modell)
• die Ablauflogik (Controller)
• die grafische Darstellung (View)
Auf diese Weise ist es selbst innerhalb einer Anwendung möglich, verschiedene Visualisierungen mit der gleichen Ablauflogik zu versehen.
6.3.2.3
Service-Schicht
Die Service-Schicht ermöglicht das Einbinden von Programm-Modulen, die einer bestimmten MAPA-Plugin-Spezifikation folgen, auf der Seite der Datenhaltungsschicht.
Ein solches Modul kann z.B. komplexe Vorgänge kapseln, welche von Anwendungsseite durch eine simple Nachricht ausgelöst werden können. Auf diese Weise kann Komplexität aus der Anwendung ausgelagert und mehreren Anwendungen zur Verfügung
gestellt werden. Gleichzeitig trägt dieser Mechanismus zur Vermeidung von Nachrichtenverkehr bei, da benötigte Daten auf der Datenhaltungs-/Service-Seite bis zum Ende
der Verarbeitung bleiben und nur das Ergebnis des Prozesses wieder an die Anwendung zurück transferiert werden muss.
6.3.3
Kommunikation
6.3.3.1
Message Broker
Der Message Broker bildet als Nachrichten-Queue den Kommunikationskern eines
MAPA-Systems. Er empfängt Anfragen von Anwendungen und sendet diese an die
86
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Datenbank. Durch die Auslagerung der Kommunikation in diese Komponente können
auch Anwendungen über das Netz auf eine lokale MAPA-Datenbank zugreifen. Der
Message Broker behandelt diese wie lokale Anwendungen und stellt so das Portal eines jeden MAPA-Systems dar. Aufgrund dieser Architektur sind auch MAPA-Systeme
denkbar, die nur aus einer lokalen Datenbank bestehen und so als Entitäten-Server fungieren während alle Anwendungen remote auf anderen Rechnern im Netz ablaufen.
6.3.3.2
Message Protokoll Stack
Ähnlich dem OSI-Netzwerk-Modell (vgl. McCullough, 1997) bauen die MAPAProtokolle stufenweise aufeinander auf. Dies erlaubt die spätere Erweiterbarkeit höherer Protokollschichten bei Konstanthaltung niedrigerer, systemgrundlegender Schichten.
6.3.3.2.1 Die Transportschicht Auf der Ebene der Transportschicht können verschiedenste Protokolle zum Einsatz kommen. Denkbar sind sowohl Peer-to-PeerProtokolle wie JXTA als auch TCP/IP oder darauf aufbauende Protokolle wie JavaRMI oder SOAP/WebServices. Pakete auf dieser Ebene kapseln Pakete der MAPARoutingschicht. Aufgrund dieser Trennung von Routing- und Transportschicht kann
ein MAPA-System prinzipiell über viele Netze hinweg mit anderen MAPA-Systemen
kommunizieren.
6.3.3.2.2 Die MAPA-Routingschicht Die MAPA-Routingschicht stellt innerhalb des
Protokollstacks die einzige Konstante dar. Sie arbeitet mit dem MAPA Message Protocol, welches Routingdaten auf MAPA-Ebene bereitstellt. Sie ist nicht nur für das
Message-Routing zwischen bestimmten MAPA-Systemen im Netz zuständig, sondern
auch zwischen Systemkomponenten, die sich beim lokalen Message Broker als empfangende Services für bestimmten MAPA-Content angemeldet haben.
6.3.3.2.3 Die MAPA-Content-Schicht Die Pakete dieser Schicht beinhalten den eigentlichen Content von MAPA-Nachrichten. Ein grundlegendes Protokoll dieser Ebene
bildet die MQL, in welcher Datenabfragen an die Datenhaltung formuliert werden. Jeder Anwendung steht es frei, dieser Ebene weitere Protokolle hinzuzufügen, z.B. für
Chatmessaging oder Remotecontrolling.
6.3.3.3
Die Protokolle
Während im vorangegangen Abschnitt die Ebenen des MAPA-Protokollstacks abstrakt
beschrieben wurden, wird im Folgenden konkret auf die zwei wichtigsten Protokolle
des MAPA-Protokollstacks eingegangen
6.3.3.3.1 MMP Das MAPA Message Protocol steuert das Routing der MAPANachrichten zwischen den Systemen. Es enthält folgende Informationen über den Verteilungsmodus:
• lokal
87
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
• lokal + global (lokal + Systeme im Netz per broadcast)
• nur global
• gezielt (bestimmtes System im Netz)
In Kombination mit der in einem MMP-Paket enthaltenen Contenttype-Information,
kann der Message Broker so die Daten an alle bei ihm angemeldeten Dienste bzw. andere Dienste im Netz weiterleiten. Da die Kommunikation im MAPA-Netz asynchron
verläuft, enthält jede Anfrage eine ID, auf die sich zurückkommende Antworten wiederum beziehen können, so dass die Simulation eines synchronen Modus auf höherer
Ebene möglich ist.
6.3.3.3.2 MQL Die MAPA Query Language stellt zum einen ein Protokoll der MAPAContent-Schicht dar. Zum anderen ist sie der Abstraktionsmechanismus, der den
MAPA-Anwendungen Daten in Form von Entitäten und EntitätenSets zur Verfügung
stellt. Das Diagramm (Abbildung 6.7) zeigt den Aufbau von MQL-Nachrichten.
Abbildung 6.7: Aufbau der MAPA Query Language
Eine MQL-Nachricht kann zunächst eine Anfrage (Statement) oder eine Antwort
(Result) sein. Erstere enthält formulierte Verknüpfungen von beschriebenen oder vollständigen EntitätenSets, letztere enthält ein Ergebnis-EntitätenSet. Das Ergebnis von
Abfragen und damit auch von Unterabfragen sind immer EntitätenSets. Jede Abfrage
bezieht sich auch immer auf EntitätenSets, welche logisch miteinander verknüpft werden können, wobei wieder neue EntitätenSets entstehen. Das EntitätenSet ALL repräsentiert schließlich das MAPA-Netz als solches und muss in jeder Anfrage, die sich auf
die Datenbank bezieht, sozusagen als Terminator, stehen. Eine andere Möglichkeit besteht darin, nicht nur EntitätenSet zu beschreiben (z.B. alle Entitäten mit Namen „MAPA“ ), sondern Sets mitzusenden, die konkrete Entitäten enthalten. Auf diesen kann
dann statt auf ALL logisch operiert werden. So stellt die Datenhaltungsschicht einfache
88
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Mechanismen zur Manipulation von EntitätenSets zur Verfügung, die auf der Anwendungsseite genutzt und so nicht jedes Mal neu implementiert werden müssen.
6.3.4
Komponentenentwurf
Im Folgenden werden die wichtigsten Komponenten der in Abschnitt 6.3.2 dargestellten
Schichten detailliert vorgestellt.
6.3.4.1
Datenhaltung
Die Datenhaltung meldet sich beim Message Broker für MQL-Content an. Sie empfängt
die Pakete und baut aus der enthaltenen MQL-Abfrage einen Objektbaum auf, der in
seiner Klassenstruktur die Struktur von MQL widerspiegelt. Das äußerste Element bildet ein MQL-Kommando. An dieses wird schließlich der Execute-Befehl gesendet, der
an die inneren Elemente weiterpropagiert wird, bis das innerste Element schließlich
ein EntitySet als Ergebnis zurückgibt, auf welchem das nächst äußere Element operieren kann. Diese Ausführungsstruktur nutzt die Ausrichtung der MQL auf EntitätenSets konsequent, so dass sich eine entitätenbasierte Datenhaltung herausbildet. Das aus
dem Kommando resultierende EntitySet wird in ein Antwort-Paket verpackt und an
den Message Broker zurückgegeben.
6.3.4.2
Message Broker
Der Message Broker arbeitet als Nachrichten-Queue. Neue Nachrichten werden in die
Schlange eingespeichert und von einem permanent laufenden Zustellungsthread abgearbeitet.
Abbildung 6.8: Der Message Broker und die ihn umgebende Infrastruktur aus MessageAdapter und Service
Die Einspeisung erfolgt dabei über MessageAdapter (siehe Abbildung 6.8). Diese
stellen die Protokoll-Abstraktion auf der Transportebene dar. So sind für den lokalen
Messageversand simple Java-Adapter denkbar, für den Versand über das Internet geht
die mögliche Spanne von RMI-Adaptern bis hin zu TCP/IP-Adaptern. Ein Adapter
speist seine Nachricht als Nachrichten Objekt in die Queue und wartet anschließend
auf die Antwort des Message Brokers. Dieser analysiert den Verteilungsmodus des im
89
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Nachrichtenobjekt enthaltenen Paketes und stellt es allen bei ihm für den entsprechenden Content registrierten Services zu. Findet er in der Queue ein Antwort-Paket, so
erkennt er anhand der AdapterID den anfragenden Adapter und übergibt die Antwort
auf seine Anfrage.
6.3.4.3
Java Integration Library
Die Java Integrations-Bibliothek stellt für MAPA-Anwendungsprogrammierer eine Vereinfachung in Form fertiger Komponenten dar (siehe Abbildung 6.9). Sie besteht im
Wesentlichen aus den drei folgenden Elementen:
• MQL-Framework
• Net-Schnittstelle
• Com-Schnittstelle
Abbildung 6.9: Die Komponenten der Java Integration Library (JIL) ermöglichen ein
einfaches und flexibles versenden von MAPA-Nachrichten
Das MQL-Framework stellt die gespiegelte Struktur des in der Datenbankablaufenden MQL-Interpretationsprozesses dar. Mit den hier zur Verfügung gestellten Klassen kann der Anwendungsentwickler komplexe MQL-Abfragen programmieren, welche zum Kompilierzeitpunkt zu einem gewissen Maß auf Konsistenz geprüft werden.
Das fertige Kommando wird an die Net-Klasse weitergereicht. Diese stellt die MQLSchnittstelle zur restlichen MAPA-Welt dar. Sie bietet nicht nur diese Sendemöglichkeit
für fertige MQL-Kommandos, sondern stellt auch komplette Methoden für einfache
Abfragen zur Verfügung (z.B. Entität A einfügen). Eine Ebene darunter befindet sich
die Com-Klasse. Diese erhält von der Net-Klasse die MQL-Pakete und verpackt sie in
MMP-Pakete, die an den Message Broker des lokalen Systems weitergereicht werden.
90
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Auf ihr aufsetzend können generell MMP-Content-Pakete verschickt werden. Verwendet eine Anwendung eigene spezifizierte Protokolle, so kann es sinnvoll sein, analog
zur Net-Klasse, eine eigene, auf der Com-Klasse aufsetzende, Schnittstellenklasse zu
implementieren.
6.3.5
Anwendungslogik
Eine Anwendungslogik wurde im Prototypen für die wichtigsten Elemente des Visualisierungsprozesses angelegt (Knoten erzeugen, verbinden, löschen, bearbeiten).
6.3.6
Visualisierung
Das Grundmodell der Visualisierung im Prototypen realisiert eine erweiterte Klasse von
ConceptMaps. Strukturelle Erweiterungen in Richtung Zooming und hierarchischen
Knoten (Knoten, die selbst Netze sind) sind angelegt.
6.4
Gesamtbild
Die bisher entwickelte Architektur lässt sich in fünf Bereiche aufteilen (siehe Abbildung
6.10):
Plattformunabhängige Teile Die Protokolle im Protokollstack.
Java-basierte Teile Integrationskomponenten zum leichteren Aufsetzen von JavaProgrammen auf MAPA (Java Integration Library).
Eclipse-basierte Teile Das Eclipse-PlugIn, das die Brücke zwischen den Eclipsebasierten Views und der Java Integration Library darstellt.
Das MAPA-System Es besteht aus der Datenhaltungs- und der Service-Schicht.
Eine MAPA-basierte Anwendung Sie nutzt die vom MAPA-System bereitgestellten
Daten.
Die ersten drei Teile bilden das MAPA-Framework aus Spezifikationen und fertigen
Bibliotheken. Hinzu kommt eine Referenzimplementierung des Systems in Java. Zusammen bildet diese Kombination ein lauffähiges MAPA-(Daten-)System. Jede MAPAbasierte Anwendung stellt schließlich eine Implementation auf Basis dieses Frameworks dar, welche auf das MAPA-(Daten-)System zugreift.
Anwendung, Datenhaltung, nachrüstbare Services und die Kommunikation innerhalb des Systems und mit der Umwelt sind getrennt in Ebenen. Die Abbildung 6.11
veranschaulicht dies noch einmal.
Vereinfacht dargestellt besteht eine komplette MAPA-Anwendung im Idealfall also
aus einem Eclipse-Plugin für die Visualisierungen des Netzes, aus einer Programmlogikkomponente und der MAPA-Datenbank, mit der die Anwendung per Integrationsbibliothek kommuniziert.
91
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Abbildung 6.10: Die fünf Komponenten von MAPA: die Teile des Frameworks, das
System als Referenzimplementierung der Standards und eine MAPA-basierte Anwendung
92
KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS
Abbildung 6.11: Ein MAPA-System und seine Aufteilung in Anwendungs-, Datenhaltungs- und Service-Schicht im Überblick. Dazu noch die MessageBroker-Komponente
als vermittelndes Kontaktportal zur Außenwelt
93
Kapitel 7
Implementierung und Ergebnisse
von Stefan Scherbaum und Jens Wissmann
94
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
Im Folgenden wird der Prototyp vorgestellt, welcher innerhalb des einjährigen
Master-Projekts implementiert wurde. Zunächst wird auf die dabei verwendeten Technologien eingegangen. Anschließend wird der Umfang des Prototypen im Vergleich
zur im vorigen Kapitel vorgestellten Architektur diskutiert. Darauf folgen einige
Implementierungs-Beispiele, welche den Fokus auf einige bedeutende Details setzen,
um so einen tieferen Einblick in den Aufbau der Software zu liefern. Abschließend wird
der Prototyp und die Bedienoberflächen vorgestellt.
7.1
Implementierungsumgebung
MAPA, selbst als Framework gedacht, verwendet verschiedenste, standardisierte Technologien und Frameworks, welche die Entwicklung einer solch komplexen Anwendung erheblich beschleunigen und vereinfachen. Im Folgenden werden die wichtigsten
davon vorgestellt.
7.1.1
Java
Die 1995 von der Firma Sun vorgestellte objektorientierte Programmiersprache Java1
hat sich mittlerweile als eine der Standard-Programmiersprachen in Industrie, Forschung und Programmier-Ausbildung etabliert. Sie hat einige Eigenschaften, welche
sie sowohl für die Erstellung eines Prototyps, als auch für die Verwendung für Endprodukte prädestinieren. Herauszustellen sind hier besonders die Robustheit z.B. bezüglich Speicherlecks, welche eine zügige Entwicklung und die Konzentration auf das
Wesentliche einer Software erlaubt, und die Plattformunabhängigkeit, die gerade für
ein MAPA-System nicht wegzudenken ist. Hinzu kommen die Vorteile einer breiten,
offenen Entwicklergemeinde, wie die Verfügbarkeit von Frameworks und das schnelle
Aufgreifen von Technologietrends und deren Integration in die Java Welt.
7.1.2
XML
Die Extensible Markup Language XML2 ist eine vom World Wide Consortium 1998
als Standard verabschiedete und mittlerweile breit akzeptierte Metasprache. Sie stellt
einen standardisierten Satz von Elementen (Tags, Attribute) zur Verfügung, um darauf
aufbauende Sprachen zu definieren. Auf der Struktur von XML-Dokumenten können
viele weitere standardisierte Technologien operieren. Beispielsweise genannt seien hier
XPath3 zur Navigation in Dokumenten und XSLT zur automatisierten Transformation
von XML-Dokumenten in andere Formate. Ein weiterer Vorteil von XML ist seine Lesbarkeit. Da die Struktur der Dokumente festgelegt ist, können die Daten automatisch
von Computern gelesen und verwendet werden. Da XML aber ein textbasiertes Format
ist (im Gegensatz zu binärcodierten Dokumenten), ist es auch von Menschen lesbar und
direkt (z.B. in einem Editor) manipulierbar.
1 http://java.sun.com
(Stand: März 2004)
(Stand: März 2004)
3 http://www.w3c.org/tr/xpath (Stand: März 2004)
2 http://www.w3c.org/XML
95
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
7.1.3
Eclipse
Das Eclipse-Projekt4 versteht sich selbst als eine „universelle Werkzeug-Plattform“. Dies
bedeutet zum einen, dass Eclipse eine moderne Entwicklungsumgebung (IDE) für Java
bereitstellt (Eclipse-JDT), um Anwendungen zu entwickeln. Zum anderen können Anwendungen als Plugin in der Eclipse-Platform ausgeführt werden. Eclipse spielt dann
eine ähnliche Rolle wie ein Betriebssystem und bietet gemeinsame Bedienelemente und
Logikstrukturen zwischen den Anwendungen. Eclipse ist außerdem betriebssystemunabhängig5 konzipiert. Daher bietet sich die Möglichkeit Anwendungen zu entwickeln,
die betriebssystemunabhängig sind und trotzdem nicht auf ein einheitliches Benutzerinterface und auf die Integration mit anderen Programmen verzichten müssen. Diese
Verwendungsweise von Eclipse wird im Moment von einer Reihe von Firmen als Gegenoffensive zu Microsofts .NET gefördert. IBM ist hier besonders zu nennen, da ein
Teil ihrer Produktpalette (WebSphere-Studio) auf Eclipse aufbaut. Weiterhin ist erwähnenswert, dass sich unter den Entwicklern von Eclipse Namen wie Erich Gamma finden
lassen, der eine Schlüsselfigur der Bewegung der Objektorientierten Programmierung
ist.
Das MAPA Projekt macht sich verschiedene Möglichkeiten des Eclipse-Projektes zunutze. Zum einen benutzen wir die Entwicklungsumgebung zur Erstellung des SourceCodes, zum Austausch und zur Versionierung von Dateien mit dem Versionierungssystem CVS und zur Dokumentation (UML, Javadoc). Zum anderen haben wir einen Teil
von MAPA (GUI und Anwendungs-Logik) als Eclipse-Plugin entwickelt, um uns oben
genannte Vorteile zunutze zu machen. Da MAPA zum Arbeiten mit verschiedenen Inhalten gedacht ist sollen außerdem Synergie-Effekte ausgenutzt werden, indem Plugins
für bestimmte Inhalte, die im Eclipse-Kontext entstehen auch direkt in MAPA genutzt
werden können.
7.1.4
GEF
GEF ist ein Framework für Graphisches Editieren als Eclipse-Plugin. Unter Verwendung
von GEF haben wir eine Beispiel-Visualisierung implementiert, die durch jedes andere Eclipse-Visualisierungs-Plugin oder eine selbst-programmierte Visualisierung ersetzt
werden kann. GEF basiert auf dem Model-View-Controller Paradigma: die Modellseite
— die Entities — werden durch GEF-Modell-Klassen reflektiert, deren graphische Visualisierung, View, durch entsprechende Controller-Klassen verwaltet und aktualisiert
wird. Die Controller besitzen EditPolicies, die das Erstellen von Commands regeln, die
auf dem Modell operieren, das bei Veränderung den Controller zum Aktualisieren der
View auffordert.
7.1.5
Dom4J
Das XML-Framework Dom4J6 ist eine komfortable Möglichkeit, XML in Java zu verarbeiten. Im Gegensatz zum vom W3C bereitgestellten DOM-Framework, welches programmiersprachenunabhängig definiert wurde, ist es auf die Vorteile von Java zuge4 http://www.eclipse.org
(Stand: März 2004)
Moment werden weitverbreitete Systeme wie Windows, Macintosh und Linux sowie einige kleinere
Systeme unterstützt.
6 http://www.dom4j.org (Stand: März 2004)
5 Im
96
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
schnitten. Auf diese Weise ermöglicht es einen speichereffizienteren, schnelleren und
einfacher zu implementierenden Umgang mit XML-Daten. Das Framework kam im
Rahmen von MAPA vor allem bei der Implementierung der XML-basierten Entities,
dem Verschicken von Messages im XML-Format (MMP, MQL) und der Datenbankseite
zum Einsatz.
7.1.6
Xindice
Xindice ist eine DB:XML-konforme Datenbank, die von der Apache-Group7 entwickelt
wird. Der DB:XML-Standard beinhaltet, dass XML-Standards sowohl für Ablagestruktur (XML, DTD, XML-Schema) als auch für Zugriffsstrukturen (XPATH, XUPDATE,
XQUERY) der Datenbank verwendet werden.
Die Persistenzschicht von MAPA ist durch selbst spezifizierte Interfaces (mapa.jil.persistence) und Protokolle (Entity-XML-Schema, MMP, MQL) beschrieben. Dadurch bleibt es zunächst prinzipiell offen, welche Art von Datenbank (XML, relational,
objektorientiert...) als Backend benutzt wird. Da in der Anwendung die Ausgangsdaten
(Entitäten) in XML vorliegen, müsste allerdings bei vielen Persistenzstrukturen (z.B. Tabellen einer relationalen Datenbank) eine zusätzliche Transformation der Daten vorgenommen werden. Für den Prototyp wurde daher Xindice als Backend verendet, da hier
ein solcher zusätzlicher Transformationsaufwand entfällt. Ein weiterer Vorteil ist, dass
in MQL enthaltene XPath-Ausdrücke direkt von der Datenbank ausgewertet werden
können.
7.1.7
ANTLR
Das ANTLR-Framework8 bietet aufbauend auf einer ANTLR-Grammatik-Sprache eine komfortable Möglichkeit, Parser und Lexer9 zu generieren. Die generierten Parser
können auf eine Vielzahl von Programmiersprachen (Java, C, ...) aufgesetzt und mit
vorhandenem Code integriert werden.
In MAPA wird ANTLR für die Beschreibung der Skript-Sprache der Kommandozeile verwendet. Komplexe Eingabestrukturen lassen sich so einfach beschreiben. Die
Trennung der Eingabe-Struktur der Kommandozeile von der nach dem Parse-Vorgang
auszuführenden Struktur ermöglicht es, die Eingabe flexibel ändern zu können ohne
das Veränderungen an der Logik vorgenommen werden müssen.
7.1.8
JUnit
JUnit10 ist ein von Erich Gamma und Kent Beck produziertes Framework für Modultests in Java-Software-Projekten. Auf unkomplizierte Art und Weise erlaubt es das Erstellen von Testklassen, die anschließend automatisch ausgeführt werden. Durch die
gegebene Struktur erleichtert und motiviert es so zum Testen erstellter Module und
beschleunigt und verbessert somit den Vorgang der Softwareerstellung. Im Rahmen
der Implementierung des MAPA-Prototypen setzten wir JUnit zum Beispiel zum Testen
7 http://www.apache.org
(Stand: März 2004)
(Stand: März 2004)
9 Ein Lexer unterteilt die Eingabe in Symbole (Vokabeln) der Eingabesprache.
10 http://www.junit.org (Stand: März 2004)
8 http://www.antlr.org
97
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
der MQL-Implementierung ein. Dabei erstellten wir sowohl Module für die einzelnen
MQL-Abfragen, als auch eine große Auswahl zusammengesetzter Statements, so dass
nach Abschluss der Tests die Funktion des Subsystems gewährleistet werden konnte.
7.2
Umfang der Implementierung
Im Rahmen eines einjährigen Master-Projektes ist die vollständige Implementierung aller bis hier vorgestellten Features weder möglich noch angestrebt. Ziel der im Folgenden
vorgestellten Implementierung ist daher ein Software-Prototyp, der die wesentlichen
Merkmale der im vorigen Kapitel vorgestellten Architektur implementiert und deren
Umsetzbarkeit beweist. Features, die den zeitlichen Rahmen des Projektes sprengen
würden, wurden von uns nicht ausgeklammert sondern in der Struktur der Software
berücksichtigt, so dass sie später implementiert werden können. Auf diese Weise ist
auch die Integrierbarkeit dieser Features durch den Prototypen belegt.
7.2.1
Features
Die vorliegende Implementierung umfasst die folgenden Features:
Framework Das Framework umfasst zum einen die Datenbank und die Implementierung der Protokolle MMP und MQL, zum anderen die Java Integration Library
(JIL), mit deren Hilfe Java-Applikationen (wie zum Beispiel die später vorgestellte
Kommandozeile oder der Grapheditor) auf die Datenbank mittels MQL-Klassen
zugreifen können.
Grapheditor Als MAPA-spezifische Beispielanwendung wurde ein einfacher Grapheditor in Eclipse implementiert, der Grundfunktionen wie das Erstellen, Positionieren, Modifizieren und Löschen von Knoten ermöglicht. Knoten können dabei
nicht nur Text sondern auch XML-basierte Datenformate und Bildformate enthalten (MathML, SVG etc.). Die Anwendung wurde auf Basis des GEF erstellt.
Entity-basierte Datenbank Das MAPA-typische Arbeiten mit Entitäten, ohne Berücksichtigung dahinter stehender, sie implementierender Datenstrukturen, wurde durch eine Abstraktionsschicht erreicht, welche es erlaubt, verschiedenste
Datenbank-Typen als persistente Datenspeicher zu verwenden. Im Rahmen des
Prototyps verwendeten wir die XML-basierte Datenbank Xindice, so dass die notwendigen Adaptionen der Entity-Datenstrukturen an die der Datenbank gering
ausfielen, ohne dabei zu viel Geschwindigkeit diesem Komfort zu opfern.
Offener Rahmen für weitere Features Die Implementierung weiterer Features, wie
z.B. die Zusammenarbeit mehrerer Benutzer an einem Netz, wurde durch die Einhaltung der Architektur offen gehalten. So wurde z.B. der Message Broker im System so aufgebaut, dass das Erstellen und Verwenden anderer Adapter als dem
simplen Java-Adpater möglich ist und somit die Kommunikation über die Systemgrenze hinaus relativ unaufwändig zu implementieren sein wird.
7.2.2
Einschränkungen
Folgende Features sind in der vorliegenden Implementierung nicht enthalten:
98
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
Kollaboration Die Arbeit mehrere Nutzer an einem Netz ist zwar im System angelegt,
aber nicht implementiert. Angestrebt ist, dass verschiedene Nutzer gleichzeitig
ihr Wissen in einem Netz ablegen können und sich so über Inhalte und Konzepte
austauschen können.
Sicherheitsrichtlinien Aufgrund der nicht vorhandenen Funktion für die Zusammenarbeit verzichten wir im Prototypen auch auf ein System von Sicherheitsrichtlinien, welche den Zugriff auf jede Entität und deren Inhalte nutzerabhängig regelt. Dies wiegt in einem Einbenutzer-System, wie dem hier vorliegenden, nicht
schwer, wird aber bei einer Öffnung der Daten für andere durch die Kollaborationsfunktion unentbehrlich werden.
Einfaches Typsystem Die Typisierung von Entitäten ist innerhalb des Prototyps implementiert, allerdings nur eingeschränkt. So fehlen z.B. Features wie Typ- bzw.
Eigenschaftsvererbung. Eine einfache Typisierung durch Strings sowie durch Entitäten ist allerdings bereits möglich.
Komplexe GUI Die Implementierung einer anspruchsvollen, und von kommerziellen
Produkten gewohnten grafischen Benutzeroberfläche ist sehr zeitaufwändig. Im
Rahmen des Prototypen beschränken wir uns daher auf eine einfache grafische
Oberfläche, welche die prinzipiellen Möglichkeiten von MAPA eröffnet. Hinzu
kommt eine Kommandozeile, welche auch eine komplexere Navigation im Wissensnetz ermöglicht.
7.3
7.3.1
Implementierungs-Beispiele
Einbindung der Technologien
Im Folgenden werden einige Beispiele aufgeführt, wie die von uns genutzten Frameworks in MAPA eingebunden werden.
7.3.1.1
Einbindung in Eclipse
Eclipse stellt verschiedene Extensions-Points zur Verfügung, um eigenen Java-Code
mit Eclipse-Funktionalität zu verbinden. Ein Plugin ist dann die Beschreibung und
Implementierung der verwendeten Extensions-Points. Abbildung 7.1 zeigt mögliche
Extensions-Points für die grafische Oberfläche.
Um MAPA als Eclipse-Plugin zu verwenden muss erstens ein Konfigurations-Skript
geschrieben werden, dass die Plugin-Funktionen beschreibt (welche Extension-Points
werden benutzt, etc.):
<plugin name="mapa" ...>
...
<extension
id="mapa.eclipse.gefeditor"
name="GEF Editor"
point="org.eclipse.ui.editors">
<editor
name="GEF Editor"
icon="icons/mapa.GIF"
99
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
Abbildung 7.1: Verschiedene Extension-Points der Eclipse-GUI
extensions="mapa"
class="mapa.eclipse.gef.GEFGraphEditor"
id="mapa.eclipse.gefeditor">
</editor>
...
</extension>
</plugin>
Zweitens müssen von Eclipse bereitgestellte Java-Interfaces für die jeweiligen Funktionen implementiert werden. Für das obigen Konfigurationsbeispiel muss der ExtensionPoint org.eclipse.ui.editors durch eine Klasse mapa.eclipse.gefeditor implementiert werden.
Die Interfaces bestehen im Wesentlichen aus Zugriffsmethoden auf beschreibende Eigenschaften und Inhalte, d.h. z.B. Titel des aktiven Editor-Fensters oder Bereitstellung
von Bildern oder Namen für die GUI-Objekte, die auf Eclipse-Seite MAPA-Entitäten
repräsentieren.
7.3.1.2
Einbinden von Xindice
Xindice steht in diesem Abschnitt stellvertretend für alle Datenbanken, die MAPA als persistente Datenspeicher verwenden könnte. Der grundsätzliche Aufbau der
Datenbank-Anbindung geht aus dem UML-Diagramm in Abbildung 7.2 hervor.
Ein EntitySet kapselt die Datenbankfunktionalität. Während normale EntitySets eine
Auswahl von Entitäten repräsentieren, steht das EntitySet ALL für alle Entitäten die in
100
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
Abbildung 7.2: UML-Diagramm der Klassen für die Anbindung verschiedener Datenbanken über das Datenbanktyp-unabhänige Interface Persistence
einer MAPA-Datenbank existieren. ALL wiederum greift auf verschiedene PersistenceImplementierungen zu, welche die Adaption an die datenbankspezifische Abfragesprache (z.B. SQL bei relationalen Datenbanken) durchführt und die resultierenden Datensätze in Entitäten zurückwandelt. Dabei müssen auch komplexe Operationen, wie die
Suche nach Entitäten anhand einer XPath-Abfrage, zur Verfügung gestellt werden.
Das EntitySet ALL in Verbindung mit der Persistence-Klasse stellt somit einen Adapter für das Ansprechen der Datenbank dar. Operationen können so unabhängig von
einer konkreten Datenbank und basierend auf der konsistenten Struktur von Entitäten
und EntitySets implementiert werden.
7.3.1.3
Nutzung von GEF
Die GEF-Modell-Klassen sind nach dem Composite-Pattern strukturiert, einer allgemeinen Component-Klasse die eine UUID besitzt und jeweilige Container- und
Node/Connection-Klassen. Das Topmodel verweist auf alle Knoten im Editor die wiederum auf ihre Nachbarverbindungen verweisen. Durch diese Strukturierung können
Knoten später auch wieder als Containerknoten auftreten und kollabiert und expandiert
werden (siehe UML-Diagramm in Abbildung 7.3).
Unsere Implementierung teilt sich auf in die jeweiligen Eclispe-Plugins (GEF dient
als eine mögliche Visualisierung), und einen plugin-unabhängigen VisualMapper, der
abstrakte Beschreibungen der Visualisierung enthält: die Objekt-Eigenschaften Grösse,
Lokalisationskoordinaten, Farben, oder Verweise auf Bilder, werden in der Klasse VisualMapper gespeichert, die vom Typ Entity erbt und damit serialisierbar ist. Der VisualMapper stellt damit die Schnittstelle dar, die die gemeinsamen Informationen für
jede spezifische Visualisierung bereitstellt. Jeder Anwender möchte seine eigenen Visualisierungsvorstellungen realisieren, und diese werden über verschiedene Filter spezifiziert: das gesamte verteilte Netz wird aus verschiedenen Perspektiven, NetViews,
betrachtet, innerhalb derer eine Auswahl an Entitäten getroffen wird, eine View, deren
Visualisierungsaspekte in einem VisualMapper gespeichert sind, der wiederum durch
verschiedene Anwendungen verwendet wird.
101
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
Abbildung 7.3: UML-Diagramm des GEF-Modells
102
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
7.3.2
Umsetzung von Konzepten
7.3.2.1
MQL in XML
MQL ist eine XML-basierte Sprache. XML erlaubt dank zur Verfügung stehender Parser
und den von diesen prüfbaren XML-Schemata sehr leicht die Verarbeitung und Validierung von Statements, weshalb es als Basis für notwendig konsistente MQL-Statement
gut geeignet ist.
Ein typisches MQL-Statement könnte folgendermaßen aussehen:
<MQLStatement>
<Get>
<ConnectedWith>
<XPATH>
<ConnectedWith>
<XPATH>
<ALL/>
<Path>
/mapa:entity[mapa:metadata/
mapa:info/mapa:names/
mapa:name=’Student’]
</Path>
</XPATH>
<ALL/>
</ConnectedWith>
<Path>
/mapa:entity[mapa:metadata/mapa:info/
mapa:names/mapa:name=’Hyperonym’]
</Path>
</XPATH>
<ALL/>
</ConnectedWith>
</Get>
</MQLStatement>
Man stelle sich dazu folgenden Ausschnitt (Abbildung 7.4) aus einem Netz vor.
Die Abfrage sucht nach Hyperonymen des Begriffes Student. Dazu selektiert sie zunächst alle Entitäten mit dem Namen „Student“, also die, welche dem entsprechenden
XPath, der auf den Namen von Entities zugreift, entsprechen (bei MQL/XML beginnt
die Auswertung des Statements beim innersten Element). Anschließend werden alle
damit verbundenen Relationen selektiert und von diesen werden die herausgefiltert,
welche den Namen „Hyperonym“ tragen. Schließlich werden die mit dieser Entitätenmenge verbundenen Entitäten selektiert, was in diesem Fall die Entität „Hörer“ als Ergebnis hat. Die MQL Antwort auf diese Anfrage wäre also ein EntitySet mit der Entität
„Hörer“ als Inhalt:
<MQLResult>
<EntitySet>
<Entity>
<ID>UUID-001-ABC-12345</ID>
103
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
Abbildung 7.4: Ausschnitt aus einem MAPA-Beispiel-Netz
<Name>Hörer<Name>
<Content>...</Content>
...
<Entity>
</EntitySet>
</MQLResult>
Eine solche Abfrage kann von einem beliebigen System an eine MAPA-Datenbank
gesendet werden. Denkbar ist hier ein in Eclipse implementierter Grapheditor (wie der
im Rahmen des Projektes erstellte) aber auch ein HTML basiertes Werkzeug, das über
den Webbrowser arbeitet und aus den abgefragten Daten statische HTML-Seiten als
Viewer erzeugt.
Um dem Frameworkgedanken gerecht zu werden bieten wir für die Programmierung von Anwendungen in Java ein MQL-Framework an, welches das Erstellen von
Statements erheblich vereinfacht. Dieses Framework ist Teil der Java Integration Library.
Der folgende Abschnitt zeigt, wie mit Hilfe der JIL ein MQL-Abruf aufgebaut wird
und wie er auf der Datenbankseite ausgewertet wird.
7.3.2.2
Ablauf eines Datenabrufs
Die JIL erlaubt es den Programmierern einer MAPA-Applikation in Java auf einfache
Weise, MQL-Statements zusammenzusetzen. Jedes Kommando (create, insert, update,
104
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
delete, get) und jede Verknüpfung (AND, OR, XOR, NOT, XPath) sind als Java-Klassen
repräsentiert, so dass auch eine gewisse Kontrolle der Eingabeparameter und der Kombinierbarkeit der einzelnen Sprachelemente zum Zeitpunkt der Kompilierung des Programms durchgeführt werden kann.
Das im vorigen Abschnitt aufgeführte Beispiel sähe in Java folgendermaßen aus:
Statement sm = Net.createStatement();
EntitySet result = null;
sm.setCommand(
newGet(
newConnectedWith(
newXPath(
newConnectedWith(
newXPath(
new All(),
"/mapa:entity[mapa:metadata/mapa:info/mapa:names/
mapa:name=’Student’]"
),
new All()),
),
"/mapa:entity[mapa:metadata/mapa:info/mapa:names/
mapa:name=’Hypernym’]"
),
new All()
)
);
result = s.execute();
//... Verarbeitung des Ergebnisses...
Die Klasse Net ist das Interface der JIL zur Datenbank. Alle Operationen laufen über sie,
so dass auch Statements zunächst über sie kreiert werden müssen. Der darauf folgende
Aufbau der Kommandos entspricht der oben in XML gezeigten Struktur. Das Ergebnis
der Operation ist ein EntitySet, welches die Ergebnis-Entitäten-Menge enthält, die durch
das Statement repräsentiert wird.
Die JIL-MQL-Klassen wandeln das Statement in die entsprechende XML-Darstellung
um, in der es dann an die Datenbank geschickt wird. Dort wird es anschließend wieder in eine ähnliche Klassenstruktur zurückgewandelt. Jede darin enthaltene Klasse
(AND, OR, ...) besitzt eine „execute“-Methode (welche ein Result-EntitySet zurück
gibt) so dass nach Aufbau des Abfragebaumes diese Methode auf alle Elemente verschachtelt ausgeführt werden kann. Enthält ein Element weitere Elemente, so ruft es,
bevor es die eigene Operation ausführt (z.B. AND) die in ihm verschachtelte executeMethode auf. Anschließend führt es seine Verknüpfungen auf den Result-EntitySets der
Vorgänger-Verknüpfungen aus. So wird der Befehls-Baum rekursiv abgearbeitet. Eine
MQL-Abfrage stellt somit eine rekursive Verknüpfung von Entity-Ergebnis-Mengen
dar.
105
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
Abbildung 7.5: Erstellen von Inhalten mit der Kommandozeile.
7.4
Arbeit mit MAPA
7.4.1
Grafische Oberfläche
Der MAPA-Prototyp einer grafischen Oberfläche begrüßt den Nutzer innerhalb der
Eclipse Umgebung wie in Abbildung 7.6. Das Editorfenster enthält eine Palette, aus
der Typen von Knoten und Relationen ausgewählt und in das Fenster gezogen werden können. Hier finden sich z.B. rechteckige und elliptische Knoten, einfache, doppelte und gepunktete Pfeile, Templates für CML- (Chemical Markup Language) und
MathML- (Math Markup Language) Knoten, und mehr. Die Einträge der Palette können generisch anhand der Typinformationen, die im VisualMapper gespeichert sind,
erzeugt werden.
Die Knoten und Relationen selbst können mit den üblichen grafischen Kommandos
editiert, verschoben und verbunden und gelöscht werden.
Am Rande gibt es auch einige Views, die Entitäten und ihre Struktur auflisten.
7.4.2
Kommandozeile
So wichtig überzeugende grafische Elemente für die intendierte intuitive Arbeitsweise mit MAPA auch sind, so zeitaufwendig ist auch Ihre Erstellung. Dies trifft vor allem auch den Bereich komplexerer Interaktionen wie z.B. MQL-Abfragen oder Typisierung/Ontologien zu. Im Prototyp können viele der noch nicht grafisch verfügbaren
Funktionen schon über die Skriptsprache der Kommandozeile ausgeführt werden. Im
folgenden werden einige dieser Bereiche mit exemplarischen Kommandos vorstellt:
Eingaben von Netzstrukturen
["Baum"].
106
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
Es wird eine neue Entität11 mit dem Namen „Baum“ erstellt.
["Baum"]..>["Ast"].
["Baum"]-->["Ast"].
Mit dem Befehl ..> können Pointer und mit dem Befehl --> Verbindungen zwischen
zwei Entitäten (hier von der neuen Entität z.B. „Baum“ zu einer neuen Entität „Ast“ )
erstellt werden. Der Hauptunterschied zwischen den beiden Befehlen ist, das eine Verbindung selbst eine Entität ist und so eine komplexere Semantik ausdrücken kann.
["Baum"]--["hat einen"]->["Ast"].
["Baum"]<-["ist"]->["Baum"].
Es ist möglich mehr Informationen über die Verbindung einzugeben, indem auch
die Relations-Entität explizit eingegeben wird. Die Richtung der Relation kann durch
Verwendung verschiedener Pfeilspitzen (<-, --, ->) ausgedrückt werden .
Verweise Soll auf bereits bestehende Entitäten verwiesen werden, so kann zum einen
auf den eindeutigen Bezeichner (UUID) verwiesen werden:
[$"MAPA:UUID:..."]
Zum anderen werden Entitäten, die man als Ergebnisse eines Befehlsaufrufs in der
Kommandozeile erhält, mit einer durchlaufenden Nummerierung angezeigt (vgl. 7.5).
Die Nummerierung kann dann zum Verweisen in späteren Befehlen verwendet werden:
[@2]
Mengen Mengen (bzw. Sets) von Entitäten können mit Hilfe geschweifter Klammern
eingegeben werden.
["Feiertage"] --> { ["Ostern"] ["Weihnachten"]
["Tag der Arbeit"] }.
Abfragen Um Anfragen an das Netz zu stellen, können (verschachtelte) MQLAnfragen (vgl. 7.3.2.1) erstellt werden. So kann z.B. nach Entitäten gesucht werden, die
als Namen einen bestimmten String (hier: Student; Student ∨ Gasthörer) enthalten.
mql get(name "Student").
mql get(or (name "Student") (name "Gasthörer")).
Auch komplexere MQL-Anfragen sind denkbar, z.B. nach der Beziehung zweier Entitäten:
mql get(con (name "Student"
from (con (name "Universität"))) ).
11 Entitäten werden in der Kommandozeile immer von eckigen Klammern eingeschlossen. Ob eine neue
Entität erzeugt wird oder auf eine alte verwiesen werden soll, ist aus dem Inhalt der Klammern ersichtlich. In
diesem Fall ist der Inhalt ein einzelner String, der als neuer Name interpretiert wird.
107
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
Offensichtlich verliert man bei dieser Notationsform leicht den Überblick. Daher
wurde damit begonnen, die komplexen Anfragen eingabefreundlicherer zu gestalten.
Der Umarbeitungsprozess ist allerdings noch nicht vollständig abgeschlossen. Ziel ist,
dass sich die Eingabe an einer intuitiveren Notation orientiert. Eine Anfrage nach der
Relation von einem Studenten zur Universität wird dann etwa so aussehen:
"Student" -- ? --> "Universität".
Handhabung von Entitäten Der XML-Content einer Entität kann mit dem Befehl
xml [entity].
ausgegeben werden. Weiterhin kann der Content an ein anderes installiertes SystemProgramm (z.B. Word) zur weiteren Bearbeitung übergeben werden:
call "winword.exe" [entity].
Nutzung zur Navigation In den Kommandozeilen bekannter Betriebssysteme ist immer ein Verzeichnis als aktuelle Position und Referenzpunkt zur Navigation gegeben.
Um eine ähnliche Navigation zu ermöglichen, merkt sich die MAPA-Kommandozeile
eine oder mehrere Entitäten als Referenzpunkt. Von diesem Referenzpunkten aus kann
man weiter navigieren, indem z.B. mit
\verb|+@1.|
benachbarte Entitäten als neue Referenzpunkte angezeigt werden. Oder man wählt unter Verwendung der Befehle
go [entity].
go {entity-set}.
bestimmte Entitäten als Referenzpunkt. Zusammengesetzte Befehle wie
go {mql get(name "Student")}.
zeigen, dass man schnell an verschiedene Positionen im Netz gelangen kann. Weiterhin lässt sich an diesem Beispiel verdeutlichen, dass es sinnvoll ist, mehrere Entitäten
als Referenzpunkt zu nehmen, da die Ergebnisse solcher Anfragen auch Mengen von
Entitäten seien können.
7.4.3
Beispielablauf
Ein für einen Studenten typisches Arbeitsszenario mit einer Mapping-Anwendung ist
das Festhalten von Wissen aus Vorlesungen. Stichpunkte können notiert und in Relation zueinander gesetzt werden. Der Student möchte vielleicht festhalten, dass ein
Neuron aus Dendriten und Axonen besteht und legt dementsprechde Knoten und Verbindungen (Abbildung 7.6) an. Um sich den Aufbau eines Neurons auch später noch
plastisch vorstellen zu können, fügt er ein erläuterndes Bild ein. Das ganze hat zu tun
mit einer Vorlesung zur Neurobiologie mit der er sich im Wintersemester beschäftigte.
108
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
Abbildung 7.6: Erstellen einer ConceptMap
109
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
Abbildung 7.7: Anzeige linguistischer Daten
Vielleicht hat er auch bestehendes Wissen aus anderen Vorlesungen z.B. mathematische
Formeln12 , das er sinnvoll verknüpfen möchte. Das ist ohne weiteres möglich, da Wissensinhalte in MAPA, auch wenn sie in verschiedenen graphischen Ansichten (z.B. als
in sich geschlosse ConceptMap) angelegt wurden, trotzdem in einem gemeinsamen zugrunde liegenden Daten-Netz verfügbar und abrufbar sind.
Die Anbindung an bestehendes Wissen muss sich nicht auf vom Benutzer selbst eingegebene Daten beschränken. Viele vorhande Wissenbasen lassen sich als Wissensnetze
betrachten. Abbildung 7.7 zeigt linguistische Daten aus der Germanet-Datenbasis im
MAPA-Graph-Editor. In Abschnitt 8 wird das Sprachlernen als Anwendungsszenario
weiter erläutert.
12 Einige komplexe Datentypen, die ansonsten nur in speziellen Anwendungen editiert werden können,
können schon jetzt als Bestandteil eines MAPA-Netzes visuell sichtbar gemacht werden. Dies wird durch
zwei Eigenschaften von MAPA möglich: Erstens können strukturierte XML-Daten (z.B. mathematische Formeln in MathML) in den Entitäten ablegt werden. Zweitens können SVG-Grafiken in der GEF-Darstellung
angezeigt werden. Transformationen von XML-Typen nach SVG werden so möglich. Der Benutzer muss nur
ein geeignetes Transformations-Skript (XSLT) in der MAPA-Anwendung registrieren (z.B. MathML → SVG)
und muss sich um nichts weiteres kümmern.
110
KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE
7.5
Zusammenfassung
Die in diesem Kapitel vorgestellte Implementierung der MAPA-Architektur zeigt die
prinzipielle Umsetzbarkeit der Konzepte, die hinter MAPA stehen. Aufbauend auf einer Entitäten-basierten Datenbank und einem flexiblen Messaging-System wurde eine
einfache grafische Anwendung implementiert. Diese zeigt prinzipielle Wege, wie in der
Datenbank enthaltene Entitäten für eine kognitiv adäquate Abbildung genutzt werden
können.
Ihr Umfang wird ergänzt durch eine Kommandozeile, welche eine komplexere Navigation im Wissensnetz ermöglicht. Diese Möglichkeiten grafisch nutzbar zu machen
ist auf der Seite der Benutzeroberfläche ein nächster wichtiger Schritt.
Die Flexibilität und Plattformunabhängigkeit des Systems (Messaging, Datenbank,
MQL) halten die Möglichkeit offen, den nächsten systemseitigen, großen Schritt zu implementieren: die Zusammenarbeit mehrerer Systeme bzw. Nutzer auf einem WissensNetz. Der vorliegende Prototyp kann somit genutzt werden, die hinter MAPA stehende
Idee weiter voranzubringen und zu entwickeln.
111
Kapitel 8
Beispielanwendung
von Nadja Althaus, Kathrin Beck und Jasmine Bennöhr
112
KAPITEL 8. BEISPIELANWENDUNG
Dieser Teil der Dokumentation stellt eine Anwendung für das Projekt MAPA vor
– einen Vokabeltrainer, der auf einem MAPA-Netz als Lexikon basiert. Er wurde gemeinsam erstellt von Jasmine Bennöhr, einer Studentin der Universität Bochum, Nadja
Althaus und Kathrin Beck, Studentinnen der Universität Tübingen. Die zugrunde liegende Idee des Vokabeltrainers, den Fremdsprachenerwerb mit einem Wortnetz – auf
GermaNet basierend – zu verknüpfen, ist die Annahme, dass Begriffe in natürlichen
Situationen immer in einem semantischen Zusammenhang auftreten, und dass der Zugang dazu somit das Lernen von Fremdsprachen erleichtern sollte.
Dieser Vokabeltrainer besteht aus einem Explorationsmodus, in dem der Lerner das
semantische Netz aktiv erkundet, erweitert und Wörter zum Lernen auswählt, einem
Abfrage-Modus, in dem die zu lernenden Vokabeln abgefragt werden, und einem Benutzerprofil, in dem einige Daten des Lernverhaltens gespeichert werden.
In den folgenden Abschnitten sollen zunächst die grundlegenden Ideen und Motivation für den Vokabeltrainer erörtert, und danach die einzelnen Module zusammen
mit ihrem lerntheoretischen Hintergrund vorgestellt werden.
8.1
8.1.1
MAPA-Netz mit lexikalischem Inhalt: Hintergrund
Die Idee
Die Idee zum MAPA-Vokabeltrainer entstammt dem Bedürfnis, eine mögliche Anwendung für MAPA zu entwerfen und zu realisieren. Der Grundgedanke hierbei ist, die
MAPA-Datenbank gezielt mit lexikalischen Informationen zu füllen – einerseits mit Lexemen, d.h. sichtbaren Bestandteilen der Sprache, andererseits mit Metadaten zu diesen
Elementen – um so möglichst viel Information über den Aufbau und die Verwendung
der Sprache in die Datenbank zu integrieren. Im Gegensatz zu einem herkömmlichen
Lexikon bietet die MAPA-Datenbank die Möglichkeit, Wörter zu einander in Beziehung
zu setzen und so dem Lexikon eine Struktur zu geben.
Das Zielgebilde ist ein Graph, dessen Knoten die Lexeme der Sprache, bzw. die dahinterliegenden Konzepte, darstellen, und dessen Kanten die Relationen zwischen diesen Lexemen modellieren. Hierbei handelt es sich um semantische Verknüpfungen, die
Wörter zueinander in Beziehung setzen und es so ermöglichen, die Bedeutung eines Lexems im Verhältnis zu anderen zu erschließen (zu einer detaillierten Beschreibung der
verwendeten Relationen siehe Abschnitt 8.1.3).
8.1.2
Motivation: MAPA und Vokabeln
Bevor näher auf die Konzeption des Vokabeltrainers eingegangen werden kann, soll
die zentrale Frage zur Motivation der Realisierung beantwortet werden: Weshalb eignet sich MAPA im Besonderen als Grundlage für einen Vokabeltrainer? Um sich dieser
Frage zu nähern, werden mehrere Faktoren aus verschiedenen Disziplinen betrachtet.
Diese haben jede für sich einen großsen Einfluss auf die Qualität des Vokabeltrainers,
insbesondere vor dem Hintergrund des Gesamtziels des Projektes – eine möglichst kognitiv adäquate Modellierung von Information und, in diesem speziellen Fall, sprachlichem Wissen darzustellen.
113
KAPITEL 8. BEISPIELANWENDUNG
8.1.2.1
Modellierung natürlicher Sprache
Der wichtigste Gesichtspunkt für den Anwendungsbereich Vokabeltraining ist nahe liegender Weise das Sprachmodell, das dem Sprachlernsystem zugrunde liegt. Wie muss
die Architektur eines Lexikons beschaffen sein, um dem Anspruch des Phänomens natürliche Sprache im Hinblick auf das Ziel „kognitive Adäquatheit“ annähernd gerecht
zu werden?
Am Anfang der Konzipierung des Vokabeltrainers stand die Erkenntnis, dass Wörter in den seltensten Fällen isoliert vorkommen – in der Regel werden wir mit ihnen
im Zusammenhang mit anderen Wörtern konfrontiert, sei es im Sinne von linearem
bzw. syntagmatischem Kontext, oder im Sinne von semantischer Verwandtschaft. Daher stammt die Idee, diesen Zusammenhang im Lexikon für den Vokabeltrainer durch
syntagmatische Relationen zwischen Lexemen einerseits, paradigmatische Beziehungen anderererseits, festzuhalten.
Wie in den folgenden Abschnitten noch ausführlicher dargelegt wird, eignet sich
die MAPA-Datenbank ausgezeichnet dafür, solche Beziehungen zwischen Lexikoneinträgen zu enkodieren.
8.1.2.2
Wissensrepräsentation
Ein weiterer Blickwinkel ist der der kognitiven Psychologie. Hier gilt das Netzmodell
als eines von vielen artverwandten Systemen zur Wissensrepräsentation, die ähnliche
Strukturen aufweisen. Beispielsweise das Hierarchiemodell des „propositionalen Netzwerks“ (vgl. Anderson, 1990, S. 126-133) ist ein geläufiger Repräsentant der netzartigen Darstellung. Aber auch die Modellierung von Wissensbestandteilen als „Schemata“
(vgl. Anderson, 1990, S. 133 ff.) mit Slots und dazu passenden Einträgen lässt sich als
Parallele zu einem Netzwerk mit Knoten und Relationen dazwischen interpretieren –
in diesem Fall nicht rein hierarchisch. Somit lässt sich konstatieren, dass das Grundkonzept der netzartigen Repräsentation von Wissensinhalten definitiv den kognitionspsychologischen Grundlagen entspricht und damit auf den Weg hilft, eine angemessene
Repräsentation des Lexikons zu entwickeln (vgl. auch Abschnitt 2.2.3.3).
8.1.2.3
Gedächtnis und Informationsverarbeitung
Der ebenfalls aus dem Gebiet der kognitiven Psychologie stammende Aspekt der Informationsverarbeitung ist der dritte Bereich, dem hier Aufmerksamkeit gewidmet werden soll. Zahlreiche Studien belegen, dass die tiefe Verarbeitung von Lerninhalten sich
positiv auf die tatsächliche Lernleistung auswirkt, d.h. dass der Lerner ein Konzept
mit höherer Wahrscheinlichkeit abspeichert, wenn es semantisch verarbeitet wird. Dasselbe gilt für die Langlebigkeit des akquirierten Wissens: Aneignung im semantischen
Zusammenhang erhöht die Wahrscheinlichkeit, dass das gelernte Konzept auch über
einen längeren Zeitraum hinweg abrufbar ist. Dies ist allgemein als „Theorie der Verarbeitungstiefe“ bekannt (zu einem Überblick vgl. Anderson, 1990, S. 183, der auf Craik
and Lockhart (1972) verweist).
Wenn es auch nicht möglich ist, zu zeigen, dass Wortschatzakquisition mit Hilfe des
MAPA-Tools notwendigerweise zu semantisch tiefer Verarbeitung führt, da dies im wesentlichen von der Motivation und der Arbeitsweise des Lernenden abhängt, so lässt
sich doch argumentieren, dass die Art und Weise, wie Informationen strukturiert im
114
KAPITEL 8. BEISPIELANWENDUNG
MAPA-Netz vorliegen, es dem Lerner sehr einfach macht, die dargebotenen Konzepte
semantisch zu verarbeiten: Da alle im Netz gespeicherten sprachlichen Konzepte untereinander verbunden sind, wird der semantische und lexikalische Rahmen, in den das
Konzept eingebettet ist, für den Lerner einsehbar; ein Lexem wird nicht als losgelöstes
Wort gesehen, sondern in Relation zu seiner linguistischen Umgebung. Einmal als Bestandteil eines größeren, themenübergreifenden Gebildes wahrgenommen, bilden sich
leicht Assoziationen zu diesem Hintergrund aus, die so die Grundlage zur semantischen Verarbeitung bieten. Dies gilt für das bloße Wahrnehmen der Information. Da der
eigentliche Übungsvorgang, das Vokabeltraining, ebenfalls auf der im Netz enkodierten
Umgebung der Konzepte basiert, ist leicht nachvollziehbar, dass auch hier eine Verarbeitung auf semantischer Ebene stattfindet.
Ausgehend von den drei genannten Perspektiven, natürliche Sprache, Wissensrepräsentation und Informationsverarbeitung, lässt sich zusammenfassend sagen, dass
bei der Konzeption eines Vokabeltrainers auf der Basis einer MAPA-Datenbank durch
eine Repräsentation der Lerninhalte auf einer kognitiv weitgehend angemessenen Ebene das Lernen im semantischen Zusammenhang ermöglicht und so der Fremdsprachenerwerb unterstützt und erleichtert wird. Die Struktur der MAPA-Repräsentation eignet
sich somit als Grundlage für einen Vokabeltrainer: sie besitzt wesentliche Vorzüge, die
flache Vokabellisten nicht bieten können, selbst wenn sie bereits thematisch begrenzten
Teilgebieten zugeordnet sind.
8.1.3
GermaNet als Import-Quelle
Um eine Basis für einen Vokabeltrainer zu haben, muss mehr an linguistischer Information zur Verfügung gestellt werden, als aus einfachen Wortlisten in eine solche Datenbank übernommen werden kann. Daher ist die Qualität von Datenressourcen entscheidend für das Ergebnis. Zusätzlich war es wünschenswert, eine Quelle zum Import
der lexikalischen Inhalte vorzusehen, deren interne Struktur dem Aufbau der MAPADatenbank nicht allzu fern ist.
Da uns GermaNet zum einen als Ressource zur Verfügung stand, und es gleichzeitig bereits weitgehend über die von uns benötigte Struktur verfügt, fanden wir darin
unsere Import-Quelle. GermaNet, das derzeitig über 52 000 deutsche Wörter umfasst,
enkodiert den deutschen Wortschatz in Form von Synsets. Jedes der Synsets umfasst
eine Menge von Wörtern, die als synonym betrachtet werden, d.h. deren semantischer
Unterschied in minimalen Nuancen besteht. Diese Synsets werden untereinander auf
der Basis von semantischen Relationen in Beziehung gesetzt, so dass sich eine Verbindung zwischen zwei Synsets auf alle möglichen Paare von Lexemen aus den beiden
Synsets bezieht. Für eine Einführung in GermaNet sei auf Feldweg (1997) und Kunze
(2001) verwiesen.
Für das Lexikon für den Vokabeltrainer wurden zunächst die Daten aus GermaNet importiert, d.h. Lexeme wurden zu Entitäten in MAPA umgewandelt. Die SynsetStruktur wurde nicht beibehalten, sondern analog zu anderen Relationen behandelt,
d.h. jedes Paar von Wörtern aus einem Synset wurde über eine Synonymie-Relation verbunden. Alle übernommenen Relationen, also auch Synonymie, sind wie die eigentlichen Lexeme im MAPA-Netz als Knoten repräsentiert. Daher ermöglicht es diese Transformation der Synsets, alle Konzepte des Netzes als gleichgestellte Entitäten darzustellen. Im MAPA-Netz unterscheidet lediglich die Verknüpfungsstruktur „Relationsknoten“ von lexikalischen Knoten.
115
KAPITEL 8. BEISPIELANWENDUNG
Um das Netz für unsere Zwecke als Beispielimplementation übersichtlich zu halten, wurden nicht alle in GermaNet enkodierten Relationen bei der MAPA-Anpassung
übernommen. Es wurden folgende Relationen ausgewählt:
• Semantisch: Synonymie, Antonymie, Hyponymie, Hyperonymie, Meronymie,
Holonymie, Ursache („Cause“) und Assoziation
• Lexikalisch
Die semantischen Relationen umfassen paradigmatische Beziehungen; dazu zählen
Synonymie und Antonymie – bedeutungsgleiche und entgegengesetzte Wörter bezeichnend. Beide Relationen sind in diesem Fall bidirektional. Ebenso wurden Hyperonymie
und das Gegenstück Hyponymie – ebenfalls paradigmatisch – übernommen, die beide
unidirektional sind und jeweils die Umkehrung der anderen Relation darstellen. Durch
sie wird eine klassische is-a-Hierarchie aufgestellt. Dazu kommen Holonymie und Meronymie, die analog eine has-part bzw. is-part-of-Relation definieren.
Zusätzlich wurden die semantischen Relationen „Cause“, eine Ursache bezeichnend
(z.B. sterben/Tod), und „Assoziation“, die lockerste semantische Verbindung, aus GermaNet übernommen.
Die „lexikalische“ Relation bezieht sich hier auf Derivate oder verwandte Bestandteile von Lexemen, z.B. bei Komposita.
Kriterien für die Übernahme von Relationen waren die geschätzte Frequenz der Relation sowie die Signifikanz für die Zielgruppe (siehe Abschnitt 8.1.4). Frequenz war
ausschlaggebend insofern als infrequente Relationen in unserer Beispielimplementation
zwecks Übersichtlichkeit vernachlässigt wurden. Die Signifikanz einer Relation bezieht
sich hier auf die Relevanz für die Anwendung Fremdsprachenerwerb. So wurde die
Relation „Cause“ – die kausale Verknüpfung zweier Konzepte – als sehr nützlich eingestuft, da sich mit Hilfe dieser Relation die Bedeutung eines Wortes leicht erschließen
lässt. Ebenso fand sich Bedürfnis nach einer sehr allgemeinen und lockeren Beziehung
zwischen zwei Wörtern, die lediglich die Zugehörigkeit zum selben Wortfeld markiert,
d.h. eine „Assoziation“.
Über die in GermaNet enkodierten Relationen hinaus sahen wir ein Bedürfnis nach
einer syntagmatischen Beziehung, der Kollokation. Die Begründung hierfür liegt in der
Anwendung des Lexikons als Grundlage für einen Vokabeltrainer: Kollokationen gehören zu den idiosynkratischen Bestandteilen der Sprache und müssen vom Lerner memoriert werden. Daher bietet es sich an, sie im Lexikon zu enkodieren und zusammen
mit anderen Relationen im MAPA-Netz darzustellen. Da uns jedoch leider für eine umfangreiche Integration dieser syntagmatischen Beziehung die nötigen Ressourcen fehlen, haben wir die Relation „Kollokation“ lediglich beispielhaft für einen kleinen Netzausschnitt von Hand enkodiert (siehe hierzu auch 8.3.1).
8.1.4
Die Zielgruppe
Bevor genauer auf die einzelnen Module, die den Vokabeltrainer realisieren, eingegangen werden kann, muss die Zielgruppe für den Vokabeltrainer genauer definiert werden. Das Erlernen einer Fremdsprache folgt je nach Fortgeschrittenheitsgrad des Lerners so unterschiedlichen Prinzipien, dass es unmöglich ist, mit einem einzigen Konzept
alle Lerner zu bedienen.
116
KAPITEL 8. BEISPIELANWENDUNG
Die Zielgruppe für den MAPA-Vokabeltrainer lässt sich an Hand einiger Kriterien
auf fortgeschrittene Lerner der Sprache, in diesem Fall Deutsch, einschränken. Dies erfolgt zum einen auf Grund der Freiheit, die dem Benutzer gegeben wird: auf vorgefertigte Lektionen wird verzichtet; Der Benutzer kann den zu lernenden Wortschatz nach
seinen eigenen Bedürfnissen zusammenstellen (siehe hierzu Abschnitt 8.2.1.2.2), was
eine für einen Anfänger zu große Verantwortung ist. Gleichzeitig ist es eine Tatsache,
dass die Datenbank derzeit einsprachig vorliegt – was keine prinzipielle Einschränkung
ist, da optional Übersetzungshilfen oder aber ein zweisprachiges Netz implementiert
werden können, sondern augenblicklich eine Folge der Ressourcen. Aus diesem Grund
muss sich der Benutzer anhand von in der Zielsprache gegebenen Begriffen in der Datenbank orientieren, was mit zunehmendem Wissensstand leichter ist, wohingegen unmöglich für Anfänger ohne Vorkenntnisse.
Auch ist zu erwähnen, dass der MAPA-Vokabeltrainer nicht den Anspruch erhebt,
dem Lerner die Grammatik einer Sprache beizubringen, wenngleich die Integration von
Grammatikhilfen wie Morphologie-Tools und dergleichen denkbar ist. Weitere Anforderungen an den Benutzer, die völlig unabhängig vom sprachlichen Ausgangspunkt
sind, betreffen die Bereitschaft, selbstständig und im eigenen Tempo zu arbeiten, sowie
das Interesse, sich einen detaillierten Wortschatz anzueignen, da dies die eigentliche
Stärke des Vokabeltrainers ausmacht.
8.2
Realisierung
In den folgenden Abschnitten werden wir auf die Realisierung des Vokabeltrainers eingehen, wobei auch grundlegende Fragestellungen zur Lerntheorie diskutiert werden.
Wir werden dabei anhand der Modulstruktur des Vokabeltrainers vorgehen. Dieser
liegt die Idee zu Grunde, dass für den Vokabelerwerb drei Fragestellungen von Wichtigkeit sind:
• Welche Vokabeln sollen gelernt werden? – Exploration und Wortschatzauswahl
• Nach welchen Prinzipien erfolgt das Memorieren von Vokabeln? – Die Abfragemethoden
• Wie kann die Leistung des Lernenden bewertet und diese Bewertung für die Arbeitsweise des Vokabeltrainers benutzt werden? – Evaluation durch das Benutzerprofil
Orientiert an diesen Fragen wurden drei Module entwickelt, die sich mit den Aspekten beschäftigen, die für jede dieser Fragen relevant sind: der Explorationsmodus,
der dem User die Möglichkeit gibt, das semantische Netz zu erforschen und den für
ihn relevanten Wortschatz auszuwählen, der Abfragemodus, der für die eigentlichen
Übungsaufgaben zuständig ist, und das Benutzerprofil, in dem die statistische Auswertung der Leistung des Users stattfindet. Diese Module werden in den folgenden
Abschnitten im einzelnen erklärt und diskutiert.
117
KAPITEL 8. BEISPIELANWENDUNG
8.2.1
Exploration und Wortschatzauswahl
8.2.1.1
Der Wortschatz
Eine der grundlegenden Fragestellungen beim Erwerb des fremdsprachigen Vokabulars betrifft die Selektion des zu lernenden Wortschatzes. Traditionellerweise wird dieser Aspekt von den Autoren der Lehrbücher behandelt, die eine Auswahl von Wörtern
in Lektionen zusammenstellen, welche den Lerner schrittweise an den Wortschatz der
Zielsprache heranführen. Einschlägig hierfür sind die Thematik, d.h. dem Bedürfnis
des Lerners entsprechende Wortfelder, und der „Schwierigkeitsgrad“ der Wörter 1 . Bereits der Begriff „Bedürfnis des Lerners“ wirft jedoch Zweifel auf, ob der entsprechende
Wortschatz eindeutig definiert werden kann. Es lässt sich wohl eine gewisse Anzahl
an grundlegenden Vokabeln finden, an denen gerade Anfänger nicht vorbeikommen,
bzw. die allein anhand ihrer Häufigkeit im täglichen Sprachgebrauch als solche klassifiziert werden können. Gerade letztere Methode zur Aufstellung von Wortlisten stößt
jedoch bald an ihre Grenzen. So erwähnen Ronald Carter und Michael McCarthy (Carter and McCarthy, 1988) ein Zitat von J.C. Richards: „Objective word counts, such as
statistically-based frequency lists, do not necessarily produce lexical inventories which
are of pedagogic relevance [. . . ] Also, high frequency words are not automatically those which the learner needs.“Mit zunehmend fortgeschrittenen Kenntnissen des Lerners
wächst auch dessen Anspruch an die Vielfalt, Spezifität und Thematik des Vokabulars.
Das Bedürfnis des Einzelnen hängt zunehmend von dessen Gebrauch der Fremdsprache ab, d.h. in welchen Situationen und Kontexten er in der Sprache kommunizieren
will. Dabei kommen so unterschiedliche Einsatzmöglichkeiten wie Unterhaltungen auf
informeller Ebene oder aber die Lektüre wissenschaftlicher Texte in Betracht. Die Annahme, dass ein fest selektierter Wortschatz, der nicht speziell für eine genau definierte
und entsprechend eingeschränkte Zielgruppe erstellt wurde, den Bedürfnissen einer
großen Menge von Lernern gerecht werden kann, ist folglich zweifelhaft. Daher liegt
es nahe, von einer Sprachlernsoftware, die nicht den Nachteil des gedruckten Mediums
besitzt, Lektionen unveränderlich festzulegen, einen höchstmöglichen Grad an Individualität zu erwarten. Dabei stellt sich jedoch unmittelbar die Frage der Realisierungsmöglichkeiten. Zwei anscheinend gegeneinander wirkende Aspekte sind von Wichtigkeit: Die Verfügbarkeit entsprechender Ressourcen einerseits, die Zugänglichkeit für
den Benutzer andererseits.
Es ist offensichtlich, dass eine breite Grundlage an Vokabular bereitstehen muss,
um dem Benutzer die Möglichkeit zu geben, daraus relevante Teile auszuwählen. Es
ist unmöglich, von vornhinein zu wissen, welche Teile des Wortschatzes für den User
von Bedeutung sind. Daher muss ein umfangreicheres Lexikon vorliegen, als bei vorgefertigten Lektionen notwendig ist. Dies wirft sofort die Frage auf, wie der Benutzer
in dieser vergleichsweise großen Informationsmenge die für ihn relevanten Teile ausfindig machen kann – oder vom Standpunkt des Entwicklers aus gesehen, wie die zur
Verfügung stehenden Ressourcen für den Benutzer strukturiert und damit zugänglich
gemacht werden können.
Eines der Ziele des MAPA-Vokabeltrainers ist es, dem individuellen Benutzerbedürfnis gerecht zu werden. Da der Vokabeltrainer auf der Basis eines umfangreichen
Lexikons (GermaNet, siehe Abschnitt 8.1.3) entwickelt ist, steht rein aus dem Blickwinkel der Ressourcen einer individuellen Vokabelselektion nichts entgegen. Um dem
1 Zur Annäherung an den Begriff „schwierige Wörter“ vgl. Laufer (1997). Hier werden Wörter klassifiziert
als „words you don’t know, words you think you know“ und „words you can’t guess“.
118
KAPITEL 8. BEISPIELANWENDUNG
Aspekt der pädagogischen Angemessenheit gerecht zu werden und in diesem Sinne das
Problem der Konfrontation mit einer undurchschaubaren Masse an sprachlichen Informationen zu vermeiden, wird die Wortschatzauswahl von einem separaten Modul des
Vokabeltrainers, dem so genannten Explorationsmodus, bewerkstelligt. In den folgenden Abschnitten wird näher sowohl auf die lerntheoretischen Aspekte bei der Vokabelauswahl und die Herangehensweise an oben genannte Fragestellungen eingegangen,
als auch auf die Aufgaben dieses Moduls im Detail.
8.2.1.2
Vokabularauswahl: Exploratives Lernen und Konstruktivismus
Die Zielgruppe des MAPA-Vokabeltrainers besteht im wesentlichen aus, wie bereits in
Abschnitt 8.1.4 erwähnt, fortgeschrittenen Lernern, die bereits ein gewisses Maß an
Grundvokabular beherrschen. Somit entfällt die Notwendigkeit, dem Benutzer in allgemein vorgegebenen ersten Schritten eine thematisch beschränkte, aber vielseitig anwendbare Menge von Wörtern zur Verständigung beizubringen. Der eigentliche Anspruch des Vokabeltrainers besteht darin, den Wortschatz des einzelnen Lerners in genau den Themengebieten auszubauen, die dieser für sich selbst als relevant oder interessant erachtet. Dazu gehört einerseits die Möglichkeit, selbst zu bestimmen, welche Teile
des vorhandenen Vokabulars beim Training verwendet werden sollen. Andererseits soll
es dem Benutzer möglich sein, das vorliegende Lexikon um Einträge oder Verknüpfungen zu erweitern. Dies entspricht dem Ansatz des konstruktivistischen Lernens (siehe
Abschnitt 2.2.3), laut dem der Lerner vor allem von der aktiven Beteiligung am Lernprozess profitiert.
8.2.1.2.1 Erforschen des Netzes Die Wortschatzauswahl erfolgt beim MAPAVokabeltrainer nach einer explorativen Methode. Beim explorativen Lernen greift der
Lerner auf einen zur Verfügung stehenden Wissensraum zu und kann sich – im Gegensatz zu expositorischen Lehrmedien – frei darin bewegen, d.h. ohne vorgeschriebene
Abfolge an Lernschritten. Wissenseinheiten können so je nach Bedarf des Benutzers
abgerufen werden, wobei auch Aspekte wie Ausführlichkeit, bzw. Detail, variabel sind.
Wie dies jedoch realisiert werden kann, hängt von der jeweiligen Struktur der zur
Verfügung stehenden Daten ab. Ein anwenderfreundliches Interface ist hier von höchster Wichtigkeit. In Bezug auf den Vokabeltrainer bedeutet dies, dass es beispielsweise
unrealistisch wäre, anzunehmen, ein Benutzer werde es auf sich nehmen, in einer einfachen Liste, ähnlich einem gedruckten Wörterbuch, für ihn relevante Wörter ausfindig
zu machen.
Hier erweist sich die Netzstruktur der MAPA-Datenbank als äußerst nützlich: Durch
die semantische Verknüpfung der Inhalte ist es möglich, sich auf einem inhaltlich kohärenten Pfad durch den Graphen, dessen Knoten die Lexikoneinträge darstellen, zu
bewegen, d.h. in Anlehnung an das Internet durch das Netz zu „surfen“ und so den
vorhandenen Wortschatz zu explorieren. Die hierfür notwendige Visualisierung stellt
die MAPA-Umgebung zur Verfügung.
Beim Vorgang der Exploration wird die durch GermaNet vorgegebene Struktur ausgenutzt. Sowie der User sich an einem bestimmten Knoten, d.h. einem Wort, im Netz
befindet, ist die Umgebung dieses Knotens für ihn sichtbar. Dies hat mehrere Effekte
zur Folge. Einerseits ist das Wort so unmittelbar in seine linguistische Umgebung eingeordnet. Somit ist – im Optimalfall ohne Hinzuziehung einer Übersetzung (siehe hierzu
Abschnitt 8.1.3) – die Bedeutung des Wortes erschließbar. Gleichzeitig bildet der Lerner
119
KAPITEL 8. BEISPIELANWENDUNG
unmittelbar eine erste Assoziation zwischen dem momentan betrachteten Lexem und
seiner lexikalischen Umgebung. Dies bedeutet, dass der Explorationsvorgang abgesehen von dem rein quantitiven Aspekt der Akkumulation von Lernmaterial einen Lerneffekt in kognitionspsychologischer Hinsicht besitzt. Es ist wahrscheinlich, dass diese
Assoziation zum Abspeicherungskontext des Lexems wird, sofern diesem weitere Aufmerksamkeit gewidmet wird, d.h. der Lerner das Wort tatsächlich als für ihn relevant
einstuft, mit der Folge, dass als Langzeiteffekt eine leichtere Abrufbarkeit aus demselben Kontext heraus möglich ist (vgl. „Enkodierungsspezifität“ Anderson, 1990, S. 205
f.) (Tulving and Thomson, 1973; Watkins and Tulving, 1975).
Der dritte für die Exploration relevante Aspekt an dieser Stelle betrifft die Neugier
des Benutzers, die durch die Netzumgebung geweckt wird. Ist das momentan aktivierte
Wort mit einem bisher unbekannten Eintrag im Netz verbunden, so erhält der Lerner
nicht nur das aktuelle Lexem als Ergänzung zu dem Wortfeld, indem er sich gerade
befindet (vgl. Abschnitt 8.2.1.3), sondern auch einen Anstoß für die Weiterentwicklung
seines Wortschatzes.
Bei dieser Methode des Surfens ergeben sich augenscheinlich Probleme, die aus dem
Bereich des Lernens mit Hypertext-Dokumenten bekannt sind: Zum einen wird hier
die so genannte „kognitive Last“ relevant, d.h. der zusätzlich von Seiten des Benutzers zu erbringende Aufwand, im Geist mit einer Netzstruktur umzugehen, anstatt mit
vertrauten Strukturen wie Listen oder Hierarchien. Daraus resultiert das Problem der
Desorientierung, das gerne mit dem von Jeff Conklin geprägten Begriff „Lost in Cyberspace“ beschrieben wird (Conklin, 1987). Letzteres impliziert, dass der User, da er
sich aufgrund der Hyperstruktur auf weniger organisierten (um nicht zu sagen unorganisierten) Pfaden bewegt, mit zunehmender Länge des Explorationsvorgangs Schwierigkeiten hat, selbst den Überblick über seinen Standpunkt und das bisher Erreichte zu
verlieren. In der MAPA-Datenbank haben diese Probleme jedoch eine sehr geringe Auswirkung, da durch die visuelle Darstellung des Gesamtnetzes die Orientierung wesentlich leichter fällt, als das bei Hypertext-Dokumenten der Fall ist. So soll es dem Benutzer
jederzeit möglich sein, die Gesamtstruktur des Lexikons über entsprechende Visualisierungskomponenten einzusehen. Beim Hypertext stellt das Dokument selbst i.d.R. die
einzige Ansicht des Benutzers dar, und die eigentliche Netzstruktur bleibt verborgen –
abgesehen von den Links, die sich direkt im Dokument befinden.
Abschließend sei zur Idee der Wortschatzakkumulation bemerkt, dass die oben beschriebene Explorationstechnik auf der Annahme beruht, dass der Benutzer genügend
Motivation zur Exploration besitzt (vgl. Zielgruppe, Abschnitt 8.1.4), d.h. dass er entsprechendes Interesse und Kreativität mitbringt, zwei Faktoren, die jedoch ohnehin für
selbstgesteuertes Lernen unabdinglich sind.
8.2.1.2.2 Vokabelauswahl Bei dem oben beschriebenen Explorationsprozess ist zunächst der Weg das Ziel, d.h. das Erforschen des Wissensraums kann bereits als Lernmethode angesehen werden. Daneben bietet das Explorieren des Netzes jedoch, wie
zuvor bereits angedeutet, die Möglichkeit, eine Auswahl an Vokabeln zusammenzustellen, die nicht nur „im Vorbeigehen“ gelernt werden sollen, sondern später anhand
des eigentlichen Vokabeltrainings memoriert werden.
Der Ansatz, der hier verfolgt wird, entspricht der konstruktivistischen Auffassung
des Lernens, bei der davon ausgegangen wird, dass Wissenserwerb ein aktiv aufbauender Prozess ist, wobei Motivation, Selbstkontrolle und -steuerung des Lernenden eine
zentrale Rolle spielen. Gleichzeitig ist in der konstruktivistischen Lerntheorie der be120
KAPITEL 8. BEISPIELANWENDUNG
reits vorhandene Hintergrund des Lerners von großer Bedeutung.
Beide Aspekte des Konstruktivismus finden sich in der Realisierung des MAPAVokabeltrainers wieder: Die zentrale Idee zur Vokabelauswahl ist, dass der User beim
„Surfen“ durch das semantische Netz aktiv über die Selektion von Vokabeln entscheidet. Das heißt, er beurteilt – zunächst für jeden einzelnen Eintrag – dessen Relevanz
für seine Zwecke und ordnet ihn entsprechend in seine Sammlung von individuellen
Lektionen (vgl. Abschnitt 8.2.1.3) ein. Dieser Prozess findet vor dem Hintergrund des
bereits vorhandenen Wortschatzes statt: Der Benutzer entscheidet selbst, ob er ein ihm
bekanntes Wort schon hinreichend gut beherrscht, oder ob er es angesichts beispielsweise lediglich passiver Kenntnis trotz Wiedererkennen in die Liste der zu lernenden
Wörtern aufnimmt. Es wird davon ausgegangen, dass der Lerner jedes ausgewählte
Wort bereits verstanden hat, d.h. „nur noch“ der Prozess des Memorierens vor ihm
liegt. Mit dieser Annahme kann auch vorausgesetzt werden, dass zumindest ein Teil
der Umgebung des Lexems im Netz vom Lerner verstanden wird. Dies ist für den Abfrageteil des Vokabeltrainers (siehe Abschnitte 8.2.2.2 und 8.2.3) von höchster Relevanz,
da hier davon ausgegangen wird, dass die Netzumgebung als Anhaltspunkt für ein
Lexem ausreichend ist.
8.2.1.3
Organisation des Wortschatzes
Die Vorteile des so zusammengestellten Vokabulars sind klar ersichtlich: Abgesehen
von der semantischen Verarbeitung bereits bei der Auswahl hat der Benutzer jederzeit
Kontrolle über den Inhalt seiner Auswahl, da er alle Einträge von Hand selektiert hat.
Individualität bedeutet bei der Vokabelauswahl nicht nur, gerade die vom Lernenden
selbst gewünschten Netzeinträge in die Liste der zu lernenden Vokabeln zu übernehmen, sondern auch, diese je nach Ansicht des Benutzers in verschiedene Untermengen
aufzuteilen und diese als eigens erstellte thematische „Lektionen“ zu speichern. Gleichzeitig wird hier die Theorie des Wortfelds bedeutsam: Der Pfad, den der User beim
Surfen im Netz erzeugt, entspricht einer semantisch kohärenten Liste von Wörtern, bei
denen mindestens je zwei aufeinander folgende Einträge zum selben Wortfeld, oder
Thema, gehören. Wortfelder als solche sind jedoch nicht eindeutig; Überlappungen sind
möglich und sogar das subjektive Empfinden des Benutzers entscheidet über die Zuordnung eines Begriffs zu einem bestimmten Themenbereich. So wird der Wortschatz
eines Experten in einem bestimmten Gebiet wesentlich größer sein, als der eines Laien
auf demselben Gebiet, da bestimmte Wörter erst mit einiger Fachkenntnis in Relation
zur jeweiligen Thematik treten. Beispielsweise steht der Begriff „Baum“ für einen Linguisten durchaus mit „Sprache“ in Verbindung, während er für andere möglicherweise
nicht im Entferntesten damit assoziiert ist (siehe auch Abschnitt 8.2.1.5).
Um der individuellen Organisation der Vokabeln entgegenzukommen, stellt der Vokabeltrainer eine Funktion zur Verfügung, um das zu konstruieren, was in herkömmlichen Lehrbüchern oder Sprachlernsoftware als „Lektion“ bezeichnet wird. Dabei ermöglicht es der Vokabeltrainer, die Wörter entweder „on the spot“ bei der Auswahl
bestimmten – zuvor leer angelegten – „Lektionen“, hier „Einheiten“ genannt, zuzuordnen, oder vor dem „Surftrip“ durch das Netz eine Zieleinheit auszuwählen, in die alle
selektierten Einheiten gespeichert werden.
Dies hat auf lange Sicht den Vorteil, dass Vokabeln später geordnet abgefragt werden können, unmittelbar jedoch auch den Effekt, dass der Lerner das Thema, zu dem er
gerade Wörter sammelt, explizit macht und so den gesamten Vorgang der Wortschatz-
121
KAPITEL 8. BEISPIELANWENDUNG
selektion wesentlich zielbewusster in Angriff nehmen kann.
8.2.1.4
Usability
Es drängt sich jedoch ein weiteres Mal die Frage nach Usability auf, d.h. Anwenderfreundlichkeit im Hinblick auf Effektivität und Effizienz: Wie lange ist ein Benutzer mit
dem primären Ziel „Spracherwerb“ bereit, das Netz zu explorieren, ohne einen aktiven
Lernprozess – im Vergleich zu der nachfolgend vorgesehenen Abfragestrategie – erkennen zu können? Trotz aller Vorteile der Selektion von Hand besteht sicher Bedarf an
einer schnelleren Methode.
Wie oben bereits erwähnt, ist anzunehmen, dass der Benutzer die Abdeckung eines
bestimmten, in sich geschlossenen Themenbereiches anstrebt. Die Automatisierung der
Wortfeldextraktion wäre also die extreme Möglichkeit, dem User die Arbeit der manuellen Selektion abzunehmen. Es ist leicht erkennbar, dass eine solche Automatisierung
hier nicht realisierbar ist; jedoch ist es möglich, dem Benutzer ein Werkzeug in die Hand
zu geben, das zumindest einen Schritt in diese Richtung unternimmt.
Da ein Knoten unmittelbar nur mit semantisch oder lexikalisch verwandten Einträgen verbunden ist, erhält man durch Auswahl des Knotens und seiner direkten Nachbarn eine Art „Mini-Wortfeld“ , das noch immer semantisch kohärent ist. Diese Methode lässt sich auf beliebige „Auswahltiefe“ erweitern, so dass alle Knoten, die vom aktuell aktivierten Eintrag über n Verbindungen erreichbar sind, auf einmal ausgewählt
werden. Es ist jedoch ersichtlich, dass hierbei mit zunehmendem n die semantische Kohärenz abnimmt: Einerseits sind die Grenzen des Wortfelds ohnehin verschwommen,
andererseits ist es auf Grund der Charakteristik der Relationen im Netz möglich, mittels
weniger Verknüpfungen zu für das ursprünglich ausgewählte Wort irrelevanten Begriffen zu gelangen. So liegen in unserem Testnetz beispielsweise zwischen den Einträgen
für „Universität“ und „rot“ nur fünf Schritte – „Universität“ besitzt das Meronym „Hörsaal“ , dies wiederum das Meronym „Tafel“ , das assoziativ mit „Kreide“ verbunden ist.
Von „Kreide“ ist es jedoch nur ein Schritt zur Farbe „weiß“ , die wiederum mit allen anderen Farben in Relation steht.
Daher macht diese Option zwar Sinn für kleine n, da so sehr effizient Vokabeln „gesammelt“ werden können, nicht aber für große Werte von n, da so jegliche Kontrolle
über die erfassten Inhalte und deren semantische Kohärenz verloren geht. Die Erweiterung des Selektionsmechanismus bringt also einerseits eine mögliche Steigerung an
Geschwindigkeit mit sich, hat aber andererseits den Verlust der Kontrolle, und damit
Effektivität, zur Folge, was dem Benutzer an dieser Stelle bewusst gemacht werden
muss. Es ist zu überlegen, ob die Funktion nur sehr beschränkt, d.h. für kleine n zur
Verfügung gestellt werden sollte.
8.2.1.5
Netzerweiterung
Die bisher diskutierten Funktionen des Explorationsmodus konzentrieren sich alle auf
das bereits vorhandene Netz, d.h. die letztendlich durch GermaNet bestimmten Datenbankeinträge. Im Zusammenhang mit dem Konzept des konstruktiven Lernens auf der
einen Seite, und dem Grundgedanken des MAPA-Projekts, der die Gestaltung des Netzes durch den Benutzer selbst betont, ergibt sich jedoch der Wunsch, es dem Benutzer zu
ermöglichen, selbst Einfluss auf die Netzstruktur zu nehmen. Es ist eine Tatsache, dass
aufgrund der Beschaffenheit von Sprache selbst ein so umfangreiches Lexikon wie das
122
KAPITEL 8. BEISPIELANWENDUNG
von GermaNet zur Verfügung gestellte nicht jedes vorhandene Lexem und nicht jede
denkbare semantische Relation abdecken kann. So ist es möglich, dass der Benutzer bei
seiner Netzerkundung auf Lücken stößt, sei es aufgrund seines eigenen, fortgeschrittenen Wissens in einem bestimmten Bereich oder durch die Begrenztheit der Datenbank
selbst verursacht.
An dieser Stelle soll im Explorationsmodus eine Funktion zur Verfügung gestellt
werden, die es dem Benutzer erlaubt, entweder neue Einträge zur Datenbank hinzuzufügen und anhand von Relationen mit dem bestehenden Netz in Verbindung zu setzen,
oder aber selbst neue Relationsentitäten zu kreieren, um einer semantischen Assoziation Ausdruck zu geben, die für den Benutzer an der entsprechenden Stelle relevant
ist. Analog soll der User die von ihm geschaffenen Einträge, d.h. Lexeme oder neue
Relationen, wieder entfernen können.
Sind die Einträge einmal in der Datenbank gespeichert, so werden sie wie der feste
Lexikonbestand behandelt und stehen entsprechend zur Selektion und später zur Abfrage zur Verfügung. Es ist zu überlegen, diese „persönlichen“ Änderungen nur für den
Benutzer sichtbar zu machen, der sie vorgenommen hat, da ihre Gültigkeit nicht einfach
verifiziert werden kann.
8.2.1.6
Zusammenfassung
Der Explorationsmodus des MAPA Vokabeltrainers stellt, wie in den vorhergehenden
Abschnitten gezeigt wurde, eine Methode zur Verfügung, die es dem Lerner beim
Fremdsprachenerwerb ermöglicht, das Vokabular der Zielsprache aktiv zu explorieren,
und sich sein Lernmaterial individuell zusammenzustellen. Damit wird die Netzstruktur der MAPA-Datenbank ausgenutzt und ein Versuch unternommen, Fremdsprachenerwerb aus kognitionspsychologischer Sicht sinnvoll anzugehen.
8.2.2
Das Karteikastensystem
8.2.2.1
Hintergrund
Die Idee, das Wortschatzlernen mit MAPA und einem Wortnetz wie GermaNet (siehe
Kapitel 8.1.3) zu verknüpfen, beruht auf psychologischen und pädagogischen Erkenntnissen, die vermuten lassen, dass Kontexte sehr wichtig fürs Lernen sind.
Aus der Kognitionspsychologie wissen wir, dass auch Bedeutung im Gehirn netzartig gespeichert wird (Collins and Loftus, 1975). Und Ausubels Assimilationstheorie
(Ausubel, 1974) besagt, dass bei sinnvollem Lernen neu Gelerntes immer mit bereits gelernten Inhalten verknüpft wird, sodass es sich schneller und dauerhafter einprägt als
bei mechanischem Lernen. Zudem hinterlassen graphische Darstellungen reichhaltigere Gedächtnisspuren als reine Texte (Anderson, 1971).
Ziel jeden Vokabellernens ist es, seinen Wortschatz zu verbessern. Unser Vokabeltrainer fördert durch seinen kontextuellen Aufbau sowohl Leseverständnis als auch
Textproduktion. Der Lerner übt einerseits, Wörter anhand ihres Kontextes zu verstehen,
eine Fähigkeit, die er auch beim Lesen fremdsprachlicher Texte einsetzen kann. Andererseits präsentiert ihm das semantische Netz Begriffe von Themenkomplexen, die er
zur Sprachproduktion verwenden kann.
Durch das rein schriftliche Medium des Vokabeltrainers können Hörverständnis
123
KAPITEL 8. BEISPIELANWENDUNG
Abbildung 8.1: Zeitersparnis bei erneutem Lernen (Stangl, 2002)
und Sprachproduktion leider nicht direkt gefördert werden, was mancher Lerner sicherlich wünschen würde. Im Rahmen unseres Projekts war es jedoch nicht möglich,
die nötigen Datenressourcen und Programme zu bekommen und einzubinden.
Der Vokabeltrainer kann nur ein Hilfsmittel sein, um eine Brücke zu Situationen
fremdsprachlicher Kommunikation zu schlagen, und um sie weitmöglichst zu simulieren.
Ein besonders wichtiges Thema jedes Vokabeltrainers ist das effiziente Lernen der
Vokabeln, da der Lerner so wenig Zeit und Arbeit wie möglich ins Behalten jeder Vokabel investieren möchte.
Edward Thorndike, Begründer des Konnektionismus, bewies schon Anfang des 20.
Jahrhunderts das „Gesetz der Übung“ (law of exercise mit law of use und law of disuse),
das besagt, dass eine Reiz-Reaktionsverbindung umso besser hält, je öfter sie gebraucht
wird und umso schlechter, je seltener sie gebraucht wird (Thorndike, 1921).
Dieses Gesetz lässt sich auch aufs Vokabellernen anwenden mit einem muttersprachlichen Wort als Reiz und seiner Übersetzung als gewünschter Reaktion, bzw. bei
unserem Vokabeltrainer mit den Nachbarwörtern eines Wortes und dem Wort selbst als
Reiz und Reaktion. Vokabeln lernt man also nur durch wiederholtes Anwenden, meist
durch Abfragen.
Noch vor ihm, ab 1855, lernte Hermann Ebbinghaus Reihen sinnloser Silben auswendig und überprüfte, wie lange sie im Gedächtnis bleiben. Hatte er sie vergessen,
maß er, wie viel Zeit er für ihre Auffrischung aufwenden musste (Ebbinghaus, 1885).
Diese Zeitersparnis der Wiederholungsdauer gegenüber der Dauer des ersten Lernens
zeigt, wie sehr die Silben noch in seinem Gedächtnis verhaftet waren (Abbildung 8.1).
Dabei zeigte sich folgendes Ergebnis: Nach 20min sind 42 % des Gelernten vergessen, nach 1h sind es 56 %, nach 1 Tag 66 %, nach 6 Tagen 75 %. Nur 20 % des Gelernten
behält man anscheinend auch ohne Wiederholen für immer.
Diese Werte lassen sich natürlich nicht exakt aufs Vokabellernen übertragen, da zum
einen Vokabeln sinnhafte Konzepte sind, die wegen der mit ihnen verbunden Assoziationen leichter gelernt werden, und da man zum anderen Vokabeln gerade nicht in einer
bestimmten Reihenfolge auswendig lernen, sondern jedes Wort als „Reaktion“ auf die
124
KAPITEL 8. BEISPIELANWENDUNG
Abbildung 8.2: Zeitersparnis bei erneutem Lernen von wiederholten Vokabeln (Stangl,
2002)
Hinweisreize seines Kontexts verstehen oder wiedergeben möchte.
Trotzdem lassen sich Ebbinghaus’ Erinnerungswerte aufs Vokabellernen übertragen, die Vergessenskurve verläuft dann durch die besseren Erinnerungsbedingungen
flacher.
Wiederholt man den Lernstoff über einen längeren Zeitraum hinweg, lässt er sich
leichter und besser behalten, als bei „gehäuftem Lernen“, der Lerner ist motivierter und
konzentrierter als bei wenigen, langen Lernsitzungen (Jost, 1897).
Erinnert der Lerner eine Vokabel nicht mehr, so ist sie doch nicht vollständig aus der
Erinnerung verschwunden. Nach jeder Wiederholung prägt sie sich stärker ein, bis der
Lerner sie irgendwann in jedem Kontext abrufen kann. Er braucht jedes Mal weniger
Zeit, sie von neuem zu lernen und nach jeder Wiederholung erinnert er mehr Vokabeln
seiner Lektion (Salisbury, 1990; Landauer and Bjork, 1978) (Abbildung 8.2).
Je öfter man ein Wort richtig wiedergeben konnte, desto besser hat es sich laut
Thorndikes Gesetz der Übung eingeprägt. Es muss also erst wieder nach längerer Zeit
abgefragt werden als ein Wort, das der Lerner noch nie korrekt nennen konnte, und das
folglich auch noch nicht oder nur kaum verinnerlicht ist. Nach jeder weiteren korrekten
Antwort kann der Abstand zur neuen Abfrage wachsen, da sich das Wort immer besser
im Gehirn verankert.
Diese Methode bietet außerdem den Vorteil, dass der Lerner weniger Zeit und Arbeit
braucht, wenn er bei jeder Sitzung nur Vokabeln lernt, die er bald vergessen hätte, statt
alle insgesamt zu lernenden Vokabeln.
Eine Möglichkeit, solche Wiederholungszyklen zu organisieren, ist Sebastian Leitners Karteikastensystem.
8.2.2.2
Methode
Das Abfragesystem unseres Vokabeltrainers orientiert sich an Sebastian Leitners Karteikastensystem (Leitner, 1972). Darin werden Karteikarten auf der Vorderseite mit einer
125
KAPITEL 8. BEISPIELANWENDUNG
Abbildung 8.3: System des Karteikastens (Rädle, 2003)
Frage (z.B. Vokabel in der Muttersprache) und auf der Rückseite mit der Antwort (z.B.
Übersetzung in der Zielsprache) beschriftet und in die fünf Fächer eines Karteikastens
sortiert. Alle neuen Vokabeln werden ins erste Fach gestellt und der Reihe nach abgefragt. Beantwortet man eine Frage richtig, so wandert die dazugehörige Karte ins nächste Fach des Karteikastens. Bei falscher Antwort wird die Karte, unabhängig vom Fach,
in dem sie sich zuvor befunden hat, wieder zurück ins erste Fach gestellt (Abbildung
8.3). Wird eine Vokabel fünf Mal in Folge richtig genannt, gilt sie als gelernt und wird
aus dem fünften Fach, also aus dem kompletten Karteikasten, entnommen.
Bei Leitners System werden die Fächer von eins bis fünf immer größer, vom 1 cm
langen ersten Fach bis zum 14 cm langen fünften Fach. Die Vokabeln in diesen Fächern
werden erst wiederholt, wenn sie voll sind, was in den letzten Fächern auch Monate
dauern kann, wie Leitner erklärt. So wird sichergestellt, dass die Wörter in immer längeren Abständen wiederholt werden.
Bei einem „manuellen“ System wäre es auch sehr aufwändig, anders zu bestimmen,
wann welche Vokabeln wiederholt werden müssen, weil das Abfragedatum auf jeder
Karteikarte notiert und der Karteikasten immer nach den „fälligen“ Wörtern durchsucht werden müsste. Für ein Computerprogramm ist es natürlich einfacher, diese Aktionen durchzuführen und mit den Parametern „Karteikastenfach“ und „Anzahl der
Tage seit der letzten Abfrage“ zu berechnen, wann jede Vokabel das nächste Mal abgefragt werden sollte, und welche Vokabeln der Lerner zu einem gegebenen Zeitpunkt
abgefragt werden muss. Für unseren Vokabeltrainer haben wir in Anlehnung an Rädles
kommerziellen Vokabeltrainer (Rädle, 2003) festgelegt, dass die Vokabeln im zweiten,
dritten, vierten bzw. fünften Fach einen, zwei, sieben bzw. vierzehn Tage nach ihrer
vorherigen Abfrage wiederholt werden sollten.
Auf diese Weise kann man eine Abfragereihenfolge erstellen nach der Dringlichkeit der erneuten Abfrage. Diese Methode bietet den Vorteil, dass Vokabeln erst so spät
wie möglich abgefragt werden müssen, kurz bevor der Lerner sie evtl. wieder vergessen würde. Wir erwarten, dass sich dadurch die Anzahl der momentan abzufragenden
Vokabeln und die Abfragezeit verringern, vorausgesetzt, man verwendet den Vokabeltrainer in genügend kurzen Abständen. So kann sich der Lerner auf die in dem Moment
relevanten Vokabeln konzentrieren.
8.2.3
Abfragemethoden
Unser Vokabeltrainer bietet drei Abfragearten an, die vollständig auf GermaNet und
seiner Netz-Idee basieren: Der Lerner bekommt ein Lückennetz eines Begriffs mit seinem direkten Kontext gegeben und muss das zentrale Wort, seine Nachbarwörter oder
die Relationen zu den gegebenen Nachbarwörtern einfügen.
126
KAPITEL 8. BEISPIELANWENDUNG
Abbildung 8.4: Übungsmodus mit fehlendem zentralem Knoten
8.2.3.1
Zentrales Wort einfügen
Bei dieser Übungsart bekommt der Lerner alle Nachbarwörter eines gesuchten Wortes
und seine Relationen zu ihnen gezeigt. Wird beispielsweise „Haus“ gesucht, sieht er
Hyperonym: „Gebäude“, Hyponym: „Hochhaus“, Hyponym: „Wolkenkratzer“, siehe
Abbildung 8.4.
Diese Übung sollte die einfachste der drei Übungen sein. Der Lerner erhält hier viele
Kontextinformationen, er muss nicht alle Nachbarwörter verstehen, um den Sinn des
fehlenden Wortes zu begreifen. Manchmal kann er das gesuchte Wort sogar aus einem
Nachbarwort ableiten, z.B. hier „Haus“ aus „Hochhaus“.
Ein Problem bei dieser Aufgabenstellung ist, eine geeignete Abfragemethode zu finden für solche Wörter, die nur durch mehrfach vorhandene und daher nicht eindeutige
Relationen mit dem Netz verbunden sind, wenn z.B. nach einem bestimmten Hyponym von „Frucht“ gesucht wird. Wir haben das Problem gelöst, indem das Programm
jedes Wort akzeptiert, das durch diese Relation mit dem gegebenen Wort verbunden ist,
aber so lange nach einer weiteren Lösung gefragt wird, bis der Lerner die momentan
gesuchte Vokabel oder eine falsche Antwort eingibt.
8.2.3.2
Relationen einfügen
Der Benutzer sieht bei dieser Aufgabenstellung ein zentrales Wort mit all seinen Nachbarwörtern und muss die Relationsarten zwischen ihnen bestimmen, siehe Abbildung
8.5. Bei der Korrektur der Eingaben wird falsche Groß- und Kleinschreibung nicht als
Fehler gewertet, da man durch die häufigen Antworten davon ausgehen kann, dass der
Lerner die korrekte Schreibweise der Relationen beherrscht und sich nur verschrieben
hat.
127
KAPITEL 8. BEISPIELANWENDUNG
Abbildung 8.5: Übungsmodus mit fehlenden Relationen
Abbildung 8.6: Übungsmodus mit fehlenden Nachbarknoten
8.2.3.3
Nachbarwörter einfügen
Hier sieht der Lerner das zentrale Wort mit seinen Relationen (Abbildung 8.6). Er muss
nun zu jeder Relation das passende Nachbarwort eingeben. Gibt es mehrere Nachbarwörter, die über die gleiche Relationsart mit dem zentralen Wort verbunden sind, wie
z.B. „Hochhaus“ und „Wolkenkratzer“ in Abbildung 8.6, so spielt die Reihenfolge ihrer
Eingabe natürlich keine Rolle. Auch wenn ein Wort sehr viele Nachbarwörter besitzt,
so wird der Lerner nach ihnen allen gefragt, um seinen Wissensstand möglichst genau
zu erfassen.
Genau wie bei der Übungsart mit fehlenden Relationen tritt hier das Problem auf, zu
wissen, aus welchen Antworten sich schließen lässt, ob der Lerner die gezeigten Wörter verstanden hat. Ein Wort mit mehreren Nachbarknoten kann verstanden worden
sein, auch ohne dass der Lerner alle Nachbarwörter versteht. Mangels psychologischer
und pädagogischer Erkenntnisse zu diesem Thema haben wir ad hoc definiert, dass der
Lerner eine Übungsaufgabe richtig gelöst hat, wenn er
128
KAPITEL 8. BEISPIELANWENDUNG
a) bei einem einzigen gesuchten Nachbarwort dieses und
b) bei mehreren gesuchten Nachbarwörtern mindestens zwei von ihnen richtig benennen kann.
Natürlich gibt es keine 100prozentige Übereinstimmung zwischen gewussten Nachbarwörtern und gelerntem zentralem Wort; der Lerner kann den Begriff „Haus“ kennen,
ohne seine Nachbarwörter zu auswendig zu können. Aber dann kann er den Begriff
nicht mit diesem Vokabeltrainer, der auf verstandenen Nachbarwörten basiert, gelernt
haben. Ebenso wenig lernt der Anwender stur Wörter und ihre Relationen auswendig,
ohne ihren Sinn zu verstehen. Daher besteht meines Erachtens eine recht große Übereinstimmung zwischen gewussten Nachbarwörtern und gelerntem zentralem Wort. Nur
mit Hilfe dieses Wortnetzes kann man leider nur den groben Sinn eines Wortes verstehen, wie beispielsweise, dass ein „Hochhaus“ ein hohes Haus bedeutet, wenn es
mit dem Adjektiv „hoch“ verknüpft ist. Feinere Begriffsnuancen wie zum Beispiel der
Unterschied zwischen „Hochhaus“ und „Wolkenkratzer“ lassen sich nur schwer mit
diesem Wortnetz erklären. Sie müssen wirklich anhand von Texten oder Begriffsdefinitionen verstanden und gelernt werden.
Zwei weitere mögliche, schwierigere Übungsarten auf der Grundlage von GermaNet
wären beispielsweise die Beschriftung eines Netzes und das freie Bearbeiten einer Vokabel.
8.2.3.4
Beschriftung eines Netzes
Der Lerner bekommt eine Liste von Vokabeln sowie ein Netz, das nur aus leeren Positionen und Relationen zwischen ihnen besteht. Er muss nun herausfinden, welche der
Vokabeln das zentrale Wort ist, in welcher Beziehung die anderen Wörter zu ihm stehen
und alle Vokabeln ins Netz eintragen.
8.2.3.5
Freies Bearbeiten
Bei dieser Übungsart wird dem Lerner nur das zentrale Wort in einem ansonsten leeren Netz geliefert, an dem er die Anzahl der gesuchten Nachbarwörter erkennt. Diese
und auch die Relationen muss er ohne Hilfe erinnern. Dies wäre eine der schwierigsten Übungsarten, bei der der Lerner den Sinn einer gegebenen Vokabel kennen muss
und nur über sein Kontextwissen zu ihr abgefragt wird. Für die korrekte Evaluation der
Antwort müsste das zentrale Wort auf Ambiguitäten hin überprüft werden und der Lerner im Zweifelsfall nach einer weiteren Interpretationsart des zentralen Wortes befragt
werden, z.B. beim Nomen „Schloss“.
8.2.4
Ablauf der Vokabel-Abfrage
Zu Anfang jeder Abfrage-Sitzung wählt der Anwender einen Übungsmodus und eine
Vokabellektion aus. Sind schon alle Vokabeln dieser Lektion gelernt, kann der Lerner sie
auf Wunsch wieder auffrischen, z.B. wenn er die Lektion vor längerer Zeit gelernt hatte, oder er sucht sich eine neue Lektion aus. Ist der Lerner die Lektion erst vor kurzem
abgefragt worden, und keine Vokabel muss so früh schon wiederholt werden (siehe in
8.2.2.2 die Berechnung der Wiederholungen), so bekommt der Lerner angezeigt, in wie
vielen Tagen er die Lektion frühestens wiederholen muss. Ansonsten werden alle im
129
KAPITEL 8. BEISPIELANWENDUNG
Moment abzufragenden Vokabeln dieser Lektion nacheinander durchgenommen. Wurden sie alle abgefragt, wird die Lektion neu sortiert. Vokabeln, die in dieser Sitzung das
fünfte Mal in Folge korrekt genannt wurden, werden aus dem Vokabeltrainer entfernt;
nur Wörter, die in dieser Sitzung nicht richtig genannt wurden, werden noch ein weiteres Mal abgefragt, so lange, bis der Lerner das Programm abbricht oder er alle Wörter
richtig beantwortet hat und sie ein Karteikastenfach weitergekommen sind.
Am Ende der Sitzung bekommt er dann auf Wunsch ein Feedback über seine Leistung:
• Anzahl der abgefragten Wörter
• Anteil der Wörter, die er bei dieser Sitzung richtig beantwortet hat
• Anteil der Wörter, die er so oft in Folge richtig beantwortet hat, dass sie als gelernt
gelten und nicht mehr abgefragt werden
• Gesamtanzahl der Wörter in der momentan abgefragten Lektion
• Anteil der schon vollständig gelernten Wörter dieser Lektion
Dieses Feedback informiert sowohl über das Lernverhalten bezüglich der letzten
Abfrage als auch über das bezüglich der Lektion. So kann der Lerner zum einen abschätzen, ob seine Lernanstrengungen erfolgreich waren, weil er mit dem Prozentsatz
an richtigen Antworten zufrieden ist und zum anderen, wie lange er wohl noch lernen
muss, bis er die Lektion vollständig gelernt hat.
So bekommt der Lerner nicht nur unmittelbares Feedback nach jeder einzelnen Vokabel, sondern zusätzlich ein summatives Feedback.
Kulik & Kulik zeigen, dass die Selbsteinschätzung, die dem Lerner durch Feedback
ermöglicht wird, seine Motivation zu lernen besser fördert, als wenn er kein Feedback
bekommt (Kulik and Kulik, 1988).
8.2.5
Speicherung des Benutzerprofils
Für jeden Benutzer des Vokabeltrainers wird ein persönliches Profil angelegt.
Darin werden Informationen über die Abfragesitzungen und das Lernverhalten des
Benutzers gespeichert.
Da der Vokabeltrainer auf dem in Abschnitt 8.2.2.2 erklärten Karteikastenprinzip
beruht, orientiert sich auch die Benutzermodellierung an diesem Prinzip. Wie dort beschrieben, errechnet sich das Datum der nächsten Abfrage anhand des Karteikastenfachs, in dem sich eine Vokabel befindet und nach dem Datum seiner letzten Abfrage.
Diese beiden Daten werden für alle ausgewählten Vokabeln des Lerners gespeichert.
8.2.6
Vokabellern-Statistik
Eine weitere Art gespeicherter Daten ist für das Feedback des Lerners gedacht und enthält Informationen über sein Abfrage- und Lernverhalten:
• Anzahl der schon gelernten Wörter einer Lektion
130
KAPITEL 8. BEISPIELANWENDUNG
• Anzahl der noch nicht gelernten, aber schon mehrmals korrekt genannten Wörter
der Lektion
• Anzahl der gar nicht gewussten Wörter der Lektion
• Anzahl der bei der Abfrage korrekt genannten Wörter
Diese Daten werden, wie in Abschnitt 8.2.4 erklärt, am Ende jeder Sitzung dem Lerner
präsentiert.
8.3
Ausblick
Wir hatten viele Erweiterungsvorschläge für dieses Projekt, jedoch weder die Zeit noch
die Software, finanziellen Mittel oder andere Ressourcen, um sie im Rahmen unseres
Studienprojekts in die Realität umzusetzen.
8.3.1
Kollokationen
Genauso wichtig für den korrekten Sprachgebrauch sind Kollokationen (Lewis, 2000;
Ludewig, 2003). Man kann nur selten die richtige Kollokation erraten sondern muss
sie auswendig lernen. Ohne ihre Kenntnis aber macht der Deutsch-Lerner Fehler und
wird im besten Fall als Ausländer „enttarnt“, im schlimmsten Fall jedoch missverstanden. Möchte beispielsweise ein Brite „eine Rede machen“ (to make a speech), so will
er sie wahrscheinlich halten. Deutsche verstehen spontan vielleicht aber, dass er eine
Rede ausarbeiten, also „machen“ will. Die selbe Problematik zeigt sich bei der wörtlichen Übersetzung von „to take a photo“ in „ein Foto nehmen“, auf die er zurückgreifen
muss, wenn er nicht die deutsche Kollokation „ein Foto machen“ gelernt hat. In mehrdeutigen Situationen könnte man verstehen, der Brite würde gern ein Foto mitnehmen.
Die Problematik beim Lernen von Kollokationen ist aber einerseits, dass es keine genaue Grenze zwischen ihnen und offenen syntagmatischen Relationen gibt, und andererseits, dass Kollokationen sehr häufig sind. Da sie in GermaNet nicht mit aufgenommen sind, müssten sie alle einzeln von Hand eingetragen werden, was einen immensen
Aufwand darstellen würde.
8.3.2
Grammatikalische Abfrage
Mit dem momentanen Programm kann man die in GermaNet kodierten, bedeutungstragenden Wortarten wie Nomina, Verben und Adjektive lernen. Das bedeutet, man lernt
vielleicht in kurzer Zeit, sich mehr recht als schlecht verständlich zu machen, aber man
lernt nicht, grammatikalisch korrekt zu formulieren. Für Lerner, die daran interessiert
sind, muss ein zusätzlicher Modus angeboten werden, in dem sie grammatische Details
der Wörter lernen. Das wären beispielsweise bei Nomina Artikel und Deklination, bei
Adjektiven Deklination und bei Verben die Konjugation.
8.3.3
Einbindung von multimedialen Ressourcen
Außer der Netz-Struktur von GermaNet gäbe es noch viele andere Arten, die Bedeutung eines Wortes zu zeigen, z.B. über Bilder und Videos. So könnte man ein Nomen
131
KAPITEL 8. BEISPIELANWENDUNG
durch ein Bild und ein Adjektiv durch Bilder der Gegenteile (z.B. eine große Frau vs. eine kleine Frau) darstellen. Verben könnte man mit einem Video zum Vorgang erklären.
8.3.4
Einbindung weiterer Informationstypen
Wort-Definitionen, wie man sie in einsprachigen Wörterbüchern findet, stellen eine andere, schwerer verständliche Methode dar, die Bedeutung eines Wortes zu erfassen. Der
Lerner könnte mit ihrer Hilfe aber andere Wörter, mit denen es häufig auftritt, oder
Kontexte, in denen es verwendet wird, lernen und zur Sprachproduktion verwenden.
Zusätzlich wäre es hilfreich, ein Übersetzungsprogramm oder Ähnliches in den Vokabeltrainer einzubinden. So könnten Deutsch-Lerner durch die Übersetzung die exakte Bedeutung auch abstrakter Begriffe verstehen, die sich nur mit Hilfe von GermaNet
schwer erschließen lassen, wie z.B. „Freiheitsentzug“ oder „Neoliberalisierung“.
8.3.5
Mündliche Abfrage
Man könnte zusätzlich zur schriftlichen eine mündliche Abfrage mit den gleichen
Übungsarten anbieten. Diese Abfrageart wäre besonders geeignet, wenn der Lerner in
kurzer Zeit seine Vokabeln auffrischen will. Er müsste seine Antwort nur laut aussprechen und dann selbst mit der richtigen Lösung vergleichen. Hier wäre es sinnvoll, ein
Hörbeispiel oder zumindest die phonetische Lautschrift anzuzeigen, sodass der Lerner
auch die korrekte Aussprache lernen kann. Diese Selbstkorrektur sollte aber nicht ins
Benutzerprofil eingehen, solange ihre Korrektheit nicht vom Programm überprüft werden kann. Optimal wäre natürlich eine automatische Spracherkennung, die die Antwort
des Lerners mit einer Beispiel-Aussprachedatei vergleicht.
8.3.6
Fehleranalyse und Feedback
Eine wichtige Erweiterung wäre, statt nur zwischen richtiger und falscher Lösung
zu unterscheiden, eine detaillierte Fehleranalyse mit Unterscheidung zwischen Rechtschreibfehlern und semantisch falschen Begriffen. Sie sollte einerseits Verfahren des approximativen String Matching (Navarro and Baeza-Yates, 1998) berücksichtigen können, um die Eingabe mit den Vokabeln des Netzes zu vergleichen, andererseits auch
das daraus ermittelte Fehlerverhalten beim Fremdsprachenlernen modellieren können
(Chanier et al., 1992).
Auf dieser Analyse aufbauend könnte man ein angemessenes informatives und motivierendes Feedback geben, z.B. „Du hast dich vertippt.“ oder „Du hast das Antonym
der gesuchten Lösung eingegeben.“
8.3.7
Lösung des Problems der nicht verbundenen Knoten
Der Lerner hat die Möglichkeit, Wörter in seine persönliche Version von GermaNet
selbst einzufügen, muss diese aber nicht mit dem Netz verbinden. Solche unverbundenen Vokabeln können momentan nicht abgefragt werden, da die gegenwärtig vorhandenen Übungsmodi rein auf Relationen und Nachbarwörtern basieren. Man könnte hier beispielsweise ein Übersetzungsprogramm einbinden und mit seiner Hilfe das
132
KAPITEL 8. BEISPIELANWENDUNG
deutsche, unverbundene Wort mit seiner englischen oder französischen Übersetzung
zu verknüpfen.
8.3.8
Vorgefertigte Lektionen
Relevante Teile des Netzes könnten als Lektion abgespeichert und dem Lerner angeboten werden, z.B. Begriffe zu einem bestimmten Thema, oder alle Nachbarwörter einer
bestimmten Tiefe zu einem zentralen Wort. Des Weiteren könnte das Netzwerk-Prinzip
von MAPA auf den Vokabeltrainer übertragen werden, sodass Lerner ihre selbst erstellten Lektionen untereinander austauschen könnten.
8.3.9
Automatische Auswahl des Übungsprogramms
Mit all den gerade vorgeschlagenen Erweiterungen könnte man die Vokabelabfrage so
erweitern, dass das Programm je nach Lerngrad einer Vokabel im Karteikastensystem
einen anderen Übungsmodus auswählt.
Dieses Vorgehen hätte zum einen den Vorteil, dass durch verschiedene Hinweise auf
das gesuchte Wort (paradigmatisch durch verwandte Begriffe im semantischen Netz
oder rein semantisch durch Bilder bzw. Videos) beim Lerner verschiedene Assoziationen geweckt werden und sich das Wort besser einprägen kann. Zum anderen ergäbe es
aber sicher einen großen pädagogischen Vorteil. Durch eine abwechslungsreich variierte
Abfrage würden die Aufmerksamkeit, die Motivation und das Interesse am Vokabellernen sicherlich erhöht.
8.3.10
Evaluation des Vokabeltrainers
Da es sich bei MAPA und seinem Vokabeltrainer um ein reines Programmierprojekt
handelt, wurde der Vokabeltrainer noch nicht in größerem Rahmen getestet oder evaluiert. Eine solche Überprüfung läge eher im Bereich der Psycholinguistik und Pädagogik.
Deshalb können wir leider nicht sagen, ob unsere Hypothesen über Lernverhalten und
Lernerfolge zutreffend sind. Es ist aber angedacht, den Vokabeltrainer im Rahmen einer
Magister- oder Masterarbeit zu evaluieren.
133
Teil III
Ausblicke und Fazit
134
Kapitel 9
Ein erweitertes Bild
von Manuel Boeck
Die Vision des MAPA-Projektes basiert auf einer Betrachtung der gegenwärtigen kulturellen Umgebung. Sozialpsychologische, technologische und epistemische Voraussetzungen sind für das Entwickeln von Werkzeugen relevant. Wie entwickelt sich der
Werkzeuggebrauch in einer Kultur, in der den Individuen und Kollektiven explizites
Wissen über metakognitive Prinzipien zur Verfügung steht, diesen also ein bewusster
Zugriff auf bestimmte kognitive Stile und Strategien ermöglicht wurde (vgl. Abschnitte
2.3.3 und 2.3.5.2)? Welche höheren kulturellen Stufen erzwingt die Wissensgesellschaft?
Wie wird die Umgebung für die Werkzeuge, die wir heute zu entwickeln beginnen,
aussehen?
135
KAPITEL 9. EIN ERWEITERTES BILD
9.1
Zur Vergangenheit von Denkwerkzeugen
In den vorangehenden Kapiteln war oft die Rede von konstruktivistischem Lernen. Damit verbunden sind allerdings auch Weltbilder, Lebens- und Denkweisen und (leider
auch) Philosophische Systeme (ganz zu schweigen von der Juristerei und Medizin). Um
diese Verstrickungen ein wenig zu umschreiben folgt in diesem Abschnitt eine Beschreibung, Gegenüberstellung und Synthese konstruktivistischer und soziokultureller Lerntheorien.
9.1.1
Sozio-Konstruktivismus
Konstruktivistische Lerntheorien betonen die aktive Beteiligung des Lerners durch
Konstruktion von Schlüsseln zum Wissensabruf verbunden mit deren Reorganisation
zusammen mit ihren Assoziationen. Wissen besteht hier aus selbstkonstruierten Repräsentationen.
In soziokulturellen Lerntheorien wird an Interaktionen des Lerners mit seiner Umwelt gedacht, die ein Wissen formen und darstellen, das in den kulturellen Praktiken
und deren Benutzung durch den Lerner gegenseitig abhängig repräsentiert ist. Hier
besteht Wissen aus externalisierten Handlungen, die durch die Aufmerksamkeit des
Benutzers auf deren Verwendung mit Bedeutung gefüllt werden.
Sprache als das zentrale kulturelle Werkzeug entwickelt sich nach soziokulturellen
Theorien von externem, sozialem (imitierenden) Verhalten zu internalisiertem bewussten Gedankengut. Eine Theory of Mind, die Fähigkeit, anderen Lebewesen Gedankeninhalte zuzuschreiben, wird durch den Gebrauch von Symbolen (als Kommunikationswerkzeug) über Sprache hin zu bewussten Gedanken über die Gedanken anderer Lebewesen entwickelt. Nach konstruktivistischen Theorien gehen bewusste Gedanken der
Sprache voraus, und eine Theory of Mind entwickelt sich durch Selbstbewusstsein der
eigenen mentalen Zustände hin zur Konstruktion von bewussten Überzeugungen über
die mentalen Zustände anderer.
Soziokulturelle Lerntheorien haben ihren Ursprung in den Arbeiten von L.S. Vygotsky A.N. Leont’ev und A.R. Luria in der Sowjetunion (siehe z.B. die Sammlung Vygotsky, 1987). Ihnen geht es um kulturelle Mediation von Kognition durch materielle
und semantische Artefakte wie Werkzeuge und Zeichen, um absichtsvolle Handlungen
im sozialen Kontext und der Verankerung der Kognition hierin, um die historische Entwicklung von Kognition in Synchronizität mit psychologischer Organisation der Gesellschaft, und um die fundamentale Bedeutung sozialer Praktiken für den menschlichen
Geist.
Die konstruktivistischen Theorien werden unter anderem mit Piagets „genetischer
Epistemologie“ und von Glasersfelds „radikalem Konstruktivismus“ verbunden (Piaget, 1972; von Glasersfeld, 1993), die soziokulturellen mit Theorien des situierten Lernens und situierter Kognition.
Für MAPA bedeutet dies, Lernen als identitätstransformierenden Prozess zu verstehen, für den es notwendig ist, dass der Lernende sich ganz mit seinem kognitiven
Werkzeug identifizieren kann. Wenn der Lernende sich in die verschiedenen (selbstkonstruierten, und visualisierten) Perspektiven auf (in) den Lernstoff mit Hilfe unseres Werkzeugs hineinbegeben kann, und dabei seine eigenen Perspektiven erkennt und
durch epistemologische Handlungen, die auf externalisierten (visualisierten) Wissen-
136
KAPITEL 9. EIN ERWEITERTES BILD
sentitäten operieren, transformieren kann, dann transformiert sich damit seine eigene
Identität (betrachtet als Konglomerat von Identitäten). Der Lernprozess wird dadurch
zum einen beschleunigt, da das „fremde“ Wissen mit eigenen Inhalten befreundend
und motivierend verbunden werden kann; zum anderen können wir natürlich keine
ernsteren Nebenwirkungen auf die Identitätsentwicklung ausschließen, da unser Werkzeug sich natürlich erst noch am Menschen erproben muss.
MAPA möchte es dem Lerner überlassen, wie er sich selbst instruiert, oder noch
besser (,) wahrnimmt. Insbesondere möchte es (biologische) Gehirnanstrengungen verringern, durch Verlagerung strukturierender Denkprozesse von internen zu externen
Resourcen. Nebenbei darf ganz allgemein der Gebrauch von Zeichen verfeinert werden.
Die kollaborative Natur des Werkzeugs (insbesondere MAPA) öffnet Spielraum, um
aus vorhandenen Wissensentitäten Neues zu konstruieren. Dies geschieht durch Akkumulation und Transformation, vermittelt durch graphische Aktionen und referenzierten Suchaktionen oder anderen Hintergrundaktionen, deren Funktionen durch die
OpenSource-Gemeinschaft ständig erweitert werden können. Dem zugrunde liegt das
Konzept der kognitiven Karten (cognitive maps) — die Vorstellung ist, dass die visualisierte Karte von Wissensschlüsseln auf deren neuronale Organisation in corticalen Karten
zurückwirkt. Zentral für diese Ideen ist, dass Ideen auf kognitiv adäquat „handhabbare“ Entitäten abgebildet werden, das heißt auch, Operationen auf komplexen Beschreibungen werden auf Operationen auf einfachen Entitäten verlagert. Diese Knoten sind
jedoch jederzeit entfaltbar, neuen Wissensraum öffnend.
Nach einer soziokulturellen Lerntheorie zu leben bedeutet, sich auf den Bedeutungsgehalt seiner Handlungen verlassen zu können, ohne diesen Gehalt aktiv konstruieren
zu müssen. Die Bedeutung ist in den kulturellen Praktiken enthalten und wird durch
Praxis kontinuierlich modifiziert: cognitive / cultural attunement. Konstruktivistisch zu
leben bedeutet, sein Weltbild als ein selbstkonstruiertes zu denken, und die Wahrnehmung durch diese Konstruktionen bestimmt und geformt zu sehen. Die eine Art verlässt sich auf unbewusste Handlungsmechanismen, die andere auf bewusste Konstruktionen. Natürlich sehen Konstruktivisten auch unbewusste wahrnehmungsstrukturierende Handlungen als konstruktivistisch an und Soziokulturalisten erweitern ihre bewusste Wahrnehmung auf unbewusste Mechanismen. Kant als Konstruktivist strukturiert die Wahrnehmung durch Zeit und Raum, und zwar bereits auf den ersten Stufen
der sensorischen Informationsverarbeitung.
Ontologisch unterscheiden sich Soziokulturalisten und Konstruktivisten durch die
konstruktivistische Annahme eines Subjekts, als eigene ontologische Entität, getrennt
von seiner Umwelt. Soziokulturell gesehen handelt es sich nur um einen Prozess, während das Subjekt sozial konstruiert ist, und in radikaler Variante Geist als sozial verteilt
angenommen/gesehen wird.
Der entscheidende Unterschied ist wohl, dass Konstruktivisten sich damit zufrieden
geben, Wissen von Welt zu konstruieren, während Soziokulturelle Welt ‘konstruieren’.
9.1.1.1
Ein Zukunftsausblick?
Eine Frage die sich bei der Evaluation von MAPA stellt ist, ob das Externalisieren von
Gedanken nun dem Benutzer an sich dient oder ob das Externalisierte selbst auch für
andere einen Nutzen bietet. Im ersten Fall liegt der Nutzen darin, dass der Benutzer von
den Gedanken befreit wird, die anschließend nur noch in externalisierter Form vorlie137
KAPITEL 9. EIN ERWEITERTES BILD
gen (und allenfalls noch als Spiegeloberfläche dienen). Im zweiten Fall ist das Externalisierte auch so strukturiert, dass es von anderen aufgenommen werden kann und so
recycelt wird. Im Idealfall sollte eine zyklische Interaktion stattfinden, die das Gedankenmaterial aus den Köpfen des einen extrahiert, im Netz recycelt wird und dann als
neue Gedankennahrung verwendet werden kann. Ferner stellt sich noch von selbst die
Frage, wie die Qualität beim Recyclen aufrecht erhalten werden kann; andererseits erübrigt sich die Frage in einer Welt, in der das natürliche Wachstum durch künstliches
ersetzt wurde. Wo die Gedanken nicht mehr wachsen muss man mit Recycletem vorlieb
nehmen.
9.2
Zur Zukunft von Denkwerkzeugen
Zur Zukunft der Menschheit sei noch gesagt, dass sie zunehmend verwirrender sein
wird.
Ein MAPA benutzender Mensch wird oft bald nicht mehr wissen, welche Gedanken
nun von ihm selbst waren und welche sich aus deren Spiegelungen (auf der Visualisierungsoberfläche) ergeben, also nur Reflexionen der ausgestrahlten Denkentitäten
sind. Ein solcher reger Austausch zwischen geistiger Hemisphäre und Reflexion ist ja
im Prinzip auch gewünscht.
Das Prinzip nach dem ein kognitives Werkzeug das Denken unterstützt (die kognitive Prothese) basiert auf der Bildung einer künstlichen Grenzfläche oder (graphischen)
Oberfläche an der sich Gedanken spiegeln können. Die Spiegelungen werden wieder
aufgenommen durch bzw. in den erzeugenden Geist, in dem sich nun, je nach Refraktionsquotienten, eine unterschiedliche Transformation der Gedanken vollzieht und in
einen neuen Projektionszyklus mündet. Der Benutzer landet dabei im Spezialfall (Idealfall ?) in einer tiefen Versenkung der kreisenden Denkentitäten, die befreit von ihrem
menschlichen Ursprung ein neues Leben in den Neuronalen Netzalgorithmen des kognitiven Werkzeugs beginnen. Das Resultat wird zur Freude des Benutzers nicht mehr
wiederzuerkennen sein, und damit das Gefühl schaffen, etwas Neues geschaffen zu
haben. Wer sich nicht zu tief in diese Denkzyklen hineinschrauben lässt, wird auf der
Oberfläche immer noch eine gewisse Reflexionsschärfe oder -klarheit erzielen, mit der
seine Erwartungen an das Werkzeug ganz seinen Ansprüchen gemäß erfüllt werden.
In der (politischen) Philosophie wird diese Frage sich möglicherweise zu einem neuen Dilemma entwickeln, zu einer Frage des geistigen Eigentums — Menschengeist oder
Computergeist . . .
Dies sollte an sich genügend Denknahrung für ein ausgewachsenes philosophisches
„Problem“ bilden, da Spiegelungen bereits in der physikalischen Welt schwer zu isolierende Phänomene sind und in der memetischen Welt also wohl kaum einfacher zu
handhaben sind.
Kritik wird sich aus dem Lager der Menschen zeigen, die in diesen Spiegelungen
eine Fata Morgana sehen, die ihnen den Zugang zu einer (realen) kognitiven Oase verstellen. (Die Rechtsprechung wird sich auf ein neues Streitfeld einrichten müssen, dem
Recht auf geistige Nahrung und Sicherung der kognitiven Grundbedürfnisse, wenn sich
das erste Durstopfer einstellt.)
138
KAPITEL 9. EIN ERWEITERTES BILD
9.2.1
Drei Fragen . . .
In der Geschichte der Menschheit waren Werkzeuge meist Mittel zur Transformation
oder Manipulation von Gegenständen. Von den Entwicklungspsychologen wird der Begriff des kognitiven Werkzeugs verwendet, um Sprache als dessen Prototyp zu erklären
(Vygotsky, 1987). Mit den technischen kognitiven Werkzeugen (im nicht-technischen Sinne) wird eine neue Entwicklungsstufe des Werkzeuggebrauchs eingeleitet, mit der den
Menschen nun nicht nur die Arbeit abgenommen wird, sondern auch das Denken. Zukünftige Generationen könnten auf die Denkzeitalter in der Geschichte der Menschheit
dann als niedrige Vorstufen zu dem vollständigen Dasein in Emotion, Sensation und
Aktion oder einem Dasein in ganz neu zu beschreibenden Dimensionen zurückblicken.
Vielleicht ermöglicht der Gebrauch der kognitiven Werkzeuge es dem Menschen
sogar erstmalig, das Intelligenzniveau von Ameisen zu erreichen. (Und damit den Platz
für die Entfaltung der menschlichen Natur in seiner inneren emotionalen, sensorischen
und motorischen Vielfalt zu erweitern.)
Die Grundidee ist dabei, dass das externalisierte, zur Spiegelung gebrachte Wissen
durch dessen Vernetzung für alle Individuen synchron zugänglich wird. Individuelle
Reflexion kann durch die Vernetzung, Verlagerung auf die Ebene der Denkwerkzeuge
und deren Vermittlung zu kollektiver sozialer Kognition werden.
Als Antwort auf die erste der dieses Kapitel einleitenden drei Fragen,
1) Wie entwickelt sich der Werkzeuggebrauch in einer Kultur, in der den Individuen
und Kollektiven explizites Wissen über metakognitive Prinzipien zur Verfügung steht?
könnte dies bedeuten, dass Individuen (meta-)kognitive Werkzeuge zur Transformation ihrer Identität und ihrer Selbst einsetzen können, und kollektiven Zugang zu dem
Denken ihrer Teilnehmer erhalten, sich ebenso transformieren können und einen neuen
Grad der Selbstregulation entwickeln.
Weitergefragt,
2) Welche höheren kulturellen Stufen erzwingt die Wissensgesellschaft?
löst sich die Frage auch gleich wieder auf, da es eine Wissensgesellschaft in dem bekannten Sinne nicht mehr geben wird. Für kulturelle Stufen wird neuer Entfaltungsspielraum geboten, in dem mit dem Wissen über sich selbst gespielt werden kann.
Zuendefragend,
3) Wie wird die Umgebung für die Werkzeuge, die wir heute zu entwickeln beginnen,
aussehen?
bleibt die Antwort offen, da sie von den
Visualisieroungen
ualisierungen
/
Vis
\
ionen
Visualisieruongen
139
KAPITEL 9. EIN ERWEITERTES BILD
jedes Einzelnen abhängen.
140
Kapitel 10
Fazit
von Stefan Scherbaum, Tobias Widdra
Das von der Projektgruppe gewählte Thema stellte sich als weites Forschungs- und Entwicklungsfeld heraus. Im vergangenen Jahr sind wir in einigen Bereichen dieses Feldes
vorangekommen, in anderen mussten wir aufgrund der begrenzten Zeit Abstriche in
Kauf nehmen. Die Ergebnisse des Projektes lassen sich auf zwei Ebenen zusammenfassen: zum einen auf der fachlichen (technisch- wissenschaftlichen) und zum anderen auf
der Ebene unserer persönlichen Erfahrung mit der Arbeit an einem solchen Projekt.
141
KAPITEL 10. FAZIT
10.1
Fachliche Ergebnisse
Technisch-wissenschaftlich gesehen erstellten wir eine unserem Ermessen nach tragfähige Architektur für eine Software, die das netzartige Abbilden von Wissen bzw. Wissenscues erlaubt. Zu diesem Zweck trugen wir Ergebnisse verschiedener Forschungsrichtungen, sowohl der Geisteswissenschaften als auch der Natur- und Ingenieurwissenschaften zusammen. Unser Ziel war es, die so entstandenen Anforderungen in unserem Werkzeug zu integrieren und prototypisch zu realisieren.
Eingehend auf unsere eingangs definierten Ziele (vgl. Abschnitt 1.2) ergibt sich somit folgendes Gesamtbild:
Spezifikation von Anforderungen In Teil I setzten wir uns mit den wissenschaftlichen
Erkenntnissen aus den Bereichen der Lerntheorien, des Mappings und der Kollaboration auseinander.
Architektur eines Frameworks Die gewonnenen Erkenntnisse nutzten wir in Kapitel
6, um aus den resultierenden technischen Anforderungen eine Architektur für ein
Mapping-Framework zu entwerfen.
Implementierung eines Prototyps In Kapitel 7 demonstrierten wir die Umsetzbarkeit
dieser Architektur anhand eines Prototyps.
Entwicklung einer beispielhaften Anwendung Kapitel 8 stellt den netzbasierten Vokabeltrainer als eine beispielhafte Anwendung vor, welche auf dem Prototyp aufbaut und somit die Nutzbarkeit unserer Architektur als Frameworks für vielfältige
Anwendungsmöglichkeiten unterstreicht.
Eine genauere Betrachtung der Ergebnisse unserer wissenschaftlichen Recherche offenbart, dass im Falle von MAPA ein enger Zusammenhang aus konstruktivistischen
Prinzipien, Mappingansätzen und der Kollaboration vieler Individuen besteht. All diese Forschungsgebiete sind Wissenschaften für sich und es existieren in jedem Unmengen an Wissen und Erkenntnissen, so dass wir zwangsläufig nur kleine Ausschnitte
all dieser Gebiete beleuchten konnten. Trotzdem waren die Ergebnisse für MAPA sehr
fruchtbar und zeigten einen Weg auf, die verschiedenen Ansätze in einem integrativen
Werkzeug zu verbinden.
Eine nähere Betrachtung der Architektur zeigt, dass wir hier viele unserer Vorhaben
erreicht haben:
• Der Abstraktionsgrad des entitätenbasierten Ansatzes erlaubt den Einsatz verschiedenster Mappingverfahren im Rahmen des MAPA-Frameworks. Der implementierte Grapheditor stellt hier ein einfaches Beispiel dar.
• Die spezifizierten Protokolle bieten einen großen, plattformunabhängig nutzbaren
Funktionsumfang für Anwendungen, die auf dem MAPA-Framework aufbauen.
Dieser wird z.B. von der implementierten Kommandozeile umfangreich genutzt,
welche weitere Features, wie z.B. eine graphische Navigation in einem Netz, konkret vorstellbar macht.
• Die Implementierung des kollaborativen Aspektes wird durch den in der Architektur vorgesehenen Messaging-Mechanismus prinzipiell ermöglicht.
142
KAPITEL 10. FAZIT
Die architekturspezifischen Ziele der Erstellung eines Frameworks und dessen Unterstützung der Meta-Mapping-Fähigkeiten haben wir somit erreicht. Im Bezug auf den
Aspekt der Kollaboration stießen wir auf eine sehr große Menge zu klärender Fragen.
Dazu zählen beispielsweise:
• Wie muss das Wissenseigentum in einem Peer-to-Peer-MAPA-Netz und damit die
Sicherheitsregelung gestalten werden?
• Wie kann ein auf mehrere Datenbanken verteiltes Typisierungssystem aussehen,
dass auch beim Ausfall mehrerer Peers immer noch funktionsfähig sein muss?
• Wie können verschiedenste Antwort-Entitätensets verschiedener Datenbanken als
Antwort auf eine Anfrage integriert werden.
Viele dieser Fragen mussten wir (vorerst) zugunsten der Bearbeitung der anderen Themenfelder und des Aufbaus der Architekturbasis unbeantwortet lassen. Die Kollaboration mehrerer Teilnehmer ist somit mit der aktuellen Version von MAPA noch nicht
möglich. Allerdings erlaubt die Architektur hier eine spätere Erweiterung an dafür bereits vorgesehenen Punkten. Das Aufdecken der kollaborationsbezogenen Fragen und
somit das Entstehen weiterer zukünftiger Arbeitsfelder sehen wir dennoch als wichtiges
fachliches Ergebnis dieses Projektes.
Der implementierte Prototyp zeigt, dass unsere Architektur tragfähig ist. Er verwendet bereits verschiedene Oberflächen zur Darstellung des abgespeicherten Netzes (grafisch und kommandozeilenbasiert) und erlaubt somit auch das verschiedenartige Arbeiten mit dem Netz. Das Aufsetzen der unterschiedlichen Editoren erwies sich dank
der modularen Struktur des Systems als prinzipiell einfach, die zur Verfügung gestellte
Java-Integration-Library und die Einbindung in Eclipse erwiesen sich nach einer gewissen Einarbeitung als extrem arbeitserleichternd und beschleunigend für den Entwicklungsprozess. Mittlerweile erreichten uns einige Anfragen nach diesem prototypischen
Basissystem von anderen Gruppen und Studenten. Aufbauend auf MAPA möchten sie
Systeme mit weiterentwickelter grafischer Oberfläche und der Möglichkeit zur gemeinsamen Arbeit an einem Netz produzieren. Diese begeisterte Nachfrage bestätigt nicht
nur unsere Einschätzung nach dem Bedarf einer solchen Architektur, sondern auch das
der Architektur zugrunde liegende Konzept. Es ist somit zu erwarten, dass sich MAPA
in weiteren Projekten, seien sie universitär oder privat, auf Basis unseres Prototypen
weiterentwickeln wird.
Die in Kapitel 8 vorgestellte Beispiel-Anwendung zeigt zudem, dass die Idee von
MAPA nicht auf die reine Wissensabbildung beschränkt ist, sondern auch eine Basis für
weitere Anwendungsgebiete darstellen kann. Die Idee eines netzbasierten Vokabeltrainers macht es möglich, neuartige Konzepte einfach zu realisieren, wie z. B. eine Vokabelabfrage in Form von Lückennetzen, die das Wissen über die semantischen Beziehungen
der einzelnen Vokabeln als notwendigen Bestandteil des Lernens ins Zentrum setzen. In
Kapitel 8 wurde ein umfangreicher Ideenkatalog aufgestellt. Aufgrund der begrenzten
Ressourcen konnten jedoch nur einige der vielen Ideen umgesetzt werden. Zu diesen
gehören:
• Explorieren des Netzes über semantische Relationen und Auswahl der Vokabeln
für die Abfragelektionen
• Auswahl einer Abfrage aus drei Varianten der Lückennetzidee
143
KAPITEL 10. FAZIT
• Speicherung des letzten Abfragezeitpunktes einer Vokabel inklusive der Information, ob diese richtig wiedergegeben werden konnte
Durch die erzielten Implementierungserfolge ist deutlich geworden, dass sowohl
der Prototyp als auch der Vokabeltrainer erfolgreich auf dem MAPA-Framework aufsetzen. Dies macht uns zuversichtlich, dass durch den von uns gewählten modularen
Ansatz ein vielseitiger Einsatz von MAPA ermöglicht worden ist.
10.2
Projektmethodische und persönliche Einsichten
Die Ergebnisse auf der persönlichen Ebene sind naturgemäß schwieriger zu bestimmen.
Das Ziel eines Masterprojektes, wie es im Studiengang Kognitionswissenschaft gefordert ist, ist sicherlich nicht nur die Erzeugung wissenschaftlicher Ergebnisse oder eines
technischen Produktes. Die persönliche Weiterentwicklung hinsichtlich der gemeinsamen Projektarbeit stellt einen weiteren wichtigen Punkt dar.
Wir alle haben in dieser Hinsicht eine deutliche Entwicklung an uns beobachten
können. Dazu zählt die Entwicklung einer von allen akzeptierten Arbeitsmethodik und
eines Teamgeistes, der zu verschiedensten Zeiten die Stärken und Schwächen einzelner
Projektmitglieder tragen konnte. Insbesondere zählt auch die Einsicht dazu, dass viele
der Standardmethoden, wie die Moderation von Sitzungen, das schriftliche Festhalten
der Ergebnisse und das Setzen von Abgabeterminen nicht einer reinen Formalisierungswut so mancher Projektmanager entspringt, sondern auf der Realität des Alltagsgeschäfts beruht und sinnvoll ist. Ebenso entpuppte sich die Arbeit in kleinen themenspezifischen Arbeitsgruppen, welche ihre Ergebnisse dann dem gesamten Team zur Diskussion stellen, als deutlich effektiver gegenüber langwierigen Sitzungen im Gesamtplenum ohne jegliche Diskussionsgrundlage, in denen die Kernideen ersteinmal formuliert werden mussten. Hierbei war auch interessant zu erleben, wie schnell eine eigene
Ideenskizze von der Gruppe als solch eine Diskussionsgrundlage angenommen wurde,
da die Früchte jeglichen Engagements im oftmals überfüllten Alltag gerne akzeptiert
werden. Deutlich haben wir zudem gesehen, wie viel effektiver – und vor allem auch
Spaß bringender – unsere „internen“ Treffen ohne Betreuer waren, wenn wir uns klare Ziele setzten (Welche Themen sind abzuarbeiten? Was wollen wir heute erreichen?),
es einen Moderator gab und unsere Kommunikation mit Visualisierungen anhand eines Flipcharts ergänzt wurde. Die Prinzipien von klarer Zielsetzung und Festhalten
der Ergebnisse anhand eines Protokolls wandelten sich immer mehr von anfänglicher
„Pflichterfüllung “ unseren Betreuern gegenüber zur sinnverstandenen Selbstverständlichkeit. Die MindMap in Abbildung 10.1 versucht, einige unserer projektmethodischen
Erkenntnisse zusammenzufassen.
Zu den allgemeinen Hürden eines solch umfangreichen Projektes kam die Tatsache,
dass dieses Projekt eine Zusammenarbeit von Studenten der Universitäten Osnabrück,
Tübingen und Bochum war. Hinzu kam, dass die Bochumer Studentin gerade ein Auslandsjahr an der University of Edinburgh absolvierte, was die räumliche Entfernung
nocheinmal vergrößerte. Während sich dieses ortsübergreifende Arbeiten anfangs als
sehr zeitaufwändig und des Öfteren auch als kommunikationsineffizient erwies, entwickelten wir als Projektgruppe mit der Zeit einen effektiven Arbeitsstil, der mit den
Problemen der großen räumlichen Distanz immer besser umgehen konnte. So begannen wir mit gemeinsamen Chatsitzungen, in denen wir uns kennen und unsere ersten
Ideen austauschen lernten. Die Ineffizienz dieses Kommunikationsmittels war schnell
144
KAPITEL 10. FAZIT
Abbildung 10.1: Ein Ausschnitt unseres im Projekt erworbenen arbeitsmethodischen
Wissens
145
KAPITEL 10. FAZIT
offensichtlich und die alsbald erprobte Möglichkeit, während einer Telefonkonferenz
frei sprechen zu können, wirkte wie eine Erlösung und brachte Fahrt in den Ideenaustausch. Doch, wie erwartet und dennoch deutlich erlebt, kam das Gefühl von gemeinsamer Arbeit und eines Teamgeistes erst richtig auf, als wir die ersten persönlichen Treffen
veranstaltet hatten. Als Highlight zählen hierzu die zwei gemeinsamen „Programmierwochen“, in denen sich neben einer jeweiligen ergiebigen Arbeitswoche natürlich auch
jede Menge Zeit für gemeinsame Aktivitäten und persönlichen Austausch finden ließ.
Gestärkt durch diesen persönlichen Kontakt erwies sich letztlich unsere Idee, regelmässig mittels „Telefonbeauftragte“ der jeweiligen Standorte Informationen im direkten
Zweiergespräch auszutauschen, als fruchtbare Lösung des Problems der ortsübergreifenden Kommunikation.
An dieser Stelle möchten wir nun auch unseren Projektbetreuern danken. Sie gaben
uns so viel Freiheit wie möglich, um all diese Erfahrungen selbst machen zu können,
und gleichzeitig so viel Vorgaben und Rahmen wie nötig, um uns nicht auf dem weiten
Feld des Projektthemas zu verlieren.
146
Kapitel 11
Ausblick
von Jens Wissmann
Hauptmotivation für das MAPA-Projekt war die Vorstellung, Menschen neue Wege zum Aufbau und Austausch von Wissen zu ermöglichen. Wie sich im Rahmen des
Master-Projektes gezeigt hat, müssen um dies zu erreichen viele verschiede Forschungsfelder betrachtet und bisher einzeln nebeneinanderstehende Technologien (wie z.B.
Mappingverfahren, Semantische Netze, Ontologien, ...) zusammengebracht und werden. Im Rahmen des Masterprojektes wurde deshalb zum einen versucht die für dieses
Vorhaben relevanten Wissensgebiete näher zu beleuchten und zum anderen ein Fundament für weitergehende praktische Arbeiten zu legen.
Da bei jeder neuen Idee schwer zu entscheiden ist, welche Wissensgebiete und Im147
KAPITEL 11. AUSBLICK
plementierungswege schließlich zum Ziel führen, haben wir versucht uns sowohl so
offen wie möglich zu halten, als auch pragmatische Teilziele zu verfolgen. Da sich dieser Grenzgang zwischen Visionieren und Konkretisieren im Projektverlauf als durchaus
Frucht tragend erwiesen hat, sollen diese Pole auch das weitere Arbeiten bestimmen.
11.1
Visualisierung
Im Bereich Visualisierung ist unser kurzfristiges Ziel, die bestehende ConceptMapping
Visualisierung so zu erproben und zu erweitern, dass sie stabil genug für die alltägliche
Anwendung ist. Dabei sind zum einen Performance-Fragen zu klären. Weiterhin sind
auch andere praktische Aspekte der Anwendungslogik zu realisieren, wie eine Erleichterung der Anbindung bestehender Daten (Datei, URLs) an das Wissensnetz.
Wissen gewinnt an Klarheit, wenn es von verschiedenen Seiten beleuchtet wird. Um
zu verdeutlichen, dass der MAPA-Ansatz dafür geeignet ist, sollen mittelfristig noch
verschiedene andere netzbasierte Visualisierungsformen angebunden werden. Es bietet
sich an hier auch bestehende Lösung wie TopicMaps4J, JGraph oder Touchgraph zu
verwenden. Intuitive Möglichkeiten, verschiedene Themennetze zu verknüpfen, sind
ein weiterer Aufgabenbereich.
11.2
Kollaboration
Wir hoffen, dass die Möglichkeit, viele unterschiedliche Inhalte in verschiedensten Visualisierungsformen in Beziehung setzen zu können, zu kreativem Arbeiten motiviert.
Die Entwicklung des Internets in den letzten Jahren zeigt aber, dass ein ungleich größeres kreatives Potential entfesselt werden kann, wenn man Menschen die Möglichkeit
gibt, ihr Wissen gegenseitig auszutauschen.
Technisch wurden im Prototyp Grundlagen zur verteilten Datenspeicherung gelegt.
Dies jetzt auch in die Anwendungslogik einzubeziehen, ist die erste große Aufgabe,
die jetzt angegangen werden muss. Als längerfristige Vision sollen dann auch soziale
Aspekte modelliert werden. Dies umfasst zum einen anwenderbezogene Aspekte wie
Workflows, Policies und Security. Zum anderen zählen dazu auch Aspekte der gemeinsamen Wissensstrukturierung, wie der Umgang mit und die Bildung von Ontologien.
11.3
Arbeit mit Ontologien
Das implementierte Entitätenmodell ermöglicht die Bildung von Ontologien. Benutzt
man den grafischen Editor, so wird verdeckt schon davon gebrauch gemacht. Aber
um Ontologien auch explizit erstellbar und verwendbar zu machen, müssen intuitive
Bedienelemente implementiert und das Mapping von visuellen Objekten auf die verwendete Ontologie transparent gemacht werden. Betrachtet man den kollaborativen
Aspekt, bleibt zu klären, wie verschiedene Ontologien in Beziehung gestellt oder zusammengefügt werden können.
148
KAPITEL 11. AUSBLICK
11.4
Standards
Große Teile der von MAPA benutzen Standards stammen aus dem Umfeld der SemanticWeb-Bewegung. Die Kompatibilität mit bestehenden Standards soll weiter ausgebaut
werden, da dies ein großes Potential zur Interoperabilität mit anderen Anwendungen
bzw. Services in sich birgt. Dies betrifft vor allem die Bereiche RDF, TopicMaps und
WebServices. Neue Entwicklungen im Blick zu behalten ist essentiell.
11.5
Evaluation
MAPA soll Lernen und Wissensaufbau fördern. Ob aber das System wirklich die gewünschten Resultate bringt, kann sich erst beim tatsächlichen Arbeitsansatz zeigen.
Nachdem bisher theoretische Vorüberlegungen und ein erste Implementation erfolgt
sind, ist folglich einer der nächsten logischen Schritte, empirische Daten zu erheben.
Ein Evaluationsszenario auf Grundlage des Vokabeltrainers ist dabei leicht denkbar.
Voraussetzung ist allerdings eine gewisse Robustheit des Systems.
11.6
MAPA als offene Community
Während der Recherche nach für das Master-Projekt relevanten Arbeiten, tauchten immer wieder andere Projekte und Ideen auf, die in ihren Vorhaben in eine ähnliche Richtung wie MAPA zielen. Im Detail unterschieden sich die Projekte zwar teilweise stark
von MAPA und im Projektverlauf schärfte sich unserer Blick, worin im Vergleich Vorund Nachteile unseres Ansatzes liegen. Aber unsere Auseinandersetzung mit diesen
Projekten hat uns auch in der Meinung bestätigt, dass die grundsätzliche Blickrichtung
von MAPA durchaus sinnvoll ist und sich vielerorts Bemühungen zur Integration von
Mapping, Kollaboration und semantischer Datenhaltung verbinden.
Es gibt viele Entwicklungen, die sich auch auf diese Sichtweise hinbewegen, ohne dieses explizit wahrzunehmen. Viele Wissensmanagement- und auch HypertextSysteme (wie WIKIs) nutzen verstärkt Graph-Visualiserung zur besseren Navigation.
Gleichzeitig werden Graph-Visualisierungs-Pakete und Mapping-Software zum besseren Arbeiten mit Ontologien und offeneren Datentypen erweitert. Der MAPA-Ansatz
versucht von vorne herein eine integrierte Perspektive einzunehmen.
Anstatt sich aber zu stark abzugrenzen zu wollen, ist es für die Zukunft eine
wichtige Aufgabe, MAPA in Beziehung zu diesen Projekten und Menschen mit ähnlichen Ideen zu setzen. Wir haben stark von der Nutzung technischer Entwicklungen
des SemanticWebs und der Java-Welt profitiert. Ebenso haben wir in vielen kreativen
Ideen aus Bereichen wie der Wissensrepräsentation und nicht zuletzt der Kognitionsforschung Inspiration gefunden. Wir hoffen, dass unser Projekt einen Beitrag zu einer
gemeinsamen Entwicklung bildet.
Da der offizielle Rahmen des Masterprojekts endet, entstehen nun neue Rahmen.
Dies betrifft zum einen den Implemtierungsteil, der als OpenSource-Projekt weitergeführt wird. Da es wichtig ist Menschen mit gemeinsamer Zielsetzung zusammenzubringen, soll weiterhin ein Forum geschaffen werden, in dem die vorhandenen Ansätze unter einer integrierten Sichtweise neu diskutiert werden können. MAPA wird von
einer Teilbesetzung des Master-Projekts und neu hinzugekommenen Personen in en149
KAPITEL 11. AUSBLICK
ger Verbindung zum Institut für Kognitionswissenschaft weitergeführt. Wir freuen uns
darauf, in Zukunft das Entstehen neuer Arten der Vernetzung von Menschen und Ideen
miterleben und auch mitgestalten zu können.
150
Literaturverzeichnis
Alexander, P. and Murphy, P. (1994). The research base for apa’s learnercentered psychological principles. Paper presented at the annual meeting of the American Educational Research Association, New Orleans.
Anderson, J. R. (1971). Imagery and verbal processes. Holt, Rinehart & Fisher, New York.
Anderson, J. R. (1990). Cognitive Psychology and its implications 3.Ed. W.H. Freeman and
Company, New York.
Ausubel, D. (1974). Psychologie des Unterrichts Bd. 1 & 2. Beltz Psychologie-VerlagsUnion, Weinheim, Basel.
Baroody, A. J. and Bartels, B. H. (2000). Using Concept Maps to link mathematical
ideas. Mathematics Teaching in the Middle School, 5(9):604–609.
Baroody, A. J. and Coslick, R. (1998). Fostering children’s mathematical power. Lawrence
Erlbaum Associates, Mayweh, New Jersey.
Barrows, H. (1994). How to Design a Problem-Based Curriculum for the Preclinical Years.
Springer, New York.
Baumert, J. (1993). Lernstrategien, motivationale Orientierung und Selbstwirksamkeitsüberzeugungen im Kontext schulischen Lernen. Unterrichtswissenschaft, 21(4):327–
354.
Berendt, H. and Reiska, P. (2001). Abwechslung im Naturwissenschaftsunterricht mit
Concept Mapping. PLUS LUCIS, (1):9–12.
Bernd, H., Hippchen, T., Jüngst, K., and Strittmatter, P. (2000). Durcharbeiten von
Begriffsstrukturdarstellungen in unterrichtlichen und computergestützten Lernumgebungen. In Mandl, H. und Fischer, F. (Hrsg.), Wissen sichtbar machen – Wissensmanagement
mit Mappingtechniken, chapter 2. Hogrefe, Göttingen.
Blumstengel, A. (1998). Entwicklung hypermedialer Lernsysteme. wvb Wissenschaftlicher
Verlag, Berlin.
Bornschein-Grass, C., Picot, A., and Reichwald, R. (1994). Groupware und computerunterstützte Zusammenarbeit – Wirkungsbereiche und Potentiale. Gabler Edition Wissenschaft,
Wiesbaden.
Braak, W. (2004).
Internet: http://www.lille.inserm.fr/u422/hippocampus.html
(Stand: Februar 2004).
Brewer, J. (1998). Making memories: Brain activity that predicts how well visual experience will be remembered. Science, (281):1185–1187.
151
LITERATURVERZEICHNIS
Brombach, G. (2000). Möglichkeiten und Grenzen Künstlicher Intelligenz und
ihre Implementierung in Computerlernprogramme.
Master’s thesis, Internet:
http://www.learninglab.de/˜allert/ki-paed/ (Stand: Oktober 2003).
Bruillard, E. and Baron, G.-L. (2000). Computer-based concept mapping a cognitive
tool for students : A review. In Proceedings of Conference on Educational Uses of Information and Communication Technologies (ICEUT 2000), 16th World Computer Congress, IFIP,
pages 331–338.
Buchanan, M. (2002). Small Worlds. Spannende Einblicke in die Komplexitätstheorie. Campus Sachbuch.
Buzan, T. (1996). Use both sides of your brain. E.P.Dutton, New York.
Buzan, T. and Buzan, B. (1996). Das Mind-Map Buch. Die beste Methode zur Steigerung
ihres geistigen Potentials. MVG, Landsberg a. L.
Cañas, A. J., Hill, G., Carff, R., and Suri, N. (2003). CmapTools: A knowledge modeling
and sharing toolkit. Technical Report IHMC CmapTools 93-01, Institute for Human
and Machine Cognition.
Carter, R. and McCarthy, M. (1988). Vocabulary and Language Teaching, chapter “Word
lists and learning words: some foundations“, pages 1–17. Longman, London.
Chanier, T., Pengelly, M., Twidale, M., and Self, J. (1992). Conceptual Modeling in Error
Analysis in Computer-Assisted Language learning Systems, chapter “Intelligent Tutoring
Systems for Foreign Language Learning“, pages 232–305. Springer, Berlin.
Chinn, C. A., O’Donnell, M., A., and Jinks, T. S. (2000). The structure of discourse in
collaborative learning. Journal of Experimental Education, 69(1):77–97.
Chiu, C.-H., Huang, C.-C., and Chang, W.-T. (2000). The evaluation and influence of
interaction in network supported collaborative Concept Mapping. Computers & Education, 34(1):17–25.
Chmielewski, T. and Dansereau, D. (1998). Enhancing the recall of text: Knowledge mapping training promotes implicit transfer. Journal of Educational Psychology,
90(3):407–413.
Chung, G. K. W. K., O’Neil, H. F. J., and Herl, H. E. (1999). The use of computerbased collaborative knowledge mapping to measure team processes and team outcomes. Computers in Human Behavior, 15(3–4):463–493.
Clarke, J. (1991). Patterns of Thinking. Allyn and Bacon, Neddham Heights, Massachusetts.
Collins, A. and Loftus, E. (1975). A spreading activation theory of semantic processing.
Psychological Review, (82):407–428.
Conklin, J. (1987). Hypertext: an introduction and survey. Computer, 20(9):17–41.
Craik, F. and Lockhart, R. (1972). Levels of processing: A framework for memory research. Journal of Verbal Learning and Verbal Behavior, 20(11):671–684.
152
LITERATURVERZEICHNIS
Cristea, A. and Okamoto, T. (2001). Object-oriented collaborative course authoring
environment supported by Concept Mapping in MyEnglishTeacher. Educational Technology and Society, 4(3):104–115.
Ebbinghaus, H. (1885). Über das Gedächtnis. Untersuchungen zur experimentellen Psychologie. Duncker & Humblot, Leipzig.
Edelmann, W. (1996). Lernpsychologie. Beltz Psychologie-Verlags-Union, Weinheim,
Basel.
Esiobu, G. and Soyibo, K. (1995). Effects of concept and vee mapping under three
learning modes on studentsćognitive achievement in ecology and genetics. Journal of
Research in Science Teaching, 32(9):971–995.
Feldweg, H. (1997). Lexikalische Semantik aus kognitiver Sicht – Perspektiven im Spannungsfeld linguistischer und psychologischer Modellierungen – Tübinger Beiträge zur Linguistik (TBL), Bd. 439, chapter „GermaNet – ein lexikalisch-semantisches Netz für das
Deutsche“. Gunter Narr, Tübingen.
Fensel, D. (2001). Ontologies: A Silver Bullet for Knowledge Management and Electronic
Commerce. Springer, Berlin.
Fernandez, G. (1999). Real-time tracking of memory formation in the human rhinal
cortex and hippocampus. Science, (285):1582–1585.
Fernandez, G. and Weber, B. (2003). Fische fangen im Erinnerungsnetz. Gehirn & Geist,
(2):68–73.
Fischer, F. and Mandl, H. (2000). Strategiemodellierung mit Expertenmaps. In Mandl,
H. und Fischer, F. (Hrsg.), Wissen sichtbar machen – Wissensmanagement mit Mappingtechniken, chapter 3. Hogrefe, Göttingen.
Fischler, H. and Peuckert, J. (2000). Concept Mapping in Forschungszusammenhängen. In Concept Mapping in fachdidaktischen Forschungsprojekten der Physik und Chemie,
chapter 1. Logos, Berlin.
Francisco, J. S., Nicoll, G., and Trautmann, M. (1998). Integrating multiple teaching
methods into a general chemistry classroom. Journal of Chemical Education, 4(3):210–
213.
Friedrich, H. (1999). Selbstgesteuertes Lernen – Sechs Fragen, sechs Antworten. Internet: http://www.learnline.nrw.de/angebote/selma/medio/vortraege/friedrich/friedrich
.pdf (Stand: 14.4.2004).
Friedrich, H. F. (1995). Analyse und Förderung kognitiver Lernstrategien. Empirische
Pädagogik, (9(2)):115–153.
Gaßner, K. and Hoppe, H. (2000). Visuelle Sprachen als Grundlage kooperativer Diskussionsprozesse. In Mandl, H. und Fischer, F. (Hrsg.), Wissen sichtbar machen – Wissensmanagement mit Mappingtechniken, chapter 6. Hogrefe, Göttingen.
Grillenberger, P. and Niegemann, H. M. (2000). Entwicklung und Erprobung eines
Lernprogramms zur Technik des ’Concept Mapping’. In Mandl, H. und Fischer, F.
(Hrsg.), Wissen sichtbar machen – Wissensmanagement mit Mappingtechniken, chapter 4.
Hogrefe, Göttingen.
153
LITERATURVERZEICHNIS
Grudin, J. (1991). Cscw – the convergence of two disciplines. In ACM SIGCHI Conference on Human Factors in Computing Systems (April), New Orleans. ACM Press.
Haller, H. (2002). Mappingverfahren zur Wissensorganisation. (Unveröffentlichte Diplomarbeit) Verfügbar unter http://heikohaller.de/literatur/diplomarbeit/.
Hanf, M. (1971). Mapping – a technique for translating reading into thinking. Journal
of Reading, (14):225–238.
Hasenkamp, U. and Syring, M. (1994). CSCW – Computer Supported Cooperative Work –
Informationssysteme für dezentralisierte Unternehmensstrukturen, chapter „CSCW (Computer Supported Cooperative Work) in Organisationen – Grundlagen und Probleme“.
Addison-Wesley, Bonn.
Hertz-Lazorowitz, R. (1992). Six mirrors of the classroom: a pathway to co-operative learning. El Paso, TX.
Hurley, O. (2001). Web-services or peer-to-peer? WebServices Journal, (1 (1)):14.
Hyerle, D. (1996). Visual Tools – for constructing knowledge. Association for Supervision
and Curriculum Development, Alexandria, Virginia.
Janetzko, D. and Strube, G. (2000). Knowledge Tracking – Eine neue Methode zur
Diagnose von Wissensstrukturen. In Mandl, H. und Fischer, F. (Hrsg.), Wissen sichtbar
machen – Wissensmanagement mit Mappingtechniken, chapter 11. Hogrefe, Göttingen.
Jonassen, D. (1992a). Semantic networking as cognitive tools. In Kommers, P., Jonassen,
D., and Mayes, J., editors, Cognitive Tools for Learning. Springer, Berlin.
Jonassen, D. (1992b). What are cognitive tools. In Kommers, P., Jonassen, D., and
Mayes, J., editors, Cognitive Tools for Learning. Springer, Berlin.
Jonassen, D. and Grabowski, B. (1993). Handbook of Individual Differences, Learning, and
Instruction. Lawrence Erlbaum, Hillsdale, New Jersey.
Jost, A. (1897). Die Assoziationsfestigkeit in ihrer Abhängigkeit von der Verteilung der
Wiederholungen. Zeitschrift für Psychologie und Physiologie der Sinnesorgane, (16):436–
472.
Kandel, E., Schwartz, J. H., and Jessell, T. M. (1996). Neurowissenschaften. Spektrum
Akademischer Verlag, Heidelberg.
Klimsa, P. (1993). Neue Medien und Weiterbildung: Anwendung und Nutzung in Lernprozessen der Weiterbildung. Deutscher Studien Verlag, Weinheim.
Kolb, D. A. (1981). Learning Styles and Disciplinary Differences, chapter “The Modern
American College. Responding to the New Realities of Diverse Students and a Changing Society“, pages 232–305. Chickering, A.W. and Associates, San Francisco, Washington, London.
Koschmann, T. (1996). Computers, cognition, and work, chapter “CSCL: Theory and practice of an emerging paradigm“. Lawrence Erlbaum, Mahwah, New Jersey.
Kraut, R., Galegher, J., and Egido, C. (1986). Relationships and tasks in scientific research collaboration. In Proceedings of CSCW’86.
154
LITERATURVERZEICHNIS
Kulik, J. and Kulik, C. (1988). Timing of Feedback and Verbal Learning. Review of
Educational Research, (58 No.1):79–97.
Kunze, C. (2001). Lexikalisch-semantische Wortnetze. In Carstensen, K.-U., Ebert, C.,
Endriss, C., Jekat, S., Klabunde, R. und Langer, H. (Hrsg.), Computerlinguistik und Sprachtechnologie: eine Einführung. Heidelberg, pages 386–393. Spektrum, Akademischer Verlag, Berlin.
Landauer, T. and Bjork, R. (1978). Practical aspects of memory, chapter “Optimum rehearsal patterns and name learning“, pages 625–632. Academic Press, New York.
Laufer, B. (1997). Second Language Acquisition, chapter “The lexical plight in second
language reading“, pages 1–17. Cambridge University Press, London.
Lefrancois, R. (1994). Psychologie des Lernens. Springer, Heidelberg.
Leitner, S. (1972). So lernt man lernen. Herder KG, Freiburg im Breisgau.
Lewis, M. (2000). Teaching Collocation: further developments in the lexical approach. LTP,
Hove, England.
Lompscher, J. (1994). Lernstrategien: Zugänge auf der Reflexions- und der Handlungsebene,
volume LLF-Berichte Nr.9.
Ludewig, P. (2003). Korpusbasiertes Kollokationslernen – Computer-Assisted Language Learning als prototypisches Anwendungsszenario der Computerlinguistik. Habilitationsschrift am Fachbereich Sprach- und Literaturwissenschaft der Universität Osnabrück.
Mandl, H. and Fischer, F. (2000). Mapping-Techniken und Begriffsnetze in Lern- und
Kooperationsprozessen. In Mandl, H. und Fischer, F. (Hrsg.), Wissen sichtbar machen –
Wissensmanagement mit Mappingtechniken, chapter 1. Hogrefe, Göttingen.
Mandl, H. and Friedrich, H. (1992). Lern- und Denkstrategien. Hogrefe, Göttingen.
Mandl, H., Gruber, H., and Renkl, A. (1995). Situiertes Lernen in multimedialen Lernumgebungen, chapter „Information und Lernen mit Multimedia“, pages 167–178. Beltz
Psychologie-Verlags-Union, Weinheim, Basel.
Marshall, C. and Shipman, F. (1993). Searching for the missing link: discovering implicit structure in spatial hypertext. In Proceedings of ACM Hypertext ’93, pages 217–230.
McAleese, R. (1998). Coming to know: the role of the concept map – mirror, asssistant,
master? Euroconference – New Technologies for Higher Education, Aveiro University,
Aveiro, Portugal, September 16–19.
McCelland, J. (1995). Why there are comlementary learning systems in the hippocampus and neocortex: Insights from the successes and failures of connectionist models of
learnig and memory. Psychological Review, (102):419–457.
McCullough, A. P. (1997). Internet: http://users.erols.com/amccull/osi.htm (Stand:
Oktober 2003).
Metzig, W. and Schuster, M. (1993). Lernen zu lernen. Springer.
155
LITERATURVERZEICHNIS
Milner, B. (1985). Memory and the Human Brain. How we know. Harper & Row, San
Francisco.
Minar, N. (2001).
Distributed systems topologies: Part 1.
http://www.openp2p
.com/pub/a/p2p/2001/12/14/topologies_one.html (Stand: März 2003).
Internet:
Minar, N. (2002).
Distributed systems topologies: Part 2.
Internet:
http://www.openp2p
.com/pub/a/p2p/2002/01/08/p2p_topologies_pt2.html (Stand: März 2003).
Navarro, G. and Baeza-Yates, R. (1998). Technical Report TR/DCC-98-5: Improving
an algorithm for approximate pattern matching. Dept. of Computer Science, Univ. of
Chile, Internet: www.paul-raedle.de/vtrain/sci-de.htm (Stand: März 2004).
Novak, J. and Gowin, D. (1984). Learning how to learn. Cambridge University Press,
New York.
O’Donnell, A., Dansereau, D., and Hall, R. (2002). Knowledge maps as scaffolds for
cognitive processing. Educational Psychology Review, (14 (1)):71–86.
O’Reilly, R. C. and Rudy, J. W. (2001). Conjunctive representations in learning and memory: Principles of cortical and hippocampal function. Psychological Review, (108):311–
345.
Paivio, A. (1978). A dual coding approach to perception and cognition, chapter “Modes of
perceiving and processing information“, pages 39–514. Erlbaum, Hilsdale.
Palinscar, A. and Brown, A. (1984). Reciprocal teaching of comprehension fostering
and comprehension- monitoring activities. Cognition and Instruction, (1):117–175.
Peschl, M. F. (1990). Cognitive Modelling. Deutscher Universitäts-Verlag, Wiesbaden.
Piaget, J. (1972). The principles of genetic epistemology. Basic Books, New York. (Original
work published 1970).
Rädle, P. (2003). Internet: www.paul-raedle.de/vtrain/sci-de.htm (Stand: 15.9.2003).
Reimann, P. and Zumbach, J. (2001). Partizipation und Interaktion im virtuellen Seminar,
chapter „Design, Diskurs und Reflexion als zentrale Elemente virtueller Seminare“,
pages 135–163. Waxmann, Münster.
Reuer, V., Ludewig, P., Rollinger, C., and Krüger-Thielmann, K. (2003). Studienprojekte
in den Bereichen Computerlinguistik und Cognitive Science. In Sprache und Datenverarbeitung, volume 27.1-2, pages 185–202. Institut für Kommunikationsforschung und
Phonetik der Universität Bonn, Bonn.
Russell, S. and Norvig, P. (1995). Artificial Intelligence – A Modern Approach. Prentice
Hall, New Jersey.
Salisbury, D. F. (1990). Cognitive psychology and its implications for designing drill
and practice programs for computers. Journal of Computer-Based Instruction, 17(1):23–30.
Sanquist, T. (1980). Electrocortical signs of levels of processing: Perceptual analysis and
recognition memory. Psychophysiology, (17):568–576.
156
LITERATURVERZEICHNIS
Scardmalia, M. and Bereiter, C. (1994). Classroom lessons: Integrating cognitive theory
and classroom practice, chapter “The CSILE Project: Trying to bring the classroom into
World“, pages 201–228. MIT Press, Cambridge, Massachusetts.
Scheer, A.-W. (1998). Von Componentware zum Framework-Konzept Der Weg zur
Standardsoftware mit Workflow-Steuerung. COMPUTERWOCHE, (11):22–24.
Schneider, W. and Pressley, M. (1989). Memory Development between 2 and 20. Springer,
New York.
Schnotz, W. (2002). Wissenserwerb mit Texten, Bilden und Diagrammen. In Information und Lernen mit Multimedia und Internet, chapter 3. Belz, Psychologie-Verlags-Union,
Weinheim, Basel.
Schulmeister, R. (1996). Grundlagen hypermedialer Lernsysteme: Theorie – Didaktik – Design. Addison-Wesley, New York.
Schulmeister, R. (1997). Grundlagen hypermedialer Lernsysteme. Oldenbourg, München.
Smith, J. (1994). Collective intelligence in computer-based collaboration. Erlbaum, Hillsdale,
New Jersey.
Spitzer, M. (2002). Lernen – Gehirnforschung und die Schule des Lebens. Spektrum Akademischer Verlag, Heidelberg, Berlin.
Squire, L. A. (1993). The structure and organization of memory. Annual Review of
Psychology, (44):453–95.
Stangl, W. (2002). Internet: www.stangl-taller.at/ARBEITSBLAETTER/GEDAECHTNIS
/Vergessen.shtml (Stand: 15.9.2003).
Stangl, W. (2003). Internet: http://www.stangl-taller.at/ARBEITSBLAETTER/ (Stand:
Oktober 2003).
Stoyanova, N. and Kommers, P. (2001). Learning effectiveness of concept mapping in
a computer supported collaborative problem solving design. In European Perspectives
on Computer-Supported Collaborative Learning, pages 561–569.
Stoyanova, N. and Kommers, P. (2002). Concept mapping as a medium of shared cognition in computer-supported collaborative problem solving. Journal of Interactive Learning Research, 13(1-2):111–133.
Sturm, J. M. and Rankin-Erickson, J. L. (2002). Effects of hand-drawn and computergenerated concept mapping on the expository writing of middle school students with
learning disabilities. Learning Disabilities Research & Practice, (17 (2)):124–139.
Thissen, F. (1997). Das Lernen neu erfinden: konstruktivistische Grundlagen einer
Multimedia-Didaktik. In Beck, U. and Sommer, W., editors, Learntec 97: Europäischer Kongreß für Bildungstechnologie und betriebliche Bildung, Tagungsband, pages 69–80.
Schriftenreihe der KKA, Karlsruhe.
Thorndike, E. (1921). The Teacher’s Word Book. Teachers College, New York.
Tolman, E. (1948). Cognitive maps in rats and men. Psychological Review, (55):189–208.
157
LITERATURVERZEICHNIS
Tulving, E. and Thomson, D. (1973). Encoding specifity and retrieval processes in episodic memory. Psychological Review, (80):352–373.
Twardy, C. (2004). Argument maps improve critical thinking. Teaching Philosophy. to
appear in June 2004; preprint can be found at http://www.csse.monash.edu.au
/˜ctwardy/Papers/reasonpaper.pdf (Stand: März 2004).
Van Boxtel, C., Van Der Linden, J., and Kanselaar, G. (1997). Collaborative construction
of conceptual understanding: Interaction processes and learning outcomes emerging
from a Concept Mapping and a poster task. Journal of Interactive Learning Research,
8(3–4):341–361.
von Glasersfeld, E. (1993). Questions and answers about radical constructivism. In
Tobin, K., editor, The practice of constructivism in science education, pages 23–38. Lawrence
Erlbaum Associates, Inc., Hillsdale, New Jersey.
Vondrak,
C.
(1997).
str/descriptions/momt_Fbody
.html (Stand: Oktober 2003).
Internet:
http://www.sei.cmu.edu/
Vygotsky, L. S. (1987). The Collected Works of L.S. Vygotsky — Volume I – Problems of
General Psychology – Including the Volume Thinking and Speech. Plenum Press, New
York.
Wagner, A. D., Schachter, D., Rotte, M., Koutstaal, W., Maril, A., Dale, A., Rosen, B.,
and Bruckner, R. (1998). Building memories: Remembering and forgetting of verbal
experiences as predicted by brain activity. Science, (281):1188–1191.
Watkins, M. and Tulving, E. (1975). Episodic memory: When recognition fails. Journal
of Experimental Psychology, (104):5–29.
Webb, N. (1995). Testing a theoretical model of student interaction and learning in small
groups. Cambridge University Press, Cambridge.
Weidenmann, B. (1997). Multicodierung und Multimodalität im Lernprozeß. In Issing, L., Klimsa, P. (Hrsg.), Information und Lernen mit Multimedia, pages 65–84. Beltz
Psychologie-Verlags-Union, Weinheim, Basel.
Weidenmann, B., Krapp, A., and Mandl, H. (1993). Pädagogische Psychologie. Beltz
Psychologie-Verlags-Union, Weinheim, Basel.
Wild, K.-P. and Klein-Allermann, E. (1995). Nicht alle lernen auf die gleiche Weise...Individuelle Lernstrategien und Hochschulunterricht. Handbuch Hochschullehre. Raabe,
Bonn.
Wild, K.-P., Schiefele, U., and Winteler, A. (1992). Verfahren zur Erfassung von Lernstrategie im Studium, volume 20 of Gelbe Reihe: Arbeiten zur Empirischen Pädagogik und
Pädagogischen Psychologie. Universität der Bundeswehr München.
Wolff, D. (1994). Der Konstruktivismus: Ein neues Paradigma in der Fremdsprachendidaktik? Die Neueren Sprachen, (93/5):407–429.
Zimmerman, B. J. and Martinez-Pons, M. (1990). Student differences in self-regulated
learning: Relating grade, sex, and giftedness to self-efficacy and strategy use. Journal
of Educational Psychology, (82(1)):51–59.
158