Gordon Bernedo, Manuel Boeck, Michael Elbers
Transcription
Gordon Bernedo, Manuel Boeck, Michael Elbers
Gordon Bernedo, Manuel Boeck, Michael Elbers, Stefan Scherbaum, Tobias Widdra, Jens Wissmann, Nadja Althaus, Kathrin Beck, Jasmin Bennöhr MAPA A Mapping Architecture for People’s Association PICS Publications of the Institute of Cognitive Science Volume 6-2004 ISSN: 1610-5389 Series title: PICS Publications of the Institute of Cognitive Science Volume: 6-2004 Place of publication: Osnabrück, Germany Date: September 2004 Editors: Kai-Uwe Kühnberger Peter König Petra Ludewig Cover design: Thorsten Hinrichs © Institute of Cognitive Science A Mapping Architecture for People’s Associations Abschlussbericht des Studentenprojekts MAPA im Masterprogramm Cognitive Science an der Universität Osnabrück Gordon Bernedo, Manuel Boeck, Michael Elbers, Stefan Scherbaum, Tobias Widdra und Jens Wissmann, Nadja Althaus, Kathrin Beck, Jasmine Bennöhr Dr. Petra Ludewig, Dr. Veit Reuer, Prof. Dr. Claus R. Rollinger mapa@cogsci.uni-osnabrueck.de http://www.cogsci.uni-osnabrueck.de/˜mapa/ 01. Mai 2004 Zusammenfassung Im Rahmen des MAPA-Studienprojektes entwickelten Studenten der Universitäten Osnabrück, Tübingen und Bochum gemeinsam ein Framework, das die kognitiv adäquate Abbildung von Wissen ermöglicht, und eine Beispielanwendung, welche die Möglichkeiten dieses Frameworks exemplarisch nutzt. Der Projektname MAPA, eine Abkürzung für „Mapping Architecture for People’s Associations“ , und gleichzeitig das spanische Wort für „Landkarte“ beschreibt bereits den Grundgedanken der räumlichen, vernetzten Wissenabbildung. Unser Ansatz verbindet die Ideen existierender Techniken, wie dem MindMapping, dem ConceptMapping und ähnlichem. Dabei ist unsere Annahme, dass die innere mentale Repräsentation von Wissen netzartig ist und somit eine entsprechende Externalisierung von ähnlicher Struktur sein muss. Aufgrund der Komplexität von „Wissen“ verstehen wir diese externen Repräsentationen eher als Cues (Hinweise) auf Wissen denn als wirkliche Repräsentation von Wissen selbst. Die Basis von MAPA bildet eine Software-Architektur, welche die verteilte Speicherung von und den einfachen Zugriff auf Wissens-Cues ermöglicht. Solche WissensCues werden durch Entitäten repräsentiert, welche die elementare Datenstruktur eines MAPA-Systems bilden. Ihre Verwendung kann durchaus vielseitiger sein als die Darstellung einfacher Knoten und Relationen. Eine Entität kann unterschiedlichste Informationen aufnehmen, von einfachem Text bis hin zu Bildern oder anderen Dateitypen. Da der Benutzer selbst dafür verantwortlich ist, sein Wissensnetz zu konstruieren und die eigene Semantik aufzubauen, benötigen wir nicht mehr als diese eine Datenstruktur. Darin spiegelt sich unser Wunsch nach einem System wider, das den Benutzer so wenig wie möglich im Bezug auf die einzubindenden Daten einschränken soll. Der Prozess der Konstruktion und somit der Aufbau eines Netzes von Entitäten, fordert vom Anwender, einander semantisch nahe stehende Cues zu verbinden. Dieser Vorgang könnte ein wesentlicher Aspekt menschlichen Lernens sein, auf den wir uns konzentrieren werden. Schließlich möchten wir die Bedeutung zweier Punkte betonen: Die Visualisierung und die Kollaboration. Im Bezug auf MAPA bedeutet Visualisierung die Darstellung von Information als Netz. Unsere Anwendung ermöglicht hier eine große Zahl verschiedener Perspektiven auf ein und dasselbe Netz. Das Ziel dieser verschiedenen Ansichten ist es, die Navigation in komplexen Graphen zu erleichtern und so die räumliche Orientierungsfähigkeit des Menschen zu nutzen. Bezüglich der Kollaboration haben wir das Ziel, eine Architektur zu entwerfen, die prinzipiell vielen Anwendern den Austausch und die Verwaltung ihres gemeinsamen Wissens ermöglicht. Zudem unterstützt der Einsatz von Computern als Mittler für die Zusammenarbeit die Kommunikation zwischen verschiedenen Menschen. Zur technischen Implementierung des Beschriebenen nutzten wir aktuelle Technologien und die damit verbundenen existierenden Standards. Unser Ziel ist ein nonproprietäres System, das erweiterbar und portabel ist und als open-source frei zur Verfügung steht. Während das Framework und das Basis-System von einer Gruppe von Studenten des Master-Studienganges Cognitive Science in Osnabrück implementiert wurden, arbeitete die Gruppe von Studenten der Computerlinguistik in Tübingen und Bochum an der auf diesem System aufbauenden Beispielanwendung: einem Wissensnetz-basierten Vokabeltrainer. Inhaltsverzeichnis 1 Einleitung 1 1.1 Idee, Vision und Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Projektziel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Rahmen des Projektes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4 Überblick über das Dokument . . . . . . . . . . . . . . . . . . . . . . . . . . 7 I Wissenschaftliches Fundament und State of The Art 2 Lernen und Gedächtnis 2.1 2.3 2.4 3 10 Modell des Gedächtnisses . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.1.1 2.2 Implizites und explizites Gedächtnis . . . . . . . . . . . . . . . . . . 11 Lerntheorien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2.1 Behavioristische Lerntheorien . . . . . . . . . . . . . . . . . . . . . . 14 2.2.2 Kognitivistische Lerntheorien . . . . . . . . . . . . . . . . . . . . . . 14 2.2.3 Konstruktivistische Lerntheorien . . . . . . . . . . . . . . . . . . . . 15 Lernstrategien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.3.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.3.2 Kognitive Lernstrategien . . . . . . . . . . . . . . . . . . . . . . . . 21 2.3.3 Metakognitive Lernstrategien . . . . . . . . . . . . . . . . . . . . . . 23 2.3.4 Resourcenbezogene Lernstrategien . . . . . . . . . . . . . . . . . . . 23 2.3.5 Individuelle Lernstile . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.3.6 Die Rolle des Lernmaterials bei der Auswahl der Strategie . . . . . 26 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 Mapping 3.1 3.2 8 28 Mapping als visuelles, kognitives Werkzeug . . . . . . . . . . . . . . . . . 28 3.1.1 Geschichte des Mappings . . . . . . . . . . . . . . . . . . . . . . . . 29 3.1.2 Verwandte Begriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.1.3 Anwendungsfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 Mappingverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2.1 MindMapping . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2.2 ConceptMapping und KnowledgeMapping . . . . . . . . . . . . . . 35 i INHALTSVERZEICHNIS 3.2.3 3.3 3.4 3.5 4 Spatial Hypertext . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Mappingsoftware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.3.1 Konstruktionsmodi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.3.2 Navigationsmodi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.3.3 Lern- / und Prüfmodi . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.3.4 Vor- und Nachteile computergestützten Mappings . . . . . . . . . . 44 Theoretische Annahmen und Empirische Studien . . . . . . . . . . . . . . 46 3.4.1 Theoretische Hintergründe . . . . . . . . . . . . . . . . . . . . . . . 46 3.4.2 Empirische Forschung zum Mapping . . . . . . . . . . . . . . . . . 47 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 Kollaboration 55 4.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.2 Computerunterstützte kollaboratives Arbeiten . . . . . . . . . . . . . . . . 55 4.3 Computerunterstütztes kollaboratives Lernen . . . . . . . . . . . . . . . . 57 4.4 Mapping und Kollaboration . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.5 Anforderungen an CSCW/CL Systeme . . . . . . . . . . . . . . . . . . . . 60 4.5.1 Synchrone bzw. asynchrone Kommunikation . . . . . . . . . . . . . 60 4.5.2 Transparenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 4.5.3 Behandlung von Gleichzeitigkeit . . . . . . . . . . . . . . . . . . . . 62 4.5.4 Benutzerfreundliches Interface . . . . . . . . . . . . . . . . . . . . . 63 4.5.5 Benutzerautorisation und -administration . . . . . . . . . . . . . . . 63 4.5.6 Sicherheit und Legalisierung . . . . . . . . . . . . . . . . . . . . . . 64 4.5.7 An Alltagskommunikation orientierte Modalitäten . . . . . . . . . 64 4.5.8 Visualisierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . 64 4.5.9 Datenrepräsentation . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 4.5.10 Suchverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.5.11 Planungs- und Entscheidungsunterstützung . . . . . . . . . . . . . 65 4.5.12 Offenheit und Konfigurierbarkeit . . . . . . . . . . . . . . . . . . . . 65 4.5.13 Technische Anforderungen an das System . . . . . . . . . . . . . . 65 4.6 5 II 6 Small-World-Hypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Synthese: MAPA als konstruktivistisches kollaboratives Wissens- und Mapping-Werkzeug 67 MAPA - Konzeption und technische Umsetzung Architektur des Frameworks 6.1 69 70 Anforderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 ii INHALTSVERZEICHNIS 6.2 6.3 6.4 7 6.1.1 Kognitive Adäquatheit . . . . . . . . . . . . . . . . . . . . . . . . . . 71 6.1.2 Plattformunabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . 72 6.1.3 Verteiltheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 6.1.4 Flexibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Konzeption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 6.2.1 Frameworkgedanke . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 6.2.2 Anwendungsebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 6.2.3 Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 6.2.4 Datenstruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 6.2.5 Topic Maps als Gliederungsmechanismus . . . . . . . . . . . . . . . 80 Kernarchitektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 6.3.1 Entity-Orientiertes Datenmodell . . . . . . . . . . . . . . . . . . . . 80 6.3.2 Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 6.3.3 Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 6.3.4 Komponentenentwurf . . . . . . . . . . . . . . . . . . . . . . . . . . 89 6.3.5 Anwendungslogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 6.3.6 Visualisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 Gesamtbild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 Implementierung und Ergebnisse 7.1 7.2 7.3 7.4 94 Implementierungsumgebung . . . . . . . . . . . . . . . . . . . . . . . . . . 95 7.1.1 Java . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 7.1.2 XML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 7.1.3 Eclipse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 7.1.4 GEF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 7.1.5 Dom4J . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 7.1.6 Xindice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 7.1.7 ANTLR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 7.1.8 JUnit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Umfang der Implementierung . . . . . . . . . . . . . . . . . . . . . . . . . . 98 7.2.1 Features . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 7.2.2 Einschränkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Implementierungs-Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 7.3.1 Einbindung der Technologien . . . . . . . . . . . . . . . . . . . . . . 99 7.3.2 Umsetzung von Konzepten . . . . . . . . . . . . . . . . . . . . . . . 103 Arbeit mit MAPA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 7.4.1 Grafische Oberfläche . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 7.4.2 Kommandozeile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 7.4.3 Beispielablauf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 iii INHALTSVERZEICHNIS 7.5 8 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Beispielanwendung 8.1 8.2 8.3 112 MAPA-Netz mit lexikalischem Inhalt: Hintergrund . . . . . . . . . . . . . 113 8.1.1 Die Idee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 8.1.2 Motivation: MAPA und Vokabeln . . . . . . . . . . . . . . . . . . . 113 8.1.3 GermaNet als Import-Quelle . . . . . . . . . . . . . . . . . . . . . . 115 8.1.4 Die Zielgruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Realisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 8.2.1 Exploration und Wortschatzauswahl . . . . . . . . . . . . . . . . . . 118 8.2.2 Das Karteikastensystem . . . . . . . . . . . . . . . . . . . . . . . . . 123 8.2.3 Abfragemethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 8.2.4 Ablauf der Vokabel-Abfrage . . . . . . . . . . . . . . . . . . . . . . 129 8.2.5 Speicherung des Benutzerprofils . . . . . . . . . . . . . . . . . . . . 130 8.2.6 Vokabellern-Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 8.3.1 Kollokationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 8.3.2 Grammatikalische Abfrage . . . . . . . . . . . . . . . . . . . . . . . 131 8.3.3 Einbindung von multimedialen Ressourcen . . . . . . . . . . . . . . 131 8.3.4 Einbindung weiterer Informationstypen . . . . . . . . . . . . . . . . 132 8.3.5 Mündliche Abfrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 8.3.6 Fehleranalyse und Feedback . . . . . . . . . . . . . . . . . . . . . . 132 8.3.7 Lösung des Problems der nicht verbundenen Knoten . . . . . . . . 132 8.3.8 Vorgefertigte Lektionen . . . . . . . . . . . . . . . . . . . . . . . . . 133 8.3.9 Automatische Auswahl des Übungsprogramms . . . . . . . . . . . 133 8.3.10 Evaluation des Vokabeltrainers . . . . . . . . . . . . . . . . . . . . . 133 III 9 Ausblicke und Fazit 134 Ein erweitertes Bild 9.1 Zur Vergangenheit von Denkwerkzeugen . . . . . . . . . . . . . . . . . . . 136 9.1.1 9.2 135 Sozio-Konstruktivismus . . . . . . . . . . . . . . . . . . . . . . . . . 136 Zur Zukunft von Denkwerkzeugen . . . . . . . . . . . . . . . . . . . . . . . 138 9.2.1 Drei Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 10 Fazit 141 10.1 Fachliche Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 10.2 Projektmethodische und persönliche Einsichten . . . . . . . . . . . . . . . 144 iv INHALTSVERZEICHNIS 11 Ausblick 147 11.1 Visualisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 11.2 Kollaboration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 11.3 Arbeit mit Ontologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 11.4 Standards . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 11.5 Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 11.6 MAPA als offene Community . . . . . . . . . . . . . . . . . . . . . . . . . . 149 Literaturverzeichnis 158 v Abbildungsverzeichnis 1.1 Vernetzung von Wissensknoten . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Ein kleines Wissensnetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3 Übersichts-MindMap über das Dokument . . . . . . . . . . . . . . . . . . . 7 2.1 Für explizites Lernen wichtige Gehirnregionen . . . . . . . . . . . . . . . . 12 2.2 Das Zusammenwirken von Kognitivismus und Konstruktivismus im Falle der „cognitive tools“ (aus Jonassen, 1992b) . . . . . . . . . . . . . . . . . 18 2.3 „Cognitive tools“ als aktivierende, lerner- und konstruktionsorientierte Lerninstrumente (aus Jonassen, 1992b) . . . . . . . . . . . . . . . . . . . . . 19 3.1 MindMap zum Thema Mappingverfahren (erstellt mit: MindManager, vgl. Mappingsoftware 3.1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2 ConceptMap zum Thema Mappingverfahren (erstellt mit: CMap, vgl. Mappingsoftware 3.1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.3 Spatial Hypertext zum Thema Mappingverfahren (erstellt mit: Visual Knowledge Builder, vgl. Mappingsoftware 3.1) . . . . . . . . . . . . . . . . . 37 3.4 Vergleich von Mappingsoftware – Teil 1, übernommen aus Haller (2002) . 39 3.5 Vergleich von Mappingsoftware – Teil 2, übernommen aus Haller (2002) . 40 4.1 Verschiedene Aspekte CSCW . . . . . . . . . . . . . . . . . . . . . . . . . . 56 4.2 allgemeine Funktionen von Groupware mit einigen Beispielen . . . . . . . 57 4.3 Prozess des Problembasierten Lernen nach Barrows (1994) . . . . . . . . . . . 58 4.4 Austausch von Propositionen mit CmapTools/Knowledge-Soup . . . . . . . 60 4.5 WIKI mit Graph-Visualisierung . . . . . . . . . . . . . . . . . . . . . . . . . 61 4.6 Vereinfachte Darstellung einer Kollaborationssituation (Kraut et al., 1986) 4.7 In einer Kollaborationssituation auftretende Fragen (Kraut et al., 1986) . . 62 5.1 MAPA als integrativer Ansatz im Bereich der Überschneidungen von Konstruktivistischer Lehre, Mapping und Kollaboration . . . . . . . . . . 67 6.1 Eine erste Ebenenaufteilung des Gesamtsystems in eine Anwendungsund eine Datenhaltungsschicht . . . . . . . . . . . . . . . . . . . . . . . . . 77 6.2 Aufteilung des Systems in 3 Ebenen: Anwendungs-, Datenhaltungs- und Serviceschicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 6.3 Topic Maps als Gliederungsmechanismus . . . . . . . . . . . . . . . . . . . 80 vi 62 ABBILDUNGSVERZEICHNIS 6.4 Die Entität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 6.5 Zwei verknüpfte Entitäten – Anwendungsabhängige Darstellung bei einheitlichem Datenformat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 6.6 Der Mechanismus der Typresolution (mit Entity-Typsystem als Beispiel) . 85 6.7 Aufbau der MAPA Query Language . . . . . . . . . . . . . . . . . . . . . . 88 6.8 Der Message Broker und die ihn umgebende Infrastruktur aus MessageAdapter und Service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 6.9 Die Komponenten der Java Integration Library (JIL) ermöglichen ein einfaches und flexibles versenden von MAPA-Nachrichten . . . . . . . . . . . 90 6.10 Die fünf Komponenten von MAPA: die Teile des Frameworks, das System als Referenzimplementierung der Standards und eine MAPAbasierte Anwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 6.11 Ein MAPA-System und seine Aufteilung in Anwendungs-, Datenhaltungs- und Service-Schicht im Überblick. Dazu noch die MessageBrokerKomponente als vermittelndes Kontaktportal zur Außenwelt . . . . . . . 93 7.1 Verschiedene Extension-Points der Eclipse-GUI . . . . . . . . . . . . . . . . 100 7.2 UML-Diagramm der Klassen für die Anbindung verschiedener Datenbanken über das Datenbanktyp-unabhänige Interface Persistence . . . . . 101 7.3 UML-Diagramm des GEF-Modells . . . . . . . . . . . . . . . . . . . . . . . 102 7.4 Ausschnitt aus einem MAPA-Beispiel-Netz . . . . . . . . . . . . . . . . . . 104 7.5 Erstellen von Inhalten mit der Kommandozeile. . . . . . . . . . . . . . . . 106 7.6 Erstellen einer ConceptMap . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 7.7 Anzeige linguistischer Daten . . . . . . . . . . . . . . . . . . . . . . . . . . 110 8.1 Zeitersparnis bei erneutem Lernen (Stangl, 2002) 8.2 Zeitersparnis bei erneutem Lernen von wiederholten Vokabeln (Stangl, 2002) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 8.3 System des Karteikastens (Rädle, 2003) 8.4 Übungsmodus mit fehlendem zentralem Knoten 8.5 Übungsmodus mit fehlenden Relationen . . . . . . . . . . . . . . . . . . . 128 8.6 Übungsmodus mit fehlenden Nachbarknoten . . . . . . . . . . . . . . 124 . . . . . . . . . . . . . . . . . . . . 126 . . . . . . . . . . . . . . 127 . . . . . . . . . . . . . . . . 128 10.1 Ein Ausschnitt unseres im Projekt erworbenen arbeitsmethodischen Wissens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 vii Tabellenverzeichnis 3.1 Mappingsoftware (Stand: März 2004) . . . . . . . . . . . . . . . . . . . . . . 38 viii Kapitel 1 Einleitung von Tobias Widdra 1 KAPITEL 1. EINLEITUNG 1.1 Idee, Vision und Motivation Wir leben in einer Zeit, in der der Umgang mit Wissen immer wichtiger wird und gleichzeitig ein enormes Wachstum der weltweit verfügbaren Menge an Informationen stattfindet – man denke z. B. an die heute modischen Schlagwörter wie Informationsgesellschaft und Wissensmanagement. Dabei ist die Darstellung von Wissensinhalten zu dem Zweck, sie anderen (oder sich selbst zu einem späteren Zeitpunkt) verfügbar zu machen bzw. zu verdeutlichen, eines der wichtigsten Themen. Es geht hierbei um die Auslagerung oder Externalisierung von Wissen (bzw. Teilen von Wissen oder sog. „Cues“ als Erinnerungshilfen für Wissen) aus den „Köpfen“ von Menschen, sozusagen um eine Abbildung mentaler Inhalte auf „rein“ physische Strukturen. Wenn man geschichtlich zurückblickt, finden sich die ersten Ansätze hierzu im Grunde in der Höhlenmalerei, wobei sich die Erfindung der Schrift sicherlich als der wichtigste Schritt zur Externalisierung von Wissen betrachten lässt: Nun konnten durch symbolische Zeichenkombinationen unendlich viele Gedanken widergespiegelt werden. Der Buchdruck eröffnete die Möglichkeit, durch effiziente Vervielfältigung dieses abgebildete Wissen für eine größere Anzahl von Menschen zugänglich zu machen. Durch den Einzug des Computers in unser Leben und schließlich die weltweite Vernetzung via Internet ist die prinzipielle Möglichkeit gegeben, das sehr viele Menschen unabhängig von ihrem Standort auf eine schier unüberschaubare Menge an Daten, Informationen und Wissensinhalten zugreifen können. Dieser geschichtliche Rückblick zeigt eine Entwicklung, die dazu führt, dass das Externalisieren von Wissen (bzw. der Zugang dazu) überhaupt möglich ist. Die Entwicklung hat uns heute zu einem Punkt gebracht, an dem wir – wissenschaftlich unterstützt durch Erkenntnisse der Kognitiven Psychologie und der Kognitions- und Neurowissenschaften – eine neue Dimension der Fragestellung eröffnen können: Wie sollte eine solche externe Abbildung am sinnvollsten gestaltet werden? In anderen Worten, welche Form der Abbildung ist am besten den mentalen oder kognitiven (und evtl. auch emotionalen) Fähigkeiten angepasst, sozusagen am ehesten gehirngerecht oder kognitiv adäquat? Es geht hierbei vor allem darum, sowohl den Prozess des Externalisierens als auch den des Internalisierens effizient zu gestalten. Diese Vorgänge sollten folglich möglichst optimal an die jeweiligen perzeptiven Fähigkeiten und kognitiv/emotionalen Verarbeitungsprozesse angepasst sein, um zusätzlichen Aufwand zu minimieren. Des Weiteren erhöht ein guter Überblick, ein klares Erkennen relevanter Zusammenhänge und eine gute Orientierung im stark ansteigenden Wissensraum die Effizienz des jeweils gewünschten Arbeitsprozesses. In natürlicher Sprache verfasste Texte sind vermutlich sehr hilfreich bei intensiver Beschäftigung mit detailierten Informationen, doch scheinen sie wenig kognitiv adäquat, wenn man obige Kriterien eines effizienten Verarbeitungsprozesses anlegt – oder ihnen die introspektiv erlebte Reichhaltigkeit der mentalen Welt entgegenstellt: Den sequentiell-abstrakten Eigenschaften natürlichsprachlicher Texte lässt sich die Metapher vom Wissensnetz gegenüberstellen. Was ist damit gemeint? Was passiert „im Kopf“ wenn jemand diesen Begriff ließt? Der Begriff suggeriert, dass das zugrunde liegende Konzept etwas mit „Wissen“ und mit „Netz“ zu tun habe. So wird – falls der Begriff neu für die Person ist – unweigerlich eine Verbindung zu diesen beiden Konzepten hergestellt werden. Mit anderen Worten: Ein neues „Wissensbröckchen“ wird an vorhandene Strukturen „angeknüpft“ und eine Verbindung (Assoziation) wird zwischen diesen Teilen gebildet (siehe Abbildung 1.1). 2 KAPITEL 1. EINLEITUNG Abbildung 1.1: Vernetzung von Wissensknoten Wenn wir davon ausgehen, die Person lese diesen Text, lässt sich des weiteren vermuten, dass – durch den oben gegebenen Kontext, die hier geschriebenen Worte oder vorhandenes Vorwissen – eine assoziative Verbindung von „Wissen“ zu „Abbilden“ entstehen könnte und hiermit möglicherweise Beispiele wie natürliche oder formale Sprachen, oder auch eine visuelle Darstellung (z. B. eine Landkarte) verbunden sind, usw. Der Metapher vom Wissensnetz liegt die Vorstellung zugrunde, dass eine netzartige Organisation ein sinnvolles Modell derjenigen allgemeinen, Wissen zugrunde liegenden Strukturen darstellt, die sich sowohl auf neuronaler als auch auf kognitiver Ebene finden lassen. Für das Ziel, Wissensinhalte möglichst gehirngerecht bzw. kognitiv adäquat abzubilden, bietet sich folglich eine netzartige Struktur an. Man bekommt sozusagen eine Abbildung des internen in ein externes Wissensnetz, dass z.B. wie in Abbildung 1.2 dargestellt werden könnte. Die Idee, netzartige Strukturen als Metapher für Wissensstrukturen zu verwenden ist bei weitem nicht neu und findet sich z. B. in den Ansätzen der sog. semantischen Netze wieder. Im MAPA-Projekt geht es jedoch um den Fokus der kognitiven Adäquatheit und weniger um die Suche nach einem Wissensrepräsentationsformat. Doch auch dieser Aspekt ist nicht neu und lässt sich in Konzepten (bzw. Techniken) wie MindMap, ConceptMap und dergleichen wieder finden (siehe Kapitel 3). Hier kommt neben der statischen Darstellungsform ein weiterer wichtiger Gedanke hinzu: Der Vorgang, dass wie bei obigem Beispiel nach und nach neue Gedanken/Assoziationen an ein vorhandenes Netz „angebaut“ werden, passt zu den Ideen konstruktivistischer Lerntheorien, die Lernen bzw. die Aufnahme von neuen Informationen als einen aktiven Konstruktionsprozess betrachten. Wissenserwerb wird somit zu einem Strukturaufbau- bzw. Reorganisationsprozess, der wiederum eine Voraussetzung für das Erinnern als Rekonstruktionsprozess darstellt. In dem hier vorgestellten Projekt geht es ebenso wie beim MindMapping und ähnlichen Verfahren folglich nicht nur um eine Möglichkeit, Wissen darzustellen, sondern vielmehr um ein Werkzeug, mit dem der Benutzer interagieren kann und das ihn im Aufbau bzw. Umbau von externen und damit einhergehend auch internen Wissensstrukturen unterstützt. MAPA, die „Mapping Architecture for People’s Associations“ , bildet sozusagen eine „kognitive Prothese“ die dem Benutzer bei seinen Denk- und Verarbeitungsprozessen zur Hilfe steht. Letztlich wirkt das Werkzeug durch die Widerspie3 KAPITEL 1. EINLEITUNG Abbildung 1.2: Ein kleines Wissensnetz gelung dieser Prozesse auf die benutzende Person zurück und kann damit sowohl kognitive Prozesse als auch (durch die verbesserte Reflexionsmöglichkeit) metakognitive Prozesse unterstützten. Dies lässt sich noch einmal durch die Vorstellung verdeutlichen, dass eine Person ihren kreativen „kognitiven Fluss“ protokollieren möchte (als eine Art Brainstorming): Die Wahrnehmung des soeben Konstruierten beeinflusst unmittelbar den weiteren Verlauf der Gedanken. Hier wird auch die Forderung nach einem kognitiv adäquaten Werkzeug mit möglichst intuitiver Interaktion noch einmal deutlich, da das Protokollieren all zu leicht den Fluss zum stoppen bringen kann. Stift (bzw. bunte Stifte) und Papier lassen sich z. B. als ein solches Werkzeug auffassen. Hierbei sind der Kreativität der Darstellungsformen kaum Grenzen gesetzt und wir sind außerordentlich gut trainiert darin, dieses Werkzeug zu benutzen. Als Nachteil lässt sich aber insbesondere die schlechte Möglichkeit des Editierens und Reorganisierens aufzeigen. Im Vergleich dazu hat ein entsprechend implementiertes Computerprogramm hierin natürlich einen entscheidenden Vorteil. Außerdem kann mit einem solchen „Computerwerkzeug“ die Möglichkeit eröffnet werden, an große Datenbestände anzuknüpfen und nicht nur Vernetzung innerhalb einzelner Blätter (oder Seiten eines Buches) herzustellen. Als Nachteile lassen sich die potentielle Einschränkung der möglichen Darstellungsformen, die fehlende (und evtl. für manche Menschen sehr wichtige) haptische Erfahrung und vor allem die weniger intuitive Bedienung anbringen. Doch hier könnten neue Eingabegeräte wie Grafiktablett, Datenhandschuh oder Spracherkennung eine deutlich natürlichere Mensch-Computer-Interaktion herbeiführen und somit im Laufe der Weiterentwicklung dieser Techniken die Nachteile des Computers immer geringer werden lassen. 4 KAPITEL 1. EINLEITUNG Dieser Idee eines computergestützten Werkzeuges zur gehirngerechten Unterstützung kognitiver Prozesse sind wir in unserem Projekt nachgegangen. In der oben erwähnten Idee, dass neue Wissensinhalte an ein vorhandenes (internes) Wissensnetz angehängt werden, verbirgt sich die Vorstellung, dass letztlich einzelne „Wissensstückchen“ – also irgendwelche (mentalen) Entitäten – verbunden werden. Für das mit dem Werkzeug aufgebaute, externalisierte Wissensnetz kann man sich darunter Wörter, aber auch Bilder, Geräusche, ja prinzipiell Daten aus allen möglichen Modalitäten vorstellen. Bei einem computergestützten Werkzeug ergibt sich der weitere Vorteil, dass sich nicht nur Wörter (oder andere Platzhalter) für ein Dokument vernetzen lassen, sondern (elektronische) Dokumente selbst als Teil des Netzes eingebaut werden können. Dies führt von der Idee des Wissensnetzes zur Frage der Organisation von Ressourcen, was sich gut mit dem momentanen Trend von einer anwendungsorientierten hin zur datenorientierten Arbeit vereinbaren lässt. Wir wünschen uns also ein Werkzeug, das sich intuitiv bedienen lässt und unseren kognitiven Fähigkeiten und Eigenschaften angepasst ist. Doch sind diese denn bei allen Menschen gleich? Wenn man die Vision weiterdenkt, so wäre es doch wünschenswert, wenn es ganz unterschiedliche Darstellungen des Wissensnetzes gäbe, so dass jede Person eine ihren Kognitiven Stilen, Lernstilen und individuellen Vorlieben entsprechende Darstellung des Netzes bekommen könnte. Da man für unterschiedliche Aufgaben unterschiedliche Aspekte der Daten hervorheben möchte, ist es auch hierfür wünschenswert, ganz unterschiedliche Ansichten zu bekommen (z. B. eine Netzansicht und ein Bildverarbeitungsprogramm für einen ausgewählten Bildknoten). Für unser Projekt folgt hieraus eine möglichst große Offenheit gegenüber Weiterentwicklung, was sowohl die Darstellungsformen, Netztypen und die Integration verschiedener existierender Mappingtechniken beinhaltet als auch die technische Seite betrifft, auf der wir uns eine möglichst große Unabhängigkeit von konkreten Implementierungen und möglichst weitreichende Integration verschiedener Anwendungen wünschen. Anders ausgedrückt: Die Vision, auf einer riesigen, netzartig organisierten Datenmenge mit unterschiedlichsten individuell kognitiv angepassten Werkzeugarten operieren zu können, führt unweigerlich zum Fokus auf die Entwicklung und Integration von Standards im Rahmen eines Frameworks. Möchte man diese Vision weiterspinnen, so gehört hierzu die Idee, die externalisierten Wissensnetze vieler Menschen zu verknüpfen, sozusagen ein riesiges Netz aufzubauen und ihnen darüber hinaus Möglichkeiten für Kommunikation, Kollaboration und allgemein den Austausch von Daten ihrer (Teil-) Netze als integrierten Teil ihres Werkzeugs zur Verfügung zu stellen. Unsere Vision birgt folglich sowohl für ein einzelnes Individuum als auch für die gesamte Gesellschaft einen großen Vorteil: Durch einen intuitiveren und gehirngerechteren Umgang mit Darstellungsformen von Wissensinhalten könnte eine ganz neue Qualität des Austausches ermöglicht werden, die sowohl die Effektivität von Arbeitsund Organisationsprozessen als auch die Motivation und Freude am Nachdenken, Kommunizieren und Zusammenarbeiten auf eine neue Stufe stellen könnte. 1.2 Projektziel Ziel des Projektes war es, der Vision eines in Abschnitt 1.1 skizzierten Tools näher zu kommen. Konkret haben wir uns für Folgendes entschieden: 5 KAPITEL 1. EINLEITUNG • auf Basis wissenschaftlicher Erkenntnisse Anforderungen zu spezifizieren (Teil I und 6) • eine Architektur für ein Mapping-Framework zu entwerfen (Kapitel 6) • einen Prototyp des Frameworks zu implementieren (Kapitel 7) • einen Prototyp einer beispielhaften, auf dem Framework aufbauenden Anwendung zu erstellen: einen Vokabeltrainer, der auf netzartig organisierten Daten operiert (Kapitel 8) 1.3 Rahmen des Projektes An dem hier vorgestellten Projekt haben zehn Studierende und vier Betreuer teilgenommen. Für die Mehrheit der Studierenden stellte das Projekt einen Teil des Masterstudienganges Cognitive Science der Universität Osnabrück dar, namentlich Gordon Bernedo, Manuel Böck, Michael Elbers, Felix Kugel, Stefan Scherbaum, Tobias Widdra und Jens Wissmann – betreut von Dr. Petra Ludewig, Dr. Veit Reuer und Prof. Dr. Claus Rollinger. Unterstützt wurden sie von zwei Studentinnen der Universität Tübingen, Nadja Althaus und Kathrin Beck – betreut von Dr. Karin Krüger-Thielmann, und Jasmine Bennöhr, einer Studentin aus Bochum, die gerade ihr Auslandsjahr an der University of Edinburgh absolvierte – ebenfalls von Dr. Karin Krüger-Thielmann betreut. Dieser verteilte Projektrahmen war eine zusätzliche Herausforderung, die einige Erfahrungen mit verschiedenen Kommunikationsmitteln (und deren kognitiver Adäquatheit) mit sich brachte. Unter anderem hing die überregionale Beteiligung damit zusammen, dass das hier vorgestellte Projekt in ein Verbundprojekt integriert wurde, an dem die Universitäten Tübingen, Saarbrücken, Gießen, Bonn und Osnabrück beteiligt sind. Dieses Verbundprojekt mit dem Namen „Medienintensive Lehrmodule in der ComputerlinguistikAusbildung“ (MiLCA) wird vom Bundesministerium für Bildung und Forschung im Rahmen des Programms „Neue Medien in der Bildung“ mit dem Förderkennzeichen 01NM167A unterstützt. Es beschäftigt sich mit der Erstellung multimedialer Lernmaterialien und enthält von Osnabrücker Seite aus das Teilmodul „Language Processing and Intelligent Computer-Assisted Language Learning“ (ICall), zu dem das hier vorgestellte MAPA-Projekt gehört. Der Zusammenhang von ICall und MAPA wird verständlicher, wenn man die im folgenden Abschnitt erwähnte Idee eines auf netzartigen Daten operierenden Vokabeltrainers berücksichtigt. Der offizielle Zeitrahmen des Masterprojektes bestand aus einem Kalenderjahr. Es ist natürlich nicht möglich, im Rahmen dieses einen Jahres der großen Vision sehr nahe zu kommen. Von Beginn an war jedoch geplant, das MAPA-Projekt auch außerhalb dieses Masterprojektrahmens weiterzuführen. Im Ausblick (Abschnitt 11) wird hierauf noch einmal eingegangen. Eine ausführliche Erläuterung des Konzeptes der Studienprojekte im Masterstudiengang Cognitive Science findet sich bei Reuer et al. (2003). 6 KAPITEL 1. EINLEITUNG 1.4 Überblick über das Dokument Zum Abschluss der Einleitung soll noch ein Überblick über die Gliederung des Dokuments gegeben werden. Abbildung 1.3: Übersichts-MindMap über das Dokument Der Teil I stellt die wissenschaftlichen Erkenntnisse, die als Grundlage für das Design von MAPA dienen, ausführlich dar. Dabei wird auf die Erkenntnisse der Lernund Gedächtnisforschung (Kapitel 2), die Grundlagen des Mappings (Kapitel 3) und die Hintergründe zum Thema Kollaboration (Kapitel 4) eingegangen. Zum Abschluss werden darauf aufbauend die zentralen Eigenschaften und Funktionalitäten eines entsprechenden „Werkzeuges“ charakterisiert (Kapitel 5). Der darauf folgende Teil II beschreibt die technische Umsetzung der entwickelten Ideen in die Software MAPA. Im Kapitel 6 werden aus diesen Anforderungen technische Voraussetzungen abgeleitet und daraus die Architektur für das MAPA-Framework entwickelt. In darauf folgenden Kapitel 7 werden der auf Basis der Architektur entwickelte Prototyp, bestimmte Details seiner Implementierung und die dabei verwendeten Technologien vorgestellt. Kapitel 8 beschäftigt sich mit der Beispielanwendung – einem netzbasierten Vokabeltrainer – und damit zugleich mit der Anwendbarkeit der Architektur und des Prototyps für Software, die auf MAPA-Wissensstrukturen aufbaut. Der letzte Teil III präsentiert eine erweiterte Sichtweise der Themen, welche MAPA berührt und schließt mit einem Fazit und einem Ausblick auf die weitere Entwicklung. Das Kapitel 9 erweitert den hier aufgebauten Betrachtungsraum. Die konstruktivistische Perspektive wird um eine soziokulturelle ergänzt und ein weitreichender Zukunftsausblick auf die Entwicklung von „Denkwerkzeugen“ wird gewagt. Kapitel 10 fasst die Ergebnisse zusammen und zieht ein Fazit aus dem Projekt, wobei sowohl die fachlichen als auch die persönlichen und projektmethodischen Aspekte beleuchtet werden. Ein Ausblick auf die weitere Entwicklung von MAPA und die Fortführung der Projektidee im Rahmen des kognitionswissenschaftlichen Programms der Universität Osnabrück beendet mit Kapitel 11 die Arbeit. 7 Teil I Wissenschaftliches Fundament und State of The Art 8 Der erste Teil ist eine Einführung in die fachlichen Grundlagen, auf welchen MAPA aufbaut. Zunächst werden die Themen Lernen und Gedächtnis diskutiert. Anschließend wird eine Übersicht über Mapping, dessen Anwendbarkeit, die bisherige Unterstützung durch Software und deren Grenzen gegeben. Im Beitrag zum Thema Kollaboration wird sowohl auf die Vorteile einer Verbindung kollaborativer Elemente und Mappingverfahren eingegangen als auch generelle Anforderungen an kollaborationsunterstützende Software vorgestellt. Das letzte Kapitel dieses Teils führt die Erkenntnisse dieser Forschungsbereiche in einer Synthese zusammen und präsentiert somit die grundlegenden Eigenschaften der Software MAPA. 9 Kapitel 2 Lernen und Gedächtnis von Gordon Bernedo und Stefan Scherbaum 2.1 Modell des Gedächtnisses Als Gedächtnis bezeichnet man die Fähigkeit, Wissen zu speichern und wieder abzurufen (Kandel et al., 1996). Doch wie ist diese Fähigkeit im Gehirn realisiert? Noch vor zwanzig Jahren gab es das Modell vom Biocomputer im Kopf, der alle eingehenden Informationen unterschiedslos aufzeichnet. Doch wie man mittlerweile weiß, ist das Gehirn vor allem ein Meister darin, Überflüssiges aus dem Datenstrom auszusortieren. Wie ein grobmaschiges Netz sorgt es offenbar dafür, dass nur die dicken Fische hängen bleiben (Fernandez and Weber, 2003). Doch wie unterscheiden wir nun zwischen relevanter und irrelevanter Information? Und wie schaffen wir es unserem Gehirn Informationen so schmackhaft zu machen, dass es diese behält? In den letzten zwei Jahrzehnten hat das Wissen über die Arbeitsweise des Gedächtnisses nicht zuletzt dank neuer bildgebender Verfahren sehr stark zugenommen. So fand man beispielsweise heraus, dass das Gedächtnis keineswegs ein einheitliches System darstellt. Vielmehr scheinen verschiedene Hirnareale auf bestimmte Gedächtnisaufgaben spezialisiert zu sein. Auf diese Aufgaben soll im nächsten Abschnitt eingegangen werden, indem zunächst zwei Lernsysteme, das explizite (manchmal auch deklaratives Gedächtnis genannt) und das implizite (emotionale oder auch nicht-deklarative) Gedächtnis vorgestellt werden. 10 KAPITEL 2. LERNEN UND GEDÄCHTNIS 2.1.1 Implizites und explizites Gedächtnis Beim Erlernen von Bewegungsabläufen ist vor allem das so genannte implizite Gedächtnis beteiligt. Das implizite Gedächtnis ist eher reflexiver und automatischer Natur und sowohl seine Bildung als auch der Abruf sind nicht unbedingt an bewusste Aufmerksamkeit oder kognitive Prozesse gebunden (Kandel et al., 1996). Dies gilt auch für Verhaltensprogramme, die im impliziten Gedächtnis gespeichert werden. Für bewusste Erinnerungen, wie etwa der Inhalt eines zuletzt gehörten Vortrags oder Vorlesung, ist hingegen das explizite Gedächtnis zuständig. Brenda Milner gelang es in den frühen fünfziger Jahren, die Rolle des Temporallappen für das explizite Gedächtnis zu erhellen. Sie untersuchte bei einer kleinen Zahl von Patienten mit Temporallappenepilepsie, welche Auswirkungen die operativ beidseitige Entfernung des Hippocampus und dessen benachbarten Strukturen im Temporallappen zeigten. Der erste und am besten untersuchte Fall war Henry M.. Nach einer Operation, bei der ihm beidseitig der mediale Teil des Temporallappens entnommen wurde, erlitt er eine anterograde Amnesie (Milner, 1985). H. M. verlor sein explizites Gedächtnis. Das explizite Gedächtnis, so weiß man heute, codiert nicht nur Faktenwissen, sondern auch Informationen über das eigene Leben. H. M. büßte vollständig die Fähigkeit ein, neue, bewusste Langzeitgedächtnisinhalte zu speichern. Seine sonstigen geistigen Fähigkeiten waren unbeeinträchtigt (Kandel et al., 1996). Erst durch Untersuchungen an H.M. hat man überhaupt erfahren, dass das Hirnsystem, das an der Bildung neuer Kurzzeit-Erinnerungen mitwirkt, ein anderes ist als jenes, welches ältere Langzeit-Erinnerungen speichert. Die an H. M. festgestellten Befunde ließen also eine klare Unterscheidung zwischen Kurzzeitgedächtnis und Langzeitgedächtnis zu, und sie legten außerdem die Vermutung nahe, dass das Langzeitgedächtnis mindesten zweistufig arbeitet. An der ersten Stufe sind die Regionen des Temporallappens beteiligt, die bei H. M. entfernt wurden, während an der zweiten Stufe andere Hirnregionen mitwirken, höchstwahrscheinlich Gebiete des Neokortex (Squire, 1993; McCelland, 1995). Der Temporallappen ist also erforderlich, um Langzeiterinnerungen zu bilden, jedoch werden die Erinnerungen mit den Jahren von diesem Hirnsystem unabhängig. Obwohl Untersuchungen von Patienten mit lokalisierbaren Hirnschäden wie H.M. einen gewaltigen Erkenntnisgewinn über den Ort der expliziten Gedächtnisbildung mit sich brachten, sagten sie selbst jedoch nichts über die genauen Vorgänge und deren zeitlichen Abläufe aus. Um Aufschluss über die zugrunde liegenden Mechanimen zu bekommen, misst man die Hirnaktivität von Menschen, bei denen Merken und Erinnern normal vor sich gehen. So fand beispielsweise der Psychologe Sanquist (1980) von der California University in Los Angeles heraus, dass sich das EEG bereits in den ersten Sekunden unterscheidet, je nachdem, ob wir uns etwas einprägen oder nicht. Darauf aufbauend zeigten Ergebnisse erster fMRT-Studien zur expliziten Gedächtnisbildung, dass je höher die Aktivität im parahippocampalen Cortex ist, auch die Wahrscheinlichkeit, dass man sich später daran erinnert, höher ist (Brewer, 1998; Wagner et al., 1998). Da fMRT-Studien schnell an ihre Grenzen stoßen, wenn es um Abläufe im Sekundenbereich geht, machte Fernandez (1999) weitere Studien unter Zurhilfenahme eines EEG. Bei diesem Versuch sitzt der Epilepsie-Patient vor einem Bildschirm, auf dem in Abständen von drei Sekunden ein Wort erscheint. Die Aufgabe lautet, sich möglichst viele der zwölf gezeigten Begriffe zu merken. Im Schläfenlappen des Probanden befinden sich Elektroden, die kontinuierlich elektrische Potenziale und ihre Änderung über 11 KAPITEL 2. LERNEN UND GEDÄCHTNIS Abbildung 2.1: Im Temporallappen befinden sich die für die Bildung expliziter Gedächtnisinhalte wichtigen Hirnregionen, Hippocampus und parahippocampalen Cortex. Die Wahrscheinlichkeit, dass man sich später Wissensinhalte merken kann steigt, je höher die Aktivität im parahippocampalen Cortex ist (Braak, 2004). die Zeit aufzeichnen. In der Regel hat sich der Proband einige Wörter gemerkt, an andere kann er sich nicht erinnern. Und genau das interessiert die Forscher. Bei der Auswertung des Experiments verglichen sie die Aktivität des Gehirns zum Zeitpunkt der Präsentation der Begriffe, an die sich der Proband erinnern konnte, mit dem Aktivitätsmuster für nicht erinnerte Wörter. Die Ergebnisse ergaben folgendes Bild: Die erste Station aller Wörter ist die primäre Sehrinde (V1). Dort maßen die Forscher etwa 100 Millisekunden nach der Präsentation stets eine erhöhte Aktivität. Weitere 210 Millisekunden später erreichte die Information den rhinalen Cortex im Schläfenlappen und hier konnten die Forscher auch erstmals auffällige Unterschiede beobachten. Die elektrische Neuronenaktivität war bei den Wörtern, an die sich der Proband erinnern konnte, deutlich ausgeprägter als bei denjenigen, die er beim Gedächtnistest nicht mehr wusste. Je mehr Nervenzellen also im rhinalen Cortex in der ersten halben Sekunde an der Verarbeitung eines Ereignisses beteiligt sind, desto größer ist offenbar die Wahrscheinlichkeit, dass man sich später an das erlebte erinnert. Die Aktivitätsdifferenz zwischen Merken und Vergessen tauchte bei den Probanden 200 Millisekunden später im Hippocampus wieder auf. Und auch hier hing vom Ausmaß der neuronalen Aktivität ab, ob sich ein Wort im Gehirn einprägte (Fernandez and Weber, 2003). Der Hippocampus und der rhinale Cortex bilden das Tor zum Gedächtnis. Da die beiden Areale anatomisch sehr unterschiedlich aufgebaut sind, werden sie aber kaum für ein und dieselbe Aufgabe verantwortlich sein. Was also passiert in diesen beiden Strukturen des mittleren Schläfenlappens genau? Um diese Frage zu beantworten, wandelten die Forscher das „Erlebnis“ im Wörterexperiment etwas ab. Die Probanden erhielten nun Wortlisten mit zwei unterschiedlich12 KAPITEL 2. LERNEN UND GEDÄCHTNIS en Klassen von Wörtern: Zum einen Begriffe, die im alltäglichen Sprachgebrauch sehr oft auftauchen, zum anderen solche, die eher selten benutzt werden. Das Wort „Haus“ etwa ist der Versuchsperson vertrauter als das Fremdwort „Katafalk“ und weckt deshalb auch mehr Assoziationen. Bei der Verarbeitung von selten benutzten Wörtern zeigte sich der Aktivitätsunterschied zwischen erinnerten und nicht-erinnerten Wörtern nur im Hippocampus! Offensichtlich versucht der rhinale Cortex, die Wörter mit Hilfe einer Bedeutungsanalyse in ganze Sätze einzubinden oder Verknüpfungen herzustellen. Dies gelingt beim Einprägen von „Haus“ recht gut – wie die erhöhte Aktivität im rhinalen Cortex zeigt -, bei „Katafalk“ jedoch nicht. Vermutlich erleichtert der rhinale Cortex das Merken, indem er das Erlebnis mit bereits gespeicherten Informationen verknüpft (Fernandez and Weber, 2003). Im Gegensatz dazu kommt der Hippocampus offenbar ohne diese Bedeutungsassoziationen aus. Während der rhinale Cortex also die Gedächtnisbildung positiv beeinflussen kann, bewerkstelligt der Hippocampus das Merken im engeren Sinne. Es stellt sich die Frage, ob und wie sich der rhinale Cortex mit dem Hippocampus „verständigt“. Schon seit längerem weiß man, dass eine Erinnerung letztendlich nicht als Ganzes, sondern in Teilkomponenten an ganz verschiedenen Orten im Gehirn abgelegt wird. So ist ein Pferd eben nicht einfach ein Pferd, sondern eine Mischung aus Vierbeiner, Stallgeruch, Bonanza und vielem mehr. Zudem hat jeder Mensch seine eigenen Assoziationen. Taucht das Pferd wieder im Bewusstsein auf, werden die Teilaspekte zu einem Gesamten verknüpft, indem sich die beteiligten Neuronenverbände zu einem Netz verschalten. Wie Forscher herausfanden, feuern die Nervenzellen dazu synchron (Fernandez, 1999). Wurden Wörter erfolgreich ins explizite Gedächtnis übertragen, so fingen viele tausend Nervenzellen ungefähr 200 Millisekunden nach Präsentation eines Wortes an, sich im Hippocampus und im rhinalen Cortex exakt im Gleichtakt zu entladen. Die vorübergehenede Synchronisierung „überträgt“ die Information vom rhinalen Cortex auf den Hippocampus. Obwohl eine erhöhte Neuronenaktivität im Zusammenhang mit einem präsentierten Wort erst nach 310 Millisekunden im rhinalen Cortex nachgewiesen werden konnte, lässt sich das Synchron-Feuern schon nach 200 Millisekunden beobachten. Stimmen sich die Strukturen schon vorher ab, noch bevor die Information im mittleren Schläfenlappen ankommt? Erklärbar ist dieses Phänomen tatsächlich durch Aufmerksamkeitseffekte: Offenbar nehmen die notwendigen Strukturen im Gehirn der Probanden eine Art Erwartungshaltung ein, sie bereiten sich sozusagen auf die eintreffende Information vor. Eine Aufmerksamkeitsform ist die Top-down-Form. Diese Aufmerksamkeit setzen wir aktiv und gezielt ein – etwa jetzt, während Sie diesen Abschnitt hier lesen. An Topdown-Prozessen sind sehr viele Hirnareale beteiligt, vor allem Regionen des Stirn- und Scheitellappens. Sie machen es möglich, einen Großteil der geistigen Kapazität auf eine bestimmte Aufgabe zu lenken. Hier spielen Vorkenntnisse eine Rolle. Je vielmaschiger das Netz aus Informationen und Erlebnissen bereits geknüpft ist, desto leichter bleibt ein Erlebnisfisch hängen (Fernandez and Weber, 2003). 2.2 Lerntheorien Im Folgenden sollen verschiedene Lerntheorien vorgestellt werden. „Lerntheorien gehen dem Versuch nach, Kenntnisse über das Lernen zu systematisieren“ (Lefrancois, 13 KAPITEL 2. LERNEN UND GEDÄCHTNIS 1994). Dabei folgen sie in der folgenden Darstellung der historischen Entwicklung, wobei keine der vorgestellten Theorien nicht auch den Erkenntnissen der modernen Psychologie genügen würde. Jede Theorie beleuchtet bestimmte Aspekte des menschlichen Lernens und Denkens (Brombach, 2000). 2.2.1 Behavioristische Lerntheorien Die behavioristische Lerntheorie erfuhr in ihrer historischen Entwicklung unterschiedliche Ausprägungen, die aber alle allein auf beobachtbarem und messbarem Verhalten beruhen. Deshalb sind beispielsweise auch die auf dieser Theorie basierenden Lernprogramme auf die Überprüfung eines erfolgreichen Lernprozesses angewiesen, der sichtbar ist. Durch die Konditionierung eines bestimmten Inhalts, wird den Postulaten des Behaviorismus Folge geleistet. Festzuhalten bleibt jedenfalls, dass das Lernen hier insbesondere als eine Reiz-Reaktions-Verbindung beschrieben wird, die auf unterschiedliche Weise beeinflusst werden kann. Ziel ist es eine Verhaltensänderung durch Anreiz und Strafe zu erreichen. Behavioristische Lernprogramme haben die Entwicklung computerunterstützten Lernens bis heute geprägt. Da für unser Interesse aber behavioristische Lerntheorien eine untergeordnete Rolle spielen, soll an dieser Stelle auf Brombach (2000) verwiesen werden, der Vor- und Nachteile von Software, die sich auf behavioristische Lerntheorien stützt, detailliert diskutiert. 2.2.2 Kognitivistische Lerntheorien Das moderne Paradigma des Kognitivismus betont im Gegensatz zum Behaviorismus jene Prozesse, die sich im Gehirn abspielen, und versucht diese zu identifizieren, zu untersuchen und miteinander in ihrer jeweiligen Funktion in Beziehung zu setzen. Nach Schulmeister (1997) ist der Kognitivismus ein an der Heuristik menschlichen Denkens orientierter Erkenntnisprozess. Es gibt zwar auch hier eine ganze Reihe unterschiedlicher Strömungen, insgesamt ist ihnen jedoch allen gemeinsam, dass das menschliche Denken als ein Prozess der Informationsverarbeitung begriffen wird (Klimsa, 1993). Durch den grundlegenden Informationsverarbeitungsansatz bestehen enge Beziehungen zum Forschungsgebiet der Künstlichen Intelligenz. Da die Kognitivisten sich also nicht mehr lediglich für die von Außen beobachtbaren Verhaltensänderungen interessieren, sondern für die „innere Repräsentation der Umwelt“ (Edelmann, 1996), wird die Kategorisierung von Wissen zu einer wichtigen Grundlage der kognitivistischen Lernforschung. Bildung wird demnach als Internalisierung, d. h. Aufnahme und Verarbeitung von Wissen z. B. durch den Aufbau mentaler Modelle, Schemata, o. ä. verstanden. Die Aufnahme von Wissen – also das Lernen – wird als Wechselwirkung eines externen und objektiven Angebots mit der internen Struktur verstanden – im Gegensatz zum Konstruktivismus (vgl. Abschnitt 2.2.3.1), bei dem die Bildung interner Strukturen als im wesentlichen durch innere Zustände determiniert angesehen wird. Zusammen mit der Anerkennung individueller Differenzen bei den Lernenden entwickelte sich die Systemklasse adaptiver Systeme, insbesondere Intelligente Tutorielle Systeme (ITS). Dabei wird versucht, das Verhalten eines Lehrers in Abhängigkeit vom Fachgebiet, einer Reihe instruktionaler Strategien und Informationen über den Lernenden zu simulieren. Der Kognitivismus rückte aber zudem noch eine andere Anschauung in den Mittelpunkt: Das entdeckende Lernen. Das Prinzip ist sicherlich sehr alt, die Theorie des entdeckenden Lernens wurde jedoch in den 60er Jahren von Bruner wieder aufgegriffen. Darunter 14 KAPITEL 2. LERNEN UND GEDÄCHTNIS kann eine Gruppe von Lehr-/Lernansätzen gefasst werden, die folgende Aspekte des Lernens betonen (Edelmann, 1996): • Entdeckendes Lernen wird durch den Lernenden selbst gesteuert. • Statt alle relevanten Informationen fertig strukturiert zu präsentieren, muss der Lernende Informationen finden, priorisieren und neu ordnen, bevor er daraus Regeln ableiten und Probleme lösen kann. • Die Exploration wird geleitet von Neugier und Interesse des Lernenden. Er soll Lösungen für interessante Fragen entwickeln, statt Fakten auswendig zu lernen. Besonders wichtig ist dabei, wie bei jeder Form des selbstgesteuerten Lernens, ein hoher Grad an intrinsischer Motivation. Der Stellenwert des impliziten Lernens und der Intuition wird ebenfalls betont. Dem Entdeckenden Lernen wird insgesamt eine motivierende Wirkung zugesprochen. Diese wird auch im Allgemeinen bestätigt (Schulmeister, 1996). • Ziel des Lernens ist die Ausbildung der Problemlösungsfähigkeit. 1 Wendet man das Konzept des entdeckenden Lernens auf computergestützte Lernsysteme an, so führt dies zur Entwicklung reicherer und flexiblerer Lernumgebungen mit einer Vielzahl von Möglichkeiten. Diese lassen unterschiedlichen Lernern auch verschiedene Wege offen und legen stärkeren Wert auf Metawissen. Der Begriff der Metakognition umfasst nach Weidenmann et al. (1993) das „Wissen über die eigenen kognitiven Prozesse und deren Bedingungen“. Dabei sind drei Bereiche relevant: Wissen über die Person (z. B. über eigene Stärken und Schwächen), über Aufgaben (z. B. über die Bearbeitung schwieriger Texte) sowie über kognitive Strategien (z. B. Strategien zum Auswendiglernen). Grundlegend wichtiger Bestandteil des Kognitivismus ist, wie bereits angedeutet die Möglichkeit für den Lernenden, die Strategie zur Lösung eines Problems selbst bestimmen zu können. Das Lernen selbst findet hierbei durch Einsicht statt und wird nicht zuletzt dadurch erleichtert, dass das Wahrnehmungsfeld lernfördernd gestaltet wird. Wissen kann nicht einfach von einer Person an eine andere Person weitergereicht werden, sondern entsteht immer durch einen aktiven Konstruktionsprozess des Lernenden. Wissen ist zudem stark kontextgebunden (Mandl et al., 1995). Diesem wichtigen Aspekt wird besonders im Kapitel über das Mapping (Kapitel 3) Rechnung getragen. Abschließend sei noch anzumerken, dass beim Kognitivismus die Formulierung operationalisierbarer Lernziele eine wichtige Rolle spielt. In der Nachfolge der behavioristischen Lerntheorien soll also auch hier die Überprüfbarkeit eines Lernziels festgeschrieben werden (Brombach, 2000). 2.2.3 Konstruktivistische Lerntheorien 2.2.3.1 Konstruktivismus als Erkenntnistheorie Die kognitivistischen Theorien sehen „den Wahrnehmungs- und Erkenntnisprozess als einen informationsverarbeitenden Prozess“ (Wolff, 1994, S. 410) an und gehen davon 1 Bei Durchsicht der Eigenschaftsliste wird klar, dass entdeckendes Lernen gut mit konstruktivistischen Auffassungen zur Gestaltung von Lernumgebungen vereinbar ist. Zur Realisierung können unter anderem Simulationen, Hypermedia oder Mapping Tools (wie z.B. MAPA) eingesetzt werden. 15 KAPITEL 2. LERNEN UND GEDÄCHTNIS aus, dass eine Wechselwirkung zwischen der externen Präsentation und dem internen Verarbeitungsprozess stattfindet (vgl. Blumstengel, 1998). Im Gegensatz zu diesem informationstheoretischen Ansatz ist es im Konstruktivismus nicht möglich „der Außenwelt Informationen zu entnehmen und diese kognitiven Strukturen und Symbolen zuzuordnen, welche dann im Geist weiterverarbeitet werden können“ (Wolff, 1994, S. 411). Menschen werden vielmehr „als autonome und rekursiv organisierte System verstanden“ (Wolff, 1994, S. 411), deren Wissen in der Struktur des Nervensystem abgelegt ist. Dieses Nervensystem kann als „geschlossenes und strukturdeterminiertes System [...] von außen nicht gesteuert, sondern nur perturbiert werden und lässt nur jene Zustandsveränderungen zu, die im Sinne der Strukturdeterminiertheit ’erlaubt’ sind“ (Peschl, 1990, S. 26). Durch die Strukturdeterminiertheit jedes Individuums betont der Konstruktivismus die subjektive Wahrnehmung und Veränderung (Lernen) jedes Einzelnen. „Menschen werden im radikalen Konstruktivismus als [...] Systeme verstanden, die Wörter und Symbole benutzen, um die Umwelt zu beschreiben. Es ist der menschliche Beobachter, der den Phänomenen, die er beobachtet, eine Art konzeptuelles System aufstülpt und dadurch Welt hervorbringt“ (Wolff, 1994, S. 411 ff.). Somit gibt es auch „kein objektives Wissen über die Welt, das Da-Draußen, das Ding-ansich (Kant), sondern immer nur unsere Wahrnehmung von Welt“ (Thissen, 1997, S. 72). Jeder Mensch konstruiert sich seine Welt aus seinen Konzepten und Wahrnehmungen. Diese Position steht im deutlichen Gegensatz zum so genannten Objektivismus: „Objectivism equates Information and knowledge as far as the learner is concerned. [...] There is an external reality that each individual can come to know in the same way. Knowledge is externally referenced rather than internally generated“ (Jonassen, 1992b). 2.2.3.2 Konstruktivistische Lerntheorien Aus dieser erkenntnistheoretischen Basis gehen einige Überlegungen zum Lernen hervor, selbst wenn „der radikale Konstruktivismus bisher keine eigene Lerntheorie entwickelt“ (Wolff, 1994, S. 414) hat. So wird dem Informationsverarbeitungsprozess nun die individuelle Konstruktion des Wissens durch den Lernenden gegenübergestellt. Das Vorwissen spielt hier eine entscheidende Rolle, da die Konstruktion des neuen Wissens vom vorhandenen Wissen abhängig ist. Somit ist beim Lernen nun besonders die Aktivierung von Vorkenntnissen, dessen Struktur und Ausdifferenzierung von entscheidender Bedeutung. Das Lernen baut individuelle Konstrukte auf und verknüpft, reorganisiert und verändert diese (vgl. Blumstengel, 1998). Auch hier tritt wieder die Individualität jedes einzelnen Lernenden in den Vordergrund. Diese besteht sowohl im unterschiedlichen Vorwissen als auch in der Aktivität des Lerners. „Lernen ist ein aktiver Prozess der Wissenskonstruktion, d.h. der Reorganisation und Erweiterung menschlicher Konstrukte“ (Thissen, 1997, S. 73). Der Lernende erarbeitet sich sein Wissen (und damit seine Konstrukte) selbst. Diese Ansicht widerspricht z.B. deutlich dem Modell des Nürnberger Trichters, bei dem Wissen in den Lernenden bildhaft hineingeschüttet wird und er es passiv aufnimmt (vgl. Spitzer, 2002). Ebenso tritt sie den behavioristisch gestützten, objektivistischen Theorien entgegen. „Knowledge, according to an objectivist epistemology, is determined by the teacher and not the learner“ (Jonassen, 16 KAPITEL 2. LERNEN UND GEDÄCHTNIS 1992b, S. 3). Dieses Verhältnis dreht sich in der konstruktivistisch basierten Lerntheorie um: Wichtig wird nun die aktive, selbstgesteuerte Auseinandersetzung mit Inhalten und Zusammenhängen und den eigenen Konzepten (Reorganisation). Zu dieser Auseinandersetzung zählt auch die mit den bereits vorhandenen Wissensstrukturen und Konstrukten. 2.2.3.3 Wissen aus konstruktivistischer Sicht: ein Netz Wissen entsteht im Konstruktivismus durch das interne subjektive Konstruieren von Ideen und Konzepten (vgl. Blumstengel, 1998). Es ist „im Gehirn ein komplexes, vernetztes, dynamisches System, das sich in der Vernetzung von Neuronen manifestiert. Wir speichern Muster und Strukturen.[...] Dieses Konstrukt von Welt wird im Lernprozess verändert und angepasst. Sämtliche Außeneinflüsse werden entweder in das vorhandene Wissensnetz integriert oder verworfen“ (Thissen, 1997, S. 73). Gelernte Sachverhalte stehen also nicht isoliert sondern immer im Kontext des bereits Erlernten. So betont Wolff (1994): „Es kann nur das verstanden und gelernt werden, was sich mit bereits vorhandenem Wissen verbinden (assimilieren) lässt“ (Wolff, 1994, S. 414). Diese Zusammenhänge legen es nahe, Wissen als ein Netz aus Gelerntem anzusehen. Dieses Netz wächst und verändert sich mit jeder neuen gelernten Information, wobei die Möglichkeit besteht, das Neue in das vorhandene Netz zu integrieren oder dieses zuvor umzuorganisieren. 2.2.3.4 Tools zur Unterstützung der Wissenkonstruktion Werkzeuge, welche die in den letzten Abschnitten beschriebenen Prozesse unterstützen, werden von Jonassen (1992b) unter dem Schlagwort „cognitive tools“ folgendermaßen definiert: „Effective cognitive tools are those that support cognitive processes, those that enable learners to engage in higher order thinking, that help learners engage in cognitive processes that would normally be impossible [...]“ (Jonassen, 1992b, S. 6). Der Begriff des Kognitiven im Namen „cognitive tool“ mag zwar irritieren, verweist er doch anscheinend auf die Grundlagen der kognitiven Lerntheorien. Laut Jonassen (1992b) begründet sich dies in der mangelnden Ausrichtung bisheriger kognitiver Instrumente auf die kognitiven Theorien und das (implizite) Festhalten am behavioristischen Objektivismus, was eine gewisse Begriffsverschiebung zwischen zu Grunde liegender Lerntheorie und der Einordnung des Werkzeugs verursacht: „Even the most advanced, computer-based learning techniques, as intelligent tutoring, are largely objectivistic. Although intelligent tutors make cognitive assumptions about the learning process, they still assume that the experts’s knowledge structure is mapped onto the student’s“ (Jonassen, 1992b, S.4). So machte erst der konstruktivistische Einfluss „cognitive tools“ zu dem, was sie sein sollten. Die Abbildung 2.2 verdeutlicht dies noch einmal, indem sie die kognitivistische Theorie dem Behaviorismus entgegenstellt und dem Objektivismus die konstruk17 KAPITEL 2. LERNEN UND GEDÄCHTNIS Abbildung 2.2: Das Zusammenwirken von Kognitivismus und Konstruktivismus im Falle der „cognitive tools“ (aus Jonassen, 1992b) tivistische Theorie. Im Falle der „cognitive tools“ ziehen Kognitivismus und Konstruktivismus in diesem Modell an einem Strang. Kognitive Werkzeuge sind also insofern konstruktivistisch, als dass sie den Lernenden aktiv in die Entstehung seines Wissens einbinden. Dieses Wissen basiert auf dem Verständnis der Informationen. Im Gegensatz dazu steht die (wie auch immer geartete) Präsentation objektiven Wissens, welche dem Lerner passiv dargebracht wird und seine Aktivität nicht voraussetzt (vgl. Jonassen, 1992b). In Abbildung 2.3 ist dieser Zusammenhang als ein Modell aus drei Dimensionen noch einmal dargestellt. Wolff (1994) sieht zwei Möglichkeiten, die Wissenskonstruktion mit diesen kognitiven Werkzeugen am Computer zu unterstützen: Zum einen „durch das Bewusstmachen des Prozesses selbst, und zum anderen durch das Bereitstellen von Ordnungshilfen, die die Verarbeitung des Wissens einfacher machen“ (Wolff, 1994, S. 421). Dieses Bewusstmachen des Lernprozesses zählt auch Blumstengel (1998), unter der Bezeichnung Artikulation und Reflexion, zu den wichtigen Eigenschaften konstruktivistischer Lernumgebungen. Zum einen fördert sie die Mulitperspektivität und die Bildung vielseitiger Kontexte durch den Austausch mit Anderen, denn die eigene Sichtweise muss zum vorgetragen expliziert und anschließend mit anderen verglichen werden. Zum anderen wird durch sie auch der Prozess der Metakognition, d.h. das Nachdenken über die eigenen Denkprozesse, angeregt. Besonders dieses wird im konstruktivistischen Ansatz eine große Bedeutung zugemessen (vgl. Blumstengel, 1998). Zusätzlich zur eigenen Reflexion erhält also die soziale Umgebung Bedeutung, denn „der Lerner braucht die Interaktion mit anderen, um seinen eigenen Konstruktionen zu validieren“ (Wolff, 1994, S. 415). Im Bezug auf die Vereinfachung der Wissensverarbeitung fordert Wolff (1994) von unterstützenden Tools, dass sie „Wissenskonstruktionsprozesse beispielhaft modellieren und den Lernenden verdeutlichen“ (Wolff, 1994, S. 421). Allerdings betont Jonassen (1992b): „Cognitive tools are not designed to reduce information processing, that is, to make a task necessarily easier, as has been the goal of instructional design and most instructional technologies“ (Jonassen, 1992b, S. 5). Die Vereinfachung bezieht sich also nicht darauf, dass der Lerner nun nichts mehr tun muss, um zu lernen. Aus dem bisher dargelegten ergibt sich aus konstruktivistischer Sicht eher das Gegenteil. 18 KAPITEL 2. LERNEN UND GEDÄCHTNIS Abbildung 2.3: „Cognitive tools“ als aktivierende, lerner- und konstruktionsorientierte Lerninstrumente (aus Jonassen, 1992b) Eine konkrete Software muss folglich diese Forderung nach der aktivierenden, expliziten Modellierung des Konstruktionsprozesses mit der in Abschnitt 2.2.3.3 diskutierten netzartigen Ablage von Wissen verbinden. Sie muss es dem Lernenden ermöglichen, sein Wissen darzustellen, zunächst als einzelne Wissensstücke, später vernetzt, und so alle Verbindungen zu explizieren. Neue Informationen können vom Benutzer anschließend in dieses Netz integriert werden. Dabei kann er sein bisheriges Wissen und die internen Verbindungen reflektieren und umstrukturieren und gleichzeitig die neuen Informationen bewusst integrieren. Zudem sollte eine solche Software den Austausch des Wissensnetzes mit anderen Benutzern erlauben, um so den Lerneffekt durch soziale Reflexion und Artikulation zu erhöhen. Bei diesem Austausch kann die netzartige Darstellung sinnvoll sein, vermittelt sie doch den anderen Lernern möglichst umfassend die Konstrukte und Zusammenhänge des Benutzers und eröffnet so für die Betrachtenden ebenfalls neue Beziehungen zwischen bei Ihnen schon vorhandenen Informationen. 2.3 2.3.1 Lernstrategien Einleitung Der Lernende kann zwar bei der Organisation von Lerninhalten vermutlich durch Software Tools wie MAPA erheblich unterstützt werden, (die Vorteile von Mappingverfahren werden in Kapitel 3 diskutiert) jedoch bleibt die Verantwortung für die Auswahl der für den Lernenden individuell am besten geeigneten Strategien größtenteils beim Anwender selbst. Erst die Kenntnis von Strategien versetzt Lerner in die Lage, ihr eigenes Lernen zu regulieren (Zimmerman and Martinez-Pons, 1990). Die Erforschung von Lernstrategien zielt also u.a. darauf ab, die Frage zu beantworten, wie wir es schaffen 19 KAPITEL 2. LERNEN UND GEDÄCHTNIS können unserem Gehirn Informationen so schmackhaft zu machen, dass es diese auch behält? Wie können wir also unser Gedächtnis-Netz so fein weben, dass jene Fische, also Inhalte für die wir uns interessieren, auch wirklich darin hängen bleiben? Und wie schaffen wir es diese Informationen anschließend auch wieder abzurufen? In den 80-er und 90-er Jahren war ein regelrechter Boom von Forschungen und Publikationen auf dem Gebiet der Lernstrategien zu verzeichnen (Baumert, 1993; Lompscher, 1994; Mandl and Friedrich, 1992). Mit den gegenwärtig verfügbaren theoretischen und methodischen Mitteln werden sie in unterschiedlichen Dimensionen untersucht. So beschränken sich einige Forscher auf kognitive Aspekte, während andere darüber hinausgehen und beispielsweise soziale Aspekte mit einfliessen lassen. Wieder andere Richtungen sind mehr anforderungsorientiert, während andererseits mehr individuumsorientierte Aspekte herausgegriffen werden. Auch in den Zielvorstellungen sind zahlreiche Unterschiede zu finden. So reicht es den einen aus Phänomene zu beschreiben, während andere sich zum Ziel setzen diese Phänomene auch erklären zu wollen. Sollte man sich – z.B. bei der Entwicklung von Lern-Software – zum Ziel setzen die Anpassung an die bei den Lernenden bereits vorhandenen Lernstrategien fördern, oder sollte man mehr auf Intervention und Ausbildung von neuen Lernstrategien achten? Festzuhalten bleibt, dass Lernstrategien auf unterschiedlichen Analyse-Ebenen (z.B. mit Makro- oder Mikrostrukturanalysen, in Befragungs- oder Handlungssituationen) untersucht wurden. Die intensive Bearbeitung dieser Thematik, so liest man bei Alexander and Murphy (1994), ist ein Ausdruck der zunehmenden Orientierung auf den aktiven Lerner und die psychologischen Grundlagen selbstgesteuerten Lernens. Der Begriff der Lernstrategien selbst wird in der neueren Literatur recht unterschiedlich gebraucht, was schon bei der Verwendung der Termini beginnt. So sind Unterscheidungen oder auch Gleichsetzungen von Begriffen wie z.B. Methode, Verfahren, Technik, Taktik, Fertigkeit, Plan, Stil usw. zu finden. Fest steht jedenfalls, dass es sich bei Lernstrategien nicht um starre Abläufe oder Automatismen z.B. im Sinne stur eingesetzter Lerntechniken handelt, sondern um Prozesse, die bewusst und kontrolliert ausgewählt, verwirklicht und angepasst werden. Eine mögliche Definition von Lernstrategien ist bei Lompscher (1994) zu finden: „Lernstrategien sind mehr oder weniger komplexe, unterschiedlich weit generalisierte bzw. generalisierbare, bewusst oder auch unbewusst eingesetzte Vorgehensweisen zur Realisierung von Lernzielen, zur Bewältigung von Lernanforderungen.“ (S. 114) Lernstrategien sind, wie oben bereits angedeutet, nicht identisch mit Lernhandlungen, sondern betreffen die individuelle Art und Weise der Handlungsausführung. Sie sind in die Struktur und den Kontext einer Tätigkeit mit konkreten Motiven, Bedingungen und Mitteln eingebettet. Lernstrategien lassen sich grob in drei Arten klassifizieren: Kognitive Lernstrategien, Metakognitive Lernstrategien und Resourcenbezogene Lernstrategien (Wild et al., 1992; Friedrich, 1995). Diese Einteilung ist beim jetzigen Diskussionsstand weniger als theoretisch fundierte und empirisch gesicherte Taxonomie zu sehen; sie dient vielmehr angesichts des geringen Integrationsstandes innerhalb des Forschungsgebietes als vorläufige Gliederung, die es erlaubt, die Konzepte verschiedener Richtungen aufzunehmen und zu ordnen (Wild and Klein-Allermann, 1995). 20 KAPITEL 2. LERNEN UND GEDÄCHTNIS 2.3.2 Kognitive Lernstrategien Kognitive Lernstrategien bezeichnen solche Lernaktivitäten, die der unmittelbaren Informationsaufnahme, -verarbeitung, und -speicherung dienen. Hier sollen Fragen beantwortet werden, wie z.B.: Welche konkreten Lernaktivitäten werden vom Lernenden genutzt, um sich die neuen Informationen einzuprägen? Und welche nutzt der Studierende, um zu einem tieferen Verständnis zu gelangen? Hierbei lassen sich vier Hauptbereiche bzw. Hauptstrategien identifizieren: Elaborieren, Organisieren, kritisches Prüfen und das Einprägen durch Wiederholen. 2.3.2.1 Elaborationsstrategien Unter den Begriff der Elaborationsstrategien fallen solche Lerntätigkeiten, die dazu geeignet sind, das neu aufgenommene Wissen in die bestehende Wissensstruktur zu integrieren. Ziel des Elaborierens ist es, die neuen Informationen mit verwandten und/oder bereits bekannten Informationen in Beziehung zu setzen, um so das Neue besser verstehen zu können. Das Bilden von Analogien zu bereits vorhandenen Wissensstrukturen gehört ebenso zu Elaborationsstrategien, wie das Ausdenken von konkreten Beispielen oder Überlegungen zu praktischen Anwendungsmöglichkeiten der neuen Inhalte. Auch das Verknüpfen des neu gelernten Materials mit Alltagsbeispielen sowie mit persönlichen Erlebnissen führt zu einer Verbesserung der Gedächtnisleistung. Weiterhin typische Elaborationstechniken sind das Finden von Umschreibungen, das eigene Entwerfen von Aufgaben und Fragen, sowie das Aufstellen von Vermutungen und das Ziehen von Schlussfolgerungen zu einer zu einem Lehrinhalt oder einer Aufgabe. Elaborieren kann schwerpunktmäßig bildhaft oder verbal geschehen (Metzig and Schuster, 1993; Wild and Klein-Allermann, 1995). Gewissermaßen bilden so genannte Mnemotechniken einen Kontrast zu Elaborationsstrategien, denn interessanterweise beruht ihr Erfolg darauf, dass Informationen in einen gemeinsamen Kontext gebracht werden, die an sich in keinem logischen oder natürlichen Zusammenhang stehen.2 Lebhaftigkeit von Bildern fördert deren Einprägsamkeit. Reim und Rhythmus wirken ebenfalls behaltensfördernd, dadurch wird zusätzlich zum bildlichen das akustisch-motorische Gedächtnis angesprochen. Beispielsweise ist Farbe, sofern sie sparsam und eindeutig genutzt wird, vor allem im grammatikalischen Bereich sinnvoll mnemotechnisch einzusetzen. In der Lexik kann durch farbliche Markierungen die Aufmerksamkeit auf Ausnahmen, Schwierigkeiten oder Besonderheiten gelenkt werden. Selbstgenerierte Bilder haben leichte Vorteile gegenüber vorgegebenen Bildern, da hier die eigene Kreativität besser angespornt wird (Stangl, 2003). 2.3.2.2 Organisationsstrategien Unter die Kategorie der „Organisationsstrategien“ fallen alle Lernaktivitäten, die geeignet sind, die vorliegende Information in eine leichter zu verarbeitende Form zu transformieren. Ziel des Organisationsprozesses ist es, die neuen Informationen nach ihren Teilen und deren Beziehungen zu ordnen, um so die Informationsfülle zu reduzieren und den Abruf von Informationen über Strukturen zu lenken. Geht es beim Elaborieren um das Anreichern der Information, handelt es sich hier um den entgegengesetzten Prozess 2 Ist hier von einem natürlichen Zusammenhang von Informationen die Rede, so ist darunter eine starke semantische Verwandtschaft zu verstehen. 21 KAPITEL 2. LERNEN UND GEDÄCHTNIS der Reduktion. Typische Formen der Stofforganisation sind das Identifizieren wichtiger Fakten und Argumentationslinien und das Kennzeichnen wichtiger Textstellen. Das Erstellen von Zusammenfassungen und Gliederungen gehört ebenso zu diesem Prozess, wie das Anfertigen von Tabellen, Diagrammen, Maps und Skizzen, um den Stoff in einer besser strukturierten Form vorliegen zu haben (Wild et al., 1992; Stangl, 2003; Wild and Klein-Allermann, 1995). 2.3.2.3 Kritisches Prüfen Eng verwandt mit den oben aufgeführten Elaborationsstrategien sind solche Studientätigkeiten, die das Verständnis für den Stoff durch eine kritische Prüfung von Aussagen und Begründungszusammenhängen vertiefen. Dies geschieht etwa durch die Überprüfung der Schlüssigkeit textimmanenter Argumentationsketten, das Prüfen, ob die in einem Text dargestellten Theorien, Interpretationen oder Schlussfolgerungen ausreichend belegt und begründet sind und das Nachdenken über Alternativen zu den vorgestellten Behauptungen oder Schlussfolgerungen. Zum kritischen Prüfen gehört ebenfalls der Vergleich verschiedener theoretischer Konzeptionen oder Ansätze (Wild et al., 1992; Wild and Klein-Allermann, 1995). 2.3.2.4 Wiederholungsstrategien Durch das Wiederholen von einzelnen Fakten versucht der Lernende eine feste Verankerung des Stoffs im Langzeitgedächtnis zu erzielen. Zu Wiederholungsstrategien gehören beispielsweise die wiederholte Durcharbeitung von Wortlisten, das Auswendiglernen von Schlüsselbegriffen, um sich beispielsweise in einer Prüfung besser an wichtige Inhaltsbereiche erinnern zu können und das Durchlesen eigener Zusammenfassungen, Maps, Diagrammen usw. (Wild et al., 1992). Um ins Langzeitgedächtnis zu gelangen, sollte das im Kurzzeitgedächtnis gespeicherte Material jedoch mit Assoziationen angereichert werden und für eine gewisse Zeit im Focus der Aufmerksamkeit bleiben. Das Hauptproblem sehen viele Forscher nicht in der Speicherung, sondern im Abrufen und Verfügbarmachen von Inhalten. Doppelkodierungstheoretiker wie Paivio (1978) glauben, dass jede Information an sensorische Eingaben gebunden ist. Was durch den visuellen Sinn hereinkommt, wird bildhaft gespeichert, was durch Hören aufgenommen wird, verbal. Auch die Kombination von visueller und verbaler Speicherung ist möglich; schließlich kann auch über die Bedeutung gespeichert werden (Stangl, 2003)(Wild and Klein-Allermann, 1995). 2.3.2.5 Vergleich und Einordnung Elaborationstrategien und das kritische Prüfen von neuen Inhalten werden vornehmlich zu den tiefenorientierten Lernstrategien gezählt. Bei alleiniger Anwendung von Wiederholungsstrategien handelt es sich hingegen um oberflächenorientierte Lernstrategien, da hier kein tieferes Verständnis angestrebt oder realisiert wird. Wiederholungsstrategien sind überwiegend in Lernsituationen funktional, die von Prüfungsvorbereitungen gekennzeichnet sind und bei denen der Lernende kein besonderes inhaltliches Interesse für die zu lernenden Wissensbestände aufbringt. Für Wissen über Begriffe und Zusammenhänge ist dagegen das anschließende, vertiefte geistige Verarbeiten entscheidend. 22 KAPITEL 2. LERNEN UND GEDÄCHTNIS Organisationsstrategien bekleiden eine Stellung, die zwischen Elaborations- bzw. prüfenden Strategien und Wiederholungsstrategien zu finden ist. Sie können einerseits dazu dienen, unübersichtliche Strukturen durch Aufgliederung in wichtige Teilkomponenten besser zu verstehen; sie können aber auch dazu dienen, eine Gesamtübersicht für ein späteres Auswendiglernen bereitzustellen. Für alle kognitiven Lernstrategien gilt, dass sie sich im konkreten Lernprozess nicht gegenseitig ausschließen, sondern je nach individuellem Lernverhalten und je nach den speziellen Anforderungen des Fachs in unterschiedlichem Ausmaß miteinander kombiniert werden (Stangl, 2003). 2.3.3 Metakognitive Lernstrategien Beim Lernen spielen nicht nur kognitive Prozesse eine Rolle, sondern auch weitere Strategien, die darauf ausgerichtet sind, das geeignete „Lernklima“ zu schaffen. Diese Strategien reichen von mehr arbeitstechnischen Vorgehensweisen wie z.B. dem Erstellen eines Zeitplans, Gestaltung des Arbeitsplatzes, Zielformulierung, Ausschalten externer Störfaktoren, bis zu tiefgründigeren psychischen Prozessen. Letztere betreffen die Themen Stress, Motivation und Lebensgestaltung. Obwohl sich die Ansichten der LernTheoretiker hinsichtlich der Charakterisierung einiger metakognitiver Aspekte unterscheiden (Schneider and Pressley, 1989), so machen doch viele eine grobe Unterscheidung zwischen metakognitiven Wissen (metacognitive knowledge) und metakognitiver Kontrolle (metacognitive regulation). Metakognitives Wissen bezieht sich auf Informationen, die jemand über seine eigene Kognition oder über Kognition im Allgemeinen hat. Der Lernende soll sich des ganzen Lernprozesses bewusst werden. Fragen, die sich der Studierende stellt, betreffen die gestellte Aufgabe und Lernsituation, die eigene Person (Vorwissen, Lerngewohnheiten, Motivation, Fähigkeiten) und Lernstrategien (welche, wann, warum, wie). Bei der metakognitiven Kontrolle wird die eigene Lernaktivität zum Gegenstand gedanklicher Überlegungen gemacht, indem sie laufend überwacht, reflektiert bzw. beurteilt und anschließend ggf. reguliert wird. Diese drei Komponenten metakognitiver Lernstrategien (Überwachen, Reflektieren, Regulieren) bilden im Idealfall einen fein aufeinander abgestimmten Regelkreis, der Studierende in die Lage versetzt, den eigenen Lernprozess ohne externe Hilfe oder gar Kontrolle zu optimieren. 2.3.4 Resourcenbezogene Lernstrategien Den eigentlichen Kern individueller Lernsteuerung machen die oben geschilderten kognitiven und metakognitiven Lernstrategien aus, da sie in unmittelbarem Zusammenhang mit den zu lernenden Inhalten stehen. Sie werden deshalb oft als Primärstrategien bezeichnet. Das Lernen kann jedoch nur dann optimal stattfinden, wenn Studierende die für das Lernen notwendigen inneren und äußeren Ressourcen hinreichend aktivieren können. Um dies zu gewährleisten bedarf es ressoucenbezogener Strategien, die auch als Sekundärstrategien bezeichnet werden. Sie beziehen sich auf Maßnahmen, die sich auf die Nutzung von Informationsmaterialien die investierte Zeit sowie auf die Gestaltung des Arbeitsplatzes beziehen. Prinzipiell werden die Aktivitäten ressoucenbezogener Strategien sehr weit gefasst. So fallen beispielsweise auch die eigene Anstrengung, die Zusammenarbeit mit Studienkollegen und die eigene Aufmerksamkeit in diesen Kompetenzbereich (Wild and Klein-Allermann, 1995). 23 KAPITEL 2. LERNEN UND GEDÄCHTNIS 2.3.5 Individuelle Lernstile Es lässt sich beobachten, dass verschiedene Lernende bei gleicher Lernumgebung unterschiedliche Leistungen erbringen. Dies lässt sich zum einen durch unterschiedliche Vorkenntnisse, Motivation und intellektuelle Fähigkeiten der Lerner erklären. Zum Anderen liegt die Vermutung nah, dass verschiedene Personen auch unterschiedliche Fähigkeiten oder Präferenzen bezüglich der Sinnesmodalität und/oder der Codalität3 aufweisen: „Jeder Erwachsene hat seinen eigenen Lernstil, um notwendige Verhaltensänderungen einzuleiten und einen individuellen Kognitionsstil, mit Informationen umzugehen“ (Klimsa, 1993). Aufgrund dieser individuellen Differenzen werden auch verschiedene Bedürfnisse beim Lernen und eine unterschiedliche Lerneffektivität vermutet. Die Kategorisierung von Persönlichkeitsmerkmalen und individuellen Präferenzen werden häufig unter dem Begriff der „Lernstile“ zusammengefasst. Jonassen and Grabowski (1993) sehen individuelle Unterschiede u. a. bezüglich Cognitive Controls, Cognitive Styles (Kognitionsstilen) und Learning Styles (Lernstilen im engeren Sinne). Dabei werden Cognitive Controls und Cognitive Styles als Persönlichkeitsmerkmale aufgefasst, Learning Styles hingegen als Präferenzen, die von den Lernenden selbst gesetzt werden. Die Unterscheidungen beruhen meist auf Selbsteinschätzungen und Beschreibungen der Präferenzen durch den Lerner selbst. Besonders auf dieser Ebene wird deshalb eine Vielzahl unterschiedlicher Kategorisierungen vorgenommen (Stangl, 2003). 2.3.5.1 Cognitive Controls Cognitive Controls sind Persönlichkeitsmerkmale, die die Wahrnehmung von Umweltreizen beeinflussen und steuern. Sie sind eng mit den individuellen mentalen Fähigkeiten verbunden und beeinflussen Lernen direkter als Kognitionsstile. Man klassifiziert hier zwischen Feldabhängigkeit und Feldunabhängigkeit und meint damit den Grad, bis zu dem das Umfeld die Wahrnehmung und das Verständnis von Informationen beeinflusst. Feldabhängige Lerner sind eher bereit, Sachverhalte so zu akzeptieren, wie sie ihnen präsentiert wurden. Sie haben oft Probleme, Informationen in einem komplexen Umfeld zu lokalisieren und brauchen mehr Führung. Sie sind also stärker extern orientiert. Der sozialen Interaktion kommt eine höhere Bedeutung zu. Feldunabhängige Lerner neigen dagegen stärker zu eigener Reorganisation und Restrukturierung von Informationen, brauchen tendenziell weniger Führung und sind insgesamt auch weniger an sozialer Interaktion orientiert. Sie sind experimentierfreudig und arbeiten eher konzeptionell. In der Regel sind Kinder vorwiegend feldabhängig und neigen mit zunehmendem Alter stärker zur Feldunabhängigkeit. Jede der Gruppen hat ihre besonderen Stärken und Schwächen. Weitere Unterscheidungskategorien sind z. B. die Frage der Konzentrationsfähigkeit mit einer Reihe assoziierter Orientierungen (field articulation), der Grad der Impulsivität (cognitive tempo), und die Art der Kategorisierung (category width) (Jonassen and Grabowski, 1993). 2.3.5.2 Cognitive Styles (Kognitionsstile) Kognitionsstile sind allgemeinere Charakteristiken als Cognitive Controls und beschreiben typische Herangehensweisen bei der Informationssammlung und -organisation. 3 Die Unterscheidung zwischen dem wahrnehmenden Sinnesorgan, der Modalität und der Codalität, die dagegen das verwendete Zeichen- bzw. Symbolsystem betrifft (verbal, piktorial, Zahlensystem etc.), geht auf Weidenmann (1997) zurück. 24 KAPITEL 2. LERNEN UND GEDÄCHTNIS Dabei wird davon ausgegangen, dass Lerner sich einen Stil aneignen und ihn konstant über die Zeit und für verschiedene Aufgaben behalten. Bezüglich der Informationssammlung wird zunächst die Präferenz für visuelle Informationsgewinnung im Gegensatz zur Informationsgewinnung über taktile Interaktion unterschieden (visual/haptic). Eine andere häufige Kategorisierung wird nach der besseren Fähigkeit zur Aufnahme bildlicher Information als Gegenpol zu gesprochener oder geschriebener verbaler Information getroffen (visualizer / verbalizer), sie ist also eher an der Codalität orientiert (Jonassen and Grabowski, 1993). Diese Unterscheidung ist eng mit der Theorie der Doppelcodierung verbunden (vgl. Abschnitt 2.3.2.4). An anderen Stellen findet man schlicht Kategorisierungen anhand einzelner Sinnesmodalitäten (visuell, auditiv, haptisch, olfaktorisch, audiovisuell) und eine Klassifizierung in den abstrakt-verbalen, kontaktbzw personenorientierten, den medienorientierten und den einsicht- bzw. sinnstrebenden Typen. Keiner dieser Typen besteht für sich allein. Vielmehr gibt es in der Praxis nur Mischtypen, die sich auch mehr oder weniger flexibel den jeweiligen Gegebenheiten anpassen. Die unterschiedliche Herangehensweise unterschiedlicher Lerntypen soll anhand eines Beispiels verdeutlicht werden. Verstanden und gelernt werden soll das Raumvolumen der Kugel: • Der auditive Typ kann sich die Formel durch bloßes Hören merken, nämlich dass er den „Radius hoch drei zu nehmen und mit 4/3 Pi zu multiplizieren hat“. • Der einsichtanstrebende Typ benötigt unbedingt den Beweis; vor allem stört ihn die Zahl 4/3 oder Pi. Bekommt er den Beweis nicht, hat dieser Typus immer Schwierigkeiten, sich die Formel zu merken. • Der visuelle Typ muss ein Bild vor sich haben, also in diesem Fall eine Schemazeichnung der Kugel mit den entsprechenden Bemaßungen. • Der kontakt- bzw. personenorientierte Typ benötigt „seinen Lehrer“. Vom unsympathischen Lehrer nimmt er keine Erklärungen an. • Dem abstrakt-verbal denkenden Typ genügt die Formel alleine. • Der mediumorientierte Typ entwickelt die Formel lieber selbständig am Computer In Bezug auf die Informationsorganisation ist vor allem eine Kategorisierung nach dem Grad der Detailorientierung zu nennen. Man unterscheidet hier zwischen Serialisten und Holisten. Serialisten konzentrieren sich zunächst stark auf Details. Erst später wird ein allgemeines Konzept aufgebaut. Diese bottom-up-Vorgehensweise ist überwiegend linear. Serialisten tendieren dazu, wichtige Querverbindungen zu übersehen. Dagegen sind Holisten stärker global orientiert und betrachten i. d. R. mehrere Aspekte gleichzeitig. Sie neigen zu einer top-down-Vorgehensweise aus dem Gesamtzusammenhang und dazu, Details zu wenig Aufmerksamkeit zu schenken. 2.3.5.3 Learning Styles (Lernstile im engeren Sinne) Lernstile beschreiben Präferenzen der Lernenden für unterschiedliche Lern- und Lehrarten. Die Unterscheidungen beruhen auf Selbsteinschätzungen und Beschreibungen der Präferenzen durch die Lerner selbst. Besonders auf dieser Ebene wird deshalb eine 25 KAPITEL 2. LERNEN UND GEDÄCHTNIS Vielzahl unterschiedlicher Kategorisierungen vorgenommen. Zu den bekanntesten Unterscheidungen zählen die Lernstile nach Kolb (1981). Dabei werden die beiden Dimensionen Verständnis und Transformation betrachtet. Abstrakte Lerner entwickeln Verständnis primär über konzeptionelle Informationen, konkrete Lerner dagegen über direkte Erfahrung. Aktive Lerner wirken experimentierend auf ihre Umwelt ein, während sich reflektive Lerner eher passiv und beobachtend verhalten. Aus einer Kombination der Ausprägungen ergeben sich die vier Lernertypen (Kolb, 1981): • Diverger (konkret/reflektiv), • Assimilator (abstrakt/reflektiv), • Converger (abstrakt/aktiv) und • Accomodator (konkret/aktiv). Mit jedem dieser vier Grundtypen sind eine Reihe von Eigenschaften sowie bestimmte Stärken und Schwächen assoziiert. Kolb stellte u. a. einen Zusammenhang zwischen dem Lernstil einer Person und dem von ihr gewählten Berufsfeld fest. Neben den Lernstilen nach Kolb gibt es eine Reihe anderer Kategorisierungen, allein Jonassen and Grabowski (1993) nennen zusätzlich vier, ohne Anspruch auf Vollständigkeit zu erheben. 2.3.6 Die Rolle des Lernmaterials bei der Auswahl der Strategie Ob ein Lerner auf (Mapping)-Werkzeuge zur Strukturierung von Wissen zurückgreifen sollte und welche Lernstrategie optimaler Weise für das Memorieren des Stoffes ausgewählt wird, hängt nicht zuletzt vom Lernmaterial selbst ab. Nicht jegliche Art von Lernmaterial kann gleichermassen sinnvoll mit allen denkbaren Lernstrategien bearbeitet werden. Möchte ein Student beispielsweise einen umfangreichen Text durchdringen und dennoch Licht in weniger gut strukturierbare Problembereiche und Fragestellungen bringen, so ist es aufgrund der Kapazitätsbegrenzungen des menschlichen Gedächtnisses sinnvoll, dieses Material nicht in seiner „Rohform“, sondern in einer verdichteten, auf die zentralen Aspekte reduzierten Form zu lernen. Eine andere Situation stellt sich uns dar, wenn das Lernmaterial lediglich aus isolierten Fakten besteht. Eine Vernetzung wäre in einem solchen Fall nicht wirklich machbar. Ein Beispiel, das sich hier anführen lässt ist das Einprägen der Semantik und Syntax einer Programmiersprache. Da es sich bei den zu erlernenden Zeichen um relativ willkürliche Festlegungen handelt, können sie kaum nach bekannten Oberbegriffen geordnet oder mit verwandten Begriffen in Beziehung gebracht werden. Ob ein Programm mit dem Befehl „Run“ oder „Go“ gestartet wird, kann der Benutzer nicht aus anderen Informationen erschliessen – er muss sich den richtigen Befehl schlicht merken. 2.4 Zusammenfassung Die Hirnforschung hat gezeigt, dass Gedächtnisinhalte nicht als Ganzes, sondern in vielen Teilkomponenten abgespeichert werden. Zudem sind diese Speicherungen im Gehirn verteilt und netzartig miteinander verbunden. Dem MAPA-System liegt die Annahme zugrunde, dass auch die Externalisierung von Wissen in gleicher Form geschehen sollte. Wie gut wir uns an etwas erinnern können – so bestätigen neueste Studien 26 KAPITEL 2. LERNEN UND GEDÄCHTNIS (vgl. Abschnitt 2.1) – hängt mitunter davon ab, welche Vorkenntnisse wir mitbringen. MAPA ermöglicht es, diese Vorkenntnisse zu aktivieren, bzw. bewusst und sichtbar zu machen. MAPA untertützt den Nutzer also bei der Artikulation und damit auch der Reflexion über das eigene Wissen. Diese Unterstützung metakognitiver Aspekte kennzeichnet MAPA als ein Wissens-Werkzeug, welches konstruktivistischen und lerntheoretischen Überlegungen gerecht wird. Eine Lerntheorie (vgl. Abschnitt 2.2) zielt darauf ab, Kenntnisse bzw. Auffassungen über das Lernen in einem einheitlichen System zusammenzufassen. Sie bestimmt damit einen allgemeinen Rahmen für die Art wie Wissen präsentiert werden sollte, aber auch für didaktische Überlegungen. MAPA ist im starken Maß von der konstruktivistischen Lerntheorie geprägt. Auch das Selbstgesteuerte Lernen spielt hier eine entscheidende Rolle. Eine solide Wissensbasis im Hinblick auf Lernstrategien ist eine zentrale Voraussetzung für erfolgreiches selbstgesteuertes Lernen (vgl. Abschnitt 2.3) . Ein flexibel einsetzbares Repertoire an Strategien zur Wissensaufnahme und Wissensverarbeitung und die Kontrolle der Lernprozesse bilden den Kern des selbstgesteuerten Lernens. Aber auch motivationale Prozesse wie Selbstmotivierung und das Setzen realistischer Ziele gehören zum selbstgesteuerten Lernen dazu. So lässt sich selbstreguliertes Lernen als ein dynamisches Wechselspiel zwischen kognitiven, metakognitiven und motivationalen Aspekten des Lernens kennzeichnen. Kognitive Strategien folgen prinzipiell bewusstseinsfähigen, häufig automatisierten Handlungsfolgen, die unter bestimmten Bedingungen aus dem Repertoire abgerufen werden und der Situation angemessen eingesetzt werden um Lern- oder Leistungsziele optimal zu erreichen. Metakognitives Wissen dient vor allem der Steuerung des Lernprozesses (Regulation des Lernprozesses). Hierzu zählen Planung (Lernziel – Zielerreichung durch welche Mittel), Überwachung (z.B. des Lernfortschrittes), Steuerung (Veränderung der Mittel) und Evaluation (Bewertung der Zielerreichung und Rückmeldung für die neue Planung). Zu der Wahl von Zielen und Ressourcen (Regulation des Selbst) gehört die Bereitschaft und Fähigkeit sich selbstständig Ziele zu setzen, sich zu motivieren und Erfolg und Misserfolge angemessen zu verarbeiten. Wichtig erscheint hier auch die Feststellung, dass hinreichende Motivation Voraussetzung für den Beginn und die Durchführung von Lernprozessen ist. 27 Kapitel 3 Mapping von Michael Elbers und Tobias Widdra 3.1 Mapping als visuelles, kognitives Werkzeug Mapping, was übersetzt schlicht „Kartenzeichnen“, im engeren Sinne auch „Abbilden“, bedeutet, kann als Oberbegriff für eine Reihe von Techniken gesehen werden, die es erlauben sollen, mittels räumlicher, karten- oder netzähnlicher Darstellungsformen Wissensinhalte zu visualisieren und zu organisieren. Steht das Wort Mapping eher für den Prozess des „Kartenzeichnens“ bzw. „Abbildens“, so verwendet man die Bezeichnung Map (dt.: Karte) meist, um dem Ergebnis dieses Vorgangs einen Namen zu geben1 . Begriffsstrukturdarstellung und Wissensstrukturdarstellung sind weitere Begriffe, die oftmals synonym zu Mapping oder Map verwendet werden. Sie erfassen allerdings das Mapping als Prozess nur unzureichend. Obwohl im Detail recht unterschiedlich, haben alle derzeit existierenden Verfahren eine zentrale Eigenschaft gemein. Sie organisieren sich über Konzepte und Relationen, welche die Konzepte miteinander verknüpfen. Die Elemente einer Map dienen als visuelle Hinweisreize (Cues), die das Memorieren bzw. den Abruf von memorierten Wissensinhalten unterstützen sollen. Konzepte werden in der Regel als Knoten dargestellt, denen ein beschreibender Text, ein Bild oder andere Informationen beigefügt werden. Relationen dagegen werden üblicherweise als Kanten visualisiert2 , d.h. als Linien oder Pfeile, die Knoten miteinander verbinden. Auch wenn es je nach gewähltem 1 In der deutschsprachigen Literatur wird Map interessanterweise nicht einheitlich derselbe Artikel zugewiesen. So heißt es beispielsweise bei Grillenberger and Niegemann (2000) „die Map“, hingegen bei Mandl and Fischer (2000) „der Map“. Letztere Verwendung tritt aufgrund ihrer Konnotation zum „Mapping“ als Prozess häufig dort auf, wo eben dieser betont werden soll. 2 Die Begriffe Knoten und Kante stammen im Übrigen aus der Graphentheorie 28 KAPITEL 3. MAPPING Mappingverfahren gewisse Einschränkungen, Erweiterungen oder Vermischungen bezüglich der Darstellung und auch der verwendeten Termini gibt, so bilden Konzepte und Relationen doch die allgemeine Grundlage aller Mappingtechniken. Der Abschnitt „3.2 Mappingverfahren“ wird sich den jeweiligen Eigenheiten der zurzeit gängigsten Verfahren widmen. Herkömmlicherweise findet Mapping mit „Papier und Bleistift“ statt. In den letzten Jahren sind jedoch mehr und mehr Computeranwendungen entwickelt worden, die die eine oder andere Mappingtechnik unterstützen. Durch diesen Schritt erfährt das Mapping einen Entwicklungsschub, der Anwendern viele neue Einsatzmöglichkeiten eröffnet. Abschnitt „3.3 Mappingsoftware“ wird sich auch mit ihnen beschäftigen. Dabei wird aufgezeigt, welche generellen Eigenschaften heutige Mappingsoftware besitzt. Im letzten Abschnitt „3.4 Theoretische Annahmen und Empirische Studien“ soll darüber hinaus beschrieben werden, welche Erkenntnisse sich bis dato aus der Anwendung von Mappingverfahren und Mappingsoftware in der Forschung ergeben haben. 3.1.1 Geschichte des Mappings Die historische Entwicklung der Mappingtechniken lässt sich nach Mandl and Fischer (2000) grob aus drei Perspektiven betrachten: einer psychometrisch-strukturellen, einer kognitiven und einer pädagogisch-psychologischen. Bernd et al. (2000) erwägen noch eine weitere Perspektive, die das Mapping in einem größeren, evolutionstheoretischen Zusammenhang sieht. Diese vier Betrachtungsweisen stellen sich dementsprechend so dar: Psychometrisch-Strukturelle Perspektive Eine Inspirationsquelle, die für das Mapping von Bedeutung war und ist, ist der Wunsch nach einer formalen Analyse graphischer Strukturen zum Zwecke der mathematischen Quantifizierung psychischer Phänomene. Dazu wurden bereits eine Reihe unterschiedlicher Formen der Ähnlichkeitsskalierungen und Strukturparameter, besonders aus der so genannten Graphentheorie entwickelt, um Wissen gewissermaßen „messbar“ zu machen. Gerade Lehrenden wird so eine Möglichkeit geboten die Lernerfolge ihrer Schüler zu evaluieren. Kognitive Perspektive Aus dieser Perspektive ist das Mapping vor allem als Ergebnis der kognitionspsychologischen Bemühungen der 70er und 80er Jahre zu sehen, allgemeine Ansätze zur Wissensrepräsentation zu entwickeln, insbesondere solcher, die deklaratives Wissen als propositionales, kognitives Begriffsnetz auffassen. Diese Ansicht entspricht der Ansicht der konstruktivistischen Lerntheorie, wie sie im vorangegangenen Kapitel ausführlich besprochen wurde. So ist es auch nicht verwunderlich, dass sich die Vertreter des Mappings nahezu ausnahmslos als Konstruktivisten bezeichnen und den Netzwerkgedanken propagieren. Pädagogisch-Psychologische Perspektive Gemäß dieser Betrachtungsweise steht die Unterstützung von Verstehensprozessen beim Lesen im Vordergrund. So wurden die ersten Mappingtechniken der 70er und der 80er Jahre (SpiderMapping, MindMapping, ConceptMapping usw., siehe Abschnitt 3.2) in der Tat mit Blick auf die Verbesserung des Textverstehens entworfen und weiterentwickelt. Evolutionstheoretische Perspektive Dieser Perspektive zufolge steht Mapping in der langen menschlichen Tradition des Werkzeuggebrauchs. Menschen haben sich im 29 KAPITEL 3. MAPPING Laufe ihrer Entwicklung zunächst „Hardware-Werkzeuge“ geschaffen, wie etwa Faustkeil oder Speer. Zu diesen zählen Bernd et al. (2000) auch „ErfassungsInstrumente“, mit denen man die Begrenztheit der eigenen Sinnesorgane überwinden konnte (Fernrohr, Mikroskop, Thermometer und Röntgengerät). Später entwickelten sich dann auch „Software-Werkzeuge“, die dem Verstehen/Erklären sonst nicht sichtbarer Zusammenhänge und Strukturen dienten. Hierzu gehören neben Atom- und Molekülmodellen, Plan- und Verlaufsdiagrammen auch die modernen Mappingtechniken. 3.1.2 Verwandte Begriffe Was die Begriffe Mapping und Map betrifft, kommt es oftmals zu folgenden inhaltlichen Konfusionen mit anderen ähnlichen Begriffen. Es stellt sich z.B. die Frage, worin der Unterschied zwischen einer Map und einem herkömmlichen Diagramm liegt oder die nach dem Zusammenhang zu den – gerade in der kognitionswissenschaftlichen Gemeinde sehr verbreiteten – Begriffen Cognitive Map (dt.: kognitive Karte) und Semantic Map bzw. Semantic Web3 oder auch Semantic Network (meist alle drei zu dt.: semantisches Netz). Zu den genannten Begriffen gesellen sich außerdem noch solche, die den Werkzeugcharakter des Mappings und ähnlicher Verfahren unterstreichen, also von einem Tool (dt.: Werkzeug) sprechen: z.B. cognitive tool (dt.: kognitives Werkzeug) oder visual tool (dt.: visuelles Werkzeug). Schließlich werden noch zwei weitere Begriffe erläutert, Graphic Organizer und Thinking Maps. Diese Auswahl an Begriffen ist keineswegs erschöpfend und es wird an der einen oder anderen Stelle auf weitere Begriffe hingewiesen, die aus Platzgründen hier allerdings nicht näher diskutiert werden sollen. Hyerle (1996) unterscheidet generell zwischen visual tools (zu denen er auch die Mappingverfahren zählt) und anderen graphischen Repräsentationsformen, insbesondere den Diagrammen: „There are many valuable graphic representations that are used primarily for storing, graphing, or displaying information, often after much of the thinking about a problem has been completed. These forms include matrix diagrams, tables, basic charts, axis diagrams, bar graphs, and pie diagrams. [...] But they are often used as place-holders and displays for information and not specifically as constructive tools.“(S. 24) Hyerle weist mehrfach auf die Bedeutung des Begriffs Tool hin, um die dynamische und konstruktivistische Natur von visual tools zu bekräftigen. Dabei schlägt er folgende Definition vor: „Visual tools are symbols graphically linked by mental associations to create a pattern of information and a form of knowledge about an idea. These linear or nonlinear forms are constructed by individual or collaborative thinkers on paper, board, or computer screen. There are three basic types of visual tools: brainstorming webs, task-specific organizers, and thinking-process maps. Though each of these types of visual tools may be defined for a specific purpose or used together, each form 3 hier nicht mit dem SemanticWeb zu verwechseln, wie es im gleichnamigen Abschnitt noch beschrieben werden wird 30 KAPITEL 3. MAPPING also may require the use of one or several different global processes, including generating, analyzing, organizing, synthesizing, and evaluating meanings.“(S. 24) Die von Hyerle vorgeschlagene Definition für visual tools könnte man ebenso als Grundlage für eine Definition des Begriffs Mapping in seiner hier verwendeten, allgemeinen Form gebrauchen, auch wenn er neben Mappingverfahren wie MindMapping (siehe Abschnitt 3.2.1) oder ConceptMapping (siehe Abschnitt 3.2.2) noch andere Methoden (Webbing, Clustering, decision trees etc.) als visual tools kategorisiert. Mappingverfahren und moderne Mappingsoftware erstrecken sich zunehmend über alle drei von Hyerle aufgestellten Typen: Brainstorming Webs (für persönliches Wissen), Task-Specific Organizers (für Aufgaben mit isoliertem Inhalt), Thinking-Process Maps (für den Transfer von Denkprozessen über Themenbereiche hinweg) (Hyerle, 1996, Abbildung 2.1, S. 27). Hyerle (1996, S.23) befasst sich auch mit dem Begriff Graphic Organizer und führt folgende Definition von Clarke an (vgl. Clarke, 1991, S. 31): „[Words] on paper, arranged to represent an individual’s understanding of the relationship between words. Whereas conventions of sentence structure make most writing linear in form, graphic organizers take their form from the presumed structure of relationships among ideas.“ Graphic Organizers zu visual tools absetzend, konstatiert Hyerle, der Begriff impliziere, dass „visuelle“ Werkzeuge ausschließlich zum Organisieren von Informationen verwendet würden. Im Gegensatz dazu umfasse der Begriff visual tools auch solche Werkzeuge, die zum Brainstorming, als Kommunikationshilfen, zur Mediation oder zur Förderung metakognitiver Fähigkeiten eingesetzt werden. Wie im vorherigen Abschnitt bereits festgestellt, gehören hierzu auch die Mappingverfahren. Hyerle (1996) stellt eine Fülle von Mappingverfahren vor und ordnet sie den drei oben erwähnten Typen von visual tools zu. Er betont allerdings, diese Dreiteilung sei keineswegs als strikte Trennung zu sehen, sondern lediglich als eine grobe Entscheidungshilfe für die Wahl einer der jeweiligen Aufgabe angemessenen Technik zu verstehen. Aus dieser Überlegung heraus entwickelte Hyerle Ende der 80er Jahre die so genannten Thinking Maps, eine Ansammlung von acht graphischen Notationsformen („Maps“ ), zu einer gemeinsamen „visuellen Sprache“. Grundlage für diese acht Formen ist jeweils ein konkreter, grundlegender Denkprozess (gemäß einer Einteilung in elementare kognitive Prozesse nach Upton und Samson bzw. Piaget, siehe S. 105 ff.): „Kontext / Geltungsbereich“ (Circle Map), „qualitative Beschreibungen“ (Bubble Map), „Vergleich und Kontrast“ (Double Bouble Map), „Klassifikation“ (Tree Map), „Teil / Ganzes“ (Brace Map), „Abfolgebeschreibung“ (Flow Map), „Ursache und Wirkung“ (Multiple-Flow Map) und „Analogiebildung“ (Bridge Map). Die Begriffe Semantic Map, Semantic Web und Semantic Network werden hin und wieder synonym verwendet, obwohl es sich bei den ersten beiden eher um Bezeichnungen für Mappingtechniken ähnlich dem MindMapping (siehe Abschnitt 3.2.1) handelt, bei letzterem jedoch um eine Form der Wissensrepräsentation aus dem Bereich der klassischen Künstlichen Intelligenz. Semantic Map wird auch sehr häufig als genereller Oberbegriff für Maps aller Art verwendet. Der Begriff Semantic Network wurde in den 60er Jahren von Quillian geprägt. Bei Russell and Norvig (1995, S. 331 ff.) ist hierzu eine historische Einordnung nachzulesen, in der auch der Bezug zu anderen ähnlichen Verfahren der semantischen Informationsverarbeitung (wie z.B. den frames) hergestellt wird. 31 KAPITEL 3. MAPPING An dieser Stelle sei ein wichtiger Aspekt von Mappingverfahren festgehalten, der sie fundamental von Formalismen der klassischen Wissensrepräsentation und damit auch den Semantic Networks unterscheidet. Die klassische Künstliche Intelligenz ist daran interessiert Wissen formal zu repräsentieren, um unter Zuhilfenahme berechenbarer Inferenzalgorithmen, automatisches logisches Schließen zu ermöglichen. Derartige Überlegungen fließen in die Entwicklung von Mappingverfahren aber nur ganz am Rande ein, da es beim Mapping vielmehr um den Einsatz geeigneter Struktureigenschaften und visueller Hinweisreize geht. Geeignet in dem Sinne, dass sie das Memorieren von Wissensinhalten und deren späteren Abruf positiv beeinflussen sollten. Ansonsten ähneln Semantic Networks in ihrer graphischen Notation allerdings stark den noch vorzustellenden ConceptMaps und besonders deren Derivat, den KnowledgeMaps. Dennoch gilt für das Mapping im Allgemeinen, was McAleese (1998) für das ConceptMapping im Speziellen feststellt: „The representation of an idea does not determine its truth value as individuals may hold ’non-truthful’ understandings [...] [They] are not snap-shots of what is known – rather they allow off-loading of thinking and show the result of engaging in knowledge construction.“(S. 2) Bleiben zuletzt noch die beiden Begriffe Cognitive Map und cognitive tool zu diskutieren. Mit Cognitive Map ist weder ein Mappingverfahren noch dessen Produkt gemeint. Es handelt sich dabei um einen von Tolman (1948) geprägten Begriff, der die Ausbildung einer mentalen, kartenähnlichen Repräsentation bei Tieren und Menschen beschreibt, die es ihnen erlaubt, einmal besuchte oder wahrgenommene Orte im Raum später wieder zu lokalisieren ohne sie direkt wahrnehmen zu können. Ein cognitive tool definiert Jonassen (1992b) als „vehicle that often requires learners to think harder about the subject matter domain being studied while generating thoughts that would be difficult without the tool.“(S. 5) Diese Definition ist, im Lichte des bereits zum Mapping gesagten, sicherlich gut mit diesem zu vereinen, wenngleich nochmals hervorzuheben ist, dass sich das Mapping nicht auf das Thema Lernen beschränkt. Zusammenfassend ist festzuhalten, dass man das Mapping (und dementsprechend auch die im MAPA-Projekt entstehende Mappingsoftware) wohl am besten als eine Art „visuelles, kognitives Werkzeug“ oder „visual cognitive tool“ bezeichnen kann. 3.1.3 Anwendungsfelder Der Bereich traditioneller und computergestützter Lehr- und Lernumgebungen ist derjenige, in dem Mappingtechniken am häufigsten zum Einsatz kommen. Es geht vorrangig um die Ausbildung innovativer Lehr- und Lernstrategien mithilfe von Maps vor dem Hintergrund einer konstruktivistischen Lerntheorie. Übergreifende Ziele sind ein tieferes Verständnis inhaltlicher Zusammenhänge, eine Wissenskonsolidierung und langfristige Verbesserung der Behaltensleistung, aber vor allem auch eine größere Selbstständigkeit des Lerners. Mappingtechniken sollen helfen mit komplexen Sachverhalten und umfangreich vernetzten Wissensgebieten zurecht zu kommen, die jeweils geeignetste Lernstrategie zu finden und diese dann effektiv einzusetzen. Neben der reinen Wissensorganisation gilt es im Besonderen, Mapping als lehr- und lernwirksames 32 KAPITEL 3. MAPPING Werkzeug einzuführen, d.h. die Lerner (aber auch die Lehrer) in der Wahl und dem Umgang mit Mappingtechniken zu schulen. Maps dürfen allerdings nicht einfach nur als schlichte Abbildungen von Expertenwissen dienen (Bernd et al., 2000). Gerade in amerikanischen Schulen scheint das Mapping auch bereits recht häufig in dem geforderten lernerorientierten Sinne zum Einsatz zu kommen. Für deutsche Schulen gilt jedoch meist noch, was Bernd et al. (2000) feststellen. Der traditionelle Frontalunterricht in Schulen verwende zwar seit jeher Strukturdarstellungen, nie bzw. äußerst selten geschehe dies aber systematisiert. So entstehen oftmals unscharfe, missverständliche und inkonsistente Darstellungsformen, die sich meist auch noch von Lehrer zu Lehrer und Fach zu Fach stark unterscheiden und die Lerner insgesamt eher verwirren. Diese Darstellungsformen können von den Schülern kaum als allgemeines, domänen- und inhaltsunabhängiges Lernwerkzeug genutzt werden, da sie gar nicht als Hilfe zur Wissensorganisation vermittelt werden. Auch die Forderung von Gesellschaft, Politik und Wirtschaft zu mehr „selbstgesteuertem Lernen“ zielt in diese Richtung ab. Selbstgesteuertes, „lebenslanges“ Lernen in Schule, Hochschule und durch berufliche Fortbildungen, sowie ein effektives Wissensmanagement werden jedoch als essentielle Grundvoraussetzungen gesehen, um in der heutigen Informationsgesellschaft bestehen zu können (Friedrich, 1999; Hyerle, 1996). Aus diesen Überlegungen heraus ergeben sich weitere wichtige Zielsetzungen, wie das rasche Entlarven diffusen Wissens oder das Fördern geeigneter Strategien, die nicht nur zum Lernen, sondern auch zum systematischen Problemlösen dienen. Des Weiteren sollen Maps die Metakognition und die Selbstreflexion über die eigenen Denkprozesse fördern und durch ständige Begriffsrevisionen eine so genannte Begriffsflexibilisierung herbeiführen helfen, d.h. die Fähigkeit Begriffe aus anderen als den gewohnten Perspektiven zu betrachten und in anderen als den gewohnten Zusammenhängen anzuwenden (Mandl and Fischer, 2000; Bernd et al., 2000). Dem Lehrenden kann durch das Mapping ein Einblick in die Struktur des Wissens seiner Schüler ermöglicht werden, um daraus eventuell Rückschlüsse auf deren Denkprozesse zu ziehen. Darüber hinaus können Wissensveränderungen im Laufe des Lernprozesses leichter wahrgenommen und beurteilt werden, so dass auch gezielter gegengesteuert werden kann. Zu diesem Zweck kann das Mapping in allen Stadien des Lernprozesses zum Einsatz kommen: • in der Lernzielanalyse, • zur (Vor-)Wissensdiagnose, • zum Wissenserwerb, • zum Wissenserhalt und • zum Abprüfen von Wissen bzw. zur Wissensanalyse. Umgekehrt können aber auch Lerner etwas über die Vorgehensweisen und Wissenskonstrukte eines Experten erfahren, wenn sie eine so genannte Expertenmap explorieren oder ihre eigene Map mit dieser vergleichen (Bernd et al., 2000; Fischer and Mandl, 2000). Wenngleich Lehr-/Lernumgebungen bis dato noch immer das wichtigste Anwendungsfeld für Mappingtechniken darstellen, so erstreckt sich ihr Einsatz in zunehmendem Maße auch auf andere Domänen. Im Grunde kann es überall dort zur Anwendung 33 KAPITEL 3. MAPPING kommen, wo Informationen eine hohe Verflechtung aufweisen, stark voneinander abhängen oder deren Zusammenhänge schlicht unüberschaubar sind. So z.B. in der Medizin, wo der Hypothesenraum in der Diagnostik von Krankheiten strukturiert werden will oder im (betrieblichen) Wissensmanagement, wo es darum geht das Filtern der täglichen Informationsflut zu unterstützen, aber auch bei der Fahndung nach Verbrechern, um sich einen Überblick über die Zusammenhänge von Straftaten, Verdächtigen und Opfern zu verschaffen. In allen drei Anwendungsfällen ist es primäres Ziel, das Treffen guter Entscheidungen zu erleichtern. Des Weiteren eignen sich Mappingtechniken sowohl innerhalb als auch außerhalb von Lernumgebungen bei kreativen Prozessen zum Brainstorming und in kollaborativen Umgebungen zum gemeinsamen Bau und zur interaktiven Strukturierung eines Wissensraums. 3.2 Mappingverfahren Nachdem nun ein erstes, einfaches Grundgerüst rund um den Begriff Mapping konstruiert ist, werden wir in den kommenden Abschnitten einen weiteren Ausbau vornehmen und ein paar der derzeit bekanntesten und meist verwendeten Mappingverfahren etwas genauer betrachten. Obwohl sie nur eine kleine Auswahl darstellen, repräsentieren sie doch die Gesamtheit der Mappingverfahren recht gut, auch wenn sie diese aber natürlich nicht vollständig abdecken können. Es handelt sich dabei um das der so genannten SpiderMap von Hanf (vgl. Hanf, 1971) entsprungene MindMapping von Buzan (vgl. z.B. Buzan and Buzan, 1996), das ursprünglich von Novak entwickelte ConceptMapping (vgl. z.B. Novak and Gowin, 1984) und dessen Derivate mit formalisierter Semantik, nach O’Donnell, Dansereau und Hall auch KnowledgeMaps genannt (O’Donnell et al., 2002), sowie den Spatial Hypertext, wie er von Marshall and Shipman (1993) entwickelt wurde. Wichtig im Hinblick auf die Integration in einem unfassenden Software Tool (wie etwa dem im MAPA-Projekt entwickelten) ist selbstverständlich auch die Betrachtung aktueller Software zu den genannten Mappingverfahren. Auch dies soll im Folgenden kurz geschehen, indem die wichtigsten funktionalen und nicht-funktionalen Eigenschaften aufgezeigt werden. 3.2.1 MindMapping Wahrscheinlich das bekannteste Mappingverfahren ist das MindMapping. Buzan entwickelte das MindMapping in der Form, wie es heute verbreitet ist, zum Zwecke der Ideengenerierung, des Notierens, der Entwicklung von Konzepten und der Verbesserung der Gedächtnisleistung (Buzan, 1996). In der zuvor erwähnten Klassifikation der visual tools nach Hyerle (1996) befindet sich das MindMapping in der Kategorie „Brainstorming Webs“. Ebenso finden sich auch die verwandten, teils fast identischen Verfahren, wie Webbing, Clustering, Semantic Mapping und Mindscaping in dieser Kategorie wieder. Hyerle fasst die Technik, die diesen Ansätzen gemein ist, folgendermaßen zusammen: „Most of these processes have similar techniques, each generating from a central point on a page to the outward perimeters to fully capture a concept, much like a spider spinning a web to trap flies.“(S. 36) 34 KAPITEL 3. MAPPING Verwendet man Buzans Methode des MindMappings, so beginnt man mit einem Begriff oder einem Bild in der Mitte der Seite. Von diesem aus und darum herum werden Verbindungen, häufig ungerichtete Kanten, zu weiteren Begriffen und/oder Bildern gezogen. Auf diese Weise lässt man immer weitere, hierarchisch angeordnete Ebenen von Verzweigungen nach außen zum Seitenrand ausstrahlen, so dass eine Baumstruktur entsteht. Verzweigungen können im Grunde beliebiger Ausprägung sein, sie werden allerdings in den meisten Fällen als Äste (Linien) dargestellt, auf denen Begriffe stehen. Die hierarchische Anordnung der Konzepte wird bei Buzan betont. Buzan erhebt zudem die Forderung, alle Wörter in Großbuchstaben zu schreiben und möglichst wenige Wörter pro Ast zu verwenden, bestenfalls nur ein einziges. Er weist außerdem darauf hin, dass es der Behaltensleistung zuträglich ist, wenn man die Mindmap mit Symbolen, kleinen Bildern oder Pfeilen versehen wird. Wie in Abschnitt 3.1 angeklungen, verwenden alle Mappingverfahren in irgendeiner Form Konzepte und Relationen. Beim MindMapping ist diese Unterscheidung jedoch nicht immer so leicht zu erkennen. Zwar gibt es die Möglichkeit Knoten/Ellipsen (Konzepte) über Kanten/Pfeile (Relationen) miteinander zu verbinden, man verwendet allerdings meistens Verästelungen zur Darstellung, so dass Begriffe und Relationen etwas verschmelzen (siehe Abbildung 3.1). Man kann die Linien der Äste oder vielmehr deren hierarchische Anordnung aber auch als Relationen auffassen, wo hingegen die darauf eingetragenen Begriffe Konzepte repräsentieren. Häufig ist der zentrale Knoten, der das Thema vorgibt, auch der Einzige „wirkliche“ Knoten. Abbildung 3.1: MindMap zum Thema Mappingverfahren (erstellt mit: MindManager, vgl. Mappingsoftware 3.1) 3.2.2 ConceptMapping und KnowledgeMapping Beim ConceptMapping handelt es sich um die am besten untersuchte Methode unter den Mappingverfahren. Hyerle (1996) stellt sie zusammen mit dem Systems Thinking und den Thinking Maps in die Reihe der Thinking-Process Maps. Ein wichtiger Unterschied zwischen dem von Novak and Gowin (1984) eingeführten ConceptMapping und dem Systems Thinking, besteht jedoch darin, dass Novak und Gowin auf eine hierarchische Darstellungsweise bestehen, während so genannte „Systemdenker“ eine Art nichtlineares, nichthierarchisches und dynamisches Regelkreis- oder Flusssystem vertreten. Letztere befürchten, dass andernfalls eine zu sehr „traditionell westliche“ Sichtweise von der 35 KAPITEL 3. MAPPING Struktur des Wissens propagiert würde und das Einnehmen einer anderen Sichtweise dadurch behindert werden könnte. Dem entgegnend schreibt z.B. Jonassen (1992a): „concept maps are representations of the cognitive structure, perhaps crude and simplistic, albeit effective in helping learners describe and analyse their knowledge structures“ (Jonassen, 1992a, S. 21). So befassen wir uns an dieser Stelle dennoch mit dem weiter verbreiteten ConceptMapping. Konstruiert man eine ConceptMap, so beginnt man am oberen Rand einer Seite und baut von dort eine hierarchische Struktur aus Konzepten und Relationen. Hierbei ist zu beachten, dass sowohl Konzepte (Ellipsen oder Kästen), als auch Relationen (gerichtete oder ungerichtete Kanten/Pfeile) benannt werden. Dies soll so geschehen, dass stets zwei Konzepte zusammen mit der Relation, die sie verbindet, eine Proposition formen, z.B.: „Baum“, „hat (als Teil)“ und „Stamm“ bilden die Aussage „ein Baum hat einen Stamm“. Anstelle von Begriffen, können auch hier Bilder oder Symbole zur Darstellung einzelner Konzepte dienen. Abbildung 3.2: ConceptMap zum Thema Mappingverfahren (erstellt mit: CMap, vgl. Mappingsoftware 3.1) Der eng damit im Zusammenhang stehende Begriff KnowledgeMapping, von O’Donnell et al. (2002) geprägt, bezeichnet keine eigene Mappingtechnik, sondern eine in gewisser Weise eingeschränkte Variante des ConceptMapping. Eingeschränkt deshalb, weil hier die Relationen nicht beliebig bezeichnet oder auch gezeichnet werden können. Vielmehr muss man geeignet erscheinende Relationen aus einem vordefinierten Fundus auswählen und bestimmt folglich ihre Semantik nicht völlig selbst. Anstatt 36 KAPITEL 3. MAPPING zwischen ConceptMaps und KnowledgeMaps zu unterscheiden, wird übrigens gelegentlich auch von formalisierten und nicht-formalisierten ConceptMaps gesprochen. 3.2.3 Spatial Hypertext Der Spatial Hypertext ist das neueste der hier vorgestellten Verfahren. Es ist zwar in Anlehnung an den traditionellen Hypertext, wie er im Internet Verwendung findet entworfen worden, kann aber ohne weiteres als Mappingtechnik aufgefasst und genutzt werden. Was ihn einzigartig macht, ist sein Verzicht auf explizite Relationen zwischen Konzepten. Spatial Hypertext besteht also oberflächlich gesehen lediglich aus einer Menge von Konzepten bzw. Knoten. Aus der räumlichen Anordnung bzw. Nähe der Konzepte zueinander kann man allerdings leicht implizite Relationen ablesen. Nach der Kategorisierung von Hyerle (1996), der den Spatial Hypertext nicht behandelt, müsste man ihn wahrscheinlich am ehesten als Brainstorming Web bezeichen, selbst wenn er rein graphisch natürlich nicht sehr an ein „web“ (dt.: Netz) erinnert. Abbildung 3.3: Spatial Hypertext zum Thema Mappingverfahren (erstellt mit: Visual Knowledge Builder, vgl. Mappingsoftware 3.1) 3.3 Mappingsoftware Widmen wir uns nun computergestützten visual cognitive tools, sprich: widmen wir uns den Eigenschaften heutiger Mappingsoftware. Da es zu weit führen würde alle oder auch nur einen Großteil der erhältlichen Mappinganwendungen im Einzelnen zu behandeln, beschränken wir uns an dieser Stelle, auf deren wichtigste Merkmale hinzuweisen. Wichtig zu wissen ist jedoch, dass derzeit scheinbar kein Tool alle Eigenschaften zur Verfügung stellt. Eine Liste der wichtigsten Mapping Tools ist in Tabelle 3.1 aufgeführt. 37 KAPITEL 3. MAPPING Software URL MindMapping MindManager MindMapper VisualMind Ygnius http://www.mindjet.de http://www.mindmappe.com http://www.visual-mind.com http://www.ygnius.com ConceptMapping Inspiration SmartIdeas KnowledgeManager cMapTools http://www.inspiration.com http://www.smarttech.com/smartideas/ http://www.knowledgemanager.it http://cmap.coginst.uwf.edu Spatial Hypertext VisualKnowledgeBuilder http://www.csdl.tamu.edu/VKB/ Andere Verfahren Axon TheBrain http://web.singnet.com.sg/~axon2000 http://www.thebrain.com Tabelle 3.1: Mappingsoftware (Stand: März 2004) 3.3.1 Konstruktionsmodi Erstellen, Platzieren und Benennen Grundsätzlich fallen einem zwei Philosophien auf, was das Erstellen, Platzieren und Benennen graphischer Elemente (hier: Knoten, Relationen und Annotationen) durch den Benutzer betrifft: entweder sind diese Prozesse in gewissem Sinne „frei“ oder sie sind „eingeschränkt“. Selbstverständlich kann es nahezu beliebig viele Abstufungen zwischen diesen beiden Extremen geben. Freies Erstellen graphischer Elemente bedeutet, dass der Benutzer Form, Farbe und Größe frei bestimmen kann, eingeschränktes Erstellen dagegen, dass eine oder mehrere dieser Eigenschaften nicht selbst gewählt werden können. des Weiteren kann man darunter den Unterschied zwischen solchen Anwendungen verstehen, die es generell erlauben Knoten erst einmal ohne jede Beziehung zu anderen Knoten zu erstellen und solchen, die dies nicht zulassen. An dieser Stelle sollte auch auf den in einigen wenigen Produkten bereits vorhandenen Einsatz eines schnellen „Brainstorming-Modus“ hingewiesen werden. Dieser erlaubt es, über nur einige wenige Tastendrücke Knoten bzw. Relationen zu erstellen ohne sich zunächst um deren Platzierung kümmern zu müssen. 38 KAPITEL 3. MAPPING Freies Platzieren bezieht sich auf die Möglichkeit einiger Anwendungen graphische Elemente genau oder an gewissen Ankerpunkten im (meist 2-dimensionalen) Raum zu platzieren und später dort auch wieder zu finden. Eingeschränkt wäre das Platzieren bei solchen Anwendungen zu nennen, die die Anordnung der Elemente durch eine vordefinierte Struktur (z.B. Hierarchie) vorgeben oder durch einen Algorithmus automatisiert vornehmen. Letzteres kann entweder nach einfachen Übersichtskriterien oder intelligenteren semantischen Kriterien erfolgen, z.B. anhand von benutzerdefinierten Gewichtungen oder Typen (siehe unten). Abbildung 3.4: Vergleich von Mappingsoftware – Teil 1, übernommen aus Haller (2002) Das Benennen von Knoten und Relationen kann ebenfalls entweder vollkommen frei erfolgen (durch Eingabe einer Bezeichnung) oder nur als eingeschränkte Aus- 39 KAPITEL 3. MAPPING Abbildung 3.5: Vergleich von Mappingsoftware – Teil 2, übernommen aus Haller (2002) 40 KAPITEL 3. MAPPING wahl aus einer Menge von Namen oder Typen. Oftmals ist dann auch die visuelle Darstellung daran gekoppelt und somit eingeschränkt. Im Extremfall kann freies Benennen auch bedeuten, dass der Benutzer einzelne Knoten oder Relationen einfach unbenannt lassen kann und ihre Bedeutung durch andere visuelle Eigenschaften deutlich wird (Bilder, Formen, gerichtete Pfeile etc.). Umgekehrt kann ein Programm den Benutzer so weit einschränken, dass er überhaupt nicht benennen darf. Referenzieren Unter Referenzieren ist das „In-Beziehung-Setzen“ zweier oder mehrerer Knoten (oder auch Gruppen bzw. Teilnetze, siehe unten) durch eine oder mehrere Relationen zu verstehen. Auch bei dieser Funktion kann man zwischen „freiem“ und „eingeschränktem“ Referenzieren unterscheiden, d.h. der Möglichkeit gewissermaßen „alles mit allem“ in Beziehung setzen zu können (Knoten mit Knoten, Knoten mit Teilnetzen, Knoten mit Relationen, Relationen mit Relationen, ...) oder einer Einschränkung dieser Möglichkeit. Gewichten Eine weitere Option, die dem Benutzer bereitgestellt werden kann, ist das Gewichten von Relationen (also die Eingabe einer Verbindungsstärke). Hierdurch ist eine weitere Ausdruckmöglichkeit gewonnen. Visuell kann dies in unterschiedlicher Art und Weise dargestellt werden. Eine Möglichkeit besteht darin, Größe oder farblichen Abstufung von Verbindungslinien zu variieren, eine andere in der Anfügung numerischer Werte. Eine dritte kann auch schlicht die örtliche Nähe sein, die dann allerdings gleich eine Form von Gruppierung nach sich zieht. Typisieren Beim Typisieren von Knoten und/oder Relationen gibt es erneut eine Reihe an möglichen Formen. Rein visuell können sich Typen beispielsweise durch festgelegte Formen, Farben oder Bezeichnungen ausdrücken. Neben diesem Aspekt der graphischen Einheitlichkeit, stellt sich die Frage der Definierbarkeit und Interpretierbarkeit von Typen, d.h. die Frage, ob und wenn ja, inwieweit sich der Benutzer eigene Typen definieren und systematisieren kann (z.B. als hierarchisches Typsystem, also als Ontologie von Begriffen). Eine solche Formalisierung könnte einem intelligenten Algorithmus möglicherweise erlauben, Inferenzen oder andere Formen semantischer Analyse über Netzdaten ausführen zu lassen. Oft werden derartige Zusatzinformationen auch als Metadaten (Daten über Daten) bezeichnet. Anmerken / Annotieren Annotationen bieten die Möglichkeit, Knoten oder Relationen weitere, u.U. detailliertere, meist textuelle, Informationen anzufügen. Wo diese eingegeben und platziert werden und wann diese erscheinen kann durchaus recht unterschiedlich sein. So kann dies in einem separaten Fenster geschehen oder dem selben Fenster, in dem sich auch das Netz befindet. Annotationen können direkt an dem Element „kleben“ zu dem sie gehören, sie können aber auch als Inhalt des jeweiligen Knotens oder der jeweiligen Relation dargestellt werden, mal erscheinen sie auf expliziten Wunsch des Benutzers (Knopfdruck, Verweilen auf einem Knoten / einer Relation usw.), mal sind sie ständig zu sehen. So wie Annotationen an Knoten und Relationen angefügt werden können, ist dies auch für Anmerkungen, also Kommentare oder Hinweise, denkbar. Gruppieren / Teilnetze bilden (Sub-Maps) Mit Gruppieren (auch Verschachtelung oder Containerbildung genannt) ist hier das Zusammenfassen einer Menge von Knoten und/oder Relationen zu einer Einheit gemeint, die als solche dann referenziert, eventuell benannt und typisiert werden kann. Handelt es sich um eine 41 KAPITEL 3. MAPPING auch strukturell zusammenhängende Einheit, kann man auch von einem Teilnetz (Sub- Map) sprechen. Sub-Maps ergeben sich in hierarchischen Mappingansätzen quasi von selbst, bei anderen Ansätzen muss der Benutzer diese selbst definieren und kann sie, je nach Software, z.T. auch als separate Netze abspeichern und editieren. Multimedia einbinden Eine noch nicht sehr verbreitete Funktionalität innerhalb der Mappingsoftware ist das Einbinden verschiedenster, vornehmlich multimedialer Daten, wie beispielsweise Bilder, Videos, Klänge, Musikstücke, Sprachaufzeichnungen, Formeln, Texte oder dergleichen mehr. Statt derartige Daten direkt in eine Map einbauen, darstellen und ggf. skalieren zu können, begnügen sich heutige Produkte meist damit Icons oder Hyperlinks als Platzhalter anzubieten und eine externe Anwendung zu öffnen, um die Daten darzustellen bzw. abzuspielen. Ressourcen verwalten / Ressourcen anbinden Neben dem tatsächlichen Einbinden von Daten gibt es weit öfter die Option Verknüpfungen zu externen Ressourcen einzufügen. Dies kann in Form von Verweisen in das lokale Dateisystem erfolgen oder allgemeiner in Form von Hyperlinks auf lokale oder globale Ressourcen. Diese Möglichkeit bildet eine Grundlage dafür, dass Mappingsoftware auch als Ressourcen- bzw. Informationsmanagementsystem genutzt werden kann und damit z.B. eine Alternative zu herkömmlichen Datei-Managern bilden könnte. Daten austauschen / Kollaborieren Datenaustausch zwischen den Anwendern einer Mappingsoftware kann in der Regel lediglich über das Versenden proprietärer Datenformate stattfinden. Durch die Uneinheitlichkeit der Datenformate, in denen Maps abgelegt werden, wird das Wiederverwenden in anderen (Mapping)Anwendungen zusätzlich erschwert. Ein gemeinsames, verteiltes und synchrones Betrachten oder gar Editieren von Maps oder Teilen von Maps wird nur in den seltensten Fällen zur Verfügung gestellt. Protokollieren Eine Funktionalität, die in öffentlich erhältlicher Mappingsoftware derzeit noch weitgehend fehlt, ist die Protokollierung des Konstruktionsprozesses von Maps. Hierbei wird jedes Einfügen, Löschen und Abändern „aufgezeichnet“ und kann später dann z.B. zu Analysezwecken wieder abgerufen werden. Eine ähnliche, aber gängigere Funktion ist das Undo/Redo, seltener ist das nachträgliche Abspielen des gesamten Konstruktionsprozesses (Replay). 3.3.2 Navigationsmodi Zoom / Sichtfenster verschieben Sehr verbreitet, zumal wenn es sich um bild- oder graphikverarbeitende Software handelt, ist der Zoom. Auch in der Mehrzahl der Mappinganwendungen fehlt er nicht. Meistens erfolgt dieses Vergrößern bzw. Verkleinern des sichtbaren Bereiches einer Map in ein paar voreingestellten, grobschrittigen Größenabständen, es ist aber teilweise auch als „weiches“ kontinuierliches, stufenloses „Hinein- bzw. Herausgleiten“ implementiert. Das jeweils aktuelle Sichtfenster auf die Map kann nicht nur durch den Zoom, sondern auch durch das seitliche Verschieben mithilfe von Schiebereglern (scroll bars) oder der Maus erfolgen. struktureller Zoom Aufgrund der Tatsache, dass viele Mappingverfahren eine gewisse Struktur der Knoten und Relationen vorgeben oder sich diese vom Anwen42 KAPITEL 3. MAPPING der nachträglich festlegen lässt, bieten viele Mappinganwendungen eine weitere Funktion an, den so genannten strukturellen Zoom (vgl. z.B. (Bernd et al., 2000)). Aus Übersichtlichkeitsüberlegungen heraus wird damit die Möglichkeit geboten, Teile einer Map (Sub-Maps) wahlweise auszuklappen (expand) oder einzuklappen (collapse), also vollständig sichtbar oder auf einen Knoten reduziert sichtbar zu machen. Fokussieren / Surfen Schließlich noch eine letzte Funktion, die recht häufig anzutreffen ist. Das Fokussieren eines bestimmten Knotens wird meistens dadurch ausgelöst, dass man auf ihn klickt. Dies löst oft das Zentrieren des Knotens, das Einblenden seiner Nachbarknoten bis zu einer teilweise einstellbaren Tiefe, sowie deren automatisches Neuanordnen aus. Der ausgewählte Knoten wird zumeist leicht verändert dargestellt, um ihn als fokussiert zu markieren. Außerdem werden gelegentlich noch weitere Informationen wie Inhalte oder Annotationen, die mit ihm verknüpft sind, angezeigt. In Anlehnung an das „Surfen“ via Hypertext-Seiten im Internet, kann eine Folge von Fokussieraktionen und somit das „Sich-entlang-hangeln“ an einer Map ebenfalls als „Surfen“ bezeichnet werden (vgl. hierzu auch das Kapitel zur Beispielanwendung des Vokabeltrainers). Neben der Navigation über Mausklicks auf den zu fokussierenden Knoten sind auch andere Möglichkeiten wie die Auswahl des Knotens aus einer Liste, die Eingabe per Tastendruck o.ä. denkbar und zum Teil auch bereits implementiert. 3.3.3 Lern- / und Prüfmodi Wie im vorherigen und in diesem Kapitel deutlich geworden sein sollte, kann bereits das bloße Konstruieren von Maps einen Lernvorgang darstellen. Gerade in Mappingsoftware, die rein zu Forschungszwecken erstellt wurde, finden sich aber auch schon eine Reihe weiterer Lern- bzw. Prüfmodi, die den Lerner über die genannten Konstruktions- und Navigationsmodi hinaus unterstützen können. Lückennetze Bernd et al. (2000) berichten davon, dass es dem Lehrenden in ihrem Ansatz möglich gemacht wird, anhand einer zuvor von ihm erstellten Expertenmap zu einem bestimmten Themenbereich, eine „Lücken-Map“ zu erstellen. Dies bedeutet, dass er die ihm am wichtigsten erscheinenden Kernbegriffe oder deren Relationen zu anderen Begriffen entfernen kann, um den Lernenden so eine unvollständige Map zu präsentieren, die diese dann ausfüllen sollen. In Zukunft könnte es darüber hinaus möglich sein, solche Lückennetze automatisch zu erstellen, sofern es eine geeignete Formalisierung zulässt, die Inhalte der Ursprungsmap semantisch zu verarbeiten. Ein solche Funktionalität kann selbstverständlich sowohl zum Lernen als auch zum Abprüfen des Gelernten eingesetzt werden. Verschiedenwegiges Durchwandern Bernd et al. (2000) erwähnen noch einen weiteren Modus, der ihnen zufolge von der Theorie Aebli’s zum „Durcharbeiten“ von Texten, Wissensnetzen etc. inspiriert ist. Sie stellen ihn damit in die „lange Tradition des role-taking“, wonach die Behaltensleistung, aber vor allem auch die flexible Verwendung von Begriffen steigt, wenn Lerner durch Perspektiven- oder Rollentausch Inhalte aus einem anderen Blickwinkel betrachten. Der entsprechende Lernmodus fordert den Lerner auf, die Namen von Relationen umzukehren, d.h. 43 KAPITEL 3. MAPPING die Map in entgegengesetzter bzw. beliebiger Richtung zu durchwandern und für nichtvorhandene Bezeichnungen von Relationen geeignete Namen zu finden. Bei Haller (2002) findet sich ein Gegenüberstellung von Mappingverfahren. Die aus dieser Arbeit entnommenen Tabellen (siehe Abbildungen 3.4 und 3.5) zeigen einen Vergleich aktueller Mappingsoftware nach ganz ähnlichen Kriterien, wie den hier aufgezählten4 . Zum Verständnis muss noch gesagt werden, dass er Relationen als Links bezeichnet und Hyperlinks Verweise auf Maps oder auf beliebige andere Ressourcen sein können. 3.3.4 Vor- und Nachteile computergestützten Mappings In diesem Abschnitt wird das Mapping als computergestütztes Werkzeug mit dem „traditionellen“ Mapping als Arbeitsweise mit Stift und Papier verglichen. Viele der jeweiligen Vor- bzw. Nachteile lassen sich letzlich auf die grundsätzlichen Unterschiede zwischen dem Arbeiten am Computer und dem entsprechenden handschriftlichen Vorgehen vergleichen. Viele der hier aufgezählen Verschiedenheiten sind somit nicht rein mappingspezifisch und treten auch bei anderen Anwendung wie z. B. Textverarbeitungsprogrammen zu Tage. Dennoch ist die Erwähnung der vielen Vorteile elektronischer Datenverarbeitung im Rahmen des Vergleichs der beiden Varianten des Mappings wichtig, da sie eine wesentliche Rolle bei der Beurteilung der Einsetzbarkeit computergestützten Mappings spielen. Die bessere und elegantere Editierbarkeit am Computer lässt sich vermutlich als den größten Vorteil gegenüber dem traditionellen Mapping nennen, da handschriftliches Ändern und „Löschen“ nur mühsam und oftmals unschön zu handhaben ist. Betrachtet man Mapping als kognitives Werkzeug zur Unterstützung mentaler Konstruktionen, so wird deutlich, dass gerade Editieren ein wesentlicher Bestandteil des Prozesses der Mapkonstruktion ist. Erst das Verschieben und Löschen gerade entwickelter Begriffsknoten ermöglicht z. B. dynamisches Kategorienbilden und bringt somit eine ganz neue Qualität mit sich. Brouillard und Baron weisen darauf hin, dass computergestütztes Mapping für diese essentiellen Prozesse die Motivation erhöhen kann. Die Einfachheit von Konstruktion und Korrektur und die Möglichkeit der Anpassung an eigene Wünsche sei mit Stift und Papier nicht in dem selben Ausmaß möglich (Bruillard and Baron, 2000, S. 335 f.). Nach Sturm und Erickson fanden Schüler computergestütztes Mapping zudem leichter, ordentlicher und besser lesbar (Sturm and Rankin-Erickson, 2002, S. 136). Teile einer Computermap können nicht nur eleganter editiert werden, sondern auch leicht und beliebig oft in anderen Maps wieder verwendet werden. Hinzu kommt die mit Stift und Papier nicht realisierbare Möglichkeit, die eigenen Maps (und damit Teilthemengebiete) durch Querbezüge zu verbinden und so prinzipiell an einer riesigen, beliebig großen Map sowohl als Wissensbestand als auch als dynamischer Konstruktionsgeganstand zu arbeiten. Dies wirft zwangsläufig die Frage nach der Übersichtlichkeit auf. Ein großes Blatt Papier kann zwar mit der Möglichkeit des Überblicks herkömmliche Computerbildschirme übertreffen, Computertools können jedoch einen anderen Vorteil aufweisen: Durch den unter Abschnitt 3.3.2 beschriebenen sog. Strukturellen Zoom können Teile 4 Unter http://www.heikohaller.de/toolvergleich/ (Stand: März 2004) werden die Tabellen ständig aktualisiert zur Verfügung gestellt. An dieser Stelle findet sich zusätzlich eine noch detailliertere Tabelle. 44 KAPITEL 3. MAPPING der Map aus Übersichtlichkeitsgründen ausgeblendet werden. So lassen sich prinzipiell auch Filter und verschiedene Perspektiven auf die selben Daten realisieren. Konsequent weitergedacht führt dieser Gedanke zur Idee der Trennung der eigentlichen Daten einer Map von deren Visualisierung, was einige Vorteile mit sich bringen kann. So weisen Fischer und Peuckert in diesem Kontext darauf hin, dass es viele mögliche Externalisierungen und mentale Modelle von Wissen gibt und eine starke Uneinigkeit in der Forschung bzgl. der angemessensten Darstellung besteht (Fischler and Peuckert, 2000, S. 7 f.). Unter Berücksichtigung persönlicher Vorlieben und individueller Kognitions- und Lernstile (vgl. Abschnitt 2.3.5) scheint es zudem zweifelhaft, ob es die beste Visualisierung geben kann. Hinzu kommen die in Abschnitt 3.4.2.2 beschriebenen Resultate, die zeigen, dass vorgegebene Maps bei viel Vorwissen des Lerners Schwierigkeiten durch Konflikte mit den individuell vorhandenen Strukturen hervorrufen können. So wird eine strikte Trennung von Daten und deren Darstellung noch wichtiger, da die Maps so leichter den individuellen Gegebenheiten angepasst werden können. Weiterhin kann durch solch eine Trennung der Computervorteil der Wiederverwendbarkeit noch vergrößert werden, da so auf die Daten einer Map auch in anderen Kontexten, wie z. B. anderen Mapformen oder gänzlich anderen Anwendungen, zugegriffen werden kann. Als Beispiel sei hier die Verzahnung mit einem Terminorganizer angeführt. Weitere generelle Vorteile der elektronischen Datenverarbeitung gelten natürlich auch für Mappingsoftware. So können vielfältige Formen der Einbindung multimedialer Stimuli das Mapping von Hinweisreizen sehr unterstützen. Beim Vergleich mit dem traditionellen Mapping sind hier insbesondere vorgegebene Bilder, Animationen und die Berücksichtigung der auditiven Modalität zu erwähnen. Prinzipiell kann Mappingsoftware darüber hinaus auch zum allgemeinen Ressourcenverwalten verwendet werden. Die Organisierung und Archivierung der eigenen Maps kann zudem elektronisch oftmals besser erreicht werden. Automatische Prozesse wie eine inhaltliche Suche oder das Ersetzen einzelner Begriffe können einem selbstverständlich nur bei computergestütztem Mapping die Arbeit erleichtern. Zudem kann durch den Computer kollaboratives Mapping auch auf große räumliche Distanzen hinweg ermöglicht werden. Für den didaktischen Kontext weisen Berendt and Reiska (2001) auf den großen Vorteil hin, den die Möglichkeit der automatischen Wissensdiagnose bietet (vgl. Abschnitt 3.4.2.2). Die Auswertung eines Netzes per Knopfdruck kann den Zeitaufwand bei vielen bzw. großen Maps deutlich minimieren, was selbst bei einer gewissen Vorarbeit „per Hand“ (wie z. B. der Zuordnung verwendeter Relationsbegriffe zu bestimmten Kategorien) noch zutreffend sein kann. Auch das Protokollieren des Konstruktionsprozesses kann für den Lehrer sehr aufschlussreich sein, da dieser Rückschlüsse auf Schwierigkeiten, Unsicherheiten und wichtige Lernprozesse erlaubt. Dem großen Katalog an Vorteilen der Computerunterstützung beim Mapping stehen eher wenige, doch evtl. bedeutende Vorteile des Arbeitens mit Stift und Papier gegenüber. So ist die intuitivere und natürlichere Arbeitsweise zu nennen, die insbesondere bei kreativen Prozessen eine wichtige Rolle spielt. Den spontanen Darstellungswünschen sind hier keine Grenzen gesetzt, im Gegensatz zur potentiellen Limitierung durch unüberwindbare Vorgaben eines Computerprogramms. Auch die motorische und sensorische (insbesondere haptische) Erfahrung des Arbeitens mit dem Stift kann unter Umständen eine wichtige Rolle spielen. So ist es gut vorstellbar, dass der Grad der Internalisierung des Konstruktionsprozesses z. T. von der Art und Weise abhängt, wie der Anwender motorisch und sensorisch mit seinem Werkzeug interagieren kann: Ein Knoten, der per Mausklick oder Tastendruck angelegt (und oftmals sogar automatisch angeordnet 45 KAPITEL 3. MAPPING wird), ist weniger selbstgesteuert konstruiert, als wenn die komplette Kontrolle über den Entstehungsprozess wie beim Arbeiten mit einem Stift vorhanden ist. Darüber hinaus wird möglicherweise von manchen Menschen schon der simple Unterschied des Sitzens vor einem Blatt Papier anstatt vor einem Computerbildschirm als angenehmer und kreativitätsfördernder empfunden. Es ist jedoch stark anzunehmen, dass viele dieser Vorteile des traditionellen Mappings im Laufe des technologischen Fortschritts immer geringer werden. Schon heute existieren Entwicklungen wie Tablett-PCs oder elektronisches Papier, die im Vergleich zu gängigen computergestützten Mapping Tools eine stärkere Anpassung an menschliche Anforderungen ermöglichen. Einerseits wird es schwer sein, die Vielfältigkeit der Anwendungsmöglichkeit eines „echten“ Stiftes in Form eines „digitalisierten“ nachzubauen (beispielhaft seien feine, flächige Farb- oder Intensitätsübergänge genannt). Andererseits kann zumindest die Palette der vergleichbaren Zeichenwerkzeuge um neue Dimensionen vergrößert werden (z. B. durch Datenhandschuh oder Visualisierungen mittels 3D-Projektionen). So ist es zu erwarten, dass der Einsatz computergestützten Mappings in Zukunft immer sinnvoller wird. 3.4 3.4.1 Theoretische Annahmen und Empirische Studien Theoretische Hintergründe Am Anfang wurde darauf hingewiesen, dass die Befürworter des Mappings in der Regel konstruktivistischen Lerntheorien anhängen. Da der Abschnitt „Konstruktivistische Lerntheorien“ 2.2.3 schon auf die zentralen Annahmen und ihre unmittelbaren lerntheoretischen Konsequenzen hingewiesen hat, soll an dieser Stelle auf eine ausführliche Diskussion verzichtet werden. Die aus den 70er Jahren stammende Annahme, dass das menschlichen Gedächtnis als ein Netzwerk organisiert sei (Netzwerkannahme, vgl. Mandl and Fischer, 2000; Bernd et al., 2000), führte zu der Überzeugung, dass das Gedächtnis Wissen in Form eines Netzes von Propositionen enkodiert (Collins and Loftus, 1975). Propositionen sind demnach kognitive Strukturen bestehend aus Elementen/Knoten und sie verknüpfenden Relationen (Bernd et al., 2000). Bernd et al. (2000) schreiben: „Es war dann (nach Annahme propositionionaler Strukturen im Gedächtnis) unwesentlich, ob solche Element-Relation-Element-Beziehungen propositional kodiert wurden [...] oder unmittelbar grafisch repräsentiert wurden [...]“. Wesentlich ist nach Schnotz (2002) allerdings, dass bildliche Informationen generell leichter in mentale Modelle überführt werden können als textuell dargebotene Informationen. Während Erstere direkt eine zum Dargestellten analoge Struktur bieten, müssen Letztere über eine Analyse der Symbolstrukturen zunächst in eine propositionale Repräsentation überführt werden und können erst danach zur Konstruktion mentaler Modelle herangezogen werden. Somit ist anzunehmen, dass eine Mapdarstellung in vielen Fällen gegenüber einem Text vorzuziehen ist. Das gilt im Besonderen für solche Maps, die bereits explizit Propositionen enthalten. Diese Vorzüge des Mappings gegenüber textueller Darstellung wurden durch empirische Befunde immer wieder nachgewiesen (siehe folgenden Abschnitt 3.4.2). 46 KAPITEL 3. MAPPING McAleese (1998) führt an, dass die Annahme der Beschränktheit des Kurzzeitgedächtnisses dazu führt, dass es zu einem so genannten off-loading (Entlastung) des Kurzzeitgedächtnisses kommen muss, wenn Arbeit mit komplexen Sachverhalten überhaupt möglich sein soll. Er sieht das Mapping als eine Art Leistungsunterstützung (performance aid), die gewissermaßen als externe Gedächtniserweiterung fungiert und dadurch off-loading ermöglicht. Zu guter Letzt liegt noch eine weitere Überlegung der Annahme zugrunde Mappingverfahren seien besser als andere Lehr- und Lerntechniken geeignet Wissen zu organisieren und gezielt abzurufen. Sie rührt von der Forschung zu so genannten „kognitiven Karten“ (Cognitive Maps) her, wie sie Tolman (1948) iniziierte. Dabei wird angenommen, dass sich das menschliche Vermögen zur Orientierung im physischen Raum (räumliches Denken) positiv auf die Orientierung in einem „Wissensraum“ auswirken könnte, wenn dieser dieselben Kriterien einhält, wie etwa konstante örtliche Relationen der Objekte zueinander. Außerdem wird erwartet, dass sich als Folge eine bessere Behaltensleistung ergibt (O’Reilly and Rudy, 2001), da sich so zusätzliche kognitive Ressourcen einbinden lassen. 3.4.2 Empirische Forschung zum Mapping Im folgenden soll ein kurzer Überblick über einen Teil des Spektrums empirischer Forschung zum Thema Mapping gegeben werden. 3.4.2.1 Umgang mit der Technik Grundvoraussetzung für den erfolgreichen Einsatz von Mappingverfahren ist es, dass die jeweilige Technik möglichst gut beherrscht wird. Diese Erkenntnis zieht sich quer durch alle Studien. Außerdem muss die Ausgestaltung der Maps gegebenenfalls dem Lern- bzw. Untersuchungsziel, sowie individuellen Präferenzen und Verarbeitungsformen angepasst werden. Bruillard and Baron (2000), die anhand einiger Studienergebnisse den Einsatz von Concept Maps als Navigationshilfen für Hypertextdokumente diskutieren, nehmen an, dass die Probleme im Umgang mit Maps zu einem Großteil vom mangelnden Wissen über Maps herrühren. Eine von Grillenberger and Niegemann (2000) durchgeführte Studie bestätigt dies, indem sie zeigt, dass Effizienz und Akzeptanz der Arbeit mit Concept Mapping direkt damit korrelierten, wie gut die Technik beherrscht wurde. Fischler and Peuckert (2000) stellen zudem fest, dass die Ziele einer Untersuchung das geeignete Format von Gestaltung und Bewertungssystem für Concept Maps bestimmen. So sei es nicht verwunderlich völlig unterschiedliche Antworten von Studie zu Studie zu finden, wenn man fragt, ob es gut ist Begriffe oder Relationen vorzugeben und ob vorgegebene Begriffe schon strukturiert bzw. vorgegebene Relationen bereits benannt sein sollten. O’Donnell et al. (2002) schildern die Ergebnisse dreier Experimente von Wiegmann et al. zu dem, was man als Map Design bezeichnen könnte. In einem ersten Experiment wurden dabei zwei Gruppen von Studenten mit inhaltlich isomorphen Maps ausgestattet. Die eine Gruppe erhielt jedoch Maps, die nach Gestaltgesetzen angelegt worden waren. Verwendet wurden das Gesetz der Ähnlichkeit (similarity), das der Nähe (proxikity) und das der Fortsetzung (continuity), während die Maps der anderen Gruppe nicht nach derartigen Prinzipien gestaltet waren. Es zeigte sich ein Leistungsunterschied zugunsten der ersten Gruppe. Eine weitere von O’Donnell et al. (2002) zitierte 47 KAPITEL 3. MAPPING Studie scheint diesen Befund zu bestätigen. Ein zweites Experiment verglich die Leistungen von Studenten, denen eine einzige große Map gegeben wurde, mit den Ergebnissen derjenigen, die einen Stapel kleiner Ausschnittsmaps mit einer zusätzlichen Übersichtsmap bekamen. Hierbei hing der Erfolg der Studenten vom Grad ihrer Feldabhängigkeit ab (zum Begriff der Feldabhängigkeit vgl. Abschnitt 2.3.5.1). Feldabhängige Studenten erzielten bessere Behaltensleistungen mit der ganzen Map, während feldunabhängige Studenten eher mit den einzelnen Maps zurecht kamen. Schließlich wird an der selben Stelle noch ein drittes Experiment beschrieben, welches den Auswirkungen verschiedener Formen der Darstellung von Relationen auf den Grund ging. Man konnte dabei nachweisen, dass Studenten mit geringen verbalen Fähigkeiten mehr von einfachen Linien ohne jede Verzierung profitierten, wo hingegen Studenten mit größeren verbalen Fähigkeiten tendenziell besser mit verzierten Relationen arbeiteten, also Pfeilen, mit oder ohne Namen, gestrichelt oder durchgängig. Die Forscher interpretierten diese Resultate dahingehend, dass sie den verzierten Relationen die Betonung semantischer Verarbeitung unterstellten, eine Betonung mit der verbal schwache Personen oftmals Probleme haben. Es sei an dieser Stelle noch eine interessante Bemerkung von Fischler and Peuckert (2000) angeführt. Sie weisen darauf hin, dass zahlreiche empirische Studien die Notwendigkeit einer streng hierarchischen Struktur von Maps, wie sie Novak noch gefordert hatte, heute deutlich in Frage stellen. Mindestens genauso entscheidend wie der richtige Umgang mit der Technik ist jedoch – und das wird in der Literatur durchgängig betont – dass das eigenständige Erstellen und Revidieren einer Map stets dem Verwenden einer fremderstellten Map vorzuziehen ist. Ganz gemäß der konstruktivistischen Lerntheorie wird dies immer wieder als eigentlich entscheidender Lernfaktor hervorgehoben. Dabei führt schon der schrittweise Aufbau einer bereits fertigen Map zu besseren Ergebnissen als die sofortige Präsentation der ganzen Map, wie O’Donnell et al. (2002) über eine Studie von Blankenship et al. mit computerbasierten Präsentationen berichten. 3.4.2.2 Lehren und Lernen Dem Haupteinsatzgebiet von Mappingverfahren folgend befasst sich das Gros der Studien damit, Klarheit über Nutzen und Effekte des Mappings in Lehr- und Lernsituationen zu erhalten, in denen Text eine zentrale Rolle spielt. Immer wieder werden die Vorteile des Mappings bei der Wissensvermittlung betont. Es sei hierbei insbesondere der Präsentation und Elaboration von Texten – Zusammenfassungstexten im Speziellen – in vielen Belangen überlegen. Ebenso verbreitet scheinen die positiven Auswirkungen des Mappings auf die Konzeption und Produktion von Texten zu sein. Bernd et al. (2000) und O’Donnell et al. (2002) kommen auf Grund ihrer eigenen als auch einer Reihe anderer Studien zu dem Ergebnis, dass sich eindeutige Vorteile von Maps im Gegensatz zu Texten erkennen lassen. Sturm and Rankin-Erickson (2002) fanden heraus, dass das Mapping bei der Textproduktion hilfreich war, wenn Mapping zuvor zur Sammlung und Gliederung von Kerngedanken angewendet wurde. So steigt die Anzahl der verwendeten Wörter, die Kohärenz des Inhalts und auch die generelle „holistische“ Qualität der Texte, welche sich anhand von Kriterien wie Umsetzung, Klarheit/Qualität, Organisation, Quantität/Dichte und ähnlichen mehr bewerten lässt (vgl. Sturm and Rankin-Erickson, 2002, 48 KAPITEL 3. MAPPING zur Anwendung holistischer Bewertungskriterien). Mapping, ob als Hilfsmittel beim Textverständnis oder der Textproduktion, fördert ganz wesentlich das Behalten zentraler Begriffe, so die einhellige Bewertung der Forscher auf diesem Gebiet. Die Makrostruktur eines Textes trete deutlicher zu Tage. Die Zusammenhänge im Großen und die dazugehörigen Oberbegriffe ließen sich leichter erkennen und einprägen (das gilt im Übrigen auch für kollaboratives Mapping, siehe Abschnitt 3.4.2.3). O’Donnell et al. (2002) bezeichnen diesen Aspekt bezüglich ihrer eigenen Untersuchungen zu Knowledge Maps als „one of the most robust findings“. Geht es allerdings um das Erlernen und Behalten von Detailwissen, so sind die Ergebnisse weitaus widersprüchlicher. In einigen Studien lassen sich keinerlei Unterschiede zum Einsatz textueller Repräsentationen zeigen (vgl. die Zusammenfassung von Studien durch O’Donnell et al., 2002). Andere verzeichnen hingegen auch bei den Details eine verbesserte Behaltensleistung (vgl. die Zusammenfassung von Studien durch Sturm and Rankin-Erickson, 2002). Eine mögliche Interpretation für das Phänomen, dass zumindest zentrale Konzepte durch Maps besser haften bleiben, könnte die von Schnotz (2002) sein, nach der bildliche Informationen einfacher in mentale Modelle überführbar, also gewissermaßen kognitiv adäquater sind. Er kommt schließlich zu dem Schluss, dass die in bildlichen Darstellungen vorgenommene Zusammenfassung von Informationen sparsamer sei, da Konzepte ja nur einmal eingeführt werden müssten, statt mehrfach wie in Texten, wo sie nur so zu anderen Konzepten in Beziehung gesetzt werden können. Bernd et al. (2000) stellten darüber hinaus fest, dass die allgemeine Behaltensleistung (und auch die Motivation) noch stärker zunimmt, wenn die Lernenden die Map selbst konstruieren sollen, als wenn sie lediglich die Map eines Experten zur Durcharbeitung präsentiert bekommen. Dieser Aspekt wurde bereits angesprochen. Doch selbst bei der Verwendung von Expertenmaps konnten hier weitere positive Effekte erzielt werden, sofern den Lernern Start- und Zielknoten des zu explorierenden Weges innerhalb der Map vom Lehrer vorgegeben wurden. Der Weg durfte jedoch nicht allzu lang sein und den Lernern keine Zeitbeschränkungen auferlegt werden. Dies fördere die Lerneffektivität und Lernökonomie. Fischer and Mandl (2000) beschreiben daran anknüpfend, dass es dem Lernen anhand von Expertenmaps zuträglich ist, wenn den Maps zusätzliche, begründende Anleitungen seitens des Experten beigefügt werden. Hierdurch würden die Freiheitsgrade des Lerners im Bezug auf Annahmen zur eventuellen kognitiven Strategie des Experten so weit eingeschränkt, dass gerade diejenigen mit wenig Vorwissen seltener dazu neigen entscheidende Aspekte der Map zu übersehen. An dieser Stelle schließt sich ein weiterer Befund der Mappingforschung an. Personen mit wenig Vorwissen im betreffenden Wissengebiet profitieren oftmals besonders von Maps. O’Donnell et al. (2002) zitieren hierzu eine Studie von Lambiotte und Dansereau, in der sich herausstellte, dass Studenten mit wenig Vorwissen den Inhalt einer Biologievorlesung mit Unterstützung durch Knowledge Maps besser aufnahmen, als wenn ihnen lediglich Schlüsselbegriffe gegeben wurden. Bei Studenten mit viel Vorwissen trat genau der umgekehrte Effekt auf. Sie lernten besser anhand der Schlüsselbegriffe. Das Ergebnis dieser Studie wurde mithilfe des so genannten model of assimilation coding von Mayer interpretiert, nach dem derartige Maps für Personen mit wenig Vorwissen eine Art erste Ankerstruktur darstellen an welche dann neue Informationen angefügt werden können, während sie für Personen größeren Vorwissens eher einen Störfaktor bezüglich ihrer bereits vorhandenen eigenen Strukturen darstellen. Verwendet man Maps als Navigationshilfen in Wissensräumen, so scheint ihr Nutzen mindestens ebenso sehr vom Vorwissen wie von der Aufgabe abzuhängen (Bruillard and Baron, 2000). Des Weiteren hängt der Erfolg gelegentlich auch vom Themenbereich ab, aus 49 KAPITEL 3. MAPPING dem das zu lernende Material stammt, wie O’Donnell et al. (2002) konstatieren (Thema „Kokain“vs. Thema „Alkohol“, Thema „Wahrscheinlichkeitstheorie“ vs. Thema „autonomes Nervensystem“). In kollaborativen Settings kann das Vorwissen der beteiligten Personen bezüglich der Anzahl an gesammelten Konzepten und Relationen und auch der generellen Kreativität sogar noch weiter in den Hintergrund treten (Stoyanova and Kommers, 2001). Hier ist dann der Prozess der Ideengenerierung wichtiger. Neben denen mit wenig Vorwissen profitieren in ganz erheblichem Maße diejenigen vom Einsatz des Mapping, deren verbale Fähigkeiten eher unterdurchschnittlich sind. Dies bestätigen viele der von O’Donnell et al. (2002) zusammengefassten Studien. Auch taube Menschen, die aufgrund ihrer Behinderung im Allgemeinen mehr Probleme haben komplexe, textuelle Informationen zu verarbeiten als hörende Menschen, können, wie dort beschrieben, von Maps profitieren. O’Donnell und seine Kollegen interpretieren diese Effekte damit, dass Maps auf die Makrostruktur des Inhalts aufmerksam machen und so eine top-down-Verarbeitung unterstützen. Dies passt zu den in Abschnitt 3.4.2.1 erwähnten Ergebnissen zu Variationen der Darstellung von Relationen. Chmielewski and Dansereau (1998) konnten zeigen, dass das Erlernen einer Mappingtechnik (hier KnowledgeMapping) einen positiven Transfer auf das allgemeine Textverständnis bewirken kann, d.h. selbst dann das Textverständnis erhöht werden kann, wenn Mapping gar nicht eingesetzt wird. In einer ersten Sitzung wurde eine Gruppe Studenten im Mapping instruiert. In einer zweiten Sitzung wurden sowohl der Gruppe Studenten, die Maptraining hatten als auch einer Kontrollgruppe ohne dieses Training zwei Texte zu lesen gegeben. Keine der beiden Gruppen verwendet dabei Mapping als Unterstützung. Bei Abfragetest fünf Tage später stellte sich heraus, dass die im Mapping trainierten Studenten signifikant mehr zentrale Ideen behalten hatten diejenigen ohne das Training. In einem zweiten Experiment war zudem auch der Unterschied der Behaltensleistung auf der Detailebene signifikant. Interessanterweise gaben die trainierten Studenten kein anderes Vorgehen beim Bearbeiten der Texte als die der Kontrollgruppe an. So scheint der Transfer zumindest diesem Ergebnis nach nicht bewusst zu sein. Auch Chmielewski und Dansereau vermuten, dass Mapping die top-down-Verarbeitung verstärkt und so durch das Training die Fähigkeit verbessert wurde, die zentralen Ideen erkennen zu können. Im Teilgebiet der Wissensdiagnose und Wissensmodellierung beschäftigt man sich mit der Frage, wie von Lernern erstellte Maps bewertet werden könnten bzw. ob man sie überhaupt sinnvoll bewerten und vergleichen kann und sollte. Obwohl immer wieder betont wird, dass es nicht per se gute und schlechte Maps gibt, stellen sich viele Forscher doch die Frage, welche Mittel und Wege man Lehrern und Lernern gleichermaßen zur Verfügung stellen kann, um die „Güte“ einer Map zu bewerten. Hierzu werden Begriffsstruktur- und Inhaltsmaße entwickelt, die auf Maps angewendet werden können (Bernd et al., 2000; Janetzko and Strube, 2000). Da die Anwendung solcher Messverfahren stark vom Formalisiertheitsgrad der verwendeten Repräsentationsform (sprich des Mappingverfahrens) abhängt, bedarf es u.U. einer vereinheitlichenden Nachbearbeitung der Novizenmaps durch einen Experten, um Vergleichbarkeit zu gewährleisten. Dies kann natürlich zu der Gefahr führen, dass der Experte bestimmte Konzepte oder Relationen anders interpretiert, als sie vom Ersteller der Map gemeint waren und somit das Resultat der Wissensdiagnose unabsichtlich „verfälscht“ (Gaßner and Hoppe, 2000). 50 KAPITEL 3. MAPPING 3.4.2.3 Kommunikation und Kollaboration Auch als Kommunikations- und Kollaborationswerkzeug ist das Mapping Gegenstand der Forschung. Man untersucht dabei, wie Mappingverfahren zum Sammeln und Konsolidieren von verteiltem Wissen und im Prozess der Ideengenerierung und Verständigung eingesetzt werden. Es handelt sich hierbei um die Frage, inwieweit es bei der Gruppenarbeit von Vorteil sein kann, den gemeinsamen Problemraum zu visualisieren, gemeinsam zu strukturieren und dadurch das häufig auftretende Problem der Konsensillusion zu vermeiden (Mandl and Fischer, 2000; Gaßner and Hoppe, 2000). Die Art und Weise der Kollaboration (synchron oder asynchron, verteilt oder an einem Ort, computergestützt oder ohne Computer) steht dabei im Mittelpunkt. Die Notwendigkeit zu sozialem Austausch und seine Bedeutung im Prozess der Wissenskonstruktion ist bereits in Abschnitt 2.2.3.4 diskutiert worden. Kapitel 4 wird zudem auf die grundsätzlichen Eigenheiten von Kollaboration in der Praxis eingehen. Die Zusammenarbeit mittels Maps betreffend stellen O’Donnell et al. (2002) fest, dass die Ergebnisse von Studien zu diesem Thema darauf hindeuten, dass Mapping einen positiven Einfluss auf den Lernverlauf hat. Auch hier scheinen Personen mit geringen verbalen Fähigkeiten besonders zu profitieren. Das Lernen wird als effektiver beschrieben. Stoyanova and Kommers (2001) zeigen mit ihrer Studie, dass beim kollaborativen Mapping in der Regel gerade auf den ersten beiden Ebenen einer Map die meisten Begriffe vorhanden sind. Dies könnte die bereits beim individuellen Mapping erfassten Ergebnisse stützen, denen zu Folge hauptsächlich Kernideen gelernt werden. In ihrer Studie untersuchten Stoyanova und Kommers drei verschiedene Interaktionsmodi: Verteilte Interaktion (distributed interaction) Die Gruppenmitglieder erstellen autonom (individuell) vorläufige Maps, welche dann anderen Mitgliedern weitergereicht werden. Dieser Kreislauf wird so lange durchgeführt bis eine gemeinsame Sicht des Problems erreicht ist. Der Prozess der Sammlung, Konstruktion und Internalisierung von Wissen ist hier individueller Art. Moderierte Interaktion (moderated interaction) Die Interaktion wird hierbei durch einen Moderator aus der Gruppe erleichtert, welcher die individuell angefertigten Maps so lange anpasst bis eine gemeinsame Sicht des Problems erreicht wurde. Die Repräsentationen individueller kognitiver Strukturen sind somit für andere Gruppenmitglieder nicht direkt zugänglich. Die Gruppenmitglieder können sich aber mit dem Moderator in einen Verhandlungsprozess über Bedeutungen und Ideen begeben (Negotiation). Gemeinsame Interaktion (shared interaction) Die Mitglieder der Gruppe interagieren direkt und synchron miteinander und lösen so gemeinsam das Problem. Sie teilen ihr Wissen sofort mit und erstellen ihre Map in kollaborativer Aktion. In einem Experiment wurden Studenten demgemäß in Gruppen eingeteilt und es wurde ihnen das ConceptMapping sowie der Umgang mit einer ConceptMappingSoftware beigebracht. Eine weitere Gruppe Studenten fungierte als Kontrollgruppe, welche eine Brainstormingmethode einsetzen sollte. Die Durchführung verlief in drei Schritten. In einem so genannten pre-test wurden die Studenten aufgefordert, eigene individuelle Maps zu einer bestimmten Aufgabenstellung zu erstellen. Danach wurden diese Maps eingesammelt. Der zweite Schritt bestand in einer kollaborativen experimentellen Sitzung, in welcher die Studenten in den ihnen zugewiesenen Gruppen und 51 KAPITEL 3. MAPPING im damit verbundenen Interaktionsmodus gemeinsam eine Map erstellen sollten. Diese Maps wurden dann ebenfalls eingesammelt. Zuletzt wurden die Studenten in einem post-test noch einmal aufgefordert alleine eine Map zu erstellen, um die Veränderungen im Vergleich zum pre-test ermitteln zu können. Die so entstandenen Maps wurden anschließend vom Forscherteam unter einer Vielzahl von Gesichtspunkten analysiert und verglichen, sowohl bezüglich individueller als auch gruppenspezifischer Aspekte und dem Transfer vom Einzelnen zur Gruppe und umgekehrt. Als signifikante Ergebnisse ließen sich die Folgenden festhalten: Es zeigte sich, dass bei gemeinsamer Interaktion kollaboratives Lernen und Problemlösen am effektivsten waren. Daraus wurde gefolgert, dass die Lerneffektivität stark davon abhängt wie sehr die Lerner nicht nur die Ergebnisse ihrer jeweiligen Lernprozesse miteinander teilen, sondern vor allem auch den Lernprozess an sich. Insgesamt war eine klare Rangfolge der drei Interaktionsmodi bei fast allen analysierten Aspekten der Lerneffektivität festzustellen, mit der gemeinsamen Interaktion an erster, der moderierten Interaktion an zweiter und der verteilten Interaktion an dritter Stelle. Alle drei Mappingmodi waren jedoch dem Brainstormingmodus deutlich überlegen. Die gemeinsame Interaktion scheint nach dieser Studie klar im Vorteil zu sein, wenn man den Transfer von der Gruppe auf den Einzelnen betrachtet. Kaum Unterschiede unter den Mappingmodi gab es bezüglich der Anzahl an Konzepten und Relationen, die im post-test im Vergleich zum pretest aufgegeben wurden und im Bezug auf die individuelle Kreativität und der Rekonfiguration der Map waren schließlich überhaupt keine Unterschiede mehr nachzuweisen. Insgesamt ziehen Stoyanova und Kommers das Fazit, dass der Prozess der Ideengenerierung für die Anzahl an Konzepten und Relationen aber auch die Kreativität wichtiger ist als das individuelle Vorwissen der Gruppenmitglieder. 3.4.2.4 Weitere Aspekte Es gibt neben den bis hierhin beschriebenen Effekten noch viele weitere. Hier seien nur einige der wichtigsten erwähnt. In der Studie von Grillenberger and Niegemann (2000) steigt beispielsweise die Akzeptanz der Arbeit mit Mappingverfahren mit der Fähigkeit diese anwenden zu können. Sturm and Rankin-Erickson (2002) stellten bei Schülern mit Lernschwächen fest, dass computergestütztes Mapping die Motivation zum Mapping und zum Schreiben deutlich steigerte. O’Donnell et al. (2002) berichten ebenfalls davon, dass eine erhöhte Motivation als Ergebnis des KnowledgeMappings im Vergleich zum Arbeiten mit Texten festgestellt wurde. Diese geht in der dort zitierten Studie mit einer verbesserten Konzentration einher. An anderer Stelle wird bei O’Donnell et al. (2002) eine Untersuchung von Lambiotte et al. zitiert, derzufolge auch die Selbstsicherheit zunehmen kann, wenn mit KnowledgeMaps gearbeitet wird. Bei ohnehin selbstsicheren Personen konnte allerdings gezeigt werden, dass sie Listen den KnowledgeMaps vorzogen. Bruillard and Baron (2000) betonen, dass Mapping Schülern helfen kann AutoMonitoring-Techniken zu entwickeln und dadurch ihr kritisches Denken zu verbessern. Eigens zu diesem Zweck wurden auch das bei Twardy (2004) beschriebene Argument Mapping erfunden. Argument Mapping soll die Struktur logischer Schlüsse hervorheben. In einer Reihe Studien konnte gezeigt werden, dass dieses Verfahren vergleichbaren Ansätzen bei der Unterstützung kritischen Denkens überlegen ist. Setzt man Maps zur Navigation in hypertext-basierten Anwendungen ein, kann dies dazu führen, dass sich schlechtere Leistungen, seltenere Nutzung des Systems, eine 52 KAPITEL 3. MAPPING als geringer wahrgenommene Kontrolle, sowie eine schlechtere Entwicklung kognitiver Karten bei den Benutzern einstellen. Dies resultiert aus der Zusammenfassung von Studien zu diesem Einsatzbereich, die man bei Bruillard and Baron (2000) finden kann. Als letztes sollte noch der Einfluss von Mappingverfahren auf die Kreativität genannt werden, was häufig mit dem Begriff des Brainstorming in Verbindung gebracht wird. Hier fanden Stoyanova and Kommers (2001) z.B. keinerlei Unterschiede zwischen Mapping und klassischer Brainstormingmethode, obwohl Letztere gerade zur Steigerung der Kreativität entwickelt wurde. 3.5 Zusammenfassung Mapping steht als Oberbegriff für eine Vielzahl unterschiedlicher Verfahren zur Organisation, Modellierung und Elaboration von Wissen mittels vernetzter Darstellung von Konzepten und Relationen. Derartige Verfahren lassen sich als visuelle kognitive Werkzeuge betrachten, die eine graphische Darstellung begrifflicher Zusammenhänge als so genannte Maps hervorbringen. Maps unterscheiden sich grundsätzlich von Formen der klassischen Wissensrepräsentation, da sie Wissenskonstrukte von Individuen mit Hilfe visueller Hinweisreize (Cues) abbilden und nicht den Anspruch haben, objektives Wissen zum Zwecke maschineller Verarbeitung zu enthalten. Die visuelle Darstellung begrifflicher Zusammenhänge kann durch das Anfügen von Bilder oder durch differenzierte farbliche Gestaltung angereichert werden, was den Abruf von Wissen zusätzlich fördert. Maps werden vor allem als Hilfsmittel zum systematischen und selbstgesteuerten Lernen, als Kreativtechnik und als Kommunikationsmedium in kollaborativen Szenarien, aber auch zur Wissensorganisation und -diagnose verwendet. Als lernwirksames Werkzeug dient das Mapping zur Aktivierung von Vorwissen, zum Erlangen eines Überblicks über komplexe Sachverhalte, zum Entlarven unscharfen oder unvollständigen Wissens, sowie zur Ausbildung tiefer Gedächtnisspuren durch fortlaufendes Erweitern, Verändern und Analysieren der Netzstruktur. Die Metaebene, die durch das bewusste Externalisieren individuellen Wissens eröffnet wird, macht es möglich, über die eigenen Denkstrukturen und Lernstrategien zu reflektieren. Maps kommen über Lehr-/Lernumgebungen hinaus auch in vielen anderen Anwendungsbereichen zum Einsatz. Einzelne Mappingverfahren wie MindMapping, ConceptMapping, KnowledgeMapping oder der Spatial Hypertext unterscheiden sich in den Möglichkeiten, die sie Anwendern zur strukturellen Organisation von Konzepten und Relationen bereitstellen. Meist wird jedoch von hierarchischen Strukturen ausgegangen, die über Querverweise allerdings zu echten Netzwerken erweitert werden können. Gegenwärtig vollzieht sich ein Entwicklungsschritt vom Mapping als Technik mit Stift und Papier zur Implementierung und Nutzung von Mappingsoftware. Die bereits heute zugänglichen Anwendungen zeigen, dass der Computer die Vorzüge des traditionellen Mappings um eine Vielzahl Aspekte erweitern kann. So sind z. B. die elegante Editierbarkeit, die verbesserte Übersichtlichkeit durch selektives Ausblenden momentan unwichtiger Konzepte und die multimediale Einbindungsmöglichkeit ohne die Computerunterstützung nicht realisierbar. Auch die Anbindung an andere elektronische Ressourcen, wie z. B. ganze Textdokumente, kann einen großen Vorteil von Mappingsoftware hervorbringen. Der Nutzen des Computers scheint jedoch noch wei- 53 KAPITEL 3. MAPPING ter ausbaufähig. Eine konsequente Trennung von Daten und deren Darstellung könnte erheblich dazu beitragen, dass verschiedene Mapformen bzw. Darstellungen verwendet und den jeweils gegebenen Situationen angepasst werden können. Dies kann beispielsweise für unterschiedliche Kontexte und Aufgabenstellungen ebenso wie für persönliche Präferenzen oder individuelle Lern- und Kognitionsstile von Vorteil sein. Auch die Anbindung an andere Software würde dadurch erheblich vereinfacht. Des Weiteren können durch den Computer automatische Prozesse bereitgestellt werden, die über simple Funktionen wie „Suchen und Ersetzten“ hinausgehen. Ein vielfältiges Angebot an interaktiven Lernmodi oder automatischen Analyseverfahren sind ebenso denkbar wie prinzipiell jegliche Art von eingebundener Computersoftware. Der einfachere Austausch von Maps bei kollaborativen Prozessen ist ein weiterer Vorteil des Computers. Doch der Vorteil gemeinsamen Arbeitens an ein und der selben Map von verschiedenen Orten aus, der durch eine kollaborative, internetbasierte Software ermöglicht werden könnte, ist noch gar nicht ausgeschöpft: Heutige Mapping Tools stellen höchstens integrierte Schnittstellen zum Emailversand bereit. Vorteile des traditionellen Mappings lassen sich bei den generellen Unterschieden zwischen „Hand-“ und „digitalisierter“ Arbeit finden: Das Umgehen mit Stift und Papier ist natürlicher und damit Kreativität fördernder. Dieser Eindruck scheint insbesondere durch die intuitivere, motorisch und sensorisch anregendere Handhabung bedingt zu sein. Auch die potentielle Einschränkung durch die vorgegebenen Möglichkeiten eines Computerprogramms sprechen für den Griff zu Stift und Papier. Der technologische Fortschritt lässt jedoch vermuten, dass sowohl die Verbesserung der Bedienbarkeit durch Entwicklung neuer Eingabegeräte als auch die Vergrößerung der Funktionspalette von Softwareprogrammen dazu führt, dass diese Nachteile des computergestützten Mappings geringer werden. Hier wäre z. B. ein Mapping Tool auf einen Tablet-PC denkbar, bei dem durch ein integriertes Grafikprogramm ein kreativer Modus für „freies Zeichnen“ bereit gestellt wird, so dass erst in einem zweiten Prozess eine Mapklassifizierung ausgewählt und auf die erstellten Grafikobjekte angewendet werden kann. Abschließend lässt sich feststellen, dass • keine der heutigen Mappinganwendungen alle unter 3.3 aufgeführten Funktionen ermöglicht, • jede Mappingsoftware nur für ein Mappingverfahren angelegt ist und • es weitere wünschenswerte Funktionen gibt, insbesondere für die Adaption an persönliche Präferenzen, für kollaboratives Arbeiten und im Bereich der Integration anderer Software. Dieses Fazit führt zu der Idee eines Mapping-Frameworks, durch das die Entwicklung vieler Anwendungsmöglichkeiten und Funktionalitäten rund um die Idee eines kognitiven Mappingwerkzeuges zusammengebracht und integriert werden können. 54 Kapitel 4 Kollaboration von Jens Wissmann 4.1 Einleitung Mappingverfahren versprechen einen Gewinn an Möglichkeiten zur Wissens-Bildung. Dieser Gewinn begründet sich zum Teil dadurch, das nicht nur ein einzelnes Konzept, sondern auch sein Beziehungsgefüge betrachtet werden kann (vgl. Kapitel 3). Dieses Beziehungsgefüge erhält seine Bedeutung aber nicht nur durch die Wissens-Beziehungen im Kopf eines Menschen, sondern wesentlich durch eine soziale Praxis. Die Entwicklung des Internets und die steigende Bedeutung damit verbundener Systeme (email, e-commerce, p2p etc.) im Alltag zeigen, welcher enorme Wissenszuwachs möglich wird, wenn bewährte Praktiken (z.B. Dokument, Brief) größeren sozialen Kontexten und Menschengruppen zugänglich gemacht und kommuniziert werden können. Es liegt daher nahe zu vermuten, dass sich der Wissensgewinn durch Mappingverfahren durch eine Kombination mit Kollaborations-Möglichkeiten potenzieren lässt. In diesem Kapitel sollen deshalb Aspekte und Anforderungen der computergestützten Kollaboration beleuchtet werden. 4.2 Computerunterstützte kollaboratives Arbeiten Computer Supported Cooperative Work (CSCW) stellt ein aus zahlreichen Wissenschaften (Informatik, Soziologie, Psychologie, Arbeits- und Organisationswissenschaften, Anthropologie, Ethnographie, Wirtschaftsinformatik, u.a.) zusammengesetztes Forschungsgebiet dar, das sich mit Gruppenarbeit und die Gruppenarbeit unterstützende 55 KAPITEL 4. KOLLABORATION Informations- und Kommunikationstechnologie befasst (Grudin, 1991; Hasenkamp and Syring, 1994). Abbildung 4.1: Verschiedene Aspekte CSCW CSCW versucht von der konkret eingesetzten Technologie (Hard/Software) zu abstrahieren und beschäftigt sich ganz allgemein mit der Rolle der Informations- und Kommunikationstechnologie im Rahmen kooperativer Arbeit (Bornschein-Grass et al., 1994). Allerdings ist CSCW stark von sozialen Einflüssen beeinflusst. Es beschäftigt sich mit Interaktion und Zusammenarbeit von Personen und versucht Richtlinien für die Entwicklung von Technologien, die den Kommunikationsprozess unterstützen, zu entwickeln. Abbildung 4.1 zeigt einige Aspekte, die CSCW prägen (nach Bornschein-Grass et al., 1994). Groupware Unter dem Begriff Groupware wird die Hard- und Software verstanden, die Gruppenarbeit unterstützt und verstärkt. Groupware-Applikationen sind nicht dazu gedacht, Personen in einem interaktiven Prozess zu ersetzen. Sie dient der Verbesserung und Erweiterung der Zusammenarbeit. Ziel von Groupware ist die ergonomische Gestaltung der informations- und kommunikationstechnologischen Unterstützung und dadurch die Steigerung der Effizienz und Produktivität sowie Flexibilität und Geschwindigkeit (Bornschein-Grass et al., 1994, S. 14). Eine Groupware übernimmt verschiedene Funktionen, die erst durch Kombination zu einsetzbaren Lösungen führen (siehe Abbildung 4.2). Benutzer unterscheiden sich in sozialem Background und Rollen. Daher ist es schwierig, ein Interface zu kreieren, das alle Anforderungen der einzelnen Benutzer zufrieden stellt. Außerdem laufen Gruppenprozesse oftmals unterschiedlich ab und sind zudem noch stark inhaltsabhängig. Jede Gruppe und ihr Verhalten ist von einer Reihe von Einflüssen betroffen, während sie einer Beobachtung unterzogen wird. Daher kann das Verhalten (innerhalb) einer Gruppe nicht generalisiert werden. Häufig führen ähnliche Gründe zum Fehlschlagen von Groupware-Systemen. So kann z.B. ein Ungleichgewicht von Aufwand und Nutzen Gruppenmitglieder verärgern oder demotivieren. Diese neigen dann dazu, das System weniger oft zu benutzen. Außerdem werden oft soziale Aspekte der Kommunikation vernachlässigt. 56 KAPITEL 4. KOLLABORATION Abbildung 4.2: allgemeine Funktionen von Groupware mit einigen Beispielen 4.3 Computerunterstütztes kollaboratives Lernen Ein sich mit CSCW überschneidendes Gebiet ist Computer Supported Collaborative Learning (CSCL). Oft wird dieser Begriff im Zusammenhang von internetbasierter Aus- und Weiterbildung in Gruppenform verwendet. Tatsächlich verbirgt sich hinter diesem Paradigma aber die allgemeinere Auffassung, dass Lernen ein verteilter, ständig im Aufbau befindlicher Prozess ist. Lernen selbst wird somit nicht mehr als Resultat, sondern als Prozess innerhalb einer Gruppe betrachtet. Anzeichen dafür, dass „tatsächlich“ etwas gelernt wird oder wurde, sind in der Art und Weise wie Menschen gemeinsam lernen und gemeinsam wahrnehmen, dass erfolgreich gelernt wurde, zu finden (Koschmann, 1996). Für die Forschung hat dies viele Implikationen. So verschiebt sich der Fokus eher auf den Vorgang des Wissenserwerbs, als auf das tatsächliche Ergebnis. Ein weiterer Analyseschwerpunkt liegt auch auf den Artefakten, die einerseits einen Lernprozess widerspiegeln und ihn andererseits auch unterstützen. Diese Artefakte umfassen alles Material, das einer Gruppe bei einem kollaborativen Lernprozess zur Verfügung steht (z.B. in Form von vorgegebenen Programmen oder Dokumenten). Darüber hinaus schafft sich eine Gruppe solche Artefakte aber auch selbst, indem z.B. Beiträge und Meinungen in einem kollaborativen Prozess archiviert werden. Diese können wiederum in ihrer Gesamtheit für weitere Problemlöseschritte greifbar sein. Artefakte können somit Produkte, Ergebnisse von Diskussionen, Kooperation und Kollaboration in synchronen Lernumgebungen Arbeitsergebnisse oder andere symbolisch-physikalische Repräsentationen der gemeinsamen Arbeit sein (vgl. Smith, 1994). Über diese Ebene 57 KAPITEL 4. KOLLABORATION hinaus bestehen weitere zentrale Forschungsfragen darin, zu untersuchen, wie metakognitive Prozesse in einer Gruppe stattfinden, z. B. wie Wissenserwerbsprozesse in der Kommunikation zwischen Lernenden reflektiert werden oder wie diese Reflexion durch Gestaltung kollaborativer Lernplattformen unterstützt werden kann. Die Unterstützung von Lernenden in einer vernetzt arbeitenden und lernenden Kleingruppe kann im wesentlichen durch zwei Faktoren beeinflusst werden: 1. Durch die Gestaltung der Kommunikation und Interaktion durch ein kollaboratives Instruktionsdesign, wie z.B. Problem-basiertes Lernen nach Barrows (1994) (siehe Abbildung 4.3) oder Reciprocal Teaching nach Palinscar and Brown (1984). 2. Durch die Gestaltung der technischen Lernplattform (z.B. Scardmalia and Bereiter, 1994). Abbildung 4.3: Prozess des Problembasierten Lernen nach Barrows (1994) Da die konkrete Ausgestaltung sehr stark von der Domäne des zu Lernenden abhängig ist, wird in diesem Abschnitt auf eine weitere Ausführung verzichtet. Eine ausführlichere Diskussion des Themas ist u.a. bei Reimann and Zumbach (2001) zu finden. Im weiteren werden in Abschnitt 8 Aspekte des Lernens für die Domäne des SprachVokabellernens weiter behandelt und zu MAPA in Verbindung gesetzt. 4.4 Mapping und Kollaboration Der Einsatz von ConceptMapping und Kollaboration hat sich in einer Reihe von Studien als nützlich erwiesen. Esiobu and Soyibo (1995) untersuchten den Effekt von ConceptMaps in einer Klassenraum-Unterrichts-Situation. Verschiedenen Konditionen wurden getestet: Zusammenarbeit vs. Konkurrenzsituation, verschiedene Gruppengrößen und eine Kontrollgruppe, die ohne Mapping arbeitete. Das im Unterricht erworbene Wissen wurde durch Multiple-Choice-Tests abgefragt. Wie in vielen der in Abschnitt 3.4.2 angeführten Studien, zeigten auch in diesem Experiment Studenten in den MappingKonditionen bessere Ergebnisse als in den Nicht-Mapping-Konditionen. Weiterhin waren die Ergebnisse in den Kollaborations-Konditionen besser als in den KonkurrenzKonditionen, so dass bei der Kombination von Mapping und Kollaboration die besten Ergebnisse vorlagen. 58 KAPITEL 4. KOLLABORATION Andere Studien ziehen allerdings den Nutzen der Kombination von Kollaboration und Mapping in Frage. Chung et al. (1999) führten einen Versuche zum Einfluss von Gruppenprozessen auf das Mapping während eines Kurses durch. Eine Gruppe von Studenten arbeitete dabei über ein Netzwerk an einer Gruppen-Map, während in einer anderen Gruppe an individuellen Maps gearbeitet wurde. Die individuell arbeitenden Studenten hatten dabei Zugang zu Information aus dem Internet. Das Ergebnis war, dass die inhaltliche Qualität der konstruierten Maps nicht von dem Gruppenprozess abhing. Ob Kollaboration positive Effekte hervorbringt, hängt allerdings auch sehr stark von der Art der Interaktion unter den Teilnehmern ab (Chinn et al., 2000; Van Boxtel et al., 1997). Unabhängig vom Resultat der Kollaboration, beeinflusst der Einsatz von Mapping auf jeden Fall den Verlauf der Kollaboration. Studien von Baroody and Bartels (2000) und Baroody and Coslick (1998) sprechen dafür, dass Kollaboratives Mapping Debatieren, Schlussfolgern und Nachfragen in der Gruppe fördert. Stoyanova and Kommers (2002) fanden heraus, dass im Falle der synchronen Kollaboration mit Maps intensivere Zusammenarbeit stattfindet, als bei verteilter, asynchroner Arbeit und dichtere konzeptuelle Repräsentationen resultieren. Chiu et al. (2000) betrachten Gruppeninteraktion während kollaborativem webbasierten ConceptMapping. Sie benutzten ein System zur Interaktionsanalyse, basiert auf Systemen von Hertz-Lazorowitz (1992) und Webb (1995) und fanden heraus, dass besonders eine Art von high-level Interaktion, die complex co-operation, am meisten mit der Mapping-Performance korreliert ist. Es gibt viele mögliche Anwendungsszenarien für kollaboratives Mapping. Zum Beispiel können Studenten zusammenarbeiten, um indirekt gegenseitiges Lernen zu unterstützen. Cañas et al. (2003) haben eine computer-basierte Kollaborations-Umgebung aufbauend auf CmapTools implementiert, um lernen durch Kollaboration zu fördern. Die Software erlaubt es Benutzern Propositionen einer ConceptMap zu einem beliebigen Thema auszutauschen. Der Austausch wird durch die Knowledge Soup, einer ServerDatenbank, die die Propositionen speichert, vermittelt. Gibt ein Benutzer eine Proposition ein, versucht die Knowledge Soup automatisch ähnliche Propositionen anderer Benutzer zu finden, die dann an die eigene Map angefügt werden können (siehe Abbildung 4.4). Weiterhin können Propositionen anderer Benutzer kritisiert werden, wofür eine peer-review-Umgebung zur Verfügung steht. Cristea and Okamoto (2001) beschreiben eine Mappingumgebung zur kollaborativen Erstellung von Online-Kursen. Die Autoren glauben, das vor allem der kreativitätsfördernde Aspekt des Mappingprozesses und die effektive Externalisierungen und Visualisierung von Ideen für Kurs-Autoren hilfreich ist. Francisco et al. (1998) berichten vom Einsatz von ConceptMaps in universitären Chemie-Kursen. In WiederholungsSitzungen vor den Examen erhielten Teilnehmer umfangreiche Maps, deren Informationen dann gemeinsam integriert und mit anderen Themen angereichert werden sollten. So wurde eine umfangreiche Ansicht auf die im Kurs behandelten Themen und deren Zusammenhang mit weiteren Kontexten erarbeitet. In dieser Arbeit wurde kein Gebrauch von computergestützten Mapping gemacht, aber es demonstriert das Potential von Mapping zum strukturierten Wissensaufbau. Dieses Potential wird in anderen internet-basierten Kollaborationsformen heute schon entfaltet, die keine Mappingtechniken verwenden. Am bekanntesten sind die WIKI-Webs, eine Form von kollaborativen (meist offen und unüberwachten) Hypertext, die inzwischen in den verschiedensten Domänen Anwendung findet1 . Da Hypertext eine Netzstruktur (verbundene Do1 Die mehrsprachige Enzyklopädie WIKIPedia (http://www.wikipedia.org/, Stand: April 2004) ist ein 59 KAPITEL 4. KOLLABORATION Abbildung 4.4: Austausch von Propositionen mit CmapTools/Knowledge-Soup kumente) zugrunde liegt, werden Hypertext-Systeme wie WIKIs zunehmend um Visualsierungskomponenten ergänzt (siehe z.B. Abbildung 4.5). Allerdings steht die Visualisierung bisher meistens noch am Ende der Arbeitskette, d.h. für die Kollaboration werden andere Komponenten benutzt. 4.5 Anforderungen an CSCW/CL Systeme Im folgenden sollen grundsätzliche Anforderungen an Kollaborations-Applikationen beschrieben werden, wie sie bei Hasenkamp and Syring (1994) und Kraut et al. (1986) beschrieben werden. 4.5.1 Synchrone bzw. asynchrone Kommunikation Eine Kollaborationssituation besteht aus mindestens zwei Kommunikationspartnern und im Falle der technischen Unterstützung (wie CSCW schon sagt) mindestens ein Artefakt (siehe Abbildung 4.6). Für Zusammenarbeit im Web sind die Artefakte meist Web Seiten oder elektronische Dokumente, die verändert werden. Da so keine direkte Kommunikation zustande kommt, sollten CSCW Applikationen zusätzlich direkte synschönes Beispiel für einen großen kollaborativ gewachsenen Wissensraum. 60 KAPITEL 4. KOLLABORATION Abbildung 4.5: WIKI mit Graph-Visualisierung chrone und asynchrone Kommunikationsmittel zur Verfügung stellen. Bei synchroner Kommunikation sind Echtzeitlösungen erforderlich. 4.5.2 Transparenz Für erfolgreiche Kollaboration ist nach Kraut et al. (1986) wichtig, dass während der Kollaboration auftretende Ereignisse für den Benutzer transparent sind. Die dabei auftretenden Fragen können anhand der Beziehungsstruktur der Situtation erläutert werden (siehe Abbildung 4.6). Zunächst ist wichtig zu erkennen, wer an einer Zusammenarbeit teilnimmt oder in einer Echtzeit-Situation präsent ist. Weiterhin ist aber auch essentiell, was passiert. Wenn ein Benutzer ein Artefakt ändert, so sollte es möglich sein, dies auch für die anderen Benutzer sichtbar bzw. nachvollziehbar zu machen. Ebenfalls wichtig ist, wie etwas geschehen ist. Dies ist möglicherweise die am schwierigsten zu verwirklichende Anforderung, da das wie oft nur implizit verstanden wird wenn es geschieht, aber schwierig im Nachhinein zu rekonstruieren ist. Es müssen daher Dinge explizit dargestellt werden, die normalerweise nur implizit sind. Beispielsweise könnte dies durch zusätzliche Erklärungen in einem Versionsmanagement geschehen. Durch Kenntnis des „wer, was und wie“ kann oft erschlossen werden, warum etwas geschehen ist. Auch Kenntnis der sozialen Situation von Bedeutung, z.B. über die momentanen Handlungen anderer Benutzer oder deren Ansprechbarkeit. Viele Forscher sprechen von fundamentaler Wichtigkeit dieses sozialen Aspekts (Kraut et al., 1986). Ein zentraler Punkt in Hinblick auf Transparenz ist, wie lange es dauert bis eine Veränderung von anderen Benutzern erkennbar wird. Dies ist natürlich abhängig von der Technologie (Latenzzeiten etc.), aber je nach Anwendung auch von dem Verhalten der Benutzer, beispielsweise wie oft Veränderungen in das Netz geladen werden. Ein zweiter Punkt ist, wer oder was das Erkennen ermöglicht, bzw. es initiiert. Für herkömmliche Webseiten liegt die Initiative beim Benutzer, sie zu laden. Da dies i.a. 61 KAPITEL 4. KOLLABORATION Abbildung 4.6: Vereinfachte Darstellung einer Kollaborationssituation (Kraut et al., 1986) Abbildung 4.7: In einer Kollaborationssituation auftretende Fragen (Kraut et al., 1986) nicht ausreichend ist, werden beispielsweise so genannte „bulletin boards“ verwendet, wo Veränderungen auf einem höheren Level (z.B. als eigene Seite) bekannt gemacht werden. Wo auch dies nicht ausreicht, kann explizit über eigene Server den Benutzern Veränderungen bekannt gemacht werden (Notifikation). Hierbei ist aber zu berücksichtigen, dass die Initiative nicht zur Störung wird. Beispielsweise können laufend erscheinende und piepende Dialogboxen inmitten einer schwierigen Aufgabe als störend empfunden werden. Prinzipiell sollte aber bei der Wahl der Mittel immer die Aufgabe berücksichtigt werden. So könnten piepende Dialogboxen durchaus sinnvoll sein, wenn der Server heruntergefahren werden soll. 4.5.3 Behandlung von Gleichzeitigkeit Wenn man die Artefakte im herkömmlichen Web betrachtet, so besteht ein starke Asymmetrie, in der folgenden Form: Webseiten können i.a. zwar von allen Benutzern gelesen, aber nur vom Ersteller verändert werden. Sobald mehrere Benutzer zusammenarbeiten, benötigen sie jedoch Lese- und Schreibzugriff auf die Artefakte. Wenn dies möglich gemacht wird, ist jedoch eine effiziente Kontrolle des gleichzeitigen Zugriffs (Concurrency Control) notwendig, die folgende Aspekte berücksichtigen sollte: Veränderungen der Anzahl der Benutzer Die Benutzer, die an einer Sitzung zu einem 62 KAPITEL 4. KOLLABORATION Zeitpunkt beteiligt sind, können sich laufend ändern. Es sollte aber allen und daher auch gerade dazukommenden Benutzern ein konsistentes Bild der aktuellen Situation gegeben werden. Latenzzeiten Die Zeit zwischen der Aktion eines Benutzer und dem Erkennen der Antwort sollte unterhalb eines zumutbaren Grenzwertes liegen. Konfliktbehandlung Hier können verschiedene Varianten unterschieden werden: • Zu jeder Zeit darf nur ein Benutzer ein bestimmtes Dokument verändern (Locking-Scheme). • Jeder Benutzer darf jedes Dokument an jeder Stelle verändern bzw. löschen. Unzulängliche Veränderungen werden nur durch den sozialen Druck innerhalb der Benutzergruppe vermieden. Dies ist unter anderem bei WIKI-Webs der Fall. Natürlich setzt dies eine beschränkte Teilnehmeranzahl voraus. • Benutzern wird die Möglichkeit gegeben werden, Konflikte in Bezug auf unterschiedliche Versionen und Rechte zu bereinigen. Undo Der Effekt von Veränderungen ist oft schwierig vorherzusehen. Es sollte daher möglich sein auf frühere, allgemein akzeptierte Versionen zurückzugreifen. Dies könnte im Rahmen eines Versionsmanagement verwirklicht werden, wo auf frühere Versionen zugegriffen werden kann und so Veränderungen nachvollzogen werden können. 4.5.4 Benutzerfreundliches Interface Ein ergonomisches Interface kann die Akzeptanzschwelle wesentlich verringern und ist somit zentral für den Erfolg von Applikationen. Einer der Gründe für die Expansion des WWW die Einfachheit der Standard-Benutzerschnittstelle des Web-Browsers. Deshalb sollte erstens für den Zugriff auf die Applikation nur ein Minimum an Wissen notwendig sein, wie durch einen Startpunkt (z.B. URL) und durch eine einfache Registrierungsprozedur (Name und Passwort). Zweitens können existierende unabhängige Plattformen (wie Browser oder Eclipse) verwendet werden, um Applikationen darauf laufen zu lassen. Unterschiedliche Hardware-Komponenten, Installationen und das Starten der Applikation kann damit zu keinen Problemen führen, oder ist wesentlich vereinfacht. 4.5.5 Benutzerautorisation und -administration Da das Web für globalen Zugriff entworfen wurde, könnten die Zahl der Benutzer bis in die hunderte Millionen gehen. Viele CSCW Applikationen sind aber für geschlossene Arbeitsgruppen oder für eine Organisation entworfen. Wichtig ist, dass die Zielgruppe der Benutzer klar ist, d.h. wie weit die Applikation für die Öffentlichkeit, oder nur für eine eingeschränkte Benutzergruppe zugänglich ist. Grundsätzlich werden Benutzer, die durch Namen und Passwort identifiziert werden können, Berechtigungen erteilt. Hierbei gibt es unterschiedliche Berechtigungen (z.B. nur lesen, editieren von bestimmten Dokumenten, editieren von allen Dokumenten). Dabei wiederum muss spezifiziert sein, wer das so genannte Accountmanagement, also wer diese Berechtigungen verwalten (erteilen, löschen,..) kann, durchführt. Ein wichtiges Kriterium hierfür ist die 63 KAPITEL 4. KOLLABORATION interaktive Antwortzeit. Wenn sehr viele Benutzer an ein und derselben Aufgabe arbeiten, kann dies zu Ineffizienz führen, d.h. es sollten, wenn erforderlich, Möglichkeiten vorgesehen sein, die Gruppenanzahl zu begrenzen. 4.5.6 Sicherheit und Legalisierung Sicherheit und Schutzmechanismen können bei nicht entsprechender Anstrengung leicht altern. Das Web stellt nur Basissicherheitsvorkehrungen zur Verfügung, d.h. Benutzeridentifikationen und Passwörter können verwendet werden, werden aber nicht verschlüsselt übertragen. Allenfalls unklar ist, inwiefern die Sicherheitssysteme des Webs für kooperative Systeme passend sind und wie sie gegebenenfalls erweitert werden sollten. 4.5.7 An Alltagskommunikation orientierte Modalitäten Formen wie face-to-face-Kommunikation oder Telefonieren bewähren sich im Alltag. Daher ist es wünschenswert diese Formen nachzuahmen bzw. zu ermöglichen. So tragen Audio- und Videokommunikation besonders zur Benutzerfreundlichkeit bei. Leider scheitert dies zurzeit aber oft grundsätzlich an den technische Voraussetzungen (Hardware, Bandbreiten, Latenzzeiten). 4.5.8 Visualisierungsverfahren Typische Web-Browser zeigen nur eine Seite, aber nicht die Position der Seite in einem größeren Zusammenhang. Die Position von anderen Benutzern normalerweise nicht dargestellt, und es gibt keine Möglichkeit zur Kooperation oder Interaktion mit diesen. Neue Visualisierungsformen, die Browsing und Such-Aktivitäten2 der Gruppe unterstützen, können von Vorteil sein. 4.5.9 Datenrepräsentation Neben der visuellen Präsentation der Daten ist auch die Struktur der Information wichtig. Im heutigen Internet werden die meisten Daten in Form von Webseiten ausgeliefert, die wenig Metainformationen enthalten. Um Information besser strukturieren zu können, bieten sich Hierarchien und Mappingverfahren an. Weiterhin kann das Verwenden von Ontologien den Austausch und das Teilen von Wissen einer Anwendungsdomäne erleichtern. Auf der soziokulturellen Seite erfordern Ontologien, dass sich eine Gruppe von Anwendern auf die jeweiligen Begriffe und deren Zusammenhänge einigt. Auf der methodischen Seite werden Techniken der objektorientierten Modellierung konsequent so weiterentwickelt, dass die Modelle nicht bloß zur Strukturierung von Software dienen, sondern auch ein explizites Element der Benutzerschnittstelle darstellen können und zur Laufzeit verwendet werden. 2 Derzeit benutzen schon einige Suchmaschinen Graphvisualisierung, wie z.B. TheBrain (http:// www.thebrain.com/, Stand: April 2004) und auch für Google gibt es einen Browser (http:// www.touchgraph.com/, Stand: April 2004). Die Suchmaschine Kartoo zeigt in einer Mischung aus Graph und Clustermap Webseiten und Stichworte an (http://www.kartoo.com/, Stand: April 2004). 64 KAPITEL 4. KOLLABORATION 4.5.10 Suchverfahren Herkömmliche Suchmaschinen lassen im Allgemeinen keine wirkliche Zusammenarbeit zu. Es wäre vorstellbar, mit Hilfe der semantischen Inhalte und durch das Indizieren von Datenbasen gruppenbasierte Suchverfahren zu unterstützen. 4.5.11 Planungs- und Entscheidungsunterstützung Ein Computer-Netzwerk kann verwendet werden, um Planungs- und Entscheidungsprozesse zu unterstützen. Darin können Dokumente strukturiert (z.B. in Pro- und Kontraargumente) und je nach Rolle und Funktion indiziert werden. Bei Bedarf können verschiedene Gruppenabstimmungsverfahren in das System inkludiert werden. 4.5.12 Offenheit und Konfigurierbarkeit CSCW-Applikationen sind untereinander meist inkompatibel. Ein allgemeines Framework, in dem Programmierer Applikationen entwerfen können, wäre wünschenswert. Ebenfalls sollte es möglich sein, Arbeiten aus nicht- CSCW Applikationen (wie z.B. MSWord) in CSCW Programmen zu verwenden. Weiterhin könnte es von Vorteil sein, die Ablauf- und Concurrency-Kontrollmechanismen einer Applikation zu verändern oder zu erweitern. Gleiches gilt für die Sicherheitspolitik (Zulassung von Benutzern). 4.5.13 Technische Anforderungen an das System Auch müssen CSCW Tools in Hinblick auf Zuverlässigkeit und Leistung den Benutzeranforderungen entsprechen. Bei der Systemarchitektur ist besonders zu berücksichtigen, dass der physikalische Speicherbereich im Allgemeinen völlig unabhängig von der logischen Datenstruktur in der Applikation sein kann. Aufgrund der Anforderung an die Zugriffsgeschwindigkeit kann es notwendig sein, Objekte an mehreren Stellen zu speichern. Hierbei muss aber die Konsistenz und Sicherheit berücksichtigt werden. 4.6 Small-World-Hypothese Der Begriff Small World (Buchanan, 2002) oder Kleinwelt bezeichnet eine Teilmenge von Netzwerken oder Graphen. Ein Netzwerk besteht aus zwei Komponenten: Einer Menge von Knoten, die mit einem Objekt identifiziert werden, beispielsweise Personen oder Computern, und einer Menge von Kanten, die diese Knoten miteinander verbinden. Eine Kante ist ein graphisches Symbol für eine bestimmte Beziehung, die die Objekte zueinander haben, beispielsweise eine Bekanntschaft per Vornamen unter Personen oder eine Verkabelung von Computern. In Small World-Netzwerken beobachtet man zwei Phänomene. Erstens ist die Wahrscheinlichkeit sehr hoch, dass zwei Knoten, die jeweils eine Kante zu einem dritten Knoten haben, auch untereinander verbunden sind. Auf soziale Netzwerke übertragen bedeutet das, dass die Freunde einer Person meistens auch untereinander per Vornamen bekannt sind, weil sie sich über den gemeinsamen Freund kennen gelernt haben. Zweitens hat ein Small World-Netzwerk einen sehr hohen durchschnittlichen Clustering- 65 KAPITEL 4. KOLLABORATION Koeffizienten3 und der Durchmesser4 dieser Netzwerke ist meist relativ klein. Das bedeutet, dass eine Nachricht, die jeweils von einem Knoten über eine Kante zu allen seinen Nachbarknoten weitergereicht wird, in kürzester Zeit alle Knoten in dem Netzwerk erreicht hat. Diese Eigenschaft ist insbesondere bei sozialen Netzwerken sehr gut zu beobachten, für die die Vermutung gilt, dass zwei zufällig aus der Weltbevölkerung ausgewählte Menschen durch eine Kette (Pfad) von durchschnittlich sechs oder sieben Bekannten so miteinander verbunden werden können. Am Beispiel der Bekanntschaftsbeziehung lässt sich die Beziehung der Small WorldHyphothese zu dem Ansatz von MAPA leicht verdeutlichen. Das „friend of a friend“Projekt5 gibt einem Benutzer die Möglichkeit seine eigenen Daten und Bekanntschaftsverhältnisse einzugeben. Er kann dann leicht seine Beziehung zu den anderen Benutzern erforschen und neue Beziehungen entdecken, indem er sowohl GraphVisualisierungen als auch die Suchmöglichkeiten, die sich durch die technische Datenstruktur (XML, RDF) ergeben, nutzen kann. Von zentraler Bedeutung ist aber, dass das ansonsten nicht explizit greifbare Beziehungsgeflecht durch den gemeinsamen Aufbau von Wissen nutzbar gemacht wird. Die Small World-Hypothese lässt sich auf alle Arten von verlinkten Daten anwenden. Daher gehen wir davon aus, dass die Verbindung von Kollaboration, GraphEditoren und Ontologien in MAPA dazu führen kann, viele Arten von Beziehungsnetzwerken expizit greifbar und durch grafische Navigation und semantische Suche handhabbar zu machen. Somit sind Synergie-Effekte zwischen Netz-basierter Datenhaltung und Kollaboration zu erhoffen. 3 Als Clustering-Koeffizient eines Knotens in einem Graphen bezeichnet man den Quotienten aus der Anzahl der Kanten die zwischen seinen Nachbarn tatsächlich verlaufen und der Anzahl Kanten, die zwischen seinen Nachbarn maximal verlaufen könnten. 4 Der Durchmesser eines Graphen als der längste kürzeste Pfad zwischen allen möglichen Knotenpaaren definiert. Dabei ist ein Pfad zwischen zwei Knoten eine Menge von Kanten, von denen die erste mit dem einen Knoten des Paares verbunden ist, alle weiteren jeweils mit dem Knoten der Vorgängerkante und deren letzte Kante mit dem zweiten Knoten verbunden ist. Ein kürzester Pfad sind alle die Mengen von Kanten, die die geringste mögliche Anzahl von Elementen (minimale Kardinalität) aufweisen. Der Durchmesser bezeichnet damit die Länge der Pfade, die zwischen den am weitesten voneinander entfernt liegenden Knotenpaaren liegen. 5 http://www.foaf-project.org (Stand: April 2004) 66 Kapitel 5 Synthese: MAPA als konstruktivistisches kollaboratives Wissens- und Mapping-Werkzeug von Stefan Scherbaum Die in diesem Teil dargestellten Erkenntnisse ordnen den Ansatz von MAPA, der „Mapping Architecture for People’s Associations“ in die verschiedenen Fachgebiete ein und definieren gleichzeitig die angestrebten Eigenschaften. Abbildung 5.1: MAPA als integrativer Ansatz im Bereich der Überschneidungen von Konstruktivistischer Lehre, Mapping und Kollaboration 67 KAPITEL 5. SYNTHESE: MAPA ALS KONSTRUKTIVISTISCHES KOLLABORATIVES WISSENS- UND MAPPING-WERKZEUG MAPA besteht somit aus drei Aspekten, die es als Werkzeug charakterisieren. Ein MAPA-System ist ein konstruktivistisches Werkzeug: Angelehnt an die in Abschnitt 2.2.3.4 genannten „cognitive tools“ unterstützt es Lernprozesse durch die explizite Konstruktion des Wissens und der darin enthaltenen Assoziationen. So fördert es die Artikulation (und damit explizite Konstruktion), Reflexion (und damit explizite Rekonstruktion) des eigenen Wissens (der impliziten Konstruktionen). Durch die Verwendung der Metapher des Wissensnetzes geht es von einem der konstruktivistischen Lehre sehr ähnlichen Konzept der Wissenspeicherung aus. ein Mapping-Werkzeug: Wissen kann kognitiv adäquat (vergleichbar mit einer Landkarte) abgebildet werden, wobei MAPA die verschiedenen Mappingansätze (vgl. 3.2) als einheitliches Mapping-Werkzeug zusammenführt und so eine MetaMapping-Struktur bereitstellt, welche maximale Flexibilität aufweist. ein kollaboratives Werkzeug: Mehrere Benutzer sollen gleichzeitig an einem gemeinsamen Wissennetz arbeiten können. Dies ermöglicht die soziale Reflexion des Wissens (siehe Abschnitt 2.2.3.4) und eine erweiterte Assoziationsbildung. MAPA stellt somit einen integrativen Ansatz dar (siehe Abbildung 5.1), verschiedenste Mappingmethoden zu kombinieren, diese lernenden Menschen zur Verfügung zu stellen und sie gemeinsam an ihrem Wissensnetz arbeiten zu lassen. Die Überschneidungen der drei Bereiche finden sich besonders bei geteiltem Wissen und sozialer Reflexion: Hier überschneiden sich kollaborative Ansätze und konstruktivistische Ansätze: Das soziale Reflektieren des eigenen Wissens führt automatisch zum Teilen mit anderen. vernetztem Wissen und Maps: Hier überschneiden sich konstruktivistische Ansätze und Mappingmethoden. Besonders Concept Maps kommen einer Abbildung vernetzen Wissens schon sehr nahe. Sie mit den anderen Mappingverfahren zu einer Meta-Mapping-Methode zu verknüpfen wäre ein weiterer wichtiger Schritt. Maps und kollaborativem Lernen: Mappingverfahren können sehr gut als Instrument für kollaboratives Lernen in der Gruppe eingesetzt werden. Selbst im Falle einer Lernkontrolle durch den Lehrer bieten Mappingverfahren die Möglichkeit, aus der „Kontrollsituation“ zu lernen (vgl. Berendt and Reiska (2001)). Dabei soll MAPA konzeptionell auf vorhandenen Standards aufbauen. Dies ermöglicht eine Integration in die zukünftig wachsenden Wissensstrukturen des Internet und stellt somit eine sichere Entwicklungsbasis dar. 68 Teil II MAPA - Konzeption und technische Umsetzung 69 Kapitel 6 Architektur des Frameworks von Michael Elbers und Stefan Scherbaum 70 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Im Folgenden werden zunächst die Anforderungen, welche aus dem im vorangegangen Kapitel dargelegten Sachverhalten hervorgehen, an MAPA als kognitivem konstruktivistischem Werkzeug abgeleitet. Anschließend wird die Kernarchitektur von MAPA vorgestellt, welche die grundlegenden Anforderungen erfüllt und die Basis für die spätere Implementierung darstellt. 6.1 Anforderungen Aus dem letzten Kapitel gehen sowohl benutzerorientierte als auch technische Anforderungen hervor, die im Folgenden ausführlich dargelegt werden. 6.1.1 Kognitive Adäquatheit Die kognitive Adäquatheit umfasst mehrere Sachverhalte. Zum einen müssen bei MAPA als Wissens-Werkzeug die Kernaspekte relevanter Lerntheorien (vgl. hierzu den Abschnitt 2.2, besonders Abschnitt 2.2.3) berücksichtigt werden. Zum anderen sollte die „Arbeit“ mit einem Mappingwerkzeug dem Anwender leicht fallen und ihm keine unnötigen Hürden in den Weg legen – dies würde der aktiven Auseinandersetzung mit dem abgespeicherten Wissen im Wege stehen. 6.1.1.1 Netzartige Wissensdarstellung Die im vorigen Kapitel beschriebenen Lerntheorien legen eine netzartige Ablage und Darstellung des Wissens in MAPA nahe (vgl. Abschnitt 2.2.3.3). Wissen ist nicht hierarchisch organisiert (wie z.B. bei MindMaps (vgl. Abschnitt 3.2.1), sondern vielfältig verknüpft, wobei die Verknüpfungen auf der Lerngeschichte jedes einzelnen Benutzers basieren. Die Ablage einzelner Fakten als Netz zieht vielfältige Anforderungen an die Software nach sich: Übersichtlichkeit Wird das Wissensnetz zu komplex, kann sich der Benutzer dank vieler Querverweise leicht verlieren (ein ähnliches Phänomen kann man leicht selbst beim Surfen um Internet erleben). Entsprechend muss die Navigation im Netz übersichtlich sein. Konsistenz des abgelegten Wissens Um das abgelegte Wissen, besonders bei der Bearbeitung durch mehrere Benutzer, konsistent zu halten, bedarf es eines flexiblen Systems zur Typisierung. Diese muss z.B. die Verwendung bestimmter Verbindungsarten oder den Inhalt bestimmter Wissensnetzknoten restringieren können. Die Typisierung sollte somit auch eine Prüfung des Netzes auf Validität zulassen und Probleme wie Definitionszirkel erkennen können. Ein weiterer Aspekt der Datenkonsistenz, die Datenintegrität, tritt bei der verteilten Speicherung des Netzes auf mehreren Rechnern in den Vordergrund. Hier muss z.B. verhindert werden, dass Verweise plötzlich ins Leere zeigen, weil die entsprechende Wissensstruktur auf dem sie speichernden Rechner gelöscht wurde. Gliederung des Netzes Als Verbindung aus Typisierung und Übersichtlichkeit geht die Notwendigkeit einer Gliederung des Netzes in Bereiche hervor. So kann sich ein Benutzer bewusst auf einen Themenbereich konzentrieren ohne von verwirrenden Querassoziationen belästigt zu werden. 71 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Konstante örtliche Relationen Die Anordnung der einzelnen Wissenselemente sollte im Netz konstant bleiben. Wie unzählige Experimente zeigen, hilft das räumliche Denken erheblich bei der Orientierung im Lernraum und ermöglicht so eine effektivere Navigation und ein besseres Memorieren der abgelegten Inhalte (vgl. hierzu Abschnitt 3.4.1). Diese Forderung mag im Widerspruch zur Dynamik eines verteilt bearbeiteten Netzes stehen. Eine gewisse Abhilfe könnten individuelle Perspektiven auf das Netz ermöglichen. Letztendlich wird hier ein Kompromiss aus Dynamik und Ortsstabilität nicht zu vermeiden sein. 6.1.1.2 Einfache Bedienbarkeit und Transparenz Ein Wissenswerkzeug, das seine Benutzer zur täglichen Anwendung bewegen will, muss „Spaß machen“. Dieser schlichte Anspruch fordert vor allem eine einfache Bedienbarkeit des Systems. Viele erhältliche Mappingwerkzeuge (wie z.B. CMapTools1 oder Microsoft Visio) konfrontieren den Benutzer mit unzähligen Optionen, die eine zügige Arbeit behindern. Für den Benutzer sollten die meisten im System ablaufenden Vorgänge transparent bleiben, so dass er sich auf das Wesentliche, die Eingabe und Verlinkung seines Wissens, kümmern kann. 6.1.2 Plattformunabhängigkeit Soll eine große Gemeinschaft von Nutzern zur gemeinsamen Arbeit mit MAPA bewegt werden, so ist die Plattformunabhängigkeit des Systems unabdingbar. Diese Forderung wirkt sich auf zwei Ebenen aus: • Das MAPA-System sollte auf technisch unterschiedlichen Plattformen (Windows, Linux etc.) lauffähig sein. • Zur Bearbeitung eines MAPA-Netzes sollte prinzipiell der Einsatz verschiedener Editoren möglich sein. Die Netzbearbeitung selbst sollte somit Plattformunabhängig sein. Auf diese Weise kann verschiedenen kognitiven Stilen (vgl. Abschnitt 2.3.5.2) entgegengekommen werden. Die Spanne kann von aufwändigen grafischen Editoren verschiedener Couleur (welche eher nonlineares, holistisches Denken begünstigen) über listenorientierte Werkzeuge (welche eher lineares, serialisiertes Denken begünstigen) bis hin zur schlichten Kommandozeile reichen. 6.1.3 Verteiltheit Die Kollaboration in einem MAPA-Netz erfordert die Zugänglichkeit des abgelegten Wissens für jeden Nutzer (vgl. Kapitel 4). Aus dieser Forderung ergibt sich als Folge, dass MAPA als verteiltes System auftreten muss, um diesen verteilten Zugriff zu ermöglichen. Aus den verschiedenen Möglichkeiten, verteilte Systeme zu realisieren (zentralisiert, hierarchisch, dezentralisiert), kristallisieren sich letztlich folgende zwei Prinzipien heraus (Minar, 2001): Client-Server-basiert Die Daten werd zentral auf einem Rechner abgelegt, auf den die Benutzer mit ihren Editoren zugreifen können, wobei auf ihren Computern keine Daten dauerhaft abgelegt werden. 1 http://cmap.coginst.uwf.edu (Stand: März 2004) 72 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Peer-to-Peer-basiert Die Daten jedes Nutzers werden dezentral auf den Rechnern der Teilnehmer für jeden einzelnen zugänglich abgelegt. Während die Client-Server-Architektur ein klassisches zentralisiertes und somit einfach-hierarchisches System darstellt, ist die Peer-to-Peer-Architektur als dezentrale Topologie anzusehen. Zur Einordnung und Bewertung der Vor- und Nachteile dieser unterschiedlichen Topologien nutzt Minar (2002) folgende Kriterien: Manageability Wie hoch ist der Administrationsaufwand, um das System in einem arbeitsfähigem Zustand zu halten? Information Coherence Wie verlässlich ist die gefundene Information? Sind die Daten konsistent und korrekt? Extensibility Wie leicht kann das System um Ressourcen erweitert werden? Fault Tolerance Wie gut kann das System mit Ausfällen und Fehlern umgehen? Security Wie viel Sicherheit bietet das System? Hierzu zählen der Schutz vor der Einspeisung falscher Informationen, einem unberechtigten Zugriff auf gespeicherte Daten und dem Missbrauch des Systems. Resistance to lawsuits and politics Wie groß ist der Einfluss externer (staatlicher) Autoritäten auf das System? Wie „frei“ ist das System? Scalability Wie gut kann sich das System an neu gestellte Anforderungen und eine wachsende Anzahl von Benutzern anpassen? Diese Kriterien finden sich auch in der von Hurley (2001) verwendeten, auf vier Eigenschaften reduzierten Bewertung wieder. Er stützt seine Einschätzungen auf folgende Punkte: • Skalierung • Fehlersicherheit • Sicherheit • Datenintegrität Eine Analyse der Client-Server-Topologie als zentralisiertem System auf Basis der Kriterien von Minar (2002) ergibt folgende Vorteile: Manageability Da die „dummen“ Clients auf einen zentralen Server zugreifen, findet die Administration nur dort statt. Auf den Clients muss nur eine einfache Zugriffssoftware vorhanden sein und die Adresse des Servers eingestellt sein. Aller weiterer Aufwand konzentriert sich auf den Server. Information Coherence Da die Information auf dem zentralen Server alleine liegt, kann relativ einfach dafür gesorgt werden, dass sie verlässlich und konsistent bleibt. Security Zentrale Systeme sind prinzipiell sehr sicher, da sich alle Bemühungen zur Sicherheit auf den Server beschränken können. Er ist das zentrale Eingangstor für die Clients. Auf der Gegenseite steht der Server als alleinige Angriffsstelle, auf die sich Attacken konzentrieren können. 73 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Diese Vorteile stellen die Grundlage dar, auf der sich das heutige World Wide Web erfolgreich entwickelt hat. Trotz dieser Erfolgsgeschichte haben Client-Server-Netze auch erhebliche Nachteile in folgenden Punkten: Extensibility Die Erweiterbarkeit ist vor allem auf den Server beschränkt, dieser kann u.U. aber erweitert werden. Fault Tolerance Die Fehlersicherheit bei einem zentralisiertem System zeigt ein deutlich binäres Verhalten: entweder das System funktioniert oder es gibt einen Totalausfall. Diese Eigenschaft relativiert die leichte Administration, da ein großer Aufwand betrieben werden muss, um die Lauffähigkeit des Systems permanent zu gewährleisten. Resistance to lawsuits and politics Da ein Server an einem festen Ort stationiert sein muss, ist er für die dortigen Autoritäten sehr einfach zu beeinflussen bzw. abzuschalten. Scalability Ein Server wächst nicht automatisch mit der Anzahl der auf ihn zugreifenden Clients mit. Zwar bietet heutige Hardware große Ressourcen, die erst durch eine hohe Anzahl an Clients ausgelastet werden können. Trotzdem ist voraussehendes Planen notwendig, um kommende Anforderungen beim Aufbau des Systems richtig einschätzen zu können. Gleichzeitig bleibt auf leer laufendenClients vorhandenes Potential ungenutzt. Angetrieben durch diese Nachteile versucht die Peer-to-Peer-Technologie einige dieser Nachteile zu beheben. Zu ihren Vorteilen zählen: Scalability and Extensibility Das Netz kann sich dezentral entwickeln, es wächst selbstorganisiert. Jeder Client der hinzukommt, bringt auch Ressourcen in das Netz mit ein. Fault Tolerance Fällt ein Rechner aus, so gehen nur die Daten dieses Nutzers verloren. Die anderen Nutzer können an ihren Daten weiterarbeiten. Resistance to lawsuits and politics Da die Daten verteilt im ganzen Internet abgelegt werden können, ist es für einzelne Autoritäten nahezu unmöglich, große Teile des Netzes und damit den freien Informationsfluss zu beeinflussen. Diese Vorteile bezahlt man allerdings durch ein Verlust an Einfachheit und Überwachbarkeit: Manageability Da nun jeder Client auch Träger von Daten sein kann, muss jeder dieser Peers seine eigene Verwaltung übernehmen. Hinzu kommt, dass jeder Peer auch den jeweils anderen finden können muss. Aus einer einfachen sternförmigen Struktur wird so ein wirres Netz vieler miteinander interagierender Teilnehmer, das nicht mehr überschaubar ist. Security Da Sicherheitsrichtlinien nicht mehr zentral verwaltet werden können, wird die Überwachung von Datenzugriffen ein kompliziertes Unterfangen. Aufgrund des prinzipiell erwünschten Zugriffs von Peers auf die Daten eines jeden anderen Peers besteht die Lösung des Problems nicht in der Abschottung der einzelnen Teilnehmer. Vielmehr müssen Sicherheitsrichtlinien auf der Benutzerebene eingerichtet werden. Diese wiederum müssen auch dezentral verfügbar sein. 74 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Fault Tolerance and Information Coherence Während im Client-Server-Paradigma ein totaler Datenverlust drohte, ansonsten aber ein stabiles Netz vorlag, können nun kleinere Ausfälle (besonders aufgrund der unzuverlässigeren, kleineren Peers) die Integrität der Daten im Netz gefährden. Mit diesem Problem muss eine Peer-to-Peer-basierte Software umgehen können. Außerdem wird es durch die dezentrale Speicherung von Daten leichter, ungeprüfte und auch schlichtweg „falsche“ Daten in das Netz einzugeben. Die Verlässlichkeit der vorliegenden Informationen wird somit geringer. Durch Benutzerratings und eine aktive NutzerCommunity kann diesem Nachteil allerdings entgegengewirkt werden. MAPA ist als kollaboratives System gedacht. Eine Grundlage hierfür stellt die freie und gleichberechtigte Kommunikation der Teilnehmer dar. Der Gedanke der Freiheit und Gleichberechtigung beim Austausch von Informationen lässt ein zentralistisches System unattraktiv für eine solche Anwendung erscheinen. Gleichzeitig sollte der auf Zusammenarbeit ausgerichtete Ansatz zur Entstehung sozialer Strukturen führen. Diese können einige der Nachteile, welche für die dezentralisierte Peer-to-Peer-Topologie genannt wurden, mit sozialen Mechanismen kompensieren. Zu diesen Mechanismen zählt die gegenseitige Kontrolle und das sozialen Ansehen im System (ähnlich der oft genannten „Netiquette“). So ziehen wir, trotz der höheren Komplexität, welche dieser Ansatz mit sich bringt, die dezentrale Peer-2-Peer-Lösung der zentralisierten ClientServer-Lösung vor. 6.1.4 Flexibilität Die Forderung nach Flexibilität bezieht sich bei MAPA auf zwei Ebenen: • Mappingsystem und • Erweiterbarkeit. 6.1.4.1 Universelles Mappingsystem Auf der Ebene des Mappingsystems sollte das MAPA zugrunde liegende Datenmodell die Wissensmodellierung mit verschiedenen Mappingverfahren (vgl. Abschnitt 3.2) erlauben. So sollte das Anlegen einer ConceptMap ebenso möglich sein wie das einer MindMap. MAPA stellt somit eine Metastruktur zur Verfügung, die als universelles Mappingsystem verschiedenste netzartige Wissensmodellierungen unterstützt. 6.1.4.2 Erweiterbarkeit MAPA sollte als System nicht starr bleiben, sondern vielfältige Erweiterungs- und Anpassungsmöglichkeiten bieten. So sollte es z.B. für die Einbindung verschiedenster Datenformate offen sein um eine umfassende Wissensablagemöglichkeit zu gewährleisten. Ebenso sollte es möglich sein, Funktionalität nachzurüsten, wie z.B. im Hintergrund permanent aktive Agenten, die für Benutzer nach Informationen suchen oder Netzveränderungsprozesse beobachten. 75 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS 6.2 Konzeption Im folgenden Abschnitt werden MAPA zugrunde liegende Konzepte diskutiert, die den in Abschnitt 6.1 aufgeführten Anforderungen Rechnung tragen. 6.2.1 Frameworkgedanke Den Anforderungen der Plattformunabhängigkeit und Flexibilität wird MAPA dadurch gerecht, dass es als Framework ausgelegt ist. Ein Framework „enthält eine Sammlung von Komponenten und fügt sie zu einem bestimmten Anwendungsfall zusammen. [...] Ein Framework stellt damit ein unvollkommenes Anwendungssystem dar, das durch Austausch von Komponenten auf den Benutzer ausgerichtet wird. Die Wiederverwendbarkeit gilt nicht nur für Komponenten, sondern auch für das Architekturwissen zur Verknüpfung der Komponenten“ (Scheer, 1998, S. 24). Die Entwicklung des MAPASystems richtet sich also auf eine grundlegende Architektur und einzelne Komponenten, die innerhalb der Architektur bestimmten Vorgaben gerecht werden müssen, um austausch- und erweiterbar zu sein. Auf diese Weise ist MAPA in hohem Maße erweiterbar und auch der Anspruch des universellen Mappings kann durch die Komponententrennung erfüllt werden. Betrachtet man unterschiedliche Editoren als verschiedene Komponenten, so ist auch die Plattformunabhängigkeit durch dieses Konzept gewährleistet. 6.2.2 Anwendungsebenen Eine erste Zerlegung des Gesamtsystems in Komponenten geschieht durch eine Aufteilung in Schichten. Eine erste Trennlinie zeichnet sich zwischen der Datenhaltung und den darauf arbeitenden Anwendungen ab. Wenn verschiedene Mappingverfahren und Editoren von unterschiedlichen Plattformen aus auf dieselben Daten zugreifen können sollen, so bietet sich hier eine Aufspaltung des Systems an. Das Ergebnis ist eine Anwendungsschicht und eine Datenhaltungsschicht (siehe Abbildung 6.1). Diese Trennung ermöglicht zudem einen neuen Blick auf das Thema Verteilung. Wenn Anwendung und Datenhaltung getrennte Systeme darstellen, so können hier auch mehrere verschiedene Systeme aufeinander zugreifen. Unter Berücksichtigung des Frameworkgedankens bietet es sich an, die Datenhaltung als lauffähiges System anzubieten, während die Anwendungen aus fertigen Komponenten, gegliedert in einer Bibliothek, und spezifisch programmierten Teilen für den jeweiligen Zweck zusammengesetzt wird. Um auch auf der Datenhaltungsseite eine gewisse Flexibilität aufrecht zu erhalten, wird diese Seite noch einmal in die eigentliche Datenhaltungs- und eine Service-Schicht aufgespalten. Dies ermöglicht das nachträgliche Installieren von datenbezogenen Operationsmodulen, die komplexere Abläufe kapseln und für die Datenverwaltung nachrüsten (siehe Abbildung 6.2). Als Beispiel für solche Services seien hier permanent tätige Software-Agenten genannt. 76 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Abbildung 6.1: Eine erste Ebenenaufteilung des Gesamtsystems in eine Anwendungsund eine Datenhaltungsschicht 6.2.3 Kommunikation Um die Plattformunabhängigkeit der Anwendungsseite und eine sichere Kommunikation zwischen den soeben entwickelten Schichten zu gewährleisten, bietet sich ein nachrichtenbasiertes System an. Ein Modul stellt eine Anfrage an ein anderes und erhält die Antwort darauf in Form einer Nachricht. Die Basis für diesen Nachrichtenaustausch sind Protokolle. Sie ermöglichen es, für unterstützte anwendungsseitige Plattformen fertige Komponentenbibliotheken anzubieten und trotzdem auch nicht bedachten Plattformen den (natürlich aufwändigeren) Zugang durch die Implementierung der Protokolle zu ermöglichen. Für die sichere Zustellung der Nachrichten an die jeweiligen Module bietet sich in solchen Fällen eine Middleware (vgl. Vondrak, 1997) in Form einer Messagequeue. Diese bearbeitet die Meldungen auf Protokollebene und stellt sie dem richtigen Empfänger zu. 6.2.4 Datenstruktur Um Daten, den obigen Anforderungen gerecht werdend, repräsentieren zu können sind fünf Aspekte von zentraler Bedeutung. Eindeutigkeit Um der Anforderung der Verteiltheit der Daten Rechnung zu tragen, sollte die Referenzierung einzelner Daten und Datenstrukturen global eindeutig sein Abstraktion Aufgrund der Tatsache, dass MAPA als universelles Mapping Tool Verwendung finden soll, darf das Datenmodell keinerlei Annahmen über eine etwaige Interpretation der Daten machen. Es muss daher eine gewisse Flexibilität garantieren und somit einen gewissen Grad an Abstraktion bieten. Diese Forderung wirkt sich mindestens auf zwei verschiedenen Ebenen aus: 77 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Abbildung 6.2: Aufteilung des Systems in 3 Ebenen: Anwendungs-, Datenhaltungs- und Serviceschicht • Knoten und Relationen dürfen im Datenmodell nicht unterschieden werden (siehe z.B. MindMapping) • Daten müssen generell in zweck-, anwendungs- und plattformunabhängiger Weise repräsentiert werden Erweiterbarkeit Neben der Abstraktion sollte das Datenmodell auch im Hinblick auf Erweiterbarkeit flexibel gestaltet sein. Sind nämlich anwendungsseitig Informationen zur Interpretation der Daten notwendig und ist es erwünscht diese innerhalb der angebotenen Datenstrukturen abzulegen, so muss auch dieses nachträglich möglich sein Vernetzbarkeit Das Datenmodell muss eine Vernetzung im Sinne eines Wissensnetzes unterstützen Aus dem Kriterium der Erweiterbarkeit und der Forderung nach Typisierung ergibt sich ein weiterer Aspekt, der bei der Definition des Datenmodells sinnvoll erscheint, nämlich Metadatierung Es sollte eine Trennung zwischen eigentlichen inhaltlichen Daten (Text, Bild, Video, Audio etc.) und Daten über Daten, also Metadaten, geben. Typinformationen sind hierbei als Metadaten zu verstehen. Weitere Metadaten könnten beispielsweise Services (z.B. intelligenten Software-Agenten) zur semantischen Interpretation zur Verfügung gestellt werden. 6.2.4.1 Entities als vielfältige und abstrakte Datenstrukturen Die oben angeführten Kriterien für das Datenmodell werden in MAPA im Grunde durch eine einzige Datenstruktur, der so genannten „Entity“ (dt.: Entität) realisiert. Ihr Aufbau wird weiter unten genauer beschrieben (siehe Abschnitt 6.3.1). Sie bildet die vielfältige und abstrakte Grundlage des MAPA-Systems. 78 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS 6.2.4.2 Typisierung als flexibler Mechanismus der Metadatierung Ein Wissensnetz bietet an und für sich bereits die Möglichkeit semantische Sachverhalte über Konzepte und Relationen auszudrücken. In der Regel geschieht dies jedoch beim Mapping mit einem geringen Grad an Formalität. Für die Wiederverwendung von Wissen bzw. Wissensnetzen, sei es in kooperativen, interpersonellen Kontexten, sei es zur maschinellen semantischen Verarbeitung jeglicher Art (Software-Agenten, intelligente Suche, semantische Wissensanalyse etc.), ist es allerdings erforderlich, dass zusätzliche, beschreibende Informationen beigefügt werden können, welche die intendierte Semantik von Konzepten und Relationen genauer, d.h. formal oder semi-formal, spezifizieren. Im Allgemeinen werden zu diesem Zweck Ontologien eingesetzt, die es erlauben Daten zu typisieren (semantisch zu klassifizieren) und auch Eigenschaften und Mechanismen auf diesen Typen zu definieren (Fensel, 2001). Ontologien lassen die Definition solcher Typsysteme auf verschiedenen Ebenen zu: Domänenspezifische Ontologien erfassen das Wissen einer bestimmten Domäne Metadatenontologien spezifizieren ein Vokabular, um den Inhalt von Informationsquellen zu beschreiben Generische Ontologien des „gesunden Menschenverstandes“ erfassen generelles Wissen über die Welt, also domänenübergreifendes Wissen grundlegender Begriffe Repräsentationale Ontologien definieren das Repräsentationsformat für Konzepte, ohne festzulegen, was repräsentiert wird Methoden- oder aufgabenspezifische Ontologien definieren Begriffe für spezifische Aufgaben oder Methoden Moderne Ontologiesprachen bieten dabei vor allem folgende Spezifikationsmöglichkeiten: Spezifikation der Semantik von Typen Spezifikation von Relationen zwischen Typen (meist hierarchisch) Vererbung von Eigenschaften unter Typen Um das gesamte Spektrum der Typisierung von einfachen Bezeichnern bis hin zu komplex strukturierten Ontologien und den darauf operierenden Mechanismen abzudecken, bedarf es einer Repräsentation von Typen, die so wenig restriktiv und so flexibel ist wie möglich. Das bedeutet, dass sie die Einbindung moderner Ontologiesprachen erlauben muss und beliebig erweiterbar sein sollte. Insbesondere muss gewährleistet sein, dass mehrere Typsysteme parallel existieren können, also, dass ein Konzept mehr als einen Typen aus mehr als einem Typsystem haben kann. Als konkrete Anforderungen sind demnach die folgenden festzuhalten: Offenheit Keinerlei Restriktionen in der Repräsentation einzelner Typsysteme bzw. Ontologien Erweiterbarkeit Keinerlei Einschränkung in der Zahl der Typsysteme bzw. Ontologien 79 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS 6.2.5 Topic Maps als Gliederungsmechanismus Um der Anforderung der Übersichtlichkeit und Gliederung des Netzes gerecht zu werden (vgl. Abschnitt 6.1.1.1), benötigt MAPA einen Mechanismus, der eine semantische Aufteilung des Netzes unterstützt, ohne dabei die semantische Kohärenz des Netzes zu zerstören. Beispielsweise kann eine Information sowohl zum Thema Philosophie als auch zum Thema Neurobiologie zugeordnet werden. Außerdem ist diese Zuordnung für jeden Benutzer anders. Eine Möglichkeit, dieses Problem zu beheben, liefert MAPA bereits mit: Entitäten können als Gliederungsknoten gekennzeichnet werden und mit allen Entitäten, die entsprechende Informationen tragen verbunden werden. Abbildung 6.3: Topic Maps als Gliederungsmechanismus Auf diese Weise bilden sich vernetzte Topic Maps (siehe Abbildung 6.3), deren Themenknoten selbst wieder miteinander als Netz verbunden sein können. Greift ein Nutzer einen seiner Themen-Knoten heraus, so kann er sich bei der Arbeit auf die damit assoziierten Knoten beschränken und in einem übersichtlichen Teilnetz navigieren. 6.3 Kernarchitektur Im Folgenden wird die auf den im letzten Abschnitt beschriebenen Konzepten aufbauende grundlegende Architektur des MAPA-Systems dargestellt. 6.3.1 Entity-Orientiertes Datenmodell Im vorangegangen Abschnitt ist darauf hingewiesen worden, dass MAPA auf einer einzigen Datenstruktur gründet, der Entity. Aus diesem Grunde kann man auch ohne weiteres von einem „Entity-Orientierten Datenmodell“ sprechen. Der einfacheren Handhabung des Datenmodells halber und aus Gründen, die mit der Definition der Abfragesprache MQL zusammenhängen (siehe Abschnitt 6.3.3.3.2), wird allerdings eine weitere abstrakte Datenstruktur durch die Kernarchitektur bereit gestellt, das EntitySet . 80 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS 6.3.1.1 Entity Die Datenstruktur Entity setzt sich aus folgenden Elementen zusammen: ID Eine global eindeutige Kennung (Identifikator) Content (optional) Die mit dieser Entity assoziierten Daten Metadata Die mit dieser Entity assoziierten Metadaten. Dieses Element kann beliebig erweitert werden, um unterschiedlichste Metadaten zu fassen. Es ist allerdings zunächst unterteilt in Applications (optional) Hier können sich Anwendungen im Stile einer „Registry“ eintragen und anwendungsabhängige Informationen vermerken, die zur Interpretation der Daten dieser Entity notwendig sind Info An dieser Stelle können anwendungsunabhängige Metadaten hinterlegt werden, wie Type Die mit dieser Entity assoziierten Typinformationen (siehe auch Abschnitt 6.3.1.3) Version Die Versionskennung dieser Entity Names (optional) Hier können Namensbezeichnungen für diese Entity abgelegt werden (nach Sprachen unterschieden) Pointers (optional) Technische Referenzen auf Entities, mit denen diese Entity verbunden ist (unterschieden nach Ziel, Rolle (optional) und Name (optional)) Abbildung 6.4: Die Entität 6.3.1.2 EntitySet Das EntitySet bietet die Möglichkeit eine beliebige Menge von Entities zusammenfassend zu repräsentieren. Die definierten Eigenschaften eines EntitySet sind: 81 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Abbildung 6.5: Zwei verknüpfte Entitäten – Anwendungsabhängige Darstellung bei einheitlichem Datenformat 82 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS • Ein EntitySet enthält null (die leere Menge ∅) bis unendlich viele Entities • Eine Entity, identifiziert über ihre eindeutige Kennung (ID), ist höchstens einmal in einem EntitySet enthalten S • Das besondere Universal-EntitySet (auch ALL genannt) enthält alle Entities, d.h. alle zu einem bestimmten Zeitpunkt verfügbaren Entities Die elementaren Operationen auf EntitySets sind dieselben, die auch auf Mengen allgemein gelten: • Vereinigung ∪ : Ergebnis der Vereinigung zweier EntitySets S1 und S2 ist ein einziges EntitySet S∪ mit der Eigenschaft, dass S∪ alle Entities aus S1 und alle Entities aus S2 enthält • Durchschnitt ∩ : Ergebnis des Durchschnitts zweier EntitySets S1 und S2 ist genau ein EntitySet S∩ mit der Eigenschaft, dass S∩ alle Entities aus S1 und S2 enthält, die gleichzeitig sowohl in S1 als auch in S2 enthalten sind Ebenso gelten die Teilmengen-, Restmengen- und Gleichheitsbeziehungen der Mengenlehre: • Gleichheit = : Zwei EntitySets gelten als gleich, wenn sie dieselben Entities enthalten. Die Gleichheitsbeziehung ist reflexiv, symmetrisch und transitiv • Teilmenge ⊂ : Ein EntitySet S1 ist Teilmenge eines EntitySets S2 , wenn jede Entity in S1 zugleich auch im EntitySet S2 enthalten ist • Restmenge \ : Die Entities eines EntitySets S1 , die einem EntitySet S2 nicht angehören, bilden die Restmenge S1 \S2 6.3.1.3 Typsystem Um den Anforderungen der Offenheit und der Erweiterbarkeit der Typisierung nachzukommen, ist das innerhalb einer Entity vorgesehene Type-Feld (siehe 6.3.1.1) in seinen möglichen Ausprägungen vollkommen uneingeschränkt. Anwendungen können demnach wie auch immer geartete Informationen ablegen. Die Auswertung dieser Typinformation ist ebenfalls der Anwendung. Das MAPA-Framework stellt allerdings abstrakte Schnittstellen zur Verfügung, um Typinformationen auf Entityebene zu definieren und dynamisch aufzulösen (zu resolvieren): Type Spezifikation der Semantik von Typen und evtl. ihrer Relationen untereinander (d.h. von welchem Typ bzw. welchen Typen eine Entity ist). Diese Information kann zum Zwecke der Typisierung im Type-Feld der Entity abgelegt werden TypeResolver Spezifikation von Resolutionsmechanismen, um Relationen und ggf. auch Vererbung zwischen Typen aufzulösen (d.h. um z.B. zu bestimmen, ob eine Entity von einem bestimmten Typ ist und welche Eigenschaften sie durch ihn erbt) 83 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS TypeResult Spezifikation der Ergebnisse von Resolutionsanfragen gegen Entities, d.h. welche Ergebnisse ein Resolutionsmechanismus’ auf Entities ergeben kann (z.B. ob eine Entity von einem bestimmten Typ ist oder von welchem Typ bzw. welchen Typen sie ist) Typsysteme/Ontologien, die diese abstrakten Schnittstellen gemäß ihrer jeweiligen Spezifikation implementieren, können durch das Framework generisch eingebunden und nach ihrer Registrierung2 systemweit zur Typisierung von Entities genutzt werden. Aus pragmatischen Gründen erscheint es sinnvoll, einige grundlegende Typsysteme bereits mit im Framework zu verankern. Dies ermöglicht eine schnelle und einfache Typisierung von Entities, ohne dass zuvor die einbindungsexternen Ontologiesprachen zwingend eingebunden und verwendet werden müssen. Im Folgenden werden die zwei derzeit integrierten Typsysteme kurz vorgestellt. Beide spezifizieren die Semantik von Typen und von Relationen zwischen Typen, jedoch noch nicht die Vererbung von Eigenschaften durch Typen. 6.3.1.3.1 String-Typesystem Mithilfe dieses Typsystems können Entities durch eine einfache textuelle Repräsentation (String) mit Typen versehen werden. Das StringTypesystem setzt sich aus der spezifischen Implementation der drei vorgegeben Schnittstellen zusammen: StringType Eine einfache Zeichenfolge als Typ („Nomen“, „Hyperonym“, „Wirbeltier“ etc.) StringTypeResolver Ein Resolutionsmechanismus über StringTypes, der auf Grundlage einer Hierachie von StringTypes (Ontologie) den Typ bzw. die Typen einer Entity auflösen kann StringTypeResult Gibt an, ob eine Entity laut StringTypeResolver von einem bestimmten StringType ist oder nicht 6.3.1.3.2 Entity-Typesystem Das Entity-Typesystem macht sich die Datenstruktur Entity selbst zu Nutze, um Entities zu typisieren. Jede Entity im Netz kann als Typ jeder anderen Entity fungieren und gleichzeitig weiterhin als „ganz normale“ Repräsentation eines Konzeptes herhalten. Diese Herangehensweise hat den Vorteil, dass das Entity-Datenmodel gewissermaßen in sich geschlossen bleibt und dass auf bereits vorhandene Mechanismen zur Verknüpfung von Entities zurückgegriffen werden kann. Einen Nachteil könnte man darin sehen, dass die Grenze zwischen Daten und Metadaten verschwimmt und es nicht mehr notwendigerweise möglich ist auch in der Darstellung zwischen diesen zu unterscheiden (z.B. Typen gesondert ein- oder auszublenden). Die drei vorgegebenen Schnittstellen stellen sich für das Entity-Typesystem folgendermaßen dar: EntityType Eine technische Referenz (Pointer, siehe 6.3.1.1) auf die Entity, die als Typ fungieren soll 2 Typsysteme bestehend aus Type-, TypeResolver- und TypeResult-Implementationen, können dem System per Anmeldung bei der so genannten TypeRegistry explizit bekannt gemacht werden 84 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS EntityTypeResolver Ein Resolutionsmechanismus über EntityTypes (und damit über Entities), der auf Grundlage der Verknüpfungen von Entities durch EntityTypeReferenzen (Ontologie) den Typ bzw. die Typen einer Entity auflösen kann EntityTypeResult Gibt an, ob eine Entity laut EntityTypeResolver eine bestimmte andere Entity als Typ hat oder nicht Abbildung 6.6: Der Mechanismus der Typresolution (mit Entity-Typsystem als Beispiel) 6.3.2 Ebenen 6.3.2.1 Datenhaltung Die Datenhaltungsschicht übernimmt die Verwaltung der Entitäten im Entitätennetz. Zu ihren Aufgaben zählen: Konsistenthalten der Daten Einhaltung der prinzipiellen Eigenschaften des Netzes: • Jede Entität hat eine im Entitätennetz eindeutige ID • Jede Entität ist mit der Ursprungsentität über mindestens einen Weg verbunden • Persistente und konsistente Speicherung der Entitäten Bearbeitung komplexer Anfragen Anfragen an die Datenhaltung werden mit der Abfragesprache MQL (MAPA Query Language) formuliert. Diese Statements werden von der Datenhaltung interpretiert. Dabei sind z.B. logische Verknüpfungen von Entitätenmengen möglich sowie die Suche nach verbundenen Entitäten. 85 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Kapselung der Datenhaltung Welche Art von Datenbank Managementsystem hinter der MAPA-Datenhaltung steht, ist von außen nicht ersichtlich. Für zugreifende Systeme existieren nur Entitäten und EntitätenSets. 6.3.2.2 Anwendung Die Anwendungsschicht stellt den für den Benutzer sichtbaren Teil des MAPA-Systems dar. Dabei sind folgende Implementierungsmöglichkeiten gegeben: Als unabhängige Software Die Anwendung ist komplett neu implementiert und basiert auf den MAPA-Protokollspezifikationen. Als unabhängige Java-Software Die Anwendung ist in Java implementiert und benutzt die in einer Java-Integrations-Bibliothek zur Verfügung gestellten Komponenten, die unter anderem auch die MAPA-Protokollspezifikationen implementieren. Als Eclipse-basierte Software Die Anwendung läuft als Teil (Plugin) des EclipseFrameworks. Dieses Anwendungsframework erleichtert die Implementierung benutzerfreundlicher Software mit grafischer Oberfläche in Java. MAPA stellt dafür sowohl die Integrationsbibliothek als auch einige MAPA-/Eclipse-spezifische Komponenten zur Verfügung. Im letzten Fall unterteilt sich eine typische MAPA-Anwendung in 3 Schichten: • die Integrationsbibliothek (Modell) • die Ablauflogik (Controller) • die grafische Darstellung (View) Auf diese Weise ist es selbst innerhalb einer Anwendung möglich, verschiedene Visualisierungen mit der gleichen Ablauflogik zu versehen. 6.3.2.3 Service-Schicht Die Service-Schicht ermöglicht das Einbinden von Programm-Modulen, die einer bestimmten MAPA-Plugin-Spezifikation folgen, auf der Seite der Datenhaltungsschicht. Ein solches Modul kann z.B. komplexe Vorgänge kapseln, welche von Anwendungsseite durch eine simple Nachricht ausgelöst werden können. Auf diese Weise kann Komplexität aus der Anwendung ausgelagert und mehreren Anwendungen zur Verfügung gestellt werden. Gleichzeitig trägt dieser Mechanismus zur Vermeidung von Nachrichtenverkehr bei, da benötigte Daten auf der Datenhaltungs-/Service-Seite bis zum Ende der Verarbeitung bleiben und nur das Ergebnis des Prozesses wieder an die Anwendung zurück transferiert werden muss. 6.3.3 Kommunikation 6.3.3.1 Message Broker Der Message Broker bildet als Nachrichten-Queue den Kommunikationskern eines MAPA-Systems. Er empfängt Anfragen von Anwendungen und sendet diese an die 86 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Datenbank. Durch die Auslagerung der Kommunikation in diese Komponente können auch Anwendungen über das Netz auf eine lokale MAPA-Datenbank zugreifen. Der Message Broker behandelt diese wie lokale Anwendungen und stellt so das Portal eines jeden MAPA-Systems dar. Aufgrund dieser Architektur sind auch MAPA-Systeme denkbar, die nur aus einer lokalen Datenbank bestehen und so als Entitäten-Server fungieren während alle Anwendungen remote auf anderen Rechnern im Netz ablaufen. 6.3.3.2 Message Protokoll Stack Ähnlich dem OSI-Netzwerk-Modell (vgl. McCullough, 1997) bauen die MAPAProtokolle stufenweise aufeinander auf. Dies erlaubt die spätere Erweiterbarkeit höherer Protokollschichten bei Konstanthaltung niedrigerer, systemgrundlegender Schichten. 6.3.3.2.1 Die Transportschicht Auf der Ebene der Transportschicht können verschiedenste Protokolle zum Einsatz kommen. Denkbar sind sowohl Peer-to-PeerProtokolle wie JXTA als auch TCP/IP oder darauf aufbauende Protokolle wie JavaRMI oder SOAP/WebServices. Pakete auf dieser Ebene kapseln Pakete der MAPARoutingschicht. Aufgrund dieser Trennung von Routing- und Transportschicht kann ein MAPA-System prinzipiell über viele Netze hinweg mit anderen MAPA-Systemen kommunizieren. 6.3.3.2.2 Die MAPA-Routingschicht Die MAPA-Routingschicht stellt innerhalb des Protokollstacks die einzige Konstante dar. Sie arbeitet mit dem MAPA Message Protocol, welches Routingdaten auf MAPA-Ebene bereitstellt. Sie ist nicht nur für das Message-Routing zwischen bestimmten MAPA-Systemen im Netz zuständig, sondern auch zwischen Systemkomponenten, die sich beim lokalen Message Broker als empfangende Services für bestimmten MAPA-Content angemeldet haben. 6.3.3.2.3 Die MAPA-Content-Schicht Die Pakete dieser Schicht beinhalten den eigentlichen Content von MAPA-Nachrichten. Ein grundlegendes Protokoll dieser Ebene bildet die MQL, in welcher Datenabfragen an die Datenhaltung formuliert werden. Jeder Anwendung steht es frei, dieser Ebene weitere Protokolle hinzuzufügen, z.B. für Chatmessaging oder Remotecontrolling. 6.3.3.3 Die Protokolle Während im vorangegangen Abschnitt die Ebenen des MAPA-Protokollstacks abstrakt beschrieben wurden, wird im Folgenden konkret auf die zwei wichtigsten Protokolle des MAPA-Protokollstacks eingegangen 6.3.3.3.1 MMP Das MAPA Message Protocol steuert das Routing der MAPANachrichten zwischen den Systemen. Es enthält folgende Informationen über den Verteilungsmodus: • lokal 87 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS • lokal + global (lokal + Systeme im Netz per broadcast) • nur global • gezielt (bestimmtes System im Netz) In Kombination mit der in einem MMP-Paket enthaltenen Contenttype-Information, kann der Message Broker so die Daten an alle bei ihm angemeldeten Dienste bzw. andere Dienste im Netz weiterleiten. Da die Kommunikation im MAPA-Netz asynchron verläuft, enthält jede Anfrage eine ID, auf die sich zurückkommende Antworten wiederum beziehen können, so dass die Simulation eines synchronen Modus auf höherer Ebene möglich ist. 6.3.3.3.2 MQL Die MAPA Query Language stellt zum einen ein Protokoll der MAPAContent-Schicht dar. Zum anderen ist sie der Abstraktionsmechanismus, der den MAPA-Anwendungen Daten in Form von Entitäten und EntitätenSets zur Verfügung stellt. Das Diagramm (Abbildung 6.7) zeigt den Aufbau von MQL-Nachrichten. Abbildung 6.7: Aufbau der MAPA Query Language Eine MQL-Nachricht kann zunächst eine Anfrage (Statement) oder eine Antwort (Result) sein. Erstere enthält formulierte Verknüpfungen von beschriebenen oder vollständigen EntitätenSets, letztere enthält ein Ergebnis-EntitätenSet. Das Ergebnis von Abfragen und damit auch von Unterabfragen sind immer EntitätenSets. Jede Abfrage bezieht sich auch immer auf EntitätenSets, welche logisch miteinander verknüpft werden können, wobei wieder neue EntitätenSets entstehen. Das EntitätenSet ALL repräsentiert schließlich das MAPA-Netz als solches und muss in jeder Anfrage, die sich auf die Datenbank bezieht, sozusagen als Terminator, stehen. Eine andere Möglichkeit besteht darin, nicht nur EntitätenSet zu beschreiben (z.B. alle Entitäten mit Namen „MAPA“ ), sondern Sets mitzusenden, die konkrete Entitäten enthalten. Auf diesen kann dann statt auf ALL logisch operiert werden. So stellt die Datenhaltungsschicht einfache 88 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Mechanismen zur Manipulation von EntitätenSets zur Verfügung, die auf der Anwendungsseite genutzt und so nicht jedes Mal neu implementiert werden müssen. 6.3.4 Komponentenentwurf Im Folgenden werden die wichtigsten Komponenten der in Abschnitt 6.3.2 dargestellten Schichten detailliert vorgestellt. 6.3.4.1 Datenhaltung Die Datenhaltung meldet sich beim Message Broker für MQL-Content an. Sie empfängt die Pakete und baut aus der enthaltenen MQL-Abfrage einen Objektbaum auf, der in seiner Klassenstruktur die Struktur von MQL widerspiegelt. Das äußerste Element bildet ein MQL-Kommando. An dieses wird schließlich der Execute-Befehl gesendet, der an die inneren Elemente weiterpropagiert wird, bis das innerste Element schließlich ein EntitySet als Ergebnis zurückgibt, auf welchem das nächst äußere Element operieren kann. Diese Ausführungsstruktur nutzt die Ausrichtung der MQL auf EntitätenSets konsequent, so dass sich eine entitätenbasierte Datenhaltung herausbildet. Das aus dem Kommando resultierende EntitySet wird in ein Antwort-Paket verpackt und an den Message Broker zurückgegeben. 6.3.4.2 Message Broker Der Message Broker arbeitet als Nachrichten-Queue. Neue Nachrichten werden in die Schlange eingespeichert und von einem permanent laufenden Zustellungsthread abgearbeitet. Abbildung 6.8: Der Message Broker und die ihn umgebende Infrastruktur aus MessageAdapter und Service Die Einspeisung erfolgt dabei über MessageAdapter (siehe Abbildung 6.8). Diese stellen die Protokoll-Abstraktion auf der Transportebene dar. So sind für den lokalen Messageversand simple Java-Adapter denkbar, für den Versand über das Internet geht die mögliche Spanne von RMI-Adaptern bis hin zu TCP/IP-Adaptern. Ein Adapter speist seine Nachricht als Nachrichten Objekt in die Queue und wartet anschließend auf die Antwort des Message Brokers. Dieser analysiert den Verteilungsmodus des im 89 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Nachrichtenobjekt enthaltenen Paketes und stellt es allen bei ihm für den entsprechenden Content registrierten Services zu. Findet er in der Queue ein Antwort-Paket, so erkennt er anhand der AdapterID den anfragenden Adapter und übergibt die Antwort auf seine Anfrage. 6.3.4.3 Java Integration Library Die Java Integrations-Bibliothek stellt für MAPA-Anwendungsprogrammierer eine Vereinfachung in Form fertiger Komponenten dar (siehe Abbildung 6.9). Sie besteht im Wesentlichen aus den drei folgenden Elementen: • MQL-Framework • Net-Schnittstelle • Com-Schnittstelle Abbildung 6.9: Die Komponenten der Java Integration Library (JIL) ermöglichen ein einfaches und flexibles versenden von MAPA-Nachrichten Das MQL-Framework stellt die gespiegelte Struktur des in der Datenbankablaufenden MQL-Interpretationsprozesses dar. Mit den hier zur Verfügung gestellten Klassen kann der Anwendungsentwickler komplexe MQL-Abfragen programmieren, welche zum Kompilierzeitpunkt zu einem gewissen Maß auf Konsistenz geprüft werden. Das fertige Kommando wird an die Net-Klasse weitergereicht. Diese stellt die MQLSchnittstelle zur restlichen MAPA-Welt dar. Sie bietet nicht nur diese Sendemöglichkeit für fertige MQL-Kommandos, sondern stellt auch komplette Methoden für einfache Abfragen zur Verfügung (z.B. Entität A einfügen). Eine Ebene darunter befindet sich die Com-Klasse. Diese erhält von der Net-Klasse die MQL-Pakete und verpackt sie in MMP-Pakete, die an den Message Broker des lokalen Systems weitergereicht werden. 90 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Auf ihr aufsetzend können generell MMP-Content-Pakete verschickt werden. Verwendet eine Anwendung eigene spezifizierte Protokolle, so kann es sinnvoll sein, analog zur Net-Klasse, eine eigene, auf der Com-Klasse aufsetzende, Schnittstellenklasse zu implementieren. 6.3.5 Anwendungslogik Eine Anwendungslogik wurde im Prototypen für die wichtigsten Elemente des Visualisierungsprozesses angelegt (Knoten erzeugen, verbinden, löschen, bearbeiten). 6.3.6 Visualisierung Das Grundmodell der Visualisierung im Prototypen realisiert eine erweiterte Klasse von ConceptMaps. Strukturelle Erweiterungen in Richtung Zooming und hierarchischen Knoten (Knoten, die selbst Netze sind) sind angelegt. 6.4 Gesamtbild Die bisher entwickelte Architektur lässt sich in fünf Bereiche aufteilen (siehe Abbildung 6.10): Plattformunabhängige Teile Die Protokolle im Protokollstack. Java-basierte Teile Integrationskomponenten zum leichteren Aufsetzen von JavaProgrammen auf MAPA (Java Integration Library). Eclipse-basierte Teile Das Eclipse-PlugIn, das die Brücke zwischen den Eclipsebasierten Views und der Java Integration Library darstellt. Das MAPA-System Es besteht aus der Datenhaltungs- und der Service-Schicht. Eine MAPA-basierte Anwendung Sie nutzt die vom MAPA-System bereitgestellten Daten. Die ersten drei Teile bilden das MAPA-Framework aus Spezifikationen und fertigen Bibliotheken. Hinzu kommt eine Referenzimplementierung des Systems in Java. Zusammen bildet diese Kombination ein lauffähiges MAPA-(Daten-)System. Jede MAPAbasierte Anwendung stellt schließlich eine Implementation auf Basis dieses Frameworks dar, welche auf das MAPA-(Daten-)System zugreift. Anwendung, Datenhaltung, nachrüstbare Services und die Kommunikation innerhalb des Systems und mit der Umwelt sind getrennt in Ebenen. Die Abbildung 6.11 veranschaulicht dies noch einmal. Vereinfacht dargestellt besteht eine komplette MAPA-Anwendung im Idealfall also aus einem Eclipse-Plugin für die Visualisierungen des Netzes, aus einer Programmlogikkomponente und der MAPA-Datenbank, mit der die Anwendung per Integrationsbibliothek kommuniziert. 91 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Abbildung 6.10: Die fünf Komponenten von MAPA: die Teile des Frameworks, das System als Referenzimplementierung der Standards und eine MAPA-basierte Anwendung 92 KAPITEL 6. ARCHITEKTUR DES FRAMEWORKS Abbildung 6.11: Ein MAPA-System und seine Aufteilung in Anwendungs-, Datenhaltungs- und Service-Schicht im Überblick. Dazu noch die MessageBroker-Komponente als vermittelndes Kontaktportal zur Außenwelt 93 Kapitel 7 Implementierung und Ergebnisse von Stefan Scherbaum und Jens Wissmann 94 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE Im Folgenden wird der Prototyp vorgestellt, welcher innerhalb des einjährigen Master-Projekts implementiert wurde. Zunächst wird auf die dabei verwendeten Technologien eingegangen. Anschließend wird der Umfang des Prototypen im Vergleich zur im vorigen Kapitel vorgestellten Architektur diskutiert. Darauf folgen einige Implementierungs-Beispiele, welche den Fokus auf einige bedeutende Details setzen, um so einen tieferen Einblick in den Aufbau der Software zu liefern. Abschließend wird der Prototyp und die Bedienoberflächen vorgestellt. 7.1 Implementierungsumgebung MAPA, selbst als Framework gedacht, verwendet verschiedenste, standardisierte Technologien und Frameworks, welche die Entwicklung einer solch komplexen Anwendung erheblich beschleunigen und vereinfachen. Im Folgenden werden die wichtigsten davon vorgestellt. 7.1.1 Java Die 1995 von der Firma Sun vorgestellte objektorientierte Programmiersprache Java1 hat sich mittlerweile als eine der Standard-Programmiersprachen in Industrie, Forschung und Programmier-Ausbildung etabliert. Sie hat einige Eigenschaften, welche sie sowohl für die Erstellung eines Prototyps, als auch für die Verwendung für Endprodukte prädestinieren. Herauszustellen sind hier besonders die Robustheit z.B. bezüglich Speicherlecks, welche eine zügige Entwicklung und die Konzentration auf das Wesentliche einer Software erlaubt, und die Plattformunabhängigkeit, die gerade für ein MAPA-System nicht wegzudenken ist. Hinzu kommen die Vorteile einer breiten, offenen Entwicklergemeinde, wie die Verfügbarkeit von Frameworks und das schnelle Aufgreifen von Technologietrends und deren Integration in die Java Welt. 7.1.2 XML Die Extensible Markup Language XML2 ist eine vom World Wide Consortium 1998 als Standard verabschiedete und mittlerweile breit akzeptierte Metasprache. Sie stellt einen standardisierten Satz von Elementen (Tags, Attribute) zur Verfügung, um darauf aufbauende Sprachen zu definieren. Auf der Struktur von XML-Dokumenten können viele weitere standardisierte Technologien operieren. Beispielsweise genannt seien hier XPath3 zur Navigation in Dokumenten und XSLT zur automatisierten Transformation von XML-Dokumenten in andere Formate. Ein weiterer Vorteil von XML ist seine Lesbarkeit. Da die Struktur der Dokumente festgelegt ist, können die Daten automatisch von Computern gelesen und verwendet werden. Da XML aber ein textbasiertes Format ist (im Gegensatz zu binärcodierten Dokumenten), ist es auch von Menschen lesbar und direkt (z.B. in einem Editor) manipulierbar. 1 http://java.sun.com (Stand: März 2004) (Stand: März 2004) 3 http://www.w3c.org/tr/xpath (Stand: März 2004) 2 http://www.w3c.org/XML 95 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE 7.1.3 Eclipse Das Eclipse-Projekt4 versteht sich selbst als eine „universelle Werkzeug-Plattform“. Dies bedeutet zum einen, dass Eclipse eine moderne Entwicklungsumgebung (IDE) für Java bereitstellt (Eclipse-JDT), um Anwendungen zu entwickeln. Zum anderen können Anwendungen als Plugin in der Eclipse-Platform ausgeführt werden. Eclipse spielt dann eine ähnliche Rolle wie ein Betriebssystem und bietet gemeinsame Bedienelemente und Logikstrukturen zwischen den Anwendungen. Eclipse ist außerdem betriebssystemunabhängig5 konzipiert. Daher bietet sich die Möglichkeit Anwendungen zu entwickeln, die betriebssystemunabhängig sind und trotzdem nicht auf ein einheitliches Benutzerinterface und auf die Integration mit anderen Programmen verzichten müssen. Diese Verwendungsweise von Eclipse wird im Moment von einer Reihe von Firmen als Gegenoffensive zu Microsofts .NET gefördert. IBM ist hier besonders zu nennen, da ein Teil ihrer Produktpalette (WebSphere-Studio) auf Eclipse aufbaut. Weiterhin ist erwähnenswert, dass sich unter den Entwicklern von Eclipse Namen wie Erich Gamma finden lassen, der eine Schlüsselfigur der Bewegung der Objektorientierten Programmierung ist. Das MAPA Projekt macht sich verschiedene Möglichkeiten des Eclipse-Projektes zunutze. Zum einen benutzen wir die Entwicklungsumgebung zur Erstellung des SourceCodes, zum Austausch und zur Versionierung von Dateien mit dem Versionierungssystem CVS und zur Dokumentation (UML, Javadoc). Zum anderen haben wir einen Teil von MAPA (GUI und Anwendungs-Logik) als Eclipse-Plugin entwickelt, um uns oben genannte Vorteile zunutze zu machen. Da MAPA zum Arbeiten mit verschiedenen Inhalten gedacht ist sollen außerdem Synergie-Effekte ausgenutzt werden, indem Plugins für bestimmte Inhalte, die im Eclipse-Kontext entstehen auch direkt in MAPA genutzt werden können. 7.1.4 GEF GEF ist ein Framework für Graphisches Editieren als Eclipse-Plugin. Unter Verwendung von GEF haben wir eine Beispiel-Visualisierung implementiert, die durch jedes andere Eclipse-Visualisierungs-Plugin oder eine selbst-programmierte Visualisierung ersetzt werden kann. GEF basiert auf dem Model-View-Controller Paradigma: die Modellseite — die Entities — werden durch GEF-Modell-Klassen reflektiert, deren graphische Visualisierung, View, durch entsprechende Controller-Klassen verwaltet und aktualisiert wird. Die Controller besitzen EditPolicies, die das Erstellen von Commands regeln, die auf dem Modell operieren, das bei Veränderung den Controller zum Aktualisieren der View auffordert. 7.1.5 Dom4J Das XML-Framework Dom4J6 ist eine komfortable Möglichkeit, XML in Java zu verarbeiten. Im Gegensatz zum vom W3C bereitgestellten DOM-Framework, welches programmiersprachenunabhängig definiert wurde, ist es auf die Vorteile von Java zuge4 http://www.eclipse.org (Stand: März 2004) Moment werden weitverbreitete Systeme wie Windows, Macintosh und Linux sowie einige kleinere Systeme unterstützt. 6 http://www.dom4j.org (Stand: März 2004) 5 Im 96 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE schnitten. Auf diese Weise ermöglicht es einen speichereffizienteren, schnelleren und einfacher zu implementierenden Umgang mit XML-Daten. Das Framework kam im Rahmen von MAPA vor allem bei der Implementierung der XML-basierten Entities, dem Verschicken von Messages im XML-Format (MMP, MQL) und der Datenbankseite zum Einsatz. 7.1.6 Xindice Xindice ist eine DB:XML-konforme Datenbank, die von der Apache-Group7 entwickelt wird. Der DB:XML-Standard beinhaltet, dass XML-Standards sowohl für Ablagestruktur (XML, DTD, XML-Schema) als auch für Zugriffsstrukturen (XPATH, XUPDATE, XQUERY) der Datenbank verwendet werden. Die Persistenzschicht von MAPA ist durch selbst spezifizierte Interfaces (mapa.jil.persistence) und Protokolle (Entity-XML-Schema, MMP, MQL) beschrieben. Dadurch bleibt es zunächst prinzipiell offen, welche Art von Datenbank (XML, relational, objektorientiert...) als Backend benutzt wird. Da in der Anwendung die Ausgangsdaten (Entitäten) in XML vorliegen, müsste allerdings bei vielen Persistenzstrukturen (z.B. Tabellen einer relationalen Datenbank) eine zusätzliche Transformation der Daten vorgenommen werden. Für den Prototyp wurde daher Xindice als Backend verendet, da hier ein solcher zusätzlicher Transformationsaufwand entfällt. Ein weiterer Vorteil ist, dass in MQL enthaltene XPath-Ausdrücke direkt von der Datenbank ausgewertet werden können. 7.1.7 ANTLR Das ANTLR-Framework8 bietet aufbauend auf einer ANTLR-Grammatik-Sprache eine komfortable Möglichkeit, Parser und Lexer9 zu generieren. Die generierten Parser können auf eine Vielzahl von Programmiersprachen (Java, C, ...) aufgesetzt und mit vorhandenem Code integriert werden. In MAPA wird ANTLR für die Beschreibung der Skript-Sprache der Kommandozeile verwendet. Komplexe Eingabestrukturen lassen sich so einfach beschreiben. Die Trennung der Eingabe-Struktur der Kommandozeile von der nach dem Parse-Vorgang auszuführenden Struktur ermöglicht es, die Eingabe flexibel ändern zu können ohne das Veränderungen an der Logik vorgenommen werden müssen. 7.1.8 JUnit JUnit10 ist ein von Erich Gamma und Kent Beck produziertes Framework für Modultests in Java-Software-Projekten. Auf unkomplizierte Art und Weise erlaubt es das Erstellen von Testklassen, die anschließend automatisch ausgeführt werden. Durch die gegebene Struktur erleichtert und motiviert es so zum Testen erstellter Module und beschleunigt und verbessert somit den Vorgang der Softwareerstellung. Im Rahmen der Implementierung des MAPA-Prototypen setzten wir JUnit zum Beispiel zum Testen 7 http://www.apache.org (Stand: März 2004) (Stand: März 2004) 9 Ein Lexer unterteilt die Eingabe in Symbole (Vokabeln) der Eingabesprache. 10 http://www.junit.org (Stand: März 2004) 8 http://www.antlr.org 97 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE der MQL-Implementierung ein. Dabei erstellten wir sowohl Module für die einzelnen MQL-Abfragen, als auch eine große Auswahl zusammengesetzter Statements, so dass nach Abschluss der Tests die Funktion des Subsystems gewährleistet werden konnte. 7.2 Umfang der Implementierung Im Rahmen eines einjährigen Master-Projektes ist die vollständige Implementierung aller bis hier vorgestellten Features weder möglich noch angestrebt. Ziel der im Folgenden vorgestellten Implementierung ist daher ein Software-Prototyp, der die wesentlichen Merkmale der im vorigen Kapitel vorgestellten Architektur implementiert und deren Umsetzbarkeit beweist. Features, die den zeitlichen Rahmen des Projektes sprengen würden, wurden von uns nicht ausgeklammert sondern in der Struktur der Software berücksichtigt, so dass sie später implementiert werden können. Auf diese Weise ist auch die Integrierbarkeit dieser Features durch den Prototypen belegt. 7.2.1 Features Die vorliegende Implementierung umfasst die folgenden Features: Framework Das Framework umfasst zum einen die Datenbank und die Implementierung der Protokolle MMP und MQL, zum anderen die Java Integration Library (JIL), mit deren Hilfe Java-Applikationen (wie zum Beispiel die später vorgestellte Kommandozeile oder der Grapheditor) auf die Datenbank mittels MQL-Klassen zugreifen können. Grapheditor Als MAPA-spezifische Beispielanwendung wurde ein einfacher Grapheditor in Eclipse implementiert, der Grundfunktionen wie das Erstellen, Positionieren, Modifizieren und Löschen von Knoten ermöglicht. Knoten können dabei nicht nur Text sondern auch XML-basierte Datenformate und Bildformate enthalten (MathML, SVG etc.). Die Anwendung wurde auf Basis des GEF erstellt. Entity-basierte Datenbank Das MAPA-typische Arbeiten mit Entitäten, ohne Berücksichtigung dahinter stehender, sie implementierender Datenstrukturen, wurde durch eine Abstraktionsschicht erreicht, welche es erlaubt, verschiedenste Datenbank-Typen als persistente Datenspeicher zu verwenden. Im Rahmen des Prototyps verwendeten wir die XML-basierte Datenbank Xindice, so dass die notwendigen Adaptionen der Entity-Datenstrukturen an die der Datenbank gering ausfielen, ohne dabei zu viel Geschwindigkeit diesem Komfort zu opfern. Offener Rahmen für weitere Features Die Implementierung weiterer Features, wie z.B. die Zusammenarbeit mehrerer Benutzer an einem Netz, wurde durch die Einhaltung der Architektur offen gehalten. So wurde z.B. der Message Broker im System so aufgebaut, dass das Erstellen und Verwenden anderer Adapter als dem simplen Java-Adpater möglich ist und somit die Kommunikation über die Systemgrenze hinaus relativ unaufwändig zu implementieren sein wird. 7.2.2 Einschränkungen Folgende Features sind in der vorliegenden Implementierung nicht enthalten: 98 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE Kollaboration Die Arbeit mehrere Nutzer an einem Netz ist zwar im System angelegt, aber nicht implementiert. Angestrebt ist, dass verschiedene Nutzer gleichzeitig ihr Wissen in einem Netz ablegen können und sich so über Inhalte und Konzepte austauschen können. Sicherheitsrichtlinien Aufgrund der nicht vorhandenen Funktion für die Zusammenarbeit verzichten wir im Prototypen auch auf ein System von Sicherheitsrichtlinien, welche den Zugriff auf jede Entität und deren Inhalte nutzerabhängig regelt. Dies wiegt in einem Einbenutzer-System, wie dem hier vorliegenden, nicht schwer, wird aber bei einer Öffnung der Daten für andere durch die Kollaborationsfunktion unentbehrlich werden. Einfaches Typsystem Die Typisierung von Entitäten ist innerhalb des Prototyps implementiert, allerdings nur eingeschränkt. So fehlen z.B. Features wie Typ- bzw. Eigenschaftsvererbung. Eine einfache Typisierung durch Strings sowie durch Entitäten ist allerdings bereits möglich. Komplexe GUI Die Implementierung einer anspruchsvollen, und von kommerziellen Produkten gewohnten grafischen Benutzeroberfläche ist sehr zeitaufwändig. Im Rahmen des Prototypen beschränken wir uns daher auf eine einfache grafische Oberfläche, welche die prinzipiellen Möglichkeiten von MAPA eröffnet. Hinzu kommt eine Kommandozeile, welche auch eine komplexere Navigation im Wissensnetz ermöglicht. 7.3 7.3.1 Implementierungs-Beispiele Einbindung der Technologien Im Folgenden werden einige Beispiele aufgeführt, wie die von uns genutzten Frameworks in MAPA eingebunden werden. 7.3.1.1 Einbindung in Eclipse Eclipse stellt verschiedene Extensions-Points zur Verfügung, um eigenen Java-Code mit Eclipse-Funktionalität zu verbinden. Ein Plugin ist dann die Beschreibung und Implementierung der verwendeten Extensions-Points. Abbildung 7.1 zeigt mögliche Extensions-Points für die grafische Oberfläche. Um MAPA als Eclipse-Plugin zu verwenden muss erstens ein Konfigurations-Skript geschrieben werden, dass die Plugin-Funktionen beschreibt (welche Extension-Points werden benutzt, etc.): <plugin name="mapa" ...> ... <extension id="mapa.eclipse.gefeditor" name="GEF Editor" point="org.eclipse.ui.editors"> <editor name="GEF Editor" icon="icons/mapa.GIF" 99 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE Abbildung 7.1: Verschiedene Extension-Points der Eclipse-GUI extensions="mapa" class="mapa.eclipse.gef.GEFGraphEditor" id="mapa.eclipse.gefeditor"> </editor> ... </extension> </plugin> Zweitens müssen von Eclipse bereitgestellte Java-Interfaces für die jeweiligen Funktionen implementiert werden. Für das obigen Konfigurationsbeispiel muss der ExtensionPoint org.eclipse.ui.editors durch eine Klasse mapa.eclipse.gefeditor implementiert werden. Die Interfaces bestehen im Wesentlichen aus Zugriffsmethoden auf beschreibende Eigenschaften und Inhalte, d.h. z.B. Titel des aktiven Editor-Fensters oder Bereitstellung von Bildern oder Namen für die GUI-Objekte, die auf Eclipse-Seite MAPA-Entitäten repräsentieren. 7.3.1.2 Einbinden von Xindice Xindice steht in diesem Abschnitt stellvertretend für alle Datenbanken, die MAPA als persistente Datenspeicher verwenden könnte. Der grundsätzliche Aufbau der Datenbank-Anbindung geht aus dem UML-Diagramm in Abbildung 7.2 hervor. Ein EntitySet kapselt die Datenbankfunktionalität. Während normale EntitySets eine Auswahl von Entitäten repräsentieren, steht das EntitySet ALL für alle Entitäten die in 100 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE Abbildung 7.2: UML-Diagramm der Klassen für die Anbindung verschiedener Datenbanken über das Datenbanktyp-unabhänige Interface Persistence einer MAPA-Datenbank existieren. ALL wiederum greift auf verschiedene PersistenceImplementierungen zu, welche die Adaption an die datenbankspezifische Abfragesprache (z.B. SQL bei relationalen Datenbanken) durchführt und die resultierenden Datensätze in Entitäten zurückwandelt. Dabei müssen auch komplexe Operationen, wie die Suche nach Entitäten anhand einer XPath-Abfrage, zur Verfügung gestellt werden. Das EntitySet ALL in Verbindung mit der Persistence-Klasse stellt somit einen Adapter für das Ansprechen der Datenbank dar. Operationen können so unabhängig von einer konkreten Datenbank und basierend auf der konsistenten Struktur von Entitäten und EntitySets implementiert werden. 7.3.1.3 Nutzung von GEF Die GEF-Modell-Klassen sind nach dem Composite-Pattern strukturiert, einer allgemeinen Component-Klasse die eine UUID besitzt und jeweilige Container- und Node/Connection-Klassen. Das Topmodel verweist auf alle Knoten im Editor die wiederum auf ihre Nachbarverbindungen verweisen. Durch diese Strukturierung können Knoten später auch wieder als Containerknoten auftreten und kollabiert und expandiert werden (siehe UML-Diagramm in Abbildung 7.3). Unsere Implementierung teilt sich auf in die jeweiligen Eclispe-Plugins (GEF dient als eine mögliche Visualisierung), und einen plugin-unabhängigen VisualMapper, der abstrakte Beschreibungen der Visualisierung enthält: die Objekt-Eigenschaften Grösse, Lokalisationskoordinaten, Farben, oder Verweise auf Bilder, werden in der Klasse VisualMapper gespeichert, die vom Typ Entity erbt und damit serialisierbar ist. Der VisualMapper stellt damit die Schnittstelle dar, die die gemeinsamen Informationen für jede spezifische Visualisierung bereitstellt. Jeder Anwender möchte seine eigenen Visualisierungsvorstellungen realisieren, und diese werden über verschiedene Filter spezifiziert: das gesamte verteilte Netz wird aus verschiedenen Perspektiven, NetViews, betrachtet, innerhalb derer eine Auswahl an Entitäten getroffen wird, eine View, deren Visualisierungsaspekte in einem VisualMapper gespeichert sind, der wiederum durch verschiedene Anwendungen verwendet wird. 101 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE Abbildung 7.3: UML-Diagramm des GEF-Modells 102 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE 7.3.2 Umsetzung von Konzepten 7.3.2.1 MQL in XML MQL ist eine XML-basierte Sprache. XML erlaubt dank zur Verfügung stehender Parser und den von diesen prüfbaren XML-Schemata sehr leicht die Verarbeitung und Validierung von Statements, weshalb es als Basis für notwendig konsistente MQL-Statement gut geeignet ist. Ein typisches MQL-Statement könnte folgendermaßen aussehen: <MQLStatement> <Get> <ConnectedWith> <XPATH> <ConnectedWith> <XPATH> <ALL/> <Path> /mapa:entity[mapa:metadata/ mapa:info/mapa:names/ mapa:name=’Student’] </Path> </XPATH> <ALL/> </ConnectedWith> <Path> /mapa:entity[mapa:metadata/mapa:info/ mapa:names/mapa:name=’Hyperonym’] </Path> </XPATH> <ALL/> </ConnectedWith> </Get> </MQLStatement> Man stelle sich dazu folgenden Ausschnitt (Abbildung 7.4) aus einem Netz vor. Die Abfrage sucht nach Hyperonymen des Begriffes Student. Dazu selektiert sie zunächst alle Entitäten mit dem Namen „Student“, also die, welche dem entsprechenden XPath, der auf den Namen von Entities zugreift, entsprechen (bei MQL/XML beginnt die Auswertung des Statements beim innersten Element). Anschließend werden alle damit verbundenen Relationen selektiert und von diesen werden die herausgefiltert, welche den Namen „Hyperonym“ tragen. Schließlich werden die mit dieser Entitätenmenge verbundenen Entitäten selektiert, was in diesem Fall die Entität „Hörer“ als Ergebnis hat. Die MQL Antwort auf diese Anfrage wäre also ein EntitySet mit der Entität „Hörer“ als Inhalt: <MQLResult> <EntitySet> <Entity> <ID>UUID-001-ABC-12345</ID> 103 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE Abbildung 7.4: Ausschnitt aus einem MAPA-Beispiel-Netz <Name>Hörer<Name> <Content>...</Content> ... <Entity> </EntitySet> </MQLResult> Eine solche Abfrage kann von einem beliebigen System an eine MAPA-Datenbank gesendet werden. Denkbar ist hier ein in Eclipse implementierter Grapheditor (wie der im Rahmen des Projektes erstellte) aber auch ein HTML basiertes Werkzeug, das über den Webbrowser arbeitet und aus den abgefragten Daten statische HTML-Seiten als Viewer erzeugt. Um dem Frameworkgedanken gerecht zu werden bieten wir für die Programmierung von Anwendungen in Java ein MQL-Framework an, welches das Erstellen von Statements erheblich vereinfacht. Dieses Framework ist Teil der Java Integration Library. Der folgende Abschnitt zeigt, wie mit Hilfe der JIL ein MQL-Abruf aufgebaut wird und wie er auf der Datenbankseite ausgewertet wird. 7.3.2.2 Ablauf eines Datenabrufs Die JIL erlaubt es den Programmierern einer MAPA-Applikation in Java auf einfache Weise, MQL-Statements zusammenzusetzen. Jedes Kommando (create, insert, update, 104 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE delete, get) und jede Verknüpfung (AND, OR, XOR, NOT, XPath) sind als Java-Klassen repräsentiert, so dass auch eine gewisse Kontrolle der Eingabeparameter und der Kombinierbarkeit der einzelnen Sprachelemente zum Zeitpunkt der Kompilierung des Programms durchgeführt werden kann. Das im vorigen Abschnitt aufgeführte Beispiel sähe in Java folgendermaßen aus: Statement sm = Net.createStatement(); EntitySet result = null; sm.setCommand( newGet( newConnectedWith( newXPath( newConnectedWith( newXPath( new All(), "/mapa:entity[mapa:metadata/mapa:info/mapa:names/ mapa:name=’Student’]" ), new All()), ), "/mapa:entity[mapa:metadata/mapa:info/mapa:names/ mapa:name=’Hypernym’]" ), new All() ) ); result = s.execute(); //... Verarbeitung des Ergebnisses... Die Klasse Net ist das Interface der JIL zur Datenbank. Alle Operationen laufen über sie, so dass auch Statements zunächst über sie kreiert werden müssen. Der darauf folgende Aufbau der Kommandos entspricht der oben in XML gezeigten Struktur. Das Ergebnis der Operation ist ein EntitySet, welches die Ergebnis-Entitäten-Menge enthält, die durch das Statement repräsentiert wird. Die JIL-MQL-Klassen wandeln das Statement in die entsprechende XML-Darstellung um, in der es dann an die Datenbank geschickt wird. Dort wird es anschließend wieder in eine ähnliche Klassenstruktur zurückgewandelt. Jede darin enthaltene Klasse (AND, OR, ...) besitzt eine „execute“-Methode (welche ein Result-EntitySet zurück gibt) so dass nach Aufbau des Abfragebaumes diese Methode auf alle Elemente verschachtelt ausgeführt werden kann. Enthält ein Element weitere Elemente, so ruft es, bevor es die eigene Operation ausführt (z.B. AND) die in ihm verschachtelte executeMethode auf. Anschließend führt es seine Verknüpfungen auf den Result-EntitySets der Vorgänger-Verknüpfungen aus. So wird der Befehls-Baum rekursiv abgearbeitet. Eine MQL-Abfrage stellt somit eine rekursive Verknüpfung von Entity-Ergebnis-Mengen dar. 105 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE Abbildung 7.5: Erstellen von Inhalten mit der Kommandozeile. 7.4 Arbeit mit MAPA 7.4.1 Grafische Oberfläche Der MAPA-Prototyp einer grafischen Oberfläche begrüßt den Nutzer innerhalb der Eclipse Umgebung wie in Abbildung 7.6. Das Editorfenster enthält eine Palette, aus der Typen von Knoten und Relationen ausgewählt und in das Fenster gezogen werden können. Hier finden sich z.B. rechteckige und elliptische Knoten, einfache, doppelte und gepunktete Pfeile, Templates für CML- (Chemical Markup Language) und MathML- (Math Markup Language) Knoten, und mehr. Die Einträge der Palette können generisch anhand der Typinformationen, die im VisualMapper gespeichert sind, erzeugt werden. Die Knoten und Relationen selbst können mit den üblichen grafischen Kommandos editiert, verschoben und verbunden und gelöscht werden. Am Rande gibt es auch einige Views, die Entitäten und ihre Struktur auflisten. 7.4.2 Kommandozeile So wichtig überzeugende grafische Elemente für die intendierte intuitive Arbeitsweise mit MAPA auch sind, so zeitaufwendig ist auch Ihre Erstellung. Dies trifft vor allem auch den Bereich komplexerer Interaktionen wie z.B. MQL-Abfragen oder Typisierung/Ontologien zu. Im Prototyp können viele der noch nicht grafisch verfügbaren Funktionen schon über die Skriptsprache der Kommandozeile ausgeführt werden. Im folgenden werden einige dieser Bereiche mit exemplarischen Kommandos vorstellt: Eingaben von Netzstrukturen ["Baum"]. 106 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE Es wird eine neue Entität11 mit dem Namen „Baum“ erstellt. ["Baum"]..>["Ast"]. ["Baum"]-->["Ast"]. Mit dem Befehl ..> können Pointer und mit dem Befehl --> Verbindungen zwischen zwei Entitäten (hier von der neuen Entität z.B. „Baum“ zu einer neuen Entität „Ast“ ) erstellt werden. Der Hauptunterschied zwischen den beiden Befehlen ist, das eine Verbindung selbst eine Entität ist und so eine komplexere Semantik ausdrücken kann. ["Baum"]--["hat einen"]->["Ast"]. ["Baum"]<-["ist"]->["Baum"]. Es ist möglich mehr Informationen über die Verbindung einzugeben, indem auch die Relations-Entität explizit eingegeben wird. Die Richtung der Relation kann durch Verwendung verschiedener Pfeilspitzen (<-, --, ->) ausgedrückt werden . Verweise Soll auf bereits bestehende Entitäten verwiesen werden, so kann zum einen auf den eindeutigen Bezeichner (UUID) verwiesen werden: [$"MAPA:UUID:..."] Zum anderen werden Entitäten, die man als Ergebnisse eines Befehlsaufrufs in der Kommandozeile erhält, mit einer durchlaufenden Nummerierung angezeigt (vgl. 7.5). Die Nummerierung kann dann zum Verweisen in späteren Befehlen verwendet werden: [@2] Mengen Mengen (bzw. Sets) von Entitäten können mit Hilfe geschweifter Klammern eingegeben werden. ["Feiertage"] --> { ["Ostern"] ["Weihnachten"] ["Tag der Arbeit"] }. Abfragen Um Anfragen an das Netz zu stellen, können (verschachtelte) MQLAnfragen (vgl. 7.3.2.1) erstellt werden. So kann z.B. nach Entitäten gesucht werden, die als Namen einen bestimmten String (hier: Student; Student ∨ Gasthörer) enthalten. mql get(name "Student"). mql get(or (name "Student") (name "Gasthörer")). Auch komplexere MQL-Anfragen sind denkbar, z.B. nach der Beziehung zweier Entitäten: mql get(con (name "Student" from (con (name "Universität"))) ). 11 Entitäten werden in der Kommandozeile immer von eckigen Klammern eingeschlossen. Ob eine neue Entität erzeugt wird oder auf eine alte verwiesen werden soll, ist aus dem Inhalt der Klammern ersichtlich. In diesem Fall ist der Inhalt ein einzelner String, der als neuer Name interpretiert wird. 107 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE Offensichtlich verliert man bei dieser Notationsform leicht den Überblick. Daher wurde damit begonnen, die komplexen Anfragen eingabefreundlicherer zu gestalten. Der Umarbeitungsprozess ist allerdings noch nicht vollständig abgeschlossen. Ziel ist, dass sich die Eingabe an einer intuitiveren Notation orientiert. Eine Anfrage nach der Relation von einem Studenten zur Universität wird dann etwa so aussehen: "Student" -- ? --> "Universität". Handhabung von Entitäten Der XML-Content einer Entität kann mit dem Befehl xml [entity]. ausgegeben werden. Weiterhin kann der Content an ein anderes installiertes SystemProgramm (z.B. Word) zur weiteren Bearbeitung übergeben werden: call "winword.exe" [entity]. Nutzung zur Navigation In den Kommandozeilen bekannter Betriebssysteme ist immer ein Verzeichnis als aktuelle Position und Referenzpunkt zur Navigation gegeben. Um eine ähnliche Navigation zu ermöglichen, merkt sich die MAPA-Kommandozeile eine oder mehrere Entitäten als Referenzpunkt. Von diesem Referenzpunkten aus kann man weiter navigieren, indem z.B. mit \verb|+@1.| benachbarte Entitäten als neue Referenzpunkte angezeigt werden. Oder man wählt unter Verwendung der Befehle go [entity]. go {entity-set}. bestimmte Entitäten als Referenzpunkt. Zusammengesetzte Befehle wie go {mql get(name "Student")}. zeigen, dass man schnell an verschiedene Positionen im Netz gelangen kann. Weiterhin lässt sich an diesem Beispiel verdeutlichen, dass es sinnvoll ist, mehrere Entitäten als Referenzpunkt zu nehmen, da die Ergebnisse solcher Anfragen auch Mengen von Entitäten seien können. 7.4.3 Beispielablauf Ein für einen Studenten typisches Arbeitsszenario mit einer Mapping-Anwendung ist das Festhalten von Wissen aus Vorlesungen. Stichpunkte können notiert und in Relation zueinander gesetzt werden. Der Student möchte vielleicht festhalten, dass ein Neuron aus Dendriten und Axonen besteht und legt dementsprechde Knoten und Verbindungen (Abbildung 7.6) an. Um sich den Aufbau eines Neurons auch später noch plastisch vorstellen zu können, fügt er ein erläuterndes Bild ein. Das ganze hat zu tun mit einer Vorlesung zur Neurobiologie mit der er sich im Wintersemester beschäftigte. 108 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE Abbildung 7.6: Erstellen einer ConceptMap 109 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE Abbildung 7.7: Anzeige linguistischer Daten Vielleicht hat er auch bestehendes Wissen aus anderen Vorlesungen z.B. mathematische Formeln12 , das er sinnvoll verknüpfen möchte. Das ist ohne weiteres möglich, da Wissensinhalte in MAPA, auch wenn sie in verschiedenen graphischen Ansichten (z.B. als in sich geschlosse ConceptMap) angelegt wurden, trotzdem in einem gemeinsamen zugrunde liegenden Daten-Netz verfügbar und abrufbar sind. Die Anbindung an bestehendes Wissen muss sich nicht auf vom Benutzer selbst eingegebene Daten beschränken. Viele vorhande Wissenbasen lassen sich als Wissensnetze betrachten. Abbildung 7.7 zeigt linguistische Daten aus der Germanet-Datenbasis im MAPA-Graph-Editor. In Abschnitt 8 wird das Sprachlernen als Anwendungsszenario weiter erläutert. 12 Einige komplexe Datentypen, die ansonsten nur in speziellen Anwendungen editiert werden können, können schon jetzt als Bestandteil eines MAPA-Netzes visuell sichtbar gemacht werden. Dies wird durch zwei Eigenschaften von MAPA möglich: Erstens können strukturierte XML-Daten (z.B. mathematische Formeln in MathML) in den Entitäten ablegt werden. Zweitens können SVG-Grafiken in der GEF-Darstellung angezeigt werden. Transformationen von XML-Typen nach SVG werden so möglich. Der Benutzer muss nur ein geeignetes Transformations-Skript (XSLT) in der MAPA-Anwendung registrieren (z.B. MathML → SVG) und muss sich um nichts weiteres kümmern. 110 KAPITEL 7. IMPLEMENTIERUNG UND ERGEBNISSE 7.5 Zusammenfassung Die in diesem Kapitel vorgestellte Implementierung der MAPA-Architektur zeigt die prinzipielle Umsetzbarkeit der Konzepte, die hinter MAPA stehen. Aufbauend auf einer Entitäten-basierten Datenbank und einem flexiblen Messaging-System wurde eine einfache grafische Anwendung implementiert. Diese zeigt prinzipielle Wege, wie in der Datenbank enthaltene Entitäten für eine kognitiv adäquate Abbildung genutzt werden können. Ihr Umfang wird ergänzt durch eine Kommandozeile, welche eine komplexere Navigation im Wissensnetz ermöglicht. Diese Möglichkeiten grafisch nutzbar zu machen ist auf der Seite der Benutzeroberfläche ein nächster wichtiger Schritt. Die Flexibilität und Plattformunabhängigkeit des Systems (Messaging, Datenbank, MQL) halten die Möglichkeit offen, den nächsten systemseitigen, großen Schritt zu implementieren: die Zusammenarbeit mehrerer Systeme bzw. Nutzer auf einem WissensNetz. Der vorliegende Prototyp kann somit genutzt werden, die hinter MAPA stehende Idee weiter voranzubringen und zu entwickeln. 111 Kapitel 8 Beispielanwendung von Nadja Althaus, Kathrin Beck und Jasmine Bennöhr 112 KAPITEL 8. BEISPIELANWENDUNG Dieser Teil der Dokumentation stellt eine Anwendung für das Projekt MAPA vor – einen Vokabeltrainer, der auf einem MAPA-Netz als Lexikon basiert. Er wurde gemeinsam erstellt von Jasmine Bennöhr, einer Studentin der Universität Bochum, Nadja Althaus und Kathrin Beck, Studentinnen der Universität Tübingen. Die zugrunde liegende Idee des Vokabeltrainers, den Fremdsprachenerwerb mit einem Wortnetz – auf GermaNet basierend – zu verknüpfen, ist die Annahme, dass Begriffe in natürlichen Situationen immer in einem semantischen Zusammenhang auftreten, und dass der Zugang dazu somit das Lernen von Fremdsprachen erleichtern sollte. Dieser Vokabeltrainer besteht aus einem Explorationsmodus, in dem der Lerner das semantische Netz aktiv erkundet, erweitert und Wörter zum Lernen auswählt, einem Abfrage-Modus, in dem die zu lernenden Vokabeln abgefragt werden, und einem Benutzerprofil, in dem einige Daten des Lernverhaltens gespeichert werden. In den folgenden Abschnitten sollen zunächst die grundlegenden Ideen und Motivation für den Vokabeltrainer erörtert, und danach die einzelnen Module zusammen mit ihrem lerntheoretischen Hintergrund vorgestellt werden. 8.1 8.1.1 MAPA-Netz mit lexikalischem Inhalt: Hintergrund Die Idee Die Idee zum MAPA-Vokabeltrainer entstammt dem Bedürfnis, eine mögliche Anwendung für MAPA zu entwerfen und zu realisieren. Der Grundgedanke hierbei ist, die MAPA-Datenbank gezielt mit lexikalischen Informationen zu füllen – einerseits mit Lexemen, d.h. sichtbaren Bestandteilen der Sprache, andererseits mit Metadaten zu diesen Elementen – um so möglichst viel Information über den Aufbau und die Verwendung der Sprache in die Datenbank zu integrieren. Im Gegensatz zu einem herkömmlichen Lexikon bietet die MAPA-Datenbank die Möglichkeit, Wörter zu einander in Beziehung zu setzen und so dem Lexikon eine Struktur zu geben. Das Zielgebilde ist ein Graph, dessen Knoten die Lexeme der Sprache, bzw. die dahinterliegenden Konzepte, darstellen, und dessen Kanten die Relationen zwischen diesen Lexemen modellieren. Hierbei handelt es sich um semantische Verknüpfungen, die Wörter zueinander in Beziehung setzen und es so ermöglichen, die Bedeutung eines Lexems im Verhältnis zu anderen zu erschließen (zu einer detaillierten Beschreibung der verwendeten Relationen siehe Abschnitt 8.1.3). 8.1.2 Motivation: MAPA und Vokabeln Bevor näher auf die Konzeption des Vokabeltrainers eingegangen werden kann, soll die zentrale Frage zur Motivation der Realisierung beantwortet werden: Weshalb eignet sich MAPA im Besonderen als Grundlage für einen Vokabeltrainer? Um sich dieser Frage zu nähern, werden mehrere Faktoren aus verschiedenen Disziplinen betrachtet. Diese haben jede für sich einen großsen Einfluss auf die Qualität des Vokabeltrainers, insbesondere vor dem Hintergrund des Gesamtziels des Projektes – eine möglichst kognitiv adäquate Modellierung von Information und, in diesem speziellen Fall, sprachlichem Wissen darzustellen. 113 KAPITEL 8. BEISPIELANWENDUNG 8.1.2.1 Modellierung natürlicher Sprache Der wichtigste Gesichtspunkt für den Anwendungsbereich Vokabeltraining ist nahe liegender Weise das Sprachmodell, das dem Sprachlernsystem zugrunde liegt. Wie muss die Architektur eines Lexikons beschaffen sein, um dem Anspruch des Phänomens natürliche Sprache im Hinblick auf das Ziel „kognitive Adäquatheit“ annähernd gerecht zu werden? Am Anfang der Konzipierung des Vokabeltrainers stand die Erkenntnis, dass Wörter in den seltensten Fällen isoliert vorkommen – in der Regel werden wir mit ihnen im Zusammenhang mit anderen Wörtern konfrontiert, sei es im Sinne von linearem bzw. syntagmatischem Kontext, oder im Sinne von semantischer Verwandtschaft. Daher stammt die Idee, diesen Zusammenhang im Lexikon für den Vokabeltrainer durch syntagmatische Relationen zwischen Lexemen einerseits, paradigmatische Beziehungen anderererseits, festzuhalten. Wie in den folgenden Abschnitten noch ausführlicher dargelegt wird, eignet sich die MAPA-Datenbank ausgezeichnet dafür, solche Beziehungen zwischen Lexikoneinträgen zu enkodieren. 8.1.2.2 Wissensrepräsentation Ein weiterer Blickwinkel ist der der kognitiven Psychologie. Hier gilt das Netzmodell als eines von vielen artverwandten Systemen zur Wissensrepräsentation, die ähnliche Strukturen aufweisen. Beispielsweise das Hierarchiemodell des „propositionalen Netzwerks“ (vgl. Anderson, 1990, S. 126-133) ist ein geläufiger Repräsentant der netzartigen Darstellung. Aber auch die Modellierung von Wissensbestandteilen als „Schemata“ (vgl. Anderson, 1990, S. 133 ff.) mit Slots und dazu passenden Einträgen lässt sich als Parallele zu einem Netzwerk mit Knoten und Relationen dazwischen interpretieren – in diesem Fall nicht rein hierarchisch. Somit lässt sich konstatieren, dass das Grundkonzept der netzartigen Repräsentation von Wissensinhalten definitiv den kognitionspsychologischen Grundlagen entspricht und damit auf den Weg hilft, eine angemessene Repräsentation des Lexikons zu entwickeln (vgl. auch Abschnitt 2.2.3.3). 8.1.2.3 Gedächtnis und Informationsverarbeitung Der ebenfalls aus dem Gebiet der kognitiven Psychologie stammende Aspekt der Informationsverarbeitung ist der dritte Bereich, dem hier Aufmerksamkeit gewidmet werden soll. Zahlreiche Studien belegen, dass die tiefe Verarbeitung von Lerninhalten sich positiv auf die tatsächliche Lernleistung auswirkt, d.h. dass der Lerner ein Konzept mit höherer Wahrscheinlichkeit abspeichert, wenn es semantisch verarbeitet wird. Dasselbe gilt für die Langlebigkeit des akquirierten Wissens: Aneignung im semantischen Zusammenhang erhöht die Wahrscheinlichkeit, dass das gelernte Konzept auch über einen längeren Zeitraum hinweg abrufbar ist. Dies ist allgemein als „Theorie der Verarbeitungstiefe“ bekannt (zu einem Überblick vgl. Anderson, 1990, S. 183, der auf Craik and Lockhart (1972) verweist). Wenn es auch nicht möglich ist, zu zeigen, dass Wortschatzakquisition mit Hilfe des MAPA-Tools notwendigerweise zu semantisch tiefer Verarbeitung führt, da dies im wesentlichen von der Motivation und der Arbeitsweise des Lernenden abhängt, so lässt sich doch argumentieren, dass die Art und Weise, wie Informationen strukturiert im 114 KAPITEL 8. BEISPIELANWENDUNG MAPA-Netz vorliegen, es dem Lerner sehr einfach macht, die dargebotenen Konzepte semantisch zu verarbeiten: Da alle im Netz gespeicherten sprachlichen Konzepte untereinander verbunden sind, wird der semantische und lexikalische Rahmen, in den das Konzept eingebettet ist, für den Lerner einsehbar; ein Lexem wird nicht als losgelöstes Wort gesehen, sondern in Relation zu seiner linguistischen Umgebung. Einmal als Bestandteil eines größeren, themenübergreifenden Gebildes wahrgenommen, bilden sich leicht Assoziationen zu diesem Hintergrund aus, die so die Grundlage zur semantischen Verarbeitung bieten. Dies gilt für das bloße Wahrnehmen der Information. Da der eigentliche Übungsvorgang, das Vokabeltraining, ebenfalls auf der im Netz enkodierten Umgebung der Konzepte basiert, ist leicht nachvollziehbar, dass auch hier eine Verarbeitung auf semantischer Ebene stattfindet. Ausgehend von den drei genannten Perspektiven, natürliche Sprache, Wissensrepräsentation und Informationsverarbeitung, lässt sich zusammenfassend sagen, dass bei der Konzeption eines Vokabeltrainers auf der Basis einer MAPA-Datenbank durch eine Repräsentation der Lerninhalte auf einer kognitiv weitgehend angemessenen Ebene das Lernen im semantischen Zusammenhang ermöglicht und so der Fremdsprachenerwerb unterstützt und erleichtert wird. Die Struktur der MAPA-Repräsentation eignet sich somit als Grundlage für einen Vokabeltrainer: sie besitzt wesentliche Vorzüge, die flache Vokabellisten nicht bieten können, selbst wenn sie bereits thematisch begrenzten Teilgebieten zugeordnet sind. 8.1.3 GermaNet als Import-Quelle Um eine Basis für einen Vokabeltrainer zu haben, muss mehr an linguistischer Information zur Verfügung gestellt werden, als aus einfachen Wortlisten in eine solche Datenbank übernommen werden kann. Daher ist die Qualität von Datenressourcen entscheidend für das Ergebnis. Zusätzlich war es wünschenswert, eine Quelle zum Import der lexikalischen Inhalte vorzusehen, deren interne Struktur dem Aufbau der MAPADatenbank nicht allzu fern ist. Da uns GermaNet zum einen als Ressource zur Verfügung stand, und es gleichzeitig bereits weitgehend über die von uns benötigte Struktur verfügt, fanden wir darin unsere Import-Quelle. GermaNet, das derzeitig über 52 000 deutsche Wörter umfasst, enkodiert den deutschen Wortschatz in Form von Synsets. Jedes der Synsets umfasst eine Menge von Wörtern, die als synonym betrachtet werden, d.h. deren semantischer Unterschied in minimalen Nuancen besteht. Diese Synsets werden untereinander auf der Basis von semantischen Relationen in Beziehung gesetzt, so dass sich eine Verbindung zwischen zwei Synsets auf alle möglichen Paare von Lexemen aus den beiden Synsets bezieht. Für eine Einführung in GermaNet sei auf Feldweg (1997) und Kunze (2001) verwiesen. Für das Lexikon für den Vokabeltrainer wurden zunächst die Daten aus GermaNet importiert, d.h. Lexeme wurden zu Entitäten in MAPA umgewandelt. Die SynsetStruktur wurde nicht beibehalten, sondern analog zu anderen Relationen behandelt, d.h. jedes Paar von Wörtern aus einem Synset wurde über eine Synonymie-Relation verbunden. Alle übernommenen Relationen, also auch Synonymie, sind wie die eigentlichen Lexeme im MAPA-Netz als Knoten repräsentiert. Daher ermöglicht es diese Transformation der Synsets, alle Konzepte des Netzes als gleichgestellte Entitäten darzustellen. Im MAPA-Netz unterscheidet lediglich die Verknüpfungsstruktur „Relationsknoten“ von lexikalischen Knoten. 115 KAPITEL 8. BEISPIELANWENDUNG Um das Netz für unsere Zwecke als Beispielimplementation übersichtlich zu halten, wurden nicht alle in GermaNet enkodierten Relationen bei der MAPA-Anpassung übernommen. Es wurden folgende Relationen ausgewählt: • Semantisch: Synonymie, Antonymie, Hyponymie, Hyperonymie, Meronymie, Holonymie, Ursache („Cause“) und Assoziation • Lexikalisch Die semantischen Relationen umfassen paradigmatische Beziehungen; dazu zählen Synonymie und Antonymie – bedeutungsgleiche und entgegengesetzte Wörter bezeichnend. Beide Relationen sind in diesem Fall bidirektional. Ebenso wurden Hyperonymie und das Gegenstück Hyponymie – ebenfalls paradigmatisch – übernommen, die beide unidirektional sind und jeweils die Umkehrung der anderen Relation darstellen. Durch sie wird eine klassische is-a-Hierarchie aufgestellt. Dazu kommen Holonymie und Meronymie, die analog eine has-part bzw. is-part-of-Relation definieren. Zusätzlich wurden die semantischen Relationen „Cause“, eine Ursache bezeichnend (z.B. sterben/Tod), und „Assoziation“, die lockerste semantische Verbindung, aus GermaNet übernommen. Die „lexikalische“ Relation bezieht sich hier auf Derivate oder verwandte Bestandteile von Lexemen, z.B. bei Komposita. Kriterien für die Übernahme von Relationen waren die geschätzte Frequenz der Relation sowie die Signifikanz für die Zielgruppe (siehe Abschnitt 8.1.4). Frequenz war ausschlaggebend insofern als infrequente Relationen in unserer Beispielimplementation zwecks Übersichtlichkeit vernachlässigt wurden. Die Signifikanz einer Relation bezieht sich hier auf die Relevanz für die Anwendung Fremdsprachenerwerb. So wurde die Relation „Cause“ – die kausale Verknüpfung zweier Konzepte – als sehr nützlich eingestuft, da sich mit Hilfe dieser Relation die Bedeutung eines Wortes leicht erschließen lässt. Ebenso fand sich Bedürfnis nach einer sehr allgemeinen und lockeren Beziehung zwischen zwei Wörtern, die lediglich die Zugehörigkeit zum selben Wortfeld markiert, d.h. eine „Assoziation“. Über die in GermaNet enkodierten Relationen hinaus sahen wir ein Bedürfnis nach einer syntagmatischen Beziehung, der Kollokation. Die Begründung hierfür liegt in der Anwendung des Lexikons als Grundlage für einen Vokabeltrainer: Kollokationen gehören zu den idiosynkratischen Bestandteilen der Sprache und müssen vom Lerner memoriert werden. Daher bietet es sich an, sie im Lexikon zu enkodieren und zusammen mit anderen Relationen im MAPA-Netz darzustellen. Da uns jedoch leider für eine umfangreiche Integration dieser syntagmatischen Beziehung die nötigen Ressourcen fehlen, haben wir die Relation „Kollokation“ lediglich beispielhaft für einen kleinen Netzausschnitt von Hand enkodiert (siehe hierzu auch 8.3.1). 8.1.4 Die Zielgruppe Bevor genauer auf die einzelnen Module, die den Vokabeltrainer realisieren, eingegangen werden kann, muss die Zielgruppe für den Vokabeltrainer genauer definiert werden. Das Erlernen einer Fremdsprache folgt je nach Fortgeschrittenheitsgrad des Lerners so unterschiedlichen Prinzipien, dass es unmöglich ist, mit einem einzigen Konzept alle Lerner zu bedienen. 116 KAPITEL 8. BEISPIELANWENDUNG Die Zielgruppe für den MAPA-Vokabeltrainer lässt sich an Hand einiger Kriterien auf fortgeschrittene Lerner der Sprache, in diesem Fall Deutsch, einschränken. Dies erfolgt zum einen auf Grund der Freiheit, die dem Benutzer gegeben wird: auf vorgefertigte Lektionen wird verzichtet; Der Benutzer kann den zu lernenden Wortschatz nach seinen eigenen Bedürfnissen zusammenstellen (siehe hierzu Abschnitt 8.2.1.2.2), was eine für einen Anfänger zu große Verantwortung ist. Gleichzeitig ist es eine Tatsache, dass die Datenbank derzeit einsprachig vorliegt – was keine prinzipielle Einschränkung ist, da optional Übersetzungshilfen oder aber ein zweisprachiges Netz implementiert werden können, sondern augenblicklich eine Folge der Ressourcen. Aus diesem Grund muss sich der Benutzer anhand von in der Zielsprache gegebenen Begriffen in der Datenbank orientieren, was mit zunehmendem Wissensstand leichter ist, wohingegen unmöglich für Anfänger ohne Vorkenntnisse. Auch ist zu erwähnen, dass der MAPA-Vokabeltrainer nicht den Anspruch erhebt, dem Lerner die Grammatik einer Sprache beizubringen, wenngleich die Integration von Grammatikhilfen wie Morphologie-Tools und dergleichen denkbar ist. Weitere Anforderungen an den Benutzer, die völlig unabhängig vom sprachlichen Ausgangspunkt sind, betreffen die Bereitschaft, selbstständig und im eigenen Tempo zu arbeiten, sowie das Interesse, sich einen detaillierten Wortschatz anzueignen, da dies die eigentliche Stärke des Vokabeltrainers ausmacht. 8.2 Realisierung In den folgenden Abschnitten werden wir auf die Realisierung des Vokabeltrainers eingehen, wobei auch grundlegende Fragestellungen zur Lerntheorie diskutiert werden. Wir werden dabei anhand der Modulstruktur des Vokabeltrainers vorgehen. Dieser liegt die Idee zu Grunde, dass für den Vokabelerwerb drei Fragestellungen von Wichtigkeit sind: • Welche Vokabeln sollen gelernt werden? – Exploration und Wortschatzauswahl • Nach welchen Prinzipien erfolgt das Memorieren von Vokabeln? – Die Abfragemethoden • Wie kann die Leistung des Lernenden bewertet und diese Bewertung für die Arbeitsweise des Vokabeltrainers benutzt werden? – Evaluation durch das Benutzerprofil Orientiert an diesen Fragen wurden drei Module entwickelt, die sich mit den Aspekten beschäftigen, die für jede dieser Fragen relevant sind: der Explorationsmodus, der dem User die Möglichkeit gibt, das semantische Netz zu erforschen und den für ihn relevanten Wortschatz auszuwählen, der Abfragemodus, der für die eigentlichen Übungsaufgaben zuständig ist, und das Benutzerprofil, in dem die statistische Auswertung der Leistung des Users stattfindet. Diese Module werden in den folgenden Abschnitten im einzelnen erklärt und diskutiert. 117 KAPITEL 8. BEISPIELANWENDUNG 8.2.1 Exploration und Wortschatzauswahl 8.2.1.1 Der Wortschatz Eine der grundlegenden Fragestellungen beim Erwerb des fremdsprachigen Vokabulars betrifft die Selektion des zu lernenden Wortschatzes. Traditionellerweise wird dieser Aspekt von den Autoren der Lehrbücher behandelt, die eine Auswahl von Wörtern in Lektionen zusammenstellen, welche den Lerner schrittweise an den Wortschatz der Zielsprache heranführen. Einschlägig hierfür sind die Thematik, d.h. dem Bedürfnis des Lerners entsprechende Wortfelder, und der „Schwierigkeitsgrad“ der Wörter 1 . Bereits der Begriff „Bedürfnis des Lerners“ wirft jedoch Zweifel auf, ob der entsprechende Wortschatz eindeutig definiert werden kann. Es lässt sich wohl eine gewisse Anzahl an grundlegenden Vokabeln finden, an denen gerade Anfänger nicht vorbeikommen, bzw. die allein anhand ihrer Häufigkeit im täglichen Sprachgebrauch als solche klassifiziert werden können. Gerade letztere Methode zur Aufstellung von Wortlisten stößt jedoch bald an ihre Grenzen. So erwähnen Ronald Carter und Michael McCarthy (Carter and McCarthy, 1988) ein Zitat von J.C. Richards: „Objective word counts, such as statistically-based frequency lists, do not necessarily produce lexical inventories which are of pedagogic relevance [. . . ] Also, high frequency words are not automatically those which the learner needs.“Mit zunehmend fortgeschrittenen Kenntnissen des Lerners wächst auch dessen Anspruch an die Vielfalt, Spezifität und Thematik des Vokabulars. Das Bedürfnis des Einzelnen hängt zunehmend von dessen Gebrauch der Fremdsprache ab, d.h. in welchen Situationen und Kontexten er in der Sprache kommunizieren will. Dabei kommen so unterschiedliche Einsatzmöglichkeiten wie Unterhaltungen auf informeller Ebene oder aber die Lektüre wissenschaftlicher Texte in Betracht. Die Annahme, dass ein fest selektierter Wortschatz, der nicht speziell für eine genau definierte und entsprechend eingeschränkte Zielgruppe erstellt wurde, den Bedürfnissen einer großen Menge von Lernern gerecht werden kann, ist folglich zweifelhaft. Daher liegt es nahe, von einer Sprachlernsoftware, die nicht den Nachteil des gedruckten Mediums besitzt, Lektionen unveränderlich festzulegen, einen höchstmöglichen Grad an Individualität zu erwarten. Dabei stellt sich jedoch unmittelbar die Frage der Realisierungsmöglichkeiten. Zwei anscheinend gegeneinander wirkende Aspekte sind von Wichtigkeit: Die Verfügbarkeit entsprechender Ressourcen einerseits, die Zugänglichkeit für den Benutzer andererseits. Es ist offensichtlich, dass eine breite Grundlage an Vokabular bereitstehen muss, um dem Benutzer die Möglichkeit zu geben, daraus relevante Teile auszuwählen. Es ist unmöglich, von vornhinein zu wissen, welche Teile des Wortschatzes für den User von Bedeutung sind. Daher muss ein umfangreicheres Lexikon vorliegen, als bei vorgefertigten Lektionen notwendig ist. Dies wirft sofort die Frage auf, wie der Benutzer in dieser vergleichsweise großen Informationsmenge die für ihn relevanten Teile ausfindig machen kann – oder vom Standpunkt des Entwicklers aus gesehen, wie die zur Verfügung stehenden Ressourcen für den Benutzer strukturiert und damit zugänglich gemacht werden können. Eines der Ziele des MAPA-Vokabeltrainers ist es, dem individuellen Benutzerbedürfnis gerecht zu werden. Da der Vokabeltrainer auf der Basis eines umfangreichen Lexikons (GermaNet, siehe Abschnitt 8.1.3) entwickelt ist, steht rein aus dem Blickwinkel der Ressourcen einer individuellen Vokabelselektion nichts entgegen. Um dem 1 Zur Annäherung an den Begriff „schwierige Wörter“ vgl. Laufer (1997). Hier werden Wörter klassifiziert als „words you don’t know, words you think you know“ und „words you can’t guess“. 118 KAPITEL 8. BEISPIELANWENDUNG Aspekt der pädagogischen Angemessenheit gerecht zu werden und in diesem Sinne das Problem der Konfrontation mit einer undurchschaubaren Masse an sprachlichen Informationen zu vermeiden, wird die Wortschatzauswahl von einem separaten Modul des Vokabeltrainers, dem so genannten Explorationsmodus, bewerkstelligt. In den folgenden Abschnitten wird näher sowohl auf die lerntheoretischen Aspekte bei der Vokabelauswahl und die Herangehensweise an oben genannte Fragestellungen eingegangen, als auch auf die Aufgaben dieses Moduls im Detail. 8.2.1.2 Vokabularauswahl: Exploratives Lernen und Konstruktivismus Die Zielgruppe des MAPA-Vokabeltrainers besteht im wesentlichen aus, wie bereits in Abschnitt 8.1.4 erwähnt, fortgeschrittenen Lernern, die bereits ein gewisses Maß an Grundvokabular beherrschen. Somit entfällt die Notwendigkeit, dem Benutzer in allgemein vorgegebenen ersten Schritten eine thematisch beschränkte, aber vielseitig anwendbare Menge von Wörtern zur Verständigung beizubringen. Der eigentliche Anspruch des Vokabeltrainers besteht darin, den Wortschatz des einzelnen Lerners in genau den Themengebieten auszubauen, die dieser für sich selbst als relevant oder interessant erachtet. Dazu gehört einerseits die Möglichkeit, selbst zu bestimmen, welche Teile des vorhandenen Vokabulars beim Training verwendet werden sollen. Andererseits soll es dem Benutzer möglich sein, das vorliegende Lexikon um Einträge oder Verknüpfungen zu erweitern. Dies entspricht dem Ansatz des konstruktivistischen Lernens (siehe Abschnitt 2.2.3), laut dem der Lerner vor allem von der aktiven Beteiligung am Lernprozess profitiert. 8.2.1.2.1 Erforschen des Netzes Die Wortschatzauswahl erfolgt beim MAPAVokabeltrainer nach einer explorativen Methode. Beim explorativen Lernen greift der Lerner auf einen zur Verfügung stehenden Wissensraum zu und kann sich – im Gegensatz zu expositorischen Lehrmedien – frei darin bewegen, d.h. ohne vorgeschriebene Abfolge an Lernschritten. Wissenseinheiten können so je nach Bedarf des Benutzers abgerufen werden, wobei auch Aspekte wie Ausführlichkeit, bzw. Detail, variabel sind. Wie dies jedoch realisiert werden kann, hängt von der jeweiligen Struktur der zur Verfügung stehenden Daten ab. Ein anwenderfreundliches Interface ist hier von höchster Wichtigkeit. In Bezug auf den Vokabeltrainer bedeutet dies, dass es beispielsweise unrealistisch wäre, anzunehmen, ein Benutzer werde es auf sich nehmen, in einer einfachen Liste, ähnlich einem gedruckten Wörterbuch, für ihn relevante Wörter ausfindig zu machen. Hier erweist sich die Netzstruktur der MAPA-Datenbank als äußerst nützlich: Durch die semantische Verknüpfung der Inhalte ist es möglich, sich auf einem inhaltlich kohärenten Pfad durch den Graphen, dessen Knoten die Lexikoneinträge darstellen, zu bewegen, d.h. in Anlehnung an das Internet durch das Netz zu „surfen“ und so den vorhandenen Wortschatz zu explorieren. Die hierfür notwendige Visualisierung stellt die MAPA-Umgebung zur Verfügung. Beim Vorgang der Exploration wird die durch GermaNet vorgegebene Struktur ausgenutzt. Sowie der User sich an einem bestimmten Knoten, d.h. einem Wort, im Netz befindet, ist die Umgebung dieses Knotens für ihn sichtbar. Dies hat mehrere Effekte zur Folge. Einerseits ist das Wort so unmittelbar in seine linguistische Umgebung eingeordnet. Somit ist – im Optimalfall ohne Hinzuziehung einer Übersetzung (siehe hierzu Abschnitt 8.1.3) – die Bedeutung des Wortes erschließbar. Gleichzeitig bildet der Lerner 119 KAPITEL 8. BEISPIELANWENDUNG unmittelbar eine erste Assoziation zwischen dem momentan betrachteten Lexem und seiner lexikalischen Umgebung. Dies bedeutet, dass der Explorationsvorgang abgesehen von dem rein quantitiven Aspekt der Akkumulation von Lernmaterial einen Lerneffekt in kognitionspsychologischer Hinsicht besitzt. Es ist wahrscheinlich, dass diese Assoziation zum Abspeicherungskontext des Lexems wird, sofern diesem weitere Aufmerksamkeit gewidmet wird, d.h. der Lerner das Wort tatsächlich als für ihn relevant einstuft, mit der Folge, dass als Langzeiteffekt eine leichtere Abrufbarkeit aus demselben Kontext heraus möglich ist (vgl. „Enkodierungsspezifität“ Anderson, 1990, S. 205 f.) (Tulving and Thomson, 1973; Watkins and Tulving, 1975). Der dritte für die Exploration relevante Aspekt an dieser Stelle betrifft die Neugier des Benutzers, die durch die Netzumgebung geweckt wird. Ist das momentan aktivierte Wort mit einem bisher unbekannten Eintrag im Netz verbunden, so erhält der Lerner nicht nur das aktuelle Lexem als Ergänzung zu dem Wortfeld, indem er sich gerade befindet (vgl. Abschnitt 8.2.1.3), sondern auch einen Anstoß für die Weiterentwicklung seines Wortschatzes. Bei dieser Methode des Surfens ergeben sich augenscheinlich Probleme, die aus dem Bereich des Lernens mit Hypertext-Dokumenten bekannt sind: Zum einen wird hier die so genannte „kognitive Last“ relevant, d.h. der zusätzlich von Seiten des Benutzers zu erbringende Aufwand, im Geist mit einer Netzstruktur umzugehen, anstatt mit vertrauten Strukturen wie Listen oder Hierarchien. Daraus resultiert das Problem der Desorientierung, das gerne mit dem von Jeff Conklin geprägten Begriff „Lost in Cyberspace“ beschrieben wird (Conklin, 1987). Letzteres impliziert, dass der User, da er sich aufgrund der Hyperstruktur auf weniger organisierten (um nicht zu sagen unorganisierten) Pfaden bewegt, mit zunehmender Länge des Explorationsvorgangs Schwierigkeiten hat, selbst den Überblick über seinen Standpunkt und das bisher Erreichte zu verlieren. In der MAPA-Datenbank haben diese Probleme jedoch eine sehr geringe Auswirkung, da durch die visuelle Darstellung des Gesamtnetzes die Orientierung wesentlich leichter fällt, als das bei Hypertext-Dokumenten der Fall ist. So soll es dem Benutzer jederzeit möglich sein, die Gesamtstruktur des Lexikons über entsprechende Visualisierungskomponenten einzusehen. Beim Hypertext stellt das Dokument selbst i.d.R. die einzige Ansicht des Benutzers dar, und die eigentliche Netzstruktur bleibt verborgen – abgesehen von den Links, die sich direkt im Dokument befinden. Abschließend sei zur Idee der Wortschatzakkumulation bemerkt, dass die oben beschriebene Explorationstechnik auf der Annahme beruht, dass der Benutzer genügend Motivation zur Exploration besitzt (vgl. Zielgruppe, Abschnitt 8.1.4), d.h. dass er entsprechendes Interesse und Kreativität mitbringt, zwei Faktoren, die jedoch ohnehin für selbstgesteuertes Lernen unabdinglich sind. 8.2.1.2.2 Vokabelauswahl Bei dem oben beschriebenen Explorationsprozess ist zunächst der Weg das Ziel, d.h. das Erforschen des Wissensraums kann bereits als Lernmethode angesehen werden. Daneben bietet das Explorieren des Netzes jedoch, wie zuvor bereits angedeutet, die Möglichkeit, eine Auswahl an Vokabeln zusammenzustellen, die nicht nur „im Vorbeigehen“ gelernt werden sollen, sondern später anhand des eigentlichen Vokabeltrainings memoriert werden. Der Ansatz, der hier verfolgt wird, entspricht der konstruktivistischen Auffassung des Lernens, bei der davon ausgegangen wird, dass Wissenserwerb ein aktiv aufbauender Prozess ist, wobei Motivation, Selbstkontrolle und -steuerung des Lernenden eine zentrale Rolle spielen. Gleichzeitig ist in der konstruktivistischen Lerntheorie der be120 KAPITEL 8. BEISPIELANWENDUNG reits vorhandene Hintergrund des Lerners von großer Bedeutung. Beide Aspekte des Konstruktivismus finden sich in der Realisierung des MAPAVokabeltrainers wieder: Die zentrale Idee zur Vokabelauswahl ist, dass der User beim „Surfen“ durch das semantische Netz aktiv über die Selektion von Vokabeln entscheidet. Das heißt, er beurteilt – zunächst für jeden einzelnen Eintrag – dessen Relevanz für seine Zwecke und ordnet ihn entsprechend in seine Sammlung von individuellen Lektionen (vgl. Abschnitt 8.2.1.3) ein. Dieser Prozess findet vor dem Hintergrund des bereits vorhandenen Wortschatzes statt: Der Benutzer entscheidet selbst, ob er ein ihm bekanntes Wort schon hinreichend gut beherrscht, oder ob er es angesichts beispielsweise lediglich passiver Kenntnis trotz Wiedererkennen in die Liste der zu lernenden Wörtern aufnimmt. Es wird davon ausgegangen, dass der Lerner jedes ausgewählte Wort bereits verstanden hat, d.h. „nur noch“ der Prozess des Memorierens vor ihm liegt. Mit dieser Annahme kann auch vorausgesetzt werden, dass zumindest ein Teil der Umgebung des Lexems im Netz vom Lerner verstanden wird. Dies ist für den Abfrageteil des Vokabeltrainers (siehe Abschnitte 8.2.2.2 und 8.2.3) von höchster Relevanz, da hier davon ausgegangen wird, dass die Netzumgebung als Anhaltspunkt für ein Lexem ausreichend ist. 8.2.1.3 Organisation des Wortschatzes Die Vorteile des so zusammengestellten Vokabulars sind klar ersichtlich: Abgesehen von der semantischen Verarbeitung bereits bei der Auswahl hat der Benutzer jederzeit Kontrolle über den Inhalt seiner Auswahl, da er alle Einträge von Hand selektiert hat. Individualität bedeutet bei der Vokabelauswahl nicht nur, gerade die vom Lernenden selbst gewünschten Netzeinträge in die Liste der zu lernenden Vokabeln zu übernehmen, sondern auch, diese je nach Ansicht des Benutzers in verschiedene Untermengen aufzuteilen und diese als eigens erstellte thematische „Lektionen“ zu speichern. Gleichzeitig wird hier die Theorie des Wortfelds bedeutsam: Der Pfad, den der User beim Surfen im Netz erzeugt, entspricht einer semantisch kohärenten Liste von Wörtern, bei denen mindestens je zwei aufeinander folgende Einträge zum selben Wortfeld, oder Thema, gehören. Wortfelder als solche sind jedoch nicht eindeutig; Überlappungen sind möglich und sogar das subjektive Empfinden des Benutzers entscheidet über die Zuordnung eines Begriffs zu einem bestimmten Themenbereich. So wird der Wortschatz eines Experten in einem bestimmten Gebiet wesentlich größer sein, als der eines Laien auf demselben Gebiet, da bestimmte Wörter erst mit einiger Fachkenntnis in Relation zur jeweiligen Thematik treten. Beispielsweise steht der Begriff „Baum“ für einen Linguisten durchaus mit „Sprache“ in Verbindung, während er für andere möglicherweise nicht im Entferntesten damit assoziiert ist (siehe auch Abschnitt 8.2.1.5). Um der individuellen Organisation der Vokabeln entgegenzukommen, stellt der Vokabeltrainer eine Funktion zur Verfügung, um das zu konstruieren, was in herkömmlichen Lehrbüchern oder Sprachlernsoftware als „Lektion“ bezeichnet wird. Dabei ermöglicht es der Vokabeltrainer, die Wörter entweder „on the spot“ bei der Auswahl bestimmten – zuvor leer angelegten – „Lektionen“, hier „Einheiten“ genannt, zuzuordnen, oder vor dem „Surftrip“ durch das Netz eine Zieleinheit auszuwählen, in die alle selektierten Einheiten gespeichert werden. Dies hat auf lange Sicht den Vorteil, dass Vokabeln später geordnet abgefragt werden können, unmittelbar jedoch auch den Effekt, dass der Lerner das Thema, zu dem er gerade Wörter sammelt, explizit macht und so den gesamten Vorgang der Wortschatz- 121 KAPITEL 8. BEISPIELANWENDUNG selektion wesentlich zielbewusster in Angriff nehmen kann. 8.2.1.4 Usability Es drängt sich jedoch ein weiteres Mal die Frage nach Usability auf, d.h. Anwenderfreundlichkeit im Hinblick auf Effektivität und Effizienz: Wie lange ist ein Benutzer mit dem primären Ziel „Spracherwerb“ bereit, das Netz zu explorieren, ohne einen aktiven Lernprozess – im Vergleich zu der nachfolgend vorgesehenen Abfragestrategie – erkennen zu können? Trotz aller Vorteile der Selektion von Hand besteht sicher Bedarf an einer schnelleren Methode. Wie oben bereits erwähnt, ist anzunehmen, dass der Benutzer die Abdeckung eines bestimmten, in sich geschlossenen Themenbereiches anstrebt. Die Automatisierung der Wortfeldextraktion wäre also die extreme Möglichkeit, dem User die Arbeit der manuellen Selektion abzunehmen. Es ist leicht erkennbar, dass eine solche Automatisierung hier nicht realisierbar ist; jedoch ist es möglich, dem Benutzer ein Werkzeug in die Hand zu geben, das zumindest einen Schritt in diese Richtung unternimmt. Da ein Knoten unmittelbar nur mit semantisch oder lexikalisch verwandten Einträgen verbunden ist, erhält man durch Auswahl des Knotens und seiner direkten Nachbarn eine Art „Mini-Wortfeld“ , das noch immer semantisch kohärent ist. Diese Methode lässt sich auf beliebige „Auswahltiefe“ erweitern, so dass alle Knoten, die vom aktuell aktivierten Eintrag über n Verbindungen erreichbar sind, auf einmal ausgewählt werden. Es ist jedoch ersichtlich, dass hierbei mit zunehmendem n die semantische Kohärenz abnimmt: Einerseits sind die Grenzen des Wortfelds ohnehin verschwommen, andererseits ist es auf Grund der Charakteristik der Relationen im Netz möglich, mittels weniger Verknüpfungen zu für das ursprünglich ausgewählte Wort irrelevanten Begriffen zu gelangen. So liegen in unserem Testnetz beispielsweise zwischen den Einträgen für „Universität“ und „rot“ nur fünf Schritte – „Universität“ besitzt das Meronym „Hörsaal“ , dies wiederum das Meronym „Tafel“ , das assoziativ mit „Kreide“ verbunden ist. Von „Kreide“ ist es jedoch nur ein Schritt zur Farbe „weiß“ , die wiederum mit allen anderen Farben in Relation steht. Daher macht diese Option zwar Sinn für kleine n, da so sehr effizient Vokabeln „gesammelt“ werden können, nicht aber für große Werte von n, da so jegliche Kontrolle über die erfassten Inhalte und deren semantische Kohärenz verloren geht. Die Erweiterung des Selektionsmechanismus bringt also einerseits eine mögliche Steigerung an Geschwindigkeit mit sich, hat aber andererseits den Verlust der Kontrolle, und damit Effektivität, zur Folge, was dem Benutzer an dieser Stelle bewusst gemacht werden muss. Es ist zu überlegen, ob die Funktion nur sehr beschränkt, d.h. für kleine n zur Verfügung gestellt werden sollte. 8.2.1.5 Netzerweiterung Die bisher diskutierten Funktionen des Explorationsmodus konzentrieren sich alle auf das bereits vorhandene Netz, d.h. die letztendlich durch GermaNet bestimmten Datenbankeinträge. Im Zusammenhang mit dem Konzept des konstruktiven Lernens auf der einen Seite, und dem Grundgedanken des MAPA-Projekts, der die Gestaltung des Netzes durch den Benutzer selbst betont, ergibt sich jedoch der Wunsch, es dem Benutzer zu ermöglichen, selbst Einfluss auf die Netzstruktur zu nehmen. Es ist eine Tatsache, dass aufgrund der Beschaffenheit von Sprache selbst ein so umfangreiches Lexikon wie das 122 KAPITEL 8. BEISPIELANWENDUNG von GermaNet zur Verfügung gestellte nicht jedes vorhandene Lexem und nicht jede denkbare semantische Relation abdecken kann. So ist es möglich, dass der Benutzer bei seiner Netzerkundung auf Lücken stößt, sei es aufgrund seines eigenen, fortgeschrittenen Wissens in einem bestimmten Bereich oder durch die Begrenztheit der Datenbank selbst verursacht. An dieser Stelle soll im Explorationsmodus eine Funktion zur Verfügung gestellt werden, die es dem Benutzer erlaubt, entweder neue Einträge zur Datenbank hinzuzufügen und anhand von Relationen mit dem bestehenden Netz in Verbindung zu setzen, oder aber selbst neue Relationsentitäten zu kreieren, um einer semantischen Assoziation Ausdruck zu geben, die für den Benutzer an der entsprechenden Stelle relevant ist. Analog soll der User die von ihm geschaffenen Einträge, d.h. Lexeme oder neue Relationen, wieder entfernen können. Sind die Einträge einmal in der Datenbank gespeichert, so werden sie wie der feste Lexikonbestand behandelt und stehen entsprechend zur Selektion und später zur Abfrage zur Verfügung. Es ist zu überlegen, diese „persönlichen“ Änderungen nur für den Benutzer sichtbar zu machen, der sie vorgenommen hat, da ihre Gültigkeit nicht einfach verifiziert werden kann. 8.2.1.6 Zusammenfassung Der Explorationsmodus des MAPA Vokabeltrainers stellt, wie in den vorhergehenden Abschnitten gezeigt wurde, eine Methode zur Verfügung, die es dem Lerner beim Fremdsprachenerwerb ermöglicht, das Vokabular der Zielsprache aktiv zu explorieren, und sich sein Lernmaterial individuell zusammenzustellen. Damit wird die Netzstruktur der MAPA-Datenbank ausgenutzt und ein Versuch unternommen, Fremdsprachenerwerb aus kognitionspsychologischer Sicht sinnvoll anzugehen. 8.2.2 Das Karteikastensystem 8.2.2.1 Hintergrund Die Idee, das Wortschatzlernen mit MAPA und einem Wortnetz wie GermaNet (siehe Kapitel 8.1.3) zu verknüpfen, beruht auf psychologischen und pädagogischen Erkenntnissen, die vermuten lassen, dass Kontexte sehr wichtig fürs Lernen sind. Aus der Kognitionspsychologie wissen wir, dass auch Bedeutung im Gehirn netzartig gespeichert wird (Collins and Loftus, 1975). Und Ausubels Assimilationstheorie (Ausubel, 1974) besagt, dass bei sinnvollem Lernen neu Gelerntes immer mit bereits gelernten Inhalten verknüpft wird, sodass es sich schneller und dauerhafter einprägt als bei mechanischem Lernen. Zudem hinterlassen graphische Darstellungen reichhaltigere Gedächtnisspuren als reine Texte (Anderson, 1971). Ziel jeden Vokabellernens ist es, seinen Wortschatz zu verbessern. Unser Vokabeltrainer fördert durch seinen kontextuellen Aufbau sowohl Leseverständnis als auch Textproduktion. Der Lerner übt einerseits, Wörter anhand ihres Kontextes zu verstehen, eine Fähigkeit, die er auch beim Lesen fremdsprachlicher Texte einsetzen kann. Andererseits präsentiert ihm das semantische Netz Begriffe von Themenkomplexen, die er zur Sprachproduktion verwenden kann. Durch das rein schriftliche Medium des Vokabeltrainers können Hörverständnis 123 KAPITEL 8. BEISPIELANWENDUNG Abbildung 8.1: Zeitersparnis bei erneutem Lernen (Stangl, 2002) und Sprachproduktion leider nicht direkt gefördert werden, was mancher Lerner sicherlich wünschen würde. Im Rahmen unseres Projekts war es jedoch nicht möglich, die nötigen Datenressourcen und Programme zu bekommen und einzubinden. Der Vokabeltrainer kann nur ein Hilfsmittel sein, um eine Brücke zu Situationen fremdsprachlicher Kommunikation zu schlagen, und um sie weitmöglichst zu simulieren. Ein besonders wichtiges Thema jedes Vokabeltrainers ist das effiziente Lernen der Vokabeln, da der Lerner so wenig Zeit und Arbeit wie möglich ins Behalten jeder Vokabel investieren möchte. Edward Thorndike, Begründer des Konnektionismus, bewies schon Anfang des 20. Jahrhunderts das „Gesetz der Übung“ (law of exercise mit law of use und law of disuse), das besagt, dass eine Reiz-Reaktionsverbindung umso besser hält, je öfter sie gebraucht wird und umso schlechter, je seltener sie gebraucht wird (Thorndike, 1921). Dieses Gesetz lässt sich auch aufs Vokabellernen anwenden mit einem muttersprachlichen Wort als Reiz und seiner Übersetzung als gewünschter Reaktion, bzw. bei unserem Vokabeltrainer mit den Nachbarwörtern eines Wortes und dem Wort selbst als Reiz und Reaktion. Vokabeln lernt man also nur durch wiederholtes Anwenden, meist durch Abfragen. Noch vor ihm, ab 1855, lernte Hermann Ebbinghaus Reihen sinnloser Silben auswendig und überprüfte, wie lange sie im Gedächtnis bleiben. Hatte er sie vergessen, maß er, wie viel Zeit er für ihre Auffrischung aufwenden musste (Ebbinghaus, 1885). Diese Zeitersparnis der Wiederholungsdauer gegenüber der Dauer des ersten Lernens zeigt, wie sehr die Silben noch in seinem Gedächtnis verhaftet waren (Abbildung 8.1). Dabei zeigte sich folgendes Ergebnis: Nach 20min sind 42 % des Gelernten vergessen, nach 1h sind es 56 %, nach 1 Tag 66 %, nach 6 Tagen 75 %. Nur 20 % des Gelernten behält man anscheinend auch ohne Wiederholen für immer. Diese Werte lassen sich natürlich nicht exakt aufs Vokabellernen übertragen, da zum einen Vokabeln sinnhafte Konzepte sind, die wegen der mit ihnen verbunden Assoziationen leichter gelernt werden, und da man zum anderen Vokabeln gerade nicht in einer bestimmten Reihenfolge auswendig lernen, sondern jedes Wort als „Reaktion“ auf die 124 KAPITEL 8. BEISPIELANWENDUNG Abbildung 8.2: Zeitersparnis bei erneutem Lernen von wiederholten Vokabeln (Stangl, 2002) Hinweisreize seines Kontexts verstehen oder wiedergeben möchte. Trotzdem lassen sich Ebbinghaus’ Erinnerungswerte aufs Vokabellernen übertragen, die Vergessenskurve verläuft dann durch die besseren Erinnerungsbedingungen flacher. Wiederholt man den Lernstoff über einen längeren Zeitraum hinweg, lässt er sich leichter und besser behalten, als bei „gehäuftem Lernen“, der Lerner ist motivierter und konzentrierter als bei wenigen, langen Lernsitzungen (Jost, 1897). Erinnert der Lerner eine Vokabel nicht mehr, so ist sie doch nicht vollständig aus der Erinnerung verschwunden. Nach jeder Wiederholung prägt sie sich stärker ein, bis der Lerner sie irgendwann in jedem Kontext abrufen kann. Er braucht jedes Mal weniger Zeit, sie von neuem zu lernen und nach jeder Wiederholung erinnert er mehr Vokabeln seiner Lektion (Salisbury, 1990; Landauer and Bjork, 1978) (Abbildung 8.2). Je öfter man ein Wort richtig wiedergeben konnte, desto besser hat es sich laut Thorndikes Gesetz der Übung eingeprägt. Es muss also erst wieder nach längerer Zeit abgefragt werden als ein Wort, das der Lerner noch nie korrekt nennen konnte, und das folglich auch noch nicht oder nur kaum verinnerlicht ist. Nach jeder weiteren korrekten Antwort kann der Abstand zur neuen Abfrage wachsen, da sich das Wort immer besser im Gehirn verankert. Diese Methode bietet außerdem den Vorteil, dass der Lerner weniger Zeit und Arbeit braucht, wenn er bei jeder Sitzung nur Vokabeln lernt, die er bald vergessen hätte, statt alle insgesamt zu lernenden Vokabeln. Eine Möglichkeit, solche Wiederholungszyklen zu organisieren, ist Sebastian Leitners Karteikastensystem. 8.2.2.2 Methode Das Abfragesystem unseres Vokabeltrainers orientiert sich an Sebastian Leitners Karteikastensystem (Leitner, 1972). Darin werden Karteikarten auf der Vorderseite mit einer 125 KAPITEL 8. BEISPIELANWENDUNG Abbildung 8.3: System des Karteikastens (Rädle, 2003) Frage (z.B. Vokabel in der Muttersprache) und auf der Rückseite mit der Antwort (z.B. Übersetzung in der Zielsprache) beschriftet und in die fünf Fächer eines Karteikastens sortiert. Alle neuen Vokabeln werden ins erste Fach gestellt und der Reihe nach abgefragt. Beantwortet man eine Frage richtig, so wandert die dazugehörige Karte ins nächste Fach des Karteikastens. Bei falscher Antwort wird die Karte, unabhängig vom Fach, in dem sie sich zuvor befunden hat, wieder zurück ins erste Fach gestellt (Abbildung 8.3). Wird eine Vokabel fünf Mal in Folge richtig genannt, gilt sie als gelernt und wird aus dem fünften Fach, also aus dem kompletten Karteikasten, entnommen. Bei Leitners System werden die Fächer von eins bis fünf immer größer, vom 1 cm langen ersten Fach bis zum 14 cm langen fünften Fach. Die Vokabeln in diesen Fächern werden erst wiederholt, wenn sie voll sind, was in den letzten Fächern auch Monate dauern kann, wie Leitner erklärt. So wird sichergestellt, dass die Wörter in immer längeren Abständen wiederholt werden. Bei einem „manuellen“ System wäre es auch sehr aufwändig, anders zu bestimmen, wann welche Vokabeln wiederholt werden müssen, weil das Abfragedatum auf jeder Karteikarte notiert und der Karteikasten immer nach den „fälligen“ Wörtern durchsucht werden müsste. Für ein Computerprogramm ist es natürlich einfacher, diese Aktionen durchzuführen und mit den Parametern „Karteikastenfach“ und „Anzahl der Tage seit der letzten Abfrage“ zu berechnen, wann jede Vokabel das nächste Mal abgefragt werden sollte, und welche Vokabeln der Lerner zu einem gegebenen Zeitpunkt abgefragt werden muss. Für unseren Vokabeltrainer haben wir in Anlehnung an Rädles kommerziellen Vokabeltrainer (Rädle, 2003) festgelegt, dass die Vokabeln im zweiten, dritten, vierten bzw. fünften Fach einen, zwei, sieben bzw. vierzehn Tage nach ihrer vorherigen Abfrage wiederholt werden sollten. Auf diese Weise kann man eine Abfragereihenfolge erstellen nach der Dringlichkeit der erneuten Abfrage. Diese Methode bietet den Vorteil, dass Vokabeln erst so spät wie möglich abgefragt werden müssen, kurz bevor der Lerner sie evtl. wieder vergessen würde. Wir erwarten, dass sich dadurch die Anzahl der momentan abzufragenden Vokabeln und die Abfragezeit verringern, vorausgesetzt, man verwendet den Vokabeltrainer in genügend kurzen Abständen. So kann sich der Lerner auf die in dem Moment relevanten Vokabeln konzentrieren. 8.2.3 Abfragemethoden Unser Vokabeltrainer bietet drei Abfragearten an, die vollständig auf GermaNet und seiner Netz-Idee basieren: Der Lerner bekommt ein Lückennetz eines Begriffs mit seinem direkten Kontext gegeben und muss das zentrale Wort, seine Nachbarwörter oder die Relationen zu den gegebenen Nachbarwörtern einfügen. 126 KAPITEL 8. BEISPIELANWENDUNG Abbildung 8.4: Übungsmodus mit fehlendem zentralem Knoten 8.2.3.1 Zentrales Wort einfügen Bei dieser Übungsart bekommt der Lerner alle Nachbarwörter eines gesuchten Wortes und seine Relationen zu ihnen gezeigt. Wird beispielsweise „Haus“ gesucht, sieht er Hyperonym: „Gebäude“, Hyponym: „Hochhaus“, Hyponym: „Wolkenkratzer“, siehe Abbildung 8.4. Diese Übung sollte die einfachste der drei Übungen sein. Der Lerner erhält hier viele Kontextinformationen, er muss nicht alle Nachbarwörter verstehen, um den Sinn des fehlenden Wortes zu begreifen. Manchmal kann er das gesuchte Wort sogar aus einem Nachbarwort ableiten, z.B. hier „Haus“ aus „Hochhaus“. Ein Problem bei dieser Aufgabenstellung ist, eine geeignete Abfragemethode zu finden für solche Wörter, die nur durch mehrfach vorhandene und daher nicht eindeutige Relationen mit dem Netz verbunden sind, wenn z.B. nach einem bestimmten Hyponym von „Frucht“ gesucht wird. Wir haben das Problem gelöst, indem das Programm jedes Wort akzeptiert, das durch diese Relation mit dem gegebenen Wort verbunden ist, aber so lange nach einer weiteren Lösung gefragt wird, bis der Lerner die momentan gesuchte Vokabel oder eine falsche Antwort eingibt. 8.2.3.2 Relationen einfügen Der Benutzer sieht bei dieser Aufgabenstellung ein zentrales Wort mit all seinen Nachbarwörtern und muss die Relationsarten zwischen ihnen bestimmen, siehe Abbildung 8.5. Bei der Korrektur der Eingaben wird falsche Groß- und Kleinschreibung nicht als Fehler gewertet, da man durch die häufigen Antworten davon ausgehen kann, dass der Lerner die korrekte Schreibweise der Relationen beherrscht und sich nur verschrieben hat. 127 KAPITEL 8. BEISPIELANWENDUNG Abbildung 8.5: Übungsmodus mit fehlenden Relationen Abbildung 8.6: Übungsmodus mit fehlenden Nachbarknoten 8.2.3.3 Nachbarwörter einfügen Hier sieht der Lerner das zentrale Wort mit seinen Relationen (Abbildung 8.6). Er muss nun zu jeder Relation das passende Nachbarwort eingeben. Gibt es mehrere Nachbarwörter, die über die gleiche Relationsart mit dem zentralen Wort verbunden sind, wie z.B. „Hochhaus“ und „Wolkenkratzer“ in Abbildung 8.6, so spielt die Reihenfolge ihrer Eingabe natürlich keine Rolle. Auch wenn ein Wort sehr viele Nachbarwörter besitzt, so wird der Lerner nach ihnen allen gefragt, um seinen Wissensstand möglichst genau zu erfassen. Genau wie bei der Übungsart mit fehlenden Relationen tritt hier das Problem auf, zu wissen, aus welchen Antworten sich schließen lässt, ob der Lerner die gezeigten Wörter verstanden hat. Ein Wort mit mehreren Nachbarknoten kann verstanden worden sein, auch ohne dass der Lerner alle Nachbarwörter versteht. Mangels psychologischer und pädagogischer Erkenntnisse zu diesem Thema haben wir ad hoc definiert, dass der Lerner eine Übungsaufgabe richtig gelöst hat, wenn er 128 KAPITEL 8. BEISPIELANWENDUNG a) bei einem einzigen gesuchten Nachbarwort dieses und b) bei mehreren gesuchten Nachbarwörtern mindestens zwei von ihnen richtig benennen kann. Natürlich gibt es keine 100prozentige Übereinstimmung zwischen gewussten Nachbarwörtern und gelerntem zentralem Wort; der Lerner kann den Begriff „Haus“ kennen, ohne seine Nachbarwörter zu auswendig zu können. Aber dann kann er den Begriff nicht mit diesem Vokabeltrainer, der auf verstandenen Nachbarwörten basiert, gelernt haben. Ebenso wenig lernt der Anwender stur Wörter und ihre Relationen auswendig, ohne ihren Sinn zu verstehen. Daher besteht meines Erachtens eine recht große Übereinstimmung zwischen gewussten Nachbarwörtern und gelerntem zentralem Wort. Nur mit Hilfe dieses Wortnetzes kann man leider nur den groben Sinn eines Wortes verstehen, wie beispielsweise, dass ein „Hochhaus“ ein hohes Haus bedeutet, wenn es mit dem Adjektiv „hoch“ verknüpft ist. Feinere Begriffsnuancen wie zum Beispiel der Unterschied zwischen „Hochhaus“ und „Wolkenkratzer“ lassen sich nur schwer mit diesem Wortnetz erklären. Sie müssen wirklich anhand von Texten oder Begriffsdefinitionen verstanden und gelernt werden. Zwei weitere mögliche, schwierigere Übungsarten auf der Grundlage von GermaNet wären beispielsweise die Beschriftung eines Netzes und das freie Bearbeiten einer Vokabel. 8.2.3.4 Beschriftung eines Netzes Der Lerner bekommt eine Liste von Vokabeln sowie ein Netz, das nur aus leeren Positionen und Relationen zwischen ihnen besteht. Er muss nun herausfinden, welche der Vokabeln das zentrale Wort ist, in welcher Beziehung die anderen Wörter zu ihm stehen und alle Vokabeln ins Netz eintragen. 8.2.3.5 Freies Bearbeiten Bei dieser Übungsart wird dem Lerner nur das zentrale Wort in einem ansonsten leeren Netz geliefert, an dem er die Anzahl der gesuchten Nachbarwörter erkennt. Diese und auch die Relationen muss er ohne Hilfe erinnern. Dies wäre eine der schwierigsten Übungsarten, bei der der Lerner den Sinn einer gegebenen Vokabel kennen muss und nur über sein Kontextwissen zu ihr abgefragt wird. Für die korrekte Evaluation der Antwort müsste das zentrale Wort auf Ambiguitäten hin überprüft werden und der Lerner im Zweifelsfall nach einer weiteren Interpretationsart des zentralen Wortes befragt werden, z.B. beim Nomen „Schloss“. 8.2.4 Ablauf der Vokabel-Abfrage Zu Anfang jeder Abfrage-Sitzung wählt der Anwender einen Übungsmodus und eine Vokabellektion aus. Sind schon alle Vokabeln dieser Lektion gelernt, kann der Lerner sie auf Wunsch wieder auffrischen, z.B. wenn er die Lektion vor längerer Zeit gelernt hatte, oder er sucht sich eine neue Lektion aus. Ist der Lerner die Lektion erst vor kurzem abgefragt worden, und keine Vokabel muss so früh schon wiederholt werden (siehe in 8.2.2.2 die Berechnung der Wiederholungen), so bekommt der Lerner angezeigt, in wie vielen Tagen er die Lektion frühestens wiederholen muss. Ansonsten werden alle im 129 KAPITEL 8. BEISPIELANWENDUNG Moment abzufragenden Vokabeln dieser Lektion nacheinander durchgenommen. Wurden sie alle abgefragt, wird die Lektion neu sortiert. Vokabeln, die in dieser Sitzung das fünfte Mal in Folge korrekt genannt wurden, werden aus dem Vokabeltrainer entfernt; nur Wörter, die in dieser Sitzung nicht richtig genannt wurden, werden noch ein weiteres Mal abgefragt, so lange, bis der Lerner das Programm abbricht oder er alle Wörter richtig beantwortet hat und sie ein Karteikastenfach weitergekommen sind. Am Ende der Sitzung bekommt er dann auf Wunsch ein Feedback über seine Leistung: • Anzahl der abgefragten Wörter • Anteil der Wörter, die er bei dieser Sitzung richtig beantwortet hat • Anteil der Wörter, die er so oft in Folge richtig beantwortet hat, dass sie als gelernt gelten und nicht mehr abgefragt werden • Gesamtanzahl der Wörter in der momentan abgefragten Lektion • Anteil der schon vollständig gelernten Wörter dieser Lektion Dieses Feedback informiert sowohl über das Lernverhalten bezüglich der letzten Abfrage als auch über das bezüglich der Lektion. So kann der Lerner zum einen abschätzen, ob seine Lernanstrengungen erfolgreich waren, weil er mit dem Prozentsatz an richtigen Antworten zufrieden ist und zum anderen, wie lange er wohl noch lernen muss, bis er die Lektion vollständig gelernt hat. So bekommt der Lerner nicht nur unmittelbares Feedback nach jeder einzelnen Vokabel, sondern zusätzlich ein summatives Feedback. Kulik & Kulik zeigen, dass die Selbsteinschätzung, die dem Lerner durch Feedback ermöglicht wird, seine Motivation zu lernen besser fördert, als wenn er kein Feedback bekommt (Kulik and Kulik, 1988). 8.2.5 Speicherung des Benutzerprofils Für jeden Benutzer des Vokabeltrainers wird ein persönliches Profil angelegt. Darin werden Informationen über die Abfragesitzungen und das Lernverhalten des Benutzers gespeichert. Da der Vokabeltrainer auf dem in Abschnitt 8.2.2.2 erklärten Karteikastenprinzip beruht, orientiert sich auch die Benutzermodellierung an diesem Prinzip. Wie dort beschrieben, errechnet sich das Datum der nächsten Abfrage anhand des Karteikastenfachs, in dem sich eine Vokabel befindet und nach dem Datum seiner letzten Abfrage. Diese beiden Daten werden für alle ausgewählten Vokabeln des Lerners gespeichert. 8.2.6 Vokabellern-Statistik Eine weitere Art gespeicherter Daten ist für das Feedback des Lerners gedacht und enthält Informationen über sein Abfrage- und Lernverhalten: • Anzahl der schon gelernten Wörter einer Lektion 130 KAPITEL 8. BEISPIELANWENDUNG • Anzahl der noch nicht gelernten, aber schon mehrmals korrekt genannten Wörter der Lektion • Anzahl der gar nicht gewussten Wörter der Lektion • Anzahl der bei der Abfrage korrekt genannten Wörter Diese Daten werden, wie in Abschnitt 8.2.4 erklärt, am Ende jeder Sitzung dem Lerner präsentiert. 8.3 Ausblick Wir hatten viele Erweiterungsvorschläge für dieses Projekt, jedoch weder die Zeit noch die Software, finanziellen Mittel oder andere Ressourcen, um sie im Rahmen unseres Studienprojekts in die Realität umzusetzen. 8.3.1 Kollokationen Genauso wichtig für den korrekten Sprachgebrauch sind Kollokationen (Lewis, 2000; Ludewig, 2003). Man kann nur selten die richtige Kollokation erraten sondern muss sie auswendig lernen. Ohne ihre Kenntnis aber macht der Deutsch-Lerner Fehler und wird im besten Fall als Ausländer „enttarnt“, im schlimmsten Fall jedoch missverstanden. Möchte beispielsweise ein Brite „eine Rede machen“ (to make a speech), so will er sie wahrscheinlich halten. Deutsche verstehen spontan vielleicht aber, dass er eine Rede ausarbeiten, also „machen“ will. Die selbe Problematik zeigt sich bei der wörtlichen Übersetzung von „to take a photo“ in „ein Foto nehmen“, auf die er zurückgreifen muss, wenn er nicht die deutsche Kollokation „ein Foto machen“ gelernt hat. In mehrdeutigen Situationen könnte man verstehen, der Brite würde gern ein Foto mitnehmen. Die Problematik beim Lernen von Kollokationen ist aber einerseits, dass es keine genaue Grenze zwischen ihnen und offenen syntagmatischen Relationen gibt, und andererseits, dass Kollokationen sehr häufig sind. Da sie in GermaNet nicht mit aufgenommen sind, müssten sie alle einzeln von Hand eingetragen werden, was einen immensen Aufwand darstellen würde. 8.3.2 Grammatikalische Abfrage Mit dem momentanen Programm kann man die in GermaNet kodierten, bedeutungstragenden Wortarten wie Nomina, Verben und Adjektive lernen. Das bedeutet, man lernt vielleicht in kurzer Zeit, sich mehr recht als schlecht verständlich zu machen, aber man lernt nicht, grammatikalisch korrekt zu formulieren. Für Lerner, die daran interessiert sind, muss ein zusätzlicher Modus angeboten werden, in dem sie grammatische Details der Wörter lernen. Das wären beispielsweise bei Nomina Artikel und Deklination, bei Adjektiven Deklination und bei Verben die Konjugation. 8.3.3 Einbindung von multimedialen Ressourcen Außer der Netz-Struktur von GermaNet gäbe es noch viele andere Arten, die Bedeutung eines Wortes zu zeigen, z.B. über Bilder und Videos. So könnte man ein Nomen 131 KAPITEL 8. BEISPIELANWENDUNG durch ein Bild und ein Adjektiv durch Bilder der Gegenteile (z.B. eine große Frau vs. eine kleine Frau) darstellen. Verben könnte man mit einem Video zum Vorgang erklären. 8.3.4 Einbindung weiterer Informationstypen Wort-Definitionen, wie man sie in einsprachigen Wörterbüchern findet, stellen eine andere, schwerer verständliche Methode dar, die Bedeutung eines Wortes zu erfassen. Der Lerner könnte mit ihrer Hilfe aber andere Wörter, mit denen es häufig auftritt, oder Kontexte, in denen es verwendet wird, lernen und zur Sprachproduktion verwenden. Zusätzlich wäre es hilfreich, ein Übersetzungsprogramm oder Ähnliches in den Vokabeltrainer einzubinden. So könnten Deutsch-Lerner durch die Übersetzung die exakte Bedeutung auch abstrakter Begriffe verstehen, die sich nur mit Hilfe von GermaNet schwer erschließen lassen, wie z.B. „Freiheitsentzug“ oder „Neoliberalisierung“. 8.3.5 Mündliche Abfrage Man könnte zusätzlich zur schriftlichen eine mündliche Abfrage mit den gleichen Übungsarten anbieten. Diese Abfrageart wäre besonders geeignet, wenn der Lerner in kurzer Zeit seine Vokabeln auffrischen will. Er müsste seine Antwort nur laut aussprechen und dann selbst mit der richtigen Lösung vergleichen. Hier wäre es sinnvoll, ein Hörbeispiel oder zumindest die phonetische Lautschrift anzuzeigen, sodass der Lerner auch die korrekte Aussprache lernen kann. Diese Selbstkorrektur sollte aber nicht ins Benutzerprofil eingehen, solange ihre Korrektheit nicht vom Programm überprüft werden kann. Optimal wäre natürlich eine automatische Spracherkennung, die die Antwort des Lerners mit einer Beispiel-Aussprachedatei vergleicht. 8.3.6 Fehleranalyse und Feedback Eine wichtige Erweiterung wäre, statt nur zwischen richtiger und falscher Lösung zu unterscheiden, eine detaillierte Fehleranalyse mit Unterscheidung zwischen Rechtschreibfehlern und semantisch falschen Begriffen. Sie sollte einerseits Verfahren des approximativen String Matching (Navarro and Baeza-Yates, 1998) berücksichtigen können, um die Eingabe mit den Vokabeln des Netzes zu vergleichen, andererseits auch das daraus ermittelte Fehlerverhalten beim Fremdsprachenlernen modellieren können (Chanier et al., 1992). Auf dieser Analyse aufbauend könnte man ein angemessenes informatives und motivierendes Feedback geben, z.B. „Du hast dich vertippt.“ oder „Du hast das Antonym der gesuchten Lösung eingegeben.“ 8.3.7 Lösung des Problems der nicht verbundenen Knoten Der Lerner hat die Möglichkeit, Wörter in seine persönliche Version von GermaNet selbst einzufügen, muss diese aber nicht mit dem Netz verbinden. Solche unverbundenen Vokabeln können momentan nicht abgefragt werden, da die gegenwärtig vorhandenen Übungsmodi rein auf Relationen und Nachbarwörtern basieren. Man könnte hier beispielsweise ein Übersetzungsprogramm einbinden und mit seiner Hilfe das 132 KAPITEL 8. BEISPIELANWENDUNG deutsche, unverbundene Wort mit seiner englischen oder französischen Übersetzung zu verknüpfen. 8.3.8 Vorgefertigte Lektionen Relevante Teile des Netzes könnten als Lektion abgespeichert und dem Lerner angeboten werden, z.B. Begriffe zu einem bestimmten Thema, oder alle Nachbarwörter einer bestimmten Tiefe zu einem zentralen Wort. Des Weiteren könnte das Netzwerk-Prinzip von MAPA auf den Vokabeltrainer übertragen werden, sodass Lerner ihre selbst erstellten Lektionen untereinander austauschen könnten. 8.3.9 Automatische Auswahl des Übungsprogramms Mit all den gerade vorgeschlagenen Erweiterungen könnte man die Vokabelabfrage so erweitern, dass das Programm je nach Lerngrad einer Vokabel im Karteikastensystem einen anderen Übungsmodus auswählt. Dieses Vorgehen hätte zum einen den Vorteil, dass durch verschiedene Hinweise auf das gesuchte Wort (paradigmatisch durch verwandte Begriffe im semantischen Netz oder rein semantisch durch Bilder bzw. Videos) beim Lerner verschiedene Assoziationen geweckt werden und sich das Wort besser einprägen kann. Zum anderen ergäbe es aber sicher einen großen pädagogischen Vorteil. Durch eine abwechslungsreich variierte Abfrage würden die Aufmerksamkeit, die Motivation und das Interesse am Vokabellernen sicherlich erhöht. 8.3.10 Evaluation des Vokabeltrainers Da es sich bei MAPA und seinem Vokabeltrainer um ein reines Programmierprojekt handelt, wurde der Vokabeltrainer noch nicht in größerem Rahmen getestet oder evaluiert. Eine solche Überprüfung läge eher im Bereich der Psycholinguistik und Pädagogik. Deshalb können wir leider nicht sagen, ob unsere Hypothesen über Lernverhalten und Lernerfolge zutreffend sind. Es ist aber angedacht, den Vokabeltrainer im Rahmen einer Magister- oder Masterarbeit zu evaluieren. 133 Teil III Ausblicke und Fazit 134 Kapitel 9 Ein erweitertes Bild von Manuel Boeck Die Vision des MAPA-Projektes basiert auf einer Betrachtung der gegenwärtigen kulturellen Umgebung. Sozialpsychologische, technologische und epistemische Voraussetzungen sind für das Entwickeln von Werkzeugen relevant. Wie entwickelt sich der Werkzeuggebrauch in einer Kultur, in der den Individuen und Kollektiven explizites Wissen über metakognitive Prinzipien zur Verfügung steht, diesen also ein bewusster Zugriff auf bestimmte kognitive Stile und Strategien ermöglicht wurde (vgl. Abschnitte 2.3.3 und 2.3.5.2)? Welche höheren kulturellen Stufen erzwingt die Wissensgesellschaft? Wie wird die Umgebung für die Werkzeuge, die wir heute zu entwickeln beginnen, aussehen? 135 KAPITEL 9. EIN ERWEITERTES BILD 9.1 Zur Vergangenheit von Denkwerkzeugen In den vorangehenden Kapiteln war oft die Rede von konstruktivistischem Lernen. Damit verbunden sind allerdings auch Weltbilder, Lebens- und Denkweisen und (leider auch) Philosophische Systeme (ganz zu schweigen von der Juristerei und Medizin). Um diese Verstrickungen ein wenig zu umschreiben folgt in diesem Abschnitt eine Beschreibung, Gegenüberstellung und Synthese konstruktivistischer und soziokultureller Lerntheorien. 9.1.1 Sozio-Konstruktivismus Konstruktivistische Lerntheorien betonen die aktive Beteiligung des Lerners durch Konstruktion von Schlüsseln zum Wissensabruf verbunden mit deren Reorganisation zusammen mit ihren Assoziationen. Wissen besteht hier aus selbstkonstruierten Repräsentationen. In soziokulturellen Lerntheorien wird an Interaktionen des Lerners mit seiner Umwelt gedacht, die ein Wissen formen und darstellen, das in den kulturellen Praktiken und deren Benutzung durch den Lerner gegenseitig abhängig repräsentiert ist. Hier besteht Wissen aus externalisierten Handlungen, die durch die Aufmerksamkeit des Benutzers auf deren Verwendung mit Bedeutung gefüllt werden. Sprache als das zentrale kulturelle Werkzeug entwickelt sich nach soziokulturellen Theorien von externem, sozialem (imitierenden) Verhalten zu internalisiertem bewussten Gedankengut. Eine Theory of Mind, die Fähigkeit, anderen Lebewesen Gedankeninhalte zuzuschreiben, wird durch den Gebrauch von Symbolen (als Kommunikationswerkzeug) über Sprache hin zu bewussten Gedanken über die Gedanken anderer Lebewesen entwickelt. Nach konstruktivistischen Theorien gehen bewusste Gedanken der Sprache voraus, und eine Theory of Mind entwickelt sich durch Selbstbewusstsein der eigenen mentalen Zustände hin zur Konstruktion von bewussten Überzeugungen über die mentalen Zustände anderer. Soziokulturelle Lerntheorien haben ihren Ursprung in den Arbeiten von L.S. Vygotsky A.N. Leont’ev und A.R. Luria in der Sowjetunion (siehe z.B. die Sammlung Vygotsky, 1987). Ihnen geht es um kulturelle Mediation von Kognition durch materielle und semantische Artefakte wie Werkzeuge und Zeichen, um absichtsvolle Handlungen im sozialen Kontext und der Verankerung der Kognition hierin, um die historische Entwicklung von Kognition in Synchronizität mit psychologischer Organisation der Gesellschaft, und um die fundamentale Bedeutung sozialer Praktiken für den menschlichen Geist. Die konstruktivistischen Theorien werden unter anderem mit Piagets „genetischer Epistemologie“ und von Glasersfelds „radikalem Konstruktivismus“ verbunden (Piaget, 1972; von Glasersfeld, 1993), die soziokulturellen mit Theorien des situierten Lernens und situierter Kognition. Für MAPA bedeutet dies, Lernen als identitätstransformierenden Prozess zu verstehen, für den es notwendig ist, dass der Lernende sich ganz mit seinem kognitiven Werkzeug identifizieren kann. Wenn der Lernende sich in die verschiedenen (selbstkonstruierten, und visualisierten) Perspektiven auf (in) den Lernstoff mit Hilfe unseres Werkzeugs hineinbegeben kann, und dabei seine eigenen Perspektiven erkennt und durch epistemologische Handlungen, die auf externalisierten (visualisierten) Wissen- 136 KAPITEL 9. EIN ERWEITERTES BILD sentitäten operieren, transformieren kann, dann transformiert sich damit seine eigene Identität (betrachtet als Konglomerat von Identitäten). Der Lernprozess wird dadurch zum einen beschleunigt, da das „fremde“ Wissen mit eigenen Inhalten befreundend und motivierend verbunden werden kann; zum anderen können wir natürlich keine ernsteren Nebenwirkungen auf die Identitätsentwicklung ausschließen, da unser Werkzeug sich natürlich erst noch am Menschen erproben muss. MAPA möchte es dem Lerner überlassen, wie er sich selbst instruiert, oder noch besser (,) wahrnimmt. Insbesondere möchte es (biologische) Gehirnanstrengungen verringern, durch Verlagerung strukturierender Denkprozesse von internen zu externen Resourcen. Nebenbei darf ganz allgemein der Gebrauch von Zeichen verfeinert werden. Die kollaborative Natur des Werkzeugs (insbesondere MAPA) öffnet Spielraum, um aus vorhandenen Wissensentitäten Neues zu konstruieren. Dies geschieht durch Akkumulation und Transformation, vermittelt durch graphische Aktionen und referenzierten Suchaktionen oder anderen Hintergrundaktionen, deren Funktionen durch die OpenSource-Gemeinschaft ständig erweitert werden können. Dem zugrunde liegt das Konzept der kognitiven Karten (cognitive maps) — die Vorstellung ist, dass die visualisierte Karte von Wissensschlüsseln auf deren neuronale Organisation in corticalen Karten zurückwirkt. Zentral für diese Ideen ist, dass Ideen auf kognitiv adäquat „handhabbare“ Entitäten abgebildet werden, das heißt auch, Operationen auf komplexen Beschreibungen werden auf Operationen auf einfachen Entitäten verlagert. Diese Knoten sind jedoch jederzeit entfaltbar, neuen Wissensraum öffnend. Nach einer soziokulturellen Lerntheorie zu leben bedeutet, sich auf den Bedeutungsgehalt seiner Handlungen verlassen zu können, ohne diesen Gehalt aktiv konstruieren zu müssen. Die Bedeutung ist in den kulturellen Praktiken enthalten und wird durch Praxis kontinuierlich modifiziert: cognitive / cultural attunement. Konstruktivistisch zu leben bedeutet, sein Weltbild als ein selbstkonstruiertes zu denken, und die Wahrnehmung durch diese Konstruktionen bestimmt und geformt zu sehen. Die eine Art verlässt sich auf unbewusste Handlungsmechanismen, die andere auf bewusste Konstruktionen. Natürlich sehen Konstruktivisten auch unbewusste wahrnehmungsstrukturierende Handlungen als konstruktivistisch an und Soziokulturalisten erweitern ihre bewusste Wahrnehmung auf unbewusste Mechanismen. Kant als Konstruktivist strukturiert die Wahrnehmung durch Zeit und Raum, und zwar bereits auf den ersten Stufen der sensorischen Informationsverarbeitung. Ontologisch unterscheiden sich Soziokulturalisten und Konstruktivisten durch die konstruktivistische Annahme eines Subjekts, als eigene ontologische Entität, getrennt von seiner Umwelt. Soziokulturell gesehen handelt es sich nur um einen Prozess, während das Subjekt sozial konstruiert ist, und in radikaler Variante Geist als sozial verteilt angenommen/gesehen wird. Der entscheidende Unterschied ist wohl, dass Konstruktivisten sich damit zufrieden geben, Wissen von Welt zu konstruieren, während Soziokulturelle Welt ‘konstruieren’. 9.1.1.1 Ein Zukunftsausblick? Eine Frage die sich bei der Evaluation von MAPA stellt ist, ob das Externalisieren von Gedanken nun dem Benutzer an sich dient oder ob das Externalisierte selbst auch für andere einen Nutzen bietet. Im ersten Fall liegt der Nutzen darin, dass der Benutzer von den Gedanken befreit wird, die anschließend nur noch in externalisierter Form vorlie137 KAPITEL 9. EIN ERWEITERTES BILD gen (und allenfalls noch als Spiegeloberfläche dienen). Im zweiten Fall ist das Externalisierte auch so strukturiert, dass es von anderen aufgenommen werden kann und so recycelt wird. Im Idealfall sollte eine zyklische Interaktion stattfinden, die das Gedankenmaterial aus den Köpfen des einen extrahiert, im Netz recycelt wird und dann als neue Gedankennahrung verwendet werden kann. Ferner stellt sich noch von selbst die Frage, wie die Qualität beim Recyclen aufrecht erhalten werden kann; andererseits erübrigt sich die Frage in einer Welt, in der das natürliche Wachstum durch künstliches ersetzt wurde. Wo die Gedanken nicht mehr wachsen muss man mit Recycletem vorlieb nehmen. 9.2 Zur Zukunft von Denkwerkzeugen Zur Zukunft der Menschheit sei noch gesagt, dass sie zunehmend verwirrender sein wird. Ein MAPA benutzender Mensch wird oft bald nicht mehr wissen, welche Gedanken nun von ihm selbst waren und welche sich aus deren Spiegelungen (auf der Visualisierungsoberfläche) ergeben, also nur Reflexionen der ausgestrahlten Denkentitäten sind. Ein solcher reger Austausch zwischen geistiger Hemisphäre und Reflexion ist ja im Prinzip auch gewünscht. Das Prinzip nach dem ein kognitives Werkzeug das Denken unterstützt (die kognitive Prothese) basiert auf der Bildung einer künstlichen Grenzfläche oder (graphischen) Oberfläche an der sich Gedanken spiegeln können. Die Spiegelungen werden wieder aufgenommen durch bzw. in den erzeugenden Geist, in dem sich nun, je nach Refraktionsquotienten, eine unterschiedliche Transformation der Gedanken vollzieht und in einen neuen Projektionszyklus mündet. Der Benutzer landet dabei im Spezialfall (Idealfall ?) in einer tiefen Versenkung der kreisenden Denkentitäten, die befreit von ihrem menschlichen Ursprung ein neues Leben in den Neuronalen Netzalgorithmen des kognitiven Werkzeugs beginnen. Das Resultat wird zur Freude des Benutzers nicht mehr wiederzuerkennen sein, und damit das Gefühl schaffen, etwas Neues geschaffen zu haben. Wer sich nicht zu tief in diese Denkzyklen hineinschrauben lässt, wird auf der Oberfläche immer noch eine gewisse Reflexionsschärfe oder -klarheit erzielen, mit der seine Erwartungen an das Werkzeug ganz seinen Ansprüchen gemäß erfüllt werden. In der (politischen) Philosophie wird diese Frage sich möglicherweise zu einem neuen Dilemma entwickeln, zu einer Frage des geistigen Eigentums — Menschengeist oder Computergeist . . . Dies sollte an sich genügend Denknahrung für ein ausgewachsenes philosophisches „Problem“ bilden, da Spiegelungen bereits in der physikalischen Welt schwer zu isolierende Phänomene sind und in der memetischen Welt also wohl kaum einfacher zu handhaben sind. Kritik wird sich aus dem Lager der Menschen zeigen, die in diesen Spiegelungen eine Fata Morgana sehen, die ihnen den Zugang zu einer (realen) kognitiven Oase verstellen. (Die Rechtsprechung wird sich auf ein neues Streitfeld einrichten müssen, dem Recht auf geistige Nahrung und Sicherung der kognitiven Grundbedürfnisse, wenn sich das erste Durstopfer einstellt.) 138 KAPITEL 9. EIN ERWEITERTES BILD 9.2.1 Drei Fragen . . . In der Geschichte der Menschheit waren Werkzeuge meist Mittel zur Transformation oder Manipulation von Gegenständen. Von den Entwicklungspsychologen wird der Begriff des kognitiven Werkzeugs verwendet, um Sprache als dessen Prototyp zu erklären (Vygotsky, 1987). Mit den technischen kognitiven Werkzeugen (im nicht-technischen Sinne) wird eine neue Entwicklungsstufe des Werkzeuggebrauchs eingeleitet, mit der den Menschen nun nicht nur die Arbeit abgenommen wird, sondern auch das Denken. Zukünftige Generationen könnten auf die Denkzeitalter in der Geschichte der Menschheit dann als niedrige Vorstufen zu dem vollständigen Dasein in Emotion, Sensation und Aktion oder einem Dasein in ganz neu zu beschreibenden Dimensionen zurückblicken. Vielleicht ermöglicht der Gebrauch der kognitiven Werkzeuge es dem Menschen sogar erstmalig, das Intelligenzniveau von Ameisen zu erreichen. (Und damit den Platz für die Entfaltung der menschlichen Natur in seiner inneren emotionalen, sensorischen und motorischen Vielfalt zu erweitern.) Die Grundidee ist dabei, dass das externalisierte, zur Spiegelung gebrachte Wissen durch dessen Vernetzung für alle Individuen synchron zugänglich wird. Individuelle Reflexion kann durch die Vernetzung, Verlagerung auf die Ebene der Denkwerkzeuge und deren Vermittlung zu kollektiver sozialer Kognition werden. Als Antwort auf die erste der dieses Kapitel einleitenden drei Fragen, 1) Wie entwickelt sich der Werkzeuggebrauch in einer Kultur, in der den Individuen und Kollektiven explizites Wissen über metakognitive Prinzipien zur Verfügung steht? könnte dies bedeuten, dass Individuen (meta-)kognitive Werkzeuge zur Transformation ihrer Identität und ihrer Selbst einsetzen können, und kollektiven Zugang zu dem Denken ihrer Teilnehmer erhalten, sich ebenso transformieren können und einen neuen Grad der Selbstregulation entwickeln. Weitergefragt, 2) Welche höheren kulturellen Stufen erzwingt die Wissensgesellschaft? löst sich die Frage auch gleich wieder auf, da es eine Wissensgesellschaft in dem bekannten Sinne nicht mehr geben wird. Für kulturelle Stufen wird neuer Entfaltungsspielraum geboten, in dem mit dem Wissen über sich selbst gespielt werden kann. Zuendefragend, 3) Wie wird die Umgebung für die Werkzeuge, die wir heute zu entwickeln beginnen, aussehen? bleibt die Antwort offen, da sie von den Visualisieroungen ualisierungen / Vis \ ionen Visualisieruongen 139 KAPITEL 9. EIN ERWEITERTES BILD jedes Einzelnen abhängen. 140 Kapitel 10 Fazit von Stefan Scherbaum, Tobias Widdra Das von der Projektgruppe gewählte Thema stellte sich als weites Forschungs- und Entwicklungsfeld heraus. Im vergangenen Jahr sind wir in einigen Bereichen dieses Feldes vorangekommen, in anderen mussten wir aufgrund der begrenzten Zeit Abstriche in Kauf nehmen. Die Ergebnisse des Projektes lassen sich auf zwei Ebenen zusammenfassen: zum einen auf der fachlichen (technisch- wissenschaftlichen) und zum anderen auf der Ebene unserer persönlichen Erfahrung mit der Arbeit an einem solchen Projekt. 141 KAPITEL 10. FAZIT 10.1 Fachliche Ergebnisse Technisch-wissenschaftlich gesehen erstellten wir eine unserem Ermessen nach tragfähige Architektur für eine Software, die das netzartige Abbilden von Wissen bzw. Wissenscues erlaubt. Zu diesem Zweck trugen wir Ergebnisse verschiedener Forschungsrichtungen, sowohl der Geisteswissenschaften als auch der Natur- und Ingenieurwissenschaften zusammen. Unser Ziel war es, die so entstandenen Anforderungen in unserem Werkzeug zu integrieren und prototypisch zu realisieren. Eingehend auf unsere eingangs definierten Ziele (vgl. Abschnitt 1.2) ergibt sich somit folgendes Gesamtbild: Spezifikation von Anforderungen In Teil I setzten wir uns mit den wissenschaftlichen Erkenntnissen aus den Bereichen der Lerntheorien, des Mappings und der Kollaboration auseinander. Architektur eines Frameworks Die gewonnenen Erkenntnisse nutzten wir in Kapitel 6, um aus den resultierenden technischen Anforderungen eine Architektur für ein Mapping-Framework zu entwerfen. Implementierung eines Prototyps In Kapitel 7 demonstrierten wir die Umsetzbarkeit dieser Architektur anhand eines Prototyps. Entwicklung einer beispielhaften Anwendung Kapitel 8 stellt den netzbasierten Vokabeltrainer als eine beispielhafte Anwendung vor, welche auf dem Prototyp aufbaut und somit die Nutzbarkeit unserer Architektur als Frameworks für vielfältige Anwendungsmöglichkeiten unterstreicht. Eine genauere Betrachtung der Ergebnisse unserer wissenschaftlichen Recherche offenbart, dass im Falle von MAPA ein enger Zusammenhang aus konstruktivistischen Prinzipien, Mappingansätzen und der Kollaboration vieler Individuen besteht. All diese Forschungsgebiete sind Wissenschaften für sich und es existieren in jedem Unmengen an Wissen und Erkenntnissen, so dass wir zwangsläufig nur kleine Ausschnitte all dieser Gebiete beleuchten konnten. Trotzdem waren die Ergebnisse für MAPA sehr fruchtbar und zeigten einen Weg auf, die verschiedenen Ansätze in einem integrativen Werkzeug zu verbinden. Eine nähere Betrachtung der Architektur zeigt, dass wir hier viele unserer Vorhaben erreicht haben: • Der Abstraktionsgrad des entitätenbasierten Ansatzes erlaubt den Einsatz verschiedenster Mappingverfahren im Rahmen des MAPA-Frameworks. Der implementierte Grapheditor stellt hier ein einfaches Beispiel dar. • Die spezifizierten Protokolle bieten einen großen, plattformunabhängig nutzbaren Funktionsumfang für Anwendungen, die auf dem MAPA-Framework aufbauen. Dieser wird z.B. von der implementierten Kommandozeile umfangreich genutzt, welche weitere Features, wie z.B. eine graphische Navigation in einem Netz, konkret vorstellbar macht. • Die Implementierung des kollaborativen Aspektes wird durch den in der Architektur vorgesehenen Messaging-Mechanismus prinzipiell ermöglicht. 142 KAPITEL 10. FAZIT Die architekturspezifischen Ziele der Erstellung eines Frameworks und dessen Unterstützung der Meta-Mapping-Fähigkeiten haben wir somit erreicht. Im Bezug auf den Aspekt der Kollaboration stießen wir auf eine sehr große Menge zu klärender Fragen. Dazu zählen beispielsweise: • Wie muss das Wissenseigentum in einem Peer-to-Peer-MAPA-Netz und damit die Sicherheitsregelung gestalten werden? • Wie kann ein auf mehrere Datenbanken verteiltes Typisierungssystem aussehen, dass auch beim Ausfall mehrerer Peers immer noch funktionsfähig sein muss? • Wie können verschiedenste Antwort-Entitätensets verschiedener Datenbanken als Antwort auf eine Anfrage integriert werden. Viele dieser Fragen mussten wir (vorerst) zugunsten der Bearbeitung der anderen Themenfelder und des Aufbaus der Architekturbasis unbeantwortet lassen. Die Kollaboration mehrerer Teilnehmer ist somit mit der aktuellen Version von MAPA noch nicht möglich. Allerdings erlaubt die Architektur hier eine spätere Erweiterung an dafür bereits vorgesehenen Punkten. Das Aufdecken der kollaborationsbezogenen Fragen und somit das Entstehen weiterer zukünftiger Arbeitsfelder sehen wir dennoch als wichtiges fachliches Ergebnis dieses Projektes. Der implementierte Prototyp zeigt, dass unsere Architektur tragfähig ist. Er verwendet bereits verschiedene Oberflächen zur Darstellung des abgespeicherten Netzes (grafisch und kommandozeilenbasiert) und erlaubt somit auch das verschiedenartige Arbeiten mit dem Netz. Das Aufsetzen der unterschiedlichen Editoren erwies sich dank der modularen Struktur des Systems als prinzipiell einfach, die zur Verfügung gestellte Java-Integration-Library und die Einbindung in Eclipse erwiesen sich nach einer gewissen Einarbeitung als extrem arbeitserleichternd und beschleunigend für den Entwicklungsprozess. Mittlerweile erreichten uns einige Anfragen nach diesem prototypischen Basissystem von anderen Gruppen und Studenten. Aufbauend auf MAPA möchten sie Systeme mit weiterentwickelter grafischer Oberfläche und der Möglichkeit zur gemeinsamen Arbeit an einem Netz produzieren. Diese begeisterte Nachfrage bestätigt nicht nur unsere Einschätzung nach dem Bedarf einer solchen Architektur, sondern auch das der Architektur zugrunde liegende Konzept. Es ist somit zu erwarten, dass sich MAPA in weiteren Projekten, seien sie universitär oder privat, auf Basis unseres Prototypen weiterentwickeln wird. Die in Kapitel 8 vorgestellte Beispiel-Anwendung zeigt zudem, dass die Idee von MAPA nicht auf die reine Wissensabbildung beschränkt ist, sondern auch eine Basis für weitere Anwendungsgebiete darstellen kann. Die Idee eines netzbasierten Vokabeltrainers macht es möglich, neuartige Konzepte einfach zu realisieren, wie z. B. eine Vokabelabfrage in Form von Lückennetzen, die das Wissen über die semantischen Beziehungen der einzelnen Vokabeln als notwendigen Bestandteil des Lernens ins Zentrum setzen. In Kapitel 8 wurde ein umfangreicher Ideenkatalog aufgestellt. Aufgrund der begrenzten Ressourcen konnten jedoch nur einige der vielen Ideen umgesetzt werden. Zu diesen gehören: • Explorieren des Netzes über semantische Relationen und Auswahl der Vokabeln für die Abfragelektionen • Auswahl einer Abfrage aus drei Varianten der Lückennetzidee 143 KAPITEL 10. FAZIT • Speicherung des letzten Abfragezeitpunktes einer Vokabel inklusive der Information, ob diese richtig wiedergegeben werden konnte Durch die erzielten Implementierungserfolge ist deutlich geworden, dass sowohl der Prototyp als auch der Vokabeltrainer erfolgreich auf dem MAPA-Framework aufsetzen. Dies macht uns zuversichtlich, dass durch den von uns gewählten modularen Ansatz ein vielseitiger Einsatz von MAPA ermöglicht worden ist. 10.2 Projektmethodische und persönliche Einsichten Die Ergebnisse auf der persönlichen Ebene sind naturgemäß schwieriger zu bestimmen. Das Ziel eines Masterprojektes, wie es im Studiengang Kognitionswissenschaft gefordert ist, ist sicherlich nicht nur die Erzeugung wissenschaftlicher Ergebnisse oder eines technischen Produktes. Die persönliche Weiterentwicklung hinsichtlich der gemeinsamen Projektarbeit stellt einen weiteren wichtigen Punkt dar. Wir alle haben in dieser Hinsicht eine deutliche Entwicklung an uns beobachten können. Dazu zählt die Entwicklung einer von allen akzeptierten Arbeitsmethodik und eines Teamgeistes, der zu verschiedensten Zeiten die Stärken und Schwächen einzelner Projektmitglieder tragen konnte. Insbesondere zählt auch die Einsicht dazu, dass viele der Standardmethoden, wie die Moderation von Sitzungen, das schriftliche Festhalten der Ergebnisse und das Setzen von Abgabeterminen nicht einer reinen Formalisierungswut so mancher Projektmanager entspringt, sondern auf der Realität des Alltagsgeschäfts beruht und sinnvoll ist. Ebenso entpuppte sich die Arbeit in kleinen themenspezifischen Arbeitsgruppen, welche ihre Ergebnisse dann dem gesamten Team zur Diskussion stellen, als deutlich effektiver gegenüber langwierigen Sitzungen im Gesamtplenum ohne jegliche Diskussionsgrundlage, in denen die Kernideen ersteinmal formuliert werden mussten. Hierbei war auch interessant zu erleben, wie schnell eine eigene Ideenskizze von der Gruppe als solch eine Diskussionsgrundlage angenommen wurde, da die Früchte jeglichen Engagements im oftmals überfüllten Alltag gerne akzeptiert werden. Deutlich haben wir zudem gesehen, wie viel effektiver – und vor allem auch Spaß bringender – unsere „internen“ Treffen ohne Betreuer waren, wenn wir uns klare Ziele setzten (Welche Themen sind abzuarbeiten? Was wollen wir heute erreichen?), es einen Moderator gab und unsere Kommunikation mit Visualisierungen anhand eines Flipcharts ergänzt wurde. Die Prinzipien von klarer Zielsetzung und Festhalten der Ergebnisse anhand eines Protokolls wandelten sich immer mehr von anfänglicher „Pflichterfüllung “ unseren Betreuern gegenüber zur sinnverstandenen Selbstverständlichkeit. Die MindMap in Abbildung 10.1 versucht, einige unserer projektmethodischen Erkenntnisse zusammenzufassen. Zu den allgemeinen Hürden eines solch umfangreichen Projektes kam die Tatsache, dass dieses Projekt eine Zusammenarbeit von Studenten der Universitäten Osnabrück, Tübingen und Bochum war. Hinzu kam, dass die Bochumer Studentin gerade ein Auslandsjahr an der University of Edinburgh absolvierte, was die räumliche Entfernung nocheinmal vergrößerte. Während sich dieses ortsübergreifende Arbeiten anfangs als sehr zeitaufwändig und des Öfteren auch als kommunikationsineffizient erwies, entwickelten wir als Projektgruppe mit der Zeit einen effektiven Arbeitsstil, der mit den Problemen der großen räumlichen Distanz immer besser umgehen konnte. So begannen wir mit gemeinsamen Chatsitzungen, in denen wir uns kennen und unsere ersten Ideen austauschen lernten. Die Ineffizienz dieses Kommunikationsmittels war schnell 144 KAPITEL 10. FAZIT Abbildung 10.1: Ein Ausschnitt unseres im Projekt erworbenen arbeitsmethodischen Wissens 145 KAPITEL 10. FAZIT offensichtlich und die alsbald erprobte Möglichkeit, während einer Telefonkonferenz frei sprechen zu können, wirkte wie eine Erlösung und brachte Fahrt in den Ideenaustausch. Doch, wie erwartet und dennoch deutlich erlebt, kam das Gefühl von gemeinsamer Arbeit und eines Teamgeistes erst richtig auf, als wir die ersten persönlichen Treffen veranstaltet hatten. Als Highlight zählen hierzu die zwei gemeinsamen „Programmierwochen“, in denen sich neben einer jeweiligen ergiebigen Arbeitswoche natürlich auch jede Menge Zeit für gemeinsame Aktivitäten und persönlichen Austausch finden ließ. Gestärkt durch diesen persönlichen Kontakt erwies sich letztlich unsere Idee, regelmässig mittels „Telefonbeauftragte“ der jeweiligen Standorte Informationen im direkten Zweiergespräch auszutauschen, als fruchtbare Lösung des Problems der ortsübergreifenden Kommunikation. An dieser Stelle möchten wir nun auch unseren Projektbetreuern danken. Sie gaben uns so viel Freiheit wie möglich, um all diese Erfahrungen selbst machen zu können, und gleichzeitig so viel Vorgaben und Rahmen wie nötig, um uns nicht auf dem weiten Feld des Projektthemas zu verlieren. 146 Kapitel 11 Ausblick von Jens Wissmann Hauptmotivation für das MAPA-Projekt war die Vorstellung, Menschen neue Wege zum Aufbau und Austausch von Wissen zu ermöglichen. Wie sich im Rahmen des Master-Projektes gezeigt hat, müssen um dies zu erreichen viele verschiede Forschungsfelder betrachtet und bisher einzeln nebeneinanderstehende Technologien (wie z.B. Mappingverfahren, Semantische Netze, Ontologien, ...) zusammengebracht und werden. Im Rahmen des Masterprojektes wurde deshalb zum einen versucht die für dieses Vorhaben relevanten Wissensgebiete näher zu beleuchten und zum anderen ein Fundament für weitergehende praktische Arbeiten zu legen. Da bei jeder neuen Idee schwer zu entscheiden ist, welche Wissensgebiete und Im147 KAPITEL 11. AUSBLICK plementierungswege schließlich zum Ziel führen, haben wir versucht uns sowohl so offen wie möglich zu halten, als auch pragmatische Teilziele zu verfolgen. Da sich dieser Grenzgang zwischen Visionieren und Konkretisieren im Projektverlauf als durchaus Frucht tragend erwiesen hat, sollen diese Pole auch das weitere Arbeiten bestimmen. 11.1 Visualisierung Im Bereich Visualisierung ist unser kurzfristiges Ziel, die bestehende ConceptMapping Visualisierung so zu erproben und zu erweitern, dass sie stabil genug für die alltägliche Anwendung ist. Dabei sind zum einen Performance-Fragen zu klären. Weiterhin sind auch andere praktische Aspekte der Anwendungslogik zu realisieren, wie eine Erleichterung der Anbindung bestehender Daten (Datei, URLs) an das Wissensnetz. Wissen gewinnt an Klarheit, wenn es von verschiedenen Seiten beleuchtet wird. Um zu verdeutlichen, dass der MAPA-Ansatz dafür geeignet ist, sollen mittelfristig noch verschiedene andere netzbasierte Visualisierungsformen angebunden werden. Es bietet sich an hier auch bestehende Lösung wie TopicMaps4J, JGraph oder Touchgraph zu verwenden. Intuitive Möglichkeiten, verschiedene Themennetze zu verknüpfen, sind ein weiterer Aufgabenbereich. 11.2 Kollaboration Wir hoffen, dass die Möglichkeit, viele unterschiedliche Inhalte in verschiedensten Visualisierungsformen in Beziehung setzen zu können, zu kreativem Arbeiten motiviert. Die Entwicklung des Internets in den letzten Jahren zeigt aber, dass ein ungleich größeres kreatives Potential entfesselt werden kann, wenn man Menschen die Möglichkeit gibt, ihr Wissen gegenseitig auszutauschen. Technisch wurden im Prototyp Grundlagen zur verteilten Datenspeicherung gelegt. Dies jetzt auch in die Anwendungslogik einzubeziehen, ist die erste große Aufgabe, die jetzt angegangen werden muss. Als längerfristige Vision sollen dann auch soziale Aspekte modelliert werden. Dies umfasst zum einen anwenderbezogene Aspekte wie Workflows, Policies und Security. Zum anderen zählen dazu auch Aspekte der gemeinsamen Wissensstrukturierung, wie der Umgang mit und die Bildung von Ontologien. 11.3 Arbeit mit Ontologien Das implementierte Entitätenmodell ermöglicht die Bildung von Ontologien. Benutzt man den grafischen Editor, so wird verdeckt schon davon gebrauch gemacht. Aber um Ontologien auch explizit erstellbar und verwendbar zu machen, müssen intuitive Bedienelemente implementiert und das Mapping von visuellen Objekten auf die verwendete Ontologie transparent gemacht werden. Betrachtet man den kollaborativen Aspekt, bleibt zu klären, wie verschiedene Ontologien in Beziehung gestellt oder zusammengefügt werden können. 148 KAPITEL 11. AUSBLICK 11.4 Standards Große Teile der von MAPA benutzen Standards stammen aus dem Umfeld der SemanticWeb-Bewegung. Die Kompatibilität mit bestehenden Standards soll weiter ausgebaut werden, da dies ein großes Potential zur Interoperabilität mit anderen Anwendungen bzw. Services in sich birgt. Dies betrifft vor allem die Bereiche RDF, TopicMaps und WebServices. Neue Entwicklungen im Blick zu behalten ist essentiell. 11.5 Evaluation MAPA soll Lernen und Wissensaufbau fördern. Ob aber das System wirklich die gewünschten Resultate bringt, kann sich erst beim tatsächlichen Arbeitsansatz zeigen. Nachdem bisher theoretische Vorüberlegungen und ein erste Implementation erfolgt sind, ist folglich einer der nächsten logischen Schritte, empirische Daten zu erheben. Ein Evaluationsszenario auf Grundlage des Vokabeltrainers ist dabei leicht denkbar. Voraussetzung ist allerdings eine gewisse Robustheit des Systems. 11.6 MAPA als offene Community Während der Recherche nach für das Master-Projekt relevanten Arbeiten, tauchten immer wieder andere Projekte und Ideen auf, die in ihren Vorhaben in eine ähnliche Richtung wie MAPA zielen. Im Detail unterschieden sich die Projekte zwar teilweise stark von MAPA und im Projektverlauf schärfte sich unserer Blick, worin im Vergleich Vorund Nachteile unseres Ansatzes liegen. Aber unsere Auseinandersetzung mit diesen Projekten hat uns auch in der Meinung bestätigt, dass die grundsätzliche Blickrichtung von MAPA durchaus sinnvoll ist und sich vielerorts Bemühungen zur Integration von Mapping, Kollaboration und semantischer Datenhaltung verbinden. Es gibt viele Entwicklungen, die sich auch auf diese Sichtweise hinbewegen, ohne dieses explizit wahrzunehmen. Viele Wissensmanagement- und auch HypertextSysteme (wie WIKIs) nutzen verstärkt Graph-Visualiserung zur besseren Navigation. Gleichzeitig werden Graph-Visualisierungs-Pakete und Mapping-Software zum besseren Arbeiten mit Ontologien und offeneren Datentypen erweitert. Der MAPA-Ansatz versucht von vorne herein eine integrierte Perspektive einzunehmen. Anstatt sich aber zu stark abzugrenzen zu wollen, ist es für die Zukunft eine wichtige Aufgabe, MAPA in Beziehung zu diesen Projekten und Menschen mit ähnlichen Ideen zu setzen. Wir haben stark von der Nutzung technischer Entwicklungen des SemanticWebs und der Java-Welt profitiert. Ebenso haben wir in vielen kreativen Ideen aus Bereichen wie der Wissensrepräsentation und nicht zuletzt der Kognitionsforschung Inspiration gefunden. Wir hoffen, dass unser Projekt einen Beitrag zu einer gemeinsamen Entwicklung bildet. Da der offizielle Rahmen des Masterprojekts endet, entstehen nun neue Rahmen. Dies betrifft zum einen den Implemtierungsteil, der als OpenSource-Projekt weitergeführt wird. Da es wichtig ist Menschen mit gemeinsamer Zielsetzung zusammenzubringen, soll weiterhin ein Forum geschaffen werden, in dem die vorhandenen Ansätze unter einer integrierten Sichtweise neu diskutiert werden können. MAPA wird von einer Teilbesetzung des Master-Projekts und neu hinzugekommenen Personen in en149 KAPITEL 11. AUSBLICK ger Verbindung zum Institut für Kognitionswissenschaft weitergeführt. Wir freuen uns darauf, in Zukunft das Entstehen neuer Arten der Vernetzung von Menschen und Ideen miterleben und auch mitgestalten zu können. 150 Literaturverzeichnis Alexander, P. and Murphy, P. (1994). The research base for apa’s learnercentered psychological principles. Paper presented at the annual meeting of the American Educational Research Association, New Orleans. Anderson, J. R. (1971). Imagery and verbal processes. Holt, Rinehart & Fisher, New York. Anderson, J. R. (1990). Cognitive Psychology and its implications 3.Ed. W.H. Freeman and Company, New York. Ausubel, D. (1974). Psychologie des Unterrichts Bd. 1 & 2. Beltz Psychologie-VerlagsUnion, Weinheim, Basel. Baroody, A. J. and Bartels, B. H. (2000). Using Concept Maps to link mathematical ideas. Mathematics Teaching in the Middle School, 5(9):604–609. Baroody, A. J. and Coslick, R. (1998). Fostering children’s mathematical power. Lawrence Erlbaum Associates, Mayweh, New Jersey. Barrows, H. (1994). How to Design a Problem-Based Curriculum for the Preclinical Years. Springer, New York. Baumert, J. (1993). Lernstrategien, motivationale Orientierung und Selbstwirksamkeitsüberzeugungen im Kontext schulischen Lernen. Unterrichtswissenschaft, 21(4):327– 354. Berendt, H. and Reiska, P. (2001). Abwechslung im Naturwissenschaftsunterricht mit Concept Mapping. PLUS LUCIS, (1):9–12. Bernd, H., Hippchen, T., Jüngst, K., and Strittmatter, P. (2000). Durcharbeiten von Begriffsstrukturdarstellungen in unterrichtlichen und computergestützten Lernumgebungen. In Mandl, H. und Fischer, F. (Hrsg.), Wissen sichtbar machen – Wissensmanagement mit Mappingtechniken, chapter 2. Hogrefe, Göttingen. Blumstengel, A. (1998). Entwicklung hypermedialer Lernsysteme. wvb Wissenschaftlicher Verlag, Berlin. Bornschein-Grass, C., Picot, A., and Reichwald, R. (1994). Groupware und computerunterstützte Zusammenarbeit – Wirkungsbereiche und Potentiale. Gabler Edition Wissenschaft, Wiesbaden. Braak, W. (2004). Internet: http://www.lille.inserm.fr/u422/hippocampus.html (Stand: Februar 2004). Brewer, J. (1998). Making memories: Brain activity that predicts how well visual experience will be remembered. Science, (281):1185–1187. 151 LITERATURVERZEICHNIS Brombach, G. (2000). Möglichkeiten und Grenzen Künstlicher Intelligenz und ihre Implementierung in Computerlernprogramme. Master’s thesis, Internet: http://www.learninglab.de/˜allert/ki-paed/ (Stand: Oktober 2003). Bruillard, E. and Baron, G.-L. (2000). Computer-based concept mapping a cognitive tool for students : A review. In Proceedings of Conference on Educational Uses of Information and Communication Technologies (ICEUT 2000), 16th World Computer Congress, IFIP, pages 331–338. Buchanan, M. (2002). Small Worlds. Spannende Einblicke in die Komplexitätstheorie. Campus Sachbuch. Buzan, T. (1996). Use both sides of your brain. E.P.Dutton, New York. Buzan, T. and Buzan, B. (1996). Das Mind-Map Buch. Die beste Methode zur Steigerung ihres geistigen Potentials. MVG, Landsberg a. L. Cañas, A. J., Hill, G., Carff, R., and Suri, N. (2003). CmapTools: A knowledge modeling and sharing toolkit. Technical Report IHMC CmapTools 93-01, Institute for Human and Machine Cognition. Carter, R. and McCarthy, M. (1988). Vocabulary and Language Teaching, chapter “Word lists and learning words: some foundations“, pages 1–17. Longman, London. Chanier, T., Pengelly, M., Twidale, M., and Self, J. (1992). Conceptual Modeling in Error Analysis in Computer-Assisted Language learning Systems, chapter “Intelligent Tutoring Systems for Foreign Language Learning“, pages 232–305. Springer, Berlin. Chinn, C. A., O’Donnell, M., A., and Jinks, T. S. (2000). The structure of discourse in collaborative learning. Journal of Experimental Education, 69(1):77–97. Chiu, C.-H., Huang, C.-C., and Chang, W.-T. (2000). The evaluation and influence of interaction in network supported collaborative Concept Mapping. Computers & Education, 34(1):17–25. Chmielewski, T. and Dansereau, D. (1998). Enhancing the recall of text: Knowledge mapping training promotes implicit transfer. Journal of Educational Psychology, 90(3):407–413. Chung, G. K. W. K., O’Neil, H. F. J., and Herl, H. E. (1999). The use of computerbased collaborative knowledge mapping to measure team processes and team outcomes. Computers in Human Behavior, 15(3–4):463–493. Clarke, J. (1991). Patterns of Thinking. Allyn and Bacon, Neddham Heights, Massachusetts. Collins, A. and Loftus, E. (1975). A spreading activation theory of semantic processing. Psychological Review, (82):407–428. Conklin, J. (1987). Hypertext: an introduction and survey. Computer, 20(9):17–41. Craik, F. and Lockhart, R. (1972). Levels of processing: A framework for memory research. Journal of Verbal Learning and Verbal Behavior, 20(11):671–684. 152 LITERATURVERZEICHNIS Cristea, A. and Okamoto, T. (2001). Object-oriented collaborative course authoring environment supported by Concept Mapping in MyEnglishTeacher. Educational Technology and Society, 4(3):104–115. Ebbinghaus, H. (1885). Über das Gedächtnis. Untersuchungen zur experimentellen Psychologie. Duncker & Humblot, Leipzig. Edelmann, W. (1996). Lernpsychologie. Beltz Psychologie-Verlags-Union, Weinheim, Basel. Esiobu, G. and Soyibo, K. (1995). Effects of concept and vee mapping under three learning modes on studentsćognitive achievement in ecology and genetics. Journal of Research in Science Teaching, 32(9):971–995. Feldweg, H. (1997). Lexikalische Semantik aus kognitiver Sicht – Perspektiven im Spannungsfeld linguistischer und psychologischer Modellierungen – Tübinger Beiträge zur Linguistik (TBL), Bd. 439, chapter „GermaNet – ein lexikalisch-semantisches Netz für das Deutsche“. Gunter Narr, Tübingen. Fensel, D. (2001). Ontologies: A Silver Bullet for Knowledge Management and Electronic Commerce. Springer, Berlin. Fernandez, G. (1999). Real-time tracking of memory formation in the human rhinal cortex and hippocampus. Science, (285):1582–1585. Fernandez, G. and Weber, B. (2003). Fische fangen im Erinnerungsnetz. Gehirn & Geist, (2):68–73. Fischer, F. and Mandl, H. (2000). Strategiemodellierung mit Expertenmaps. In Mandl, H. und Fischer, F. (Hrsg.), Wissen sichtbar machen – Wissensmanagement mit Mappingtechniken, chapter 3. Hogrefe, Göttingen. Fischler, H. and Peuckert, J. (2000). Concept Mapping in Forschungszusammenhängen. In Concept Mapping in fachdidaktischen Forschungsprojekten der Physik und Chemie, chapter 1. Logos, Berlin. Francisco, J. S., Nicoll, G., and Trautmann, M. (1998). Integrating multiple teaching methods into a general chemistry classroom. Journal of Chemical Education, 4(3):210– 213. Friedrich, H. (1999). Selbstgesteuertes Lernen – Sechs Fragen, sechs Antworten. Internet: http://www.learnline.nrw.de/angebote/selma/medio/vortraege/friedrich/friedrich .pdf (Stand: 14.4.2004). Friedrich, H. F. (1995). Analyse und Förderung kognitiver Lernstrategien. Empirische Pädagogik, (9(2)):115–153. Gaßner, K. and Hoppe, H. (2000). Visuelle Sprachen als Grundlage kooperativer Diskussionsprozesse. In Mandl, H. und Fischer, F. (Hrsg.), Wissen sichtbar machen – Wissensmanagement mit Mappingtechniken, chapter 6. Hogrefe, Göttingen. Grillenberger, P. and Niegemann, H. M. (2000). Entwicklung und Erprobung eines Lernprogramms zur Technik des ’Concept Mapping’. In Mandl, H. und Fischer, F. (Hrsg.), Wissen sichtbar machen – Wissensmanagement mit Mappingtechniken, chapter 4. Hogrefe, Göttingen. 153 LITERATURVERZEICHNIS Grudin, J. (1991). Cscw – the convergence of two disciplines. In ACM SIGCHI Conference on Human Factors in Computing Systems (April), New Orleans. ACM Press. Haller, H. (2002). Mappingverfahren zur Wissensorganisation. (Unveröffentlichte Diplomarbeit) Verfügbar unter http://heikohaller.de/literatur/diplomarbeit/. Hanf, M. (1971). Mapping – a technique for translating reading into thinking. Journal of Reading, (14):225–238. Hasenkamp, U. and Syring, M. (1994). CSCW – Computer Supported Cooperative Work – Informationssysteme für dezentralisierte Unternehmensstrukturen, chapter „CSCW (Computer Supported Cooperative Work) in Organisationen – Grundlagen und Probleme“. Addison-Wesley, Bonn. Hertz-Lazorowitz, R. (1992). Six mirrors of the classroom: a pathway to co-operative learning. El Paso, TX. Hurley, O. (2001). Web-services or peer-to-peer? WebServices Journal, (1 (1)):14. Hyerle, D. (1996). Visual Tools – for constructing knowledge. Association for Supervision and Curriculum Development, Alexandria, Virginia. Janetzko, D. and Strube, G. (2000). Knowledge Tracking – Eine neue Methode zur Diagnose von Wissensstrukturen. In Mandl, H. und Fischer, F. (Hrsg.), Wissen sichtbar machen – Wissensmanagement mit Mappingtechniken, chapter 11. Hogrefe, Göttingen. Jonassen, D. (1992a). Semantic networking as cognitive tools. In Kommers, P., Jonassen, D., and Mayes, J., editors, Cognitive Tools for Learning. Springer, Berlin. Jonassen, D. (1992b). What are cognitive tools. In Kommers, P., Jonassen, D., and Mayes, J., editors, Cognitive Tools for Learning. Springer, Berlin. Jonassen, D. and Grabowski, B. (1993). Handbook of Individual Differences, Learning, and Instruction. Lawrence Erlbaum, Hillsdale, New Jersey. Jost, A. (1897). Die Assoziationsfestigkeit in ihrer Abhängigkeit von der Verteilung der Wiederholungen. Zeitschrift für Psychologie und Physiologie der Sinnesorgane, (16):436– 472. Kandel, E., Schwartz, J. H., and Jessell, T. M. (1996). Neurowissenschaften. Spektrum Akademischer Verlag, Heidelberg. Klimsa, P. (1993). Neue Medien und Weiterbildung: Anwendung und Nutzung in Lernprozessen der Weiterbildung. Deutscher Studien Verlag, Weinheim. Kolb, D. A. (1981). Learning Styles and Disciplinary Differences, chapter “The Modern American College. Responding to the New Realities of Diverse Students and a Changing Society“, pages 232–305. Chickering, A.W. and Associates, San Francisco, Washington, London. Koschmann, T. (1996). Computers, cognition, and work, chapter “CSCL: Theory and practice of an emerging paradigm“. Lawrence Erlbaum, Mahwah, New Jersey. Kraut, R., Galegher, J., and Egido, C. (1986). Relationships and tasks in scientific research collaboration. In Proceedings of CSCW’86. 154 LITERATURVERZEICHNIS Kulik, J. and Kulik, C. (1988). Timing of Feedback and Verbal Learning. Review of Educational Research, (58 No.1):79–97. Kunze, C. (2001). Lexikalisch-semantische Wortnetze. In Carstensen, K.-U., Ebert, C., Endriss, C., Jekat, S., Klabunde, R. und Langer, H. (Hrsg.), Computerlinguistik und Sprachtechnologie: eine Einführung. Heidelberg, pages 386–393. Spektrum, Akademischer Verlag, Berlin. Landauer, T. and Bjork, R. (1978). Practical aspects of memory, chapter “Optimum rehearsal patterns and name learning“, pages 625–632. Academic Press, New York. Laufer, B. (1997). Second Language Acquisition, chapter “The lexical plight in second language reading“, pages 1–17. Cambridge University Press, London. Lefrancois, R. (1994). Psychologie des Lernens. Springer, Heidelberg. Leitner, S. (1972). So lernt man lernen. Herder KG, Freiburg im Breisgau. Lewis, M. (2000). Teaching Collocation: further developments in the lexical approach. LTP, Hove, England. Lompscher, J. (1994). Lernstrategien: Zugänge auf der Reflexions- und der Handlungsebene, volume LLF-Berichte Nr.9. Ludewig, P. (2003). Korpusbasiertes Kollokationslernen – Computer-Assisted Language Learning als prototypisches Anwendungsszenario der Computerlinguistik. Habilitationsschrift am Fachbereich Sprach- und Literaturwissenschaft der Universität Osnabrück. Mandl, H. and Fischer, F. (2000). Mapping-Techniken und Begriffsnetze in Lern- und Kooperationsprozessen. In Mandl, H. und Fischer, F. (Hrsg.), Wissen sichtbar machen – Wissensmanagement mit Mappingtechniken, chapter 1. Hogrefe, Göttingen. Mandl, H. and Friedrich, H. (1992). Lern- und Denkstrategien. Hogrefe, Göttingen. Mandl, H., Gruber, H., and Renkl, A. (1995). Situiertes Lernen in multimedialen Lernumgebungen, chapter „Information und Lernen mit Multimedia“, pages 167–178. Beltz Psychologie-Verlags-Union, Weinheim, Basel. Marshall, C. and Shipman, F. (1993). Searching for the missing link: discovering implicit structure in spatial hypertext. In Proceedings of ACM Hypertext ’93, pages 217–230. McAleese, R. (1998). Coming to know: the role of the concept map – mirror, asssistant, master? Euroconference – New Technologies for Higher Education, Aveiro University, Aveiro, Portugal, September 16–19. McCelland, J. (1995). Why there are comlementary learning systems in the hippocampus and neocortex: Insights from the successes and failures of connectionist models of learnig and memory. Psychological Review, (102):419–457. McCullough, A. P. (1997). Internet: http://users.erols.com/amccull/osi.htm (Stand: Oktober 2003). Metzig, W. and Schuster, M. (1993). Lernen zu lernen. Springer. 155 LITERATURVERZEICHNIS Milner, B. (1985). Memory and the Human Brain. How we know. Harper & Row, San Francisco. Minar, N. (2001). Distributed systems topologies: Part 1. http://www.openp2p .com/pub/a/p2p/2001/12/14/topologies_one.html (Stand: März 2003). Internet: Minar, N. (2002). Distributed systems topologies: Part 2. Internet: http://www.openp2p .com/pub/a/p2p/2002/01/08/p2p_topologies_pt2.html (Stand: März 2003). Navarro, G. and Baeza-Yates, R. (1998). Technical Report TR/DCC-98-5: Improving an algorithm for approximate pattern matching. Dept. of Computer Science, Univ. of Chile, Internet: www.paul-raedle.de/vtrain/sci-de.htm (Stand: März 2004). Novak, J. and Gowin, D. (1984). Learning how to learn. Cambridge University Press, New York. O’Donnell, A., Dansereau, D., and Hall, R. (2002). Knowledge maps as scaffolds for cognitive processing. Educational Psychology Review, (14 (1)):71–86. O’Reilly, R. C. and Rudy, J. W. (2001). Conjunctive representations in learning and memory: Principles of cortical and hippocampal function. Psychological Review, (108):311– 345. Paivio, A. (1978). A dual coding approach to perception and cognition, chapter “Modes of perceiving and processing information“, pages 39–514. Erlbaum, Hilsdale. Palinscar, A. and Brown, A. (1984). Reciprocal teaching of comprehension fostering and comprehension- monitoring activities. Cognition and Instruction, (1):117–175. Peschl, M. F. (1990). Cognitive Modelling. Deutscher Universitäts-Verlag, Wiesbaden. Piaget, J. (1972). The principles of genetic epistemology. Basic Books, New York. (Original work published 1970). Rädle, P. (2003). Internet: www.paul-raedle.de/vtrain/sci-de.htm (Stand: 15.9.2003). Reimann, P. and Zumbach, J. (2001). Partizipation und Interaktion im virtuellen Seminar, chapter „Design, Diskurs und Reflexion als zentrale Elemente virtueller Seminare“, pages 135–163. Waxmann, Münster. Reuer, V., Ludewig, P., Rollinger, C., and Krüger-Thielmann, K. (2003). Studienprojekte in den Bereichen Computerlinguistik und Cognitive Science. In Sprache und Datenverarbeitung, volume 27.1-2, pages 185–202. Institut für Kommunikationsforschung und Phonetik der Universität Bonn, Bonn. Russell, S. and Norvig, P. (1995). Artificial Intelligence – A Modern Approach. Prentice Hall, New Jersey. Salisbury, D. F. (1990). Cognitive psychology and its implications for designing drill and practice programs for computers. Journal of Computer-Based Instruction, 17(1):23–30. Sanquist, T. (1980). Electrocortical signs of levels of processing: Perceptual analysis and recognition memory. Psychophysiology, (17):568–576. 156 LITERATURVERZEICHNIS Scardmalia, M. and Bereiter, C. (1994). Classroom lessons: Integrating cognitive theory and classroom practice, chapter “The CSILE Project: Trying to bring the classroom into World“, pages 201–228. MIT Press, Cambridge, Massachusetts. Scheer, A.-W. (1998). Von Componentware zum Framework-Konzept Der Weg zur Standardsoftware mit Workflow-Steuerung. COMPUTERWOCHE, (11):22–24. Schneider, W. and Pressley, M. (1989). Memory Development between 2 and 20. Springer, New York. Schnotz, W. (2002). Wissenserwerb mit Texten, Bilden und Diagrammen. In Information und Lernen mit Multimedia und Internet, chapter 3. Belz, Psychologie-Verlags-Union, Weinheim, Basel. Schulmeister, R. (1996). Grundlagen hypermedialer Lernsysteme: Theorie – Didaktik – Design. Addison-Wesley, New York. Schulmeister, R. (1997). Grundlagen hypermedialer Lernsysteme. Oldenbourg, München. Smith, J. (1994). Collective intelligence in computer-based collaboration. Erlbaum, Hillsdale, New Jersey. Spitzer, M. (2002). Lernen – Gehirnforschung und die Schule des Lebens. Spektrum Akademischer Verlag, Heidelberg, Berlin. Squire, L. A. (1993). The structure and organization of memory. Annual Review of Psychology, (44):453–95. Stangl, W. (2002). Internet: www.stangl-taller.at/ARBEITSBLAETTER/GEDAECHTNIS /Vergessen.shtml (Stand: 15.9.2003). Stangl, W. (2003). Internet: http://www.stangl-taller.at/ARBEITSBLAETTER/ (Stand: Oktober 2003). Stoyanova, N. and Kommers, P. (2001). Learning effectiveness of concept mapping in a computer supported collaborative problem solving design. In European Perspectives on Computer-Supported Collaborative Learning, pages 561–569. Stoyanova, N. and Kommers, P. (2002). Concept mapping as a medium of shared cognition in computer-supported collaborative problem solving. Journal of Interactive Learning Research, 13(1-2):111–133. Sturm, J. M. and Rankin-Erickson, J. L. (2002). Effects of hand-drawn and computergenerated concept mapping on the expository writing of middle school students with learning disabilities. Learning Disabilities Research & Practice, (17 (2)):124–139. Thissen, F. (1997). Das Lernen neu erfinden: konstruktivistische Grundlagen einer Multimedia-Didaktik. In Beck, U. and Sommer, W., editors, Learntec 97: Europäischer Kongreß für Bildungstechnologie und betriebliche Bildung, Tagungsband, pages 69–80. Schriftenreihe der KKA, Karlsruhe. Thorndike, E. (1921). The Teacher’s Word Book. Teachers College, New York. Tolman, E. (1948). Cognitive maps in rats and men. Psychological Review, (55):189–208. 157 LITERATURVERZEICHNIS Tulving, E. and Thomson, D. (1973). Encoding specifity and retrieval processes in episodic memory. Psychological Review, (80):352–373. Twardy, C. (2004). Argument maps improve critical thinking. Teaching Philosophy. to appear in June 2004; preprint can be found at http://www.csse.monash.edu.au /˜ctwardy/Papers/reasonpaper.pdf (Stand: März 2004). Van Boxtel, C., Van Der Linden, J., and Kanselaar, G. (1997). Collaborative construction of conceptual understanding: Interaction processes and learning outcomes emerging from a Concept Mapping and a poster task. Journal of Interactive Learning Research, 8(3–4):341–361. von Glasersfeld, E. (1993). Questions and answers about radical constructivism. In Tobin, K., editor, The practice of constructivism in science education, pages 23–38. Lawrence Erlbaum Associates, Inc., Hillsdale, New Jersey. Vondrak, C. (1997). str/descriptions/momt_Fbody .html (Stand: Oktober 2003). Internet: http://www.sei.cmu.edu/ Vygotsky, L. S. (1987). The Collected Works of L.S. Vygotsky — Volume I – Problems of General Psychology – Including the Volume Thinking and Speech. Plenum Press, New York. Wagner, A. D., Schachter, D., Rotte, M., Koutstaal, W., Maril, A., Dale, A., Rosen, B., and Bruckner, R. (1998). Building memories: Remembering and forgetting of verbal experiences as predicted by brain activity. Science, (281):1188–1191. Watkins, M. and Tulving, E. (1975). Episodic memory: When recognition fails. Journal of Experimental Psychology, (104):5–29. Webb, N. (1995). Testing a theoretical model of student interaction and learning in small groups. Cambridge University Press, Cambridge. Weidenmann, B. (1997). Multicodierung und Multimodalität im Lernprozeß. In Issing, L., Klimsa, P. (Hrsg.), Information und Lernen mit Multimedia, pages 65–84. Beltz Psychologie-Verlags-Union, Weinheim, Basel. Weidenmann, B., Krapp, A., and Mandl, H. (1993). Pädagogische Psychologie. Beltz Psychologie-Verlags-Union, Weinheim, Basel. Wild, K.-P. and Klein-Allermann, E. (1995). Nicht alle lernen auf die gleiche Weise...Individuelle Lernstrategien und Hochschulunterricht. Handbuch Hochschullehre. Raabe, Bonn. Wild, K.-P., Schiefele, U., and Winteler, A. (1992). Verfahren zur Erfassung von Lernstrategie im Studium, volume 20 of Gelbe Reihe: Arbeiten zur Empirischen Pädagogik und Pädagogischen Psychologie. Universität der Bundeswehr München. Wolff, D. (1994). Der Konstruktivismus: Ein neues Paradigma in der Fremdsprachendidaktik? Die Neueren Sprachen, (93/5):407–429. Zimmerman, B. J. and Martinez-Pons, M. (1990). Student differences in self-regulated learning: Relating grade, sex, and giftedness to self-efficacy and strategy use. Journal of Educational Psychology, (82(1)):51–59. 158