Master Thesis - Mittelstand Digital
Transcription
Master Thesis - Mittelstand Digital
Master Thesis Entwicklung eines Usability-Methodenkataloges Development of a usability methods toolbox Daniel Steier 2015 Master Thesis Entwicklung eines Usability-Methodenkataloges Development of a usability methods toolbox Daniel Steier Tag der Abgabe: 13. Juli 2015 Betreuende Mitarbeiterin: M.Sc. Tatiana Rößler Erklärung zur vorliegenden Arbeit gemäß § 22/7 bzw. § 23/7 APB Hiermit versichere ich, die vorliegende studentische Arbeit ohne Hilfe Dritter nur mit den angegebenen Quellen und Hilfsmitteln angefertigt zu haben. Alle Stellen, die aus den Quellen entnommen wurden, sind als solche kenntlich gemacht worden. Diese Arbeit hat in gleicher oder ähnlicher Form noch keiner Prüfungsbehörde vorgelegen. Name: ................................................ Vorname: ................................................ Ort: ................................................ Datum: ................................................ Unterschrift: ................................................ Stand: 13.07.2015 iii Aufgabenstellung Stand: 13.07.2015 iv Zusammenfassung Das Ziel der vorliegenden Arbeit ist die Entwicklung eines gut strukturierten UsabilityMethodenkataloges, in welchem Methoden beschrieben werden, die bei der Entwicklung gebrauchstauglicher Software unterstützen. Die Informationen des Katalogs sollen unter anderem im Rahmen des PUMa-Projekts dazu genutzt werden, online auf der PUMa-Kompetenzplattform strukturierte und auf die Bedürfnisse der potentiellen Nutzer angepasste Methodenbeschreibungen darstellen zu können. In einem ersten Schritt wird festgelegt, welche Informationen zur Beschreibung von UsabilityMethoden relevant sind. Hierzu wird ein Kriterienkatalog entwickelt, der alle Eigenschaften aufführt, mittels derer die Methoden beschrieben werden. Zunächst werden bestehende Methodenbeschreibungen und Kriteriensammlungen analysiert und die verwendeten Merkmale zu einem strukturierten Kriterienkatalog zusammengefasst. Im Rahmen einer Befragung von potentiellen Nutzern der Kompetenzplattform wird der initiale Kriterienkatalog evaluiert. Hierzu wird ein Onlinefragebogen erstellt, zu dem Softwareentwickler und Usability-Experten eingeladen werden. Durch ihre Einbeziehung kann eine nutzerorientierte Entwicklung des Katalogs durchgeführt werden, die an den Bedürfnissen der zukünftigen Anwender ausgerichtet ist. Die im ersten Schritt ausgewählten Kriterien werden den Teilnehmern präsentiert, und sie bewerten für jede Eigenschaft, ob sie aus ihrer Sicht für die Beschreibung von Usability-Methoden wichtig ist. Auf Grundlage der ausgewerteten Fragebogen-Daten wird der Kriterienkatalog optimiert und zu einer finalen Version überführt. In dieser sind die Kriterien für den Methodenkatalog definiert sowie ihre Strukturierung vorgegeben. Zur besseren Darstellung der Methodenbeschreibungen im Methodenkatalog, wird in einem letzten Schritt das Layout für den Katalog festgelegt. Vor der eigentlichen Beschreibung der Methoden werden Möglichkeiten der Klassifizierung von Usability-Methoden diskutiert, um die Methodenbeschreibungen in einer strukturierten Form im Methodenkatalog aufzuführen. Zunächst werden Usability-Methoden ausgewählt, die im Rahmen der Arbeit beschrieben werden sollen. Es folgt eine Analyse bestehender Klassifizierungsmöglichkeiten, gefolgt von einer Bewertung, im Zusammenhang mit der Anordnung der ausgewählten Methoden. Darauf aufbauend wird eine Methodenklassifizierung definiert, welche die Anordnung der Methoden innerhalb des Katalogs vorgibt. Auf Basis des finalen Kriterienkataloges wird nun eine Recherche zur Sammlung von Methodenwissen durchgeführt und die ausgewählten Usability-Methoden detailliert beschrieben. Hierbei wird der Detailgrad der Beschreibung so gewählt, dass auch ein Nutzer ohne Erfahrungen im Umgang mit Usability-Methoden, den Zweck sowie die Durchführung der Methoden verstehen kann und somit in der Lage ist, eine passende Methode im Kontext seines Projektes auszuwählen. Abhängig von den erforderlichen Kompetenzen für die Anwendung soll der Ausführende die Methode mit den im Katalog gegebenen Informationen durchführen oder zumindest die Durchführung organisieren können. Stand: 13.07.2015 v Inhaltsverzeichnis 1 Einleitung ........................................................................................................................................ 1 1.1 Motivation und Zielsetzung ......................................................................................................... 1 1.2 Vorgehensweise ........................................................................................................................... 1 2 Theoretische Grundlagen ................................................................................................................ 3 2.1 PUMa-Projekt............................................................................................................................... 3 2.2 Usability ...................................................................................................................................... 3 2.3 KMU: Kleine und mittlere Unternehmen ..................................................................................... 4 2.4 Methode ...................................................................................................................................... 4 2.5 Kriterium ..................................................................................................................................... 4 2.6 Ausprägung ................................................................................................................................. 4 3 Erstellung eines Kriterienkataloges ................................................................................................. 5 3.1 Analyse und Zusammenführung bestehender Kriterienkataloge .................................................. 5 3.1.1 Analyse ..................................................................................................................................... 5 3.1.2 Zusammenführung ................................................................................................................. 14 3.2 Erstellung eines vorläufigen Kriterienkataloges ......................................................................... 17 3.2.1 Anpassungen am zusammengeführten Kriterienkatalog ......................................................... 18 3.2.2 Vorläufiger Kriterienkatalog ................................................................................................... 22 3.3 Evaluation des vorläufigen Kriterienkataloges ........................................................................... 25 3.3.1 Auswahl des Befragungsverfahrens ........................................................................................ 25 3.3.2 Erstellung eines Fragebogens ................................................................................................. 27 3.3.3 Durchführung der Befragung .................................................................................................. 32 3.3.4 Befragungsergebnisse ............................................................................................................. 33 3.3.5 Anpassung des vorläufigen Kriterienkataloges........................................................................ 38 3.4 Finaler Kriterienkatalog ............................................................................................................. 40 3.4.1 Definiton der Kriterien............................................................................................................ 40 3.4.2 Festlegen des Layouts des Methodenkatalogs ......................................................................... 48 4 Usability-Methodenkatalog............................................................................................................ 51 4.1 Klassifizierung von Usability-Methoden ..................................................................................... 51 4.1.1 Analyse und Bewertung bestehender Klassifizierungsmöglichkeiten ...................................... 51 4.1.2 Festlegen einer Klassifizierungmöglichkeit zur Verwendung im Methodenkatalog ................. 60 4.2 Anforderungsentwicklung und Strukturierung .......................................................................... 64 4.2.1 Personas ................................................................................................................................. 64 4.2.2 Szenarien................................................................................................................................ 68 4.2.3 Benchmarking ........................................................................................................................ 71 4.2.4 Aufgabenanalyse (Task Analysis) ........................................................................................... 74 4.2.5 Kontextuelles Interview (Contextual Inquiry) ......................................................................... 77 4.2.6 Card Sorting ........................................................................................................................... 82 4.2.7 Affinity-Diagramm .................................................................................................................. 86 4.3 Befragung .................................................................................................................................. 89 4.3.1 Interview ................................................................................................................................ 89 4.3.2 Fokusgruppe ........................................................................................................................... 93 4.3.3 Fragebogen ............................................................................................................................. 97 4.3.4 AttrakDiff.............................................................................................................................. 102 4.3.5 Online-Befragung ................................................................................................................. 104 4.4 Prototyping .............................................................................................................................. 108 Stand: 13.07.2015 vi 4.4.1 Prototyping ........................................................................................................................... 108 4.4.2 Storyboarding ....................................................................................................................... 113 4.4.3 Paper-Prototyping ................................................................................................................. 116 4.4.4 Wizard of Oz ........................................................................................................................ 119 4.5 Usability-Test mit Nutzern ....................................................................................................... 122 4.5.1 Usability-Test ........................................................................................................................ 122 4.5.2 Lautes Denken ...................................................................................................................... 127 4.5.3 Blickbewegungsanalyse ........................................................................................................ 130 4.5.4 Mausbewegungsmessung...................................................................................................... 134 4.5.5 A/B-Testing .......................................................................................................................... 137 4.6 Usability-Inspektion ................................................................................................................. 139 4.6.1 Heuristische Evaluation ........................................................................................................ 139 4.6.2 Cognitive Walkthrough ......................................................................................................... 142 5 Zusammenfassung und Ausblick ................................................................................................. 145 Anhang .................................................................................................................................................. vi A Anforderungsliste Befragung .......................................................................................................... vi B Fragebogen zur Evaluation des Kriterienkatalogs .......................................................................... vii C Begleitschreiben zur Einladung zur Befragung ............................................................................ xvii Abbildungsverzeichnis ......................................................................................................................... xix Tabellenverzeichnis .............................................................................................................................. xx Indexverzeichnis .................................................................................................................................. xxi Stand: 13.07.2015 vii 1 Einleitung 1.1 Motivation und Zielsetzung Usability ist nach der DIN EN ISO 9241-11 mit Gebrauchstauglichkeit ins Deutsche übersetzt und gilt heute als wichtiges Verkaufsargument für technische Produkte (Sarodnick & Brau, 2011). In der heutigen Welt ist es kaum möglich, sich dem täglichen Umgang mit technischen, softwarebasierten Systemen zu entziehen. Wir alle nutzen diese interaktiven Produkte, sei es beruflich oder privat, sei es über den PC oder das Smartphone, sei es am Fahrkartenautomat oder in modernen PKW. Diese Entwicklung hat zur Folge, dass heute die meisten Personen, als Nutzer dieser technischen Systeme beurteilen können, wenn ein Produkt nicht gebrauchstauglich ist und so eine gute Vorstellung davon haben, was Usability bedeutet, auch ohne den Begriff zu kennen (Richter & Flückiger, 2010). Aufgrund dieses gestiegenen Anspruchs der Nutzer an die Gebrauchstauglichkeit ist es für softwareentwickelnde Unternehmen unerlässlich, dieser Anforderung nachzukommen. Gerade deutsche kleine und mittlere Unternehmen liefern leistungsfähige und funktionelle Software, es fehlt aber oftmals an Know-how und Personal, um den Aspekt der Usability bei ihren Produkten konsequent umzusetzen (Kauer, o. J., nach BMWi, 2014a). Aus diesem Grund unterstützt das Bundesministerium für Wirtschaft und Energie (BMWi), mit der Förderinitiative Einfach intuitiv – Usability für den Mittelstand, deutsche Forschungsprojekte, die es zum Ziel haben, dieser Entwicklung entgegenzuwirken. Das Institut für Arbeitswissenschaft (IAD) der Technischen Universität Darmstadt ist an dem Forschungsprojekt PUMa beteiligt, das im Rahmen der obengenannten Förderinitiative das Ziel verfolgt, softwareentwickelnde kleine und mittlere Unternehmen (KMU) im Bereich Usability zu stärken und damit auch deren Wettbewerbsfähigkeit zu steigern. Hierzu soll online eine Kompetenzplattform aufgebaut werden, die Methodenwissen sowie vorbildhafte Beispiele aus dem Usability-Bereich bereitstellt und eine Vernetzung von Unternehmen, Usability-Experten und Nutzern herstellt. Die vorliegende Master Thesis ist im Rahmen dieser Forschungstätigkeit entstanden und hat zum Ziel, einen Katalog für Usability-Methoden zu entwickeln, der systematisiertes Methodenwissen bereitstellt. Die gewonnenen Erkenntnisse sollen im Rahmen des PUMa-Projekts zur Erstellung der o.g. Kompetenzplattform genutzt werden. Die Informationen des entwickelten Katalogs können hier von KMU genutzt werden und so die Entwicklung gebrauchstauglicher Software unterstützen. 1.2 Vorgehensweise Um das Ziel der vorliegenden Arbeit zu erreichen, wird zunächst ein Kriterienkatalog entwickelt. Hier wird festgelegt, welche Informationen zur Beschreibung von Usability-Methoden relevant sind und für den Methodenkatalog verwendet werden. In einem ersten Schritt werden die verwendeten Kriterien von bestehenden Methodenbeschreibungen und Kriteriensammlungen analysiert und zu einer Sammlung zusammengeführt (siehe Kapitel 3.1). Im Anschluss erfolgt die Zusammenfassung der Sammlung zu einem strukturierten Kriterienkatalog (siehe Kapitel 3.2), bevor im nächsten Schritt eine Evaluation des Katalogs folgt (siehe Kapitel 3.3). Hierzu wird ein Fragebogen entwickelt, mit welchem im Rahmen einer Online-Befragung potentielle Nutzer der Kompetenzplattform, bestehend aus Softwareentwicklern und Usability-Experten, zu der Wichtigkeit der zusammengefassten Kriterien befragt werden. Auf Grundlage der ausgewerteten Fragebogen-Daten wird der Kriterienkatalog optimiert und dann zu ei- Einleitung 1 ner finalen Version überführt (siehe Kapitel 3.4). In diesem sind die Kriterien für den Methodenkatalog definiert, ihre Strukturierung vorgegeben sowie das Layout für die Methodenbeschreibung festgelegt. Vor der eigentlichen Beschreibung einer Auswahl von Usability-Methoden werden Möglichkeiten der Strukturierung von Methoden diskutiert, um den Methodenkatalog strukturiert aufbauen zu können. Hierzu werden bestehende Klassifizierungsmöglichkeiten analysiert und im Hinblick auf die Einordnung der gewählten Methoden, bewertet. Darauf aufbauend wird eine Methodenklassifizierung definiert, welche die Anordnung der Methoden innerhalb des Katalogs vorgibt (siehe Kapitel 4.1). Im Vorfeld der Erstellung des Methodenkatalogs wird eine Literaturrecherche durchgeführt, um das benötigte Methodenwissen zu sammeln. Auf Basis der ermittelten Informationen werden dann die ausgewählten Usability-Methoden detailliert, anhand des festgelegten Kriterienkatalogs beschrieben. Einleitung 2 2 Theoretische Grundlagen Im folgenden Kapitel wird zunächst das PUMa-Projekt vorgestellt. Der im Rahmen dieser Masterthesis zu entwickelnde Methodenkatalog soll Informationen liefern, die auf der zukünftigen Kompetenzplattform des PUMa-Projekts verwendet werden können. Im Anschluss folgt die Darstellung einiger theoretischer Grundlagen und Begriffsdefinitionen, die für das Verständnis der vorliegenden Arbeit relevant sind. 2.1 PUMa-Projekt PUMa (Projekt Usability in Mittelstandsanwendungen) ist ein Forschungsprojekt, das vom Institut für Arbeitswissenschaft der Technischen Universität Darmstadt, dem Institut für Software- und Multimediatechnik der Technischen Universität Dresden, der CAS Software AG aus Karlsruhe, der ma ma Interactive System Design Denzinger und Karp GbR aus Frankfurt am Main sowie der Steinbeis Innovation gGmbH mit Sitz in Stuttgart durchgeführt wird. Das Projekt wird im Zeitraum vom 01.01.2014 bis zum 30.04.2016 durchgeführt und im Rahmen der Förderinitiative „Einfach intuitiv – Usability für den Mittelstand“ vom Bundesministerium für Wirtschaft und Energie (BMWi) unterstützt. (BMWi, 2014a) Nutzer haben heute hohe Ansprüche an die Gebrauchstauglichkeit von IT-Produkten und ihre Erfahrung bei der Bewertung dieser Systeme steigt zunehmend (BMWi, 2014a). Aus diesem Grund ist es das Ziel des PUMa-Projekts Unternehmen in der Entwicklung gebrauchstauglicher Software zu unterstützen. Hierzu wird online eine Kompetenzplattform aufzubauen, um eine Vernetzung von Softwareanwendern und deutschen softwareentwickelnden kleinen und mittleren Unternehmen (KMU) und Usability-Experten herzustellen. Hierdurch soll die Zusammenarbeit und der Wissensaustausch von Nutzern, Entwicklern und Experten gefördert werden (IAD, o. J.). Darüber hinaus sollen Methodenbeschreibungen bereitgestellt werden, die es den KMU ermöglichen, eigene kleine Usability-Probleme selbstständig zu lösen. Bei größerem Unterstützungsbedarf kann über die Kompetenzplattform Kontakt zu Usability- und User Experience-Experten aufgenommen werden. Zur weiteren Unterstützung der KMU durch das PUMa-Projekt sollen Best-Practice-Beispiele bereitgestellt werden, die bewährte Lösungen aufzeigen und es den Unternehmen ermöglichen, diese an die eigenen Bedürfnisse anzupassen und in ihren Entwicklungsprozess zu integrieren (BMWi, 2014a). Außerdem hat es das Projekt zum Ziel, organisatorische Unterstützung bei der Durchführung von Projekten anzubieten (IAD, o. J.). 2.2 Usability Der Begriff Usability ist in der deutschen Fassung der DIN EN ISO 9241-11 mit Gebrauchstauglichkeit übersetzt, und wie folgt definiert: „Das Ausmaß, in dem ein Produkt durch bestimmte Benutzer in einem bestimmten Nutzungskontext genutzt werden kann, um bestimmte Ziele effektiv, effizient und zufriedenstellend zu erreichen“ (DIN EN ISO 9241-11, S. 4). Die Usability beinhaltet damit den Aspekt der Benutzerfreundlichkeit, also der komfortablen Benutzbarkeit eines Produkts. Darüber hinaus besteht die Forderung nach einer geeigneten Unterstützung des Nutzers beim Erreichen seiner Ziele. Die Usability ist damit eine Qualität eines technischen Systems, und stellt ein Ziel bei der ergonomischen Gestaltung eines Produkts dar. (Sarodnick &Brau, 2011) Theoretische Grundlagen 3 2.3 KMU: Kleine und mittlere Unternehmen KMU ist die Abkürzung für kleine und mittlere Unternehmen. Die Bezeichnung fasst solche Unternehmen zusammen, die abhängig von der Beschäftigtenzahl, des Umsatzerlöses oder der Bilanzsumme unterhalb einer Grenze angesiedelt sind. Für diese Grenzen gibt es unterschiedliche Definitionen, die z.B. von der Europäischen Union (EU), dem Institut für Mittelstandsforschung (IfM) Bonn und dem Deutschen Handelsgesetzbuch (HGB) vorgegeben sind (Wikipedia, 2015). Im Rahmen dieser Arbeit wird die Definition der Kommission der Europäischen Union herangezogen, die am 01.01.2005 in Kraft getreten ist. Nach ihr sind solche Unternehmen zur Gruppe der KMU zu zählen, die eigenständig sind, weniger als 250 Personen beschäftigen, und die entweder einen Jahresumsatz von maximal 50 Mio. € erzielen oder deren Jahresbilanz sich auf höchstens 43 Mio. € beläuft (Europäische Kommission, 2006, S. 5). 2.4 Methode Lindemann (2009) definiert eine Methode als „planmäßiges, regelbasiertes Vorgehen, nach dessen Vorgabe bestimmte Tätigkeiten auszuführen sind, um ein gewisses Ziel zu erreichen“. (S. 335) Im Zusammenhang mit der vorliegenden Arbeit, stellt eine Methode ein Werkzeug dar, mit dessen Hilfe ein komplexer Sachverhalt Schritt für Schritt beschrieben wird. Ein Anwender kann die Beschreibung einer Methode ähnlich einer Anleitung verwenden, um die entsprechenden Tätigkeiten der Methode durchzuführen. 2.5 Kriterium Unter einem Kriterium ist allgemein ein „unterscheidendes Merkmal als Bedingung für einen Sachverhalt, ein Urteil [oder] eine Entscheidung“ anzusehen ("Duden online," 2011). Im Rahmen der Entwicklung des Methodenkataloges werden mit dem Begriff Kriterium Eigenschaften und Merkmale einer Methode beschrieben. Beispiele für Kriterien können in diesem Zusammenhang der Zweck einer Methode, die benötigte Anzahl von Personen oder der Zeitaufwand für die Anwendung der Methode sein. Unter einem Kriterium werden demnach Informationen einer Methode zu einem bestimmten Aspekt bereitgestellt. 2.6 Ausprägung Der Begriff Ausprägung kann als ein „möglicher Wert eines statistischen Merkmals, das bei einem Merkmalsträger beobachtet werden kann“ definiert werden. (Springer Gabler Verlag, o. J.) Ausprägungen beschreiben im Rahmen dieser Arbeit die möglichen Variablen, die Informationen zu einem Kriterium einnehmen können. Darüber hinaus kann unter dem Begriff die Darstellungsart beschrieben werden, in der Informationen bezüglich eines Kriteriums angegeben werden. Für ein Kriterium Zeitaufwand können beispielsweise die Ausprägungen gering, mittel und hoch definiert werden. Ein Beispiel für eine Ausprägung, die die Art der Informationsdarstellung beschreibt, könnte die Vorgabe sein, den Zweck einer Methode in Form von Stichpunkten anzugeben. Theoretische Grundlagen 4 3 Erstellung eines Kriterienkataloges In diesem Kapitel soll ein Kriterienkatalog definiert werden, der für die weitere Beschreibung der Usability-Methoden als Grundlage dient. Um Methoden einheitlich beschreiben zu können muss zunächst festgelegt werden, welche Informationen diese Beschreibungen enthalten sollen. Werden die Methoden durch die reine Darstellung der Vorgehensweise ausreichend beschrieben oder sind noch weitere Informationen, wie beispielsweise Angaben zum Schwierigkeitsgrad, dem Aufwand der Anwendung oder der Anzahl der für die Durchführung benötigten Personen, hilfreich? All diese Fakten werden im Rahmen dieser MasterThesis als Kriterien bezeichnet. Kriterien stellen demnach Eigenschaften dar, mittels derer die Methoden beschrieben werden. Anhand der Informationen dieser Kriterien soll z.B. ein Softwareentwickler, der keine Erfahrungen in der Anwendung von Usability-Methoden hat, eine Methode im Kontext seines Projektes, z.B. der Entwicklung eines Website, auswählen und verstehen können. Abhängig von den erforderlichen Kompetenzen für die Anwendung soll der Ausführende - also z.B. ein Softwareentwickler - die Methode mit den Informationen der Kriterien durchführen oder zumindest die Durchführung organisieren können. Um eine solche Sammlung von Kriterien festzulegen, werden zunächst bestehende Kriteriensammlungen analysiert und zusammengeführt. Auf Grundlage dieser Zusammenführung wird ein erster Entwurf eines Kriterienkatalogs erstellt. Im Rahmen einer Befragung unter potentiellen Nutzern der zukünftigen Kompetenzplattform und Usability-Experten wird der vorläufige Katalog evaluiert. Ziel ist es die relevanten Kriterien zu ermitteln, die für die Beschreibung von Methoden notwendig bzw. nützlich sind. Auf Grundlage der Befragungsergebnisse wird ein optimierter Kriterienkatalog erstellt, mit dessen Hilfe im weiteren Verlauf dieser Arbeit Usability-Methoden beschrieben werden. 3.1 Analyse und Zusammenführung bestehender Kriterienkataloge In einem ersten Schritt werden bestehende Kriterienkataloge analysiert sowie weitere Kriterien aus Methodenbeschreibungen von Usability-Methoden abgeleitet. Die analysierten Kriterien werden im Anschluss zusammengeführt und miteinander verglichen. 3.1.1 Analyse An der durch das Bundesministerium für Wirtschaft und Energie (BMWi) geförderten Initiative Einfach intuitiv – Usability für den Mittelstand, in deren Rahmen die Kompetenzplattform erstellt werden soll, sind insgesamt 14 Einzelprojekte, bestehend aus Usability-Experten und Unternehmen, beteiligt (BMWi, 2015c). Sieben dieser Projekte haben ihre Kriteriensammlungen, die sie für die Beschreibung von Usability-Methoden verwenden, für eine Analyse im Rahmen dieser Arbeit zur Verfügung gestellt. Zusätzlich wurden die Methodenbeschreibungen zweier externer Forschungsprojekte untersucht und weitere Kriterien abgeleitet. Im Folgenden werden die beteiligen Projekte vorgestellt und die Kriterien, nach denen sie UsabilityMethoden beschreiben, analysiert. Erstellung eines Kriterienkataloges 5 CUBES CUBES (Community Usability betrieblicher Software von KMU) ist ein Forschungsprojekt, welches von den Lehrstühlen Human Computer Interaction und Computerunterstütze Gruppenarbeit der Universität Siegen, der Buhl Data Services GmbH sowie der expeer GmbH durchgeführt wird. Es wird vom BMWi gefördert. Ziel des Projektes ist es, die Usability-Kompetenz von KMU zu stärken. Hierzu wird ein, für diesen Zweck angepasstes Vorgehensmodell entwickelt sowie internetbasierte UsabilityMethoden zusammengestellt. Darüber hinaus werden Remote Usability und User Community Methoden miteinander kombiniert und ein Unterstützungssystem umgesetzt, welches den produktzentrierten Dialog zwischen Entwicklern und Nutzern verbessert. (BMWi, 2015a; Graeb, 2013) Der Kriterienkatalog von CUBES umfasst zwölf Kriterien und ist in Tabellenform dargestellt. Die Kriterien sind nach Kategorien und Unterkategorien gegliedert. Folgende Kriterien werden genannt: Name, Projektphase, Beschreibung, Geeignet für, Kosten, Nutzen, Beispiel, Teilnehmer, Vorteile, Nachteile, Ressourcen und Quellen. Das Kriterium Name informiert über die Bezeichnung der Methode und stellt gleichzeitig eine eigene Kategorie dar. Unter einer zweiten Kategorie Kurzbeschreibung sind die vier Kriterien Projektphase, Beschreibung, Geeignet für und Kosten angeordnet. Der Aspekt Projektphase beschreibt den Zeitpunkt im Projekt, indem die jeweilige Methode angewendet werden kann. Unter Beschreibung wird die Methode in wenigen Sätzen beschrieben. Geeignet für beschreibt für welche Art von Anwendern die Methode geeignet ist, z.B. für Einsteiger. Die Kosten für die Durchführung der Methode werden nach einer Skala von 1 bis 3 angegeben. Das Kriterium Nutzen stellt, wie alle weiteren Kriterien auch, eine eigene Kategorie dar. Hier wird in einem Fließtext die Methode ausführlicher beschrieben. Enthalten sind Informationen zu Zielen der Methode und Vorteile der Anwendung. Im nächsten Kriterium werden Beispiele aufgeführt, für welche Vorhaben die Methode angewendet werden kann. Die Anzahl der Teilnehmer sowie Vor- und Nachteile werden in entsprechenden Kriterien als Aufzählungen dargestellt. Ressourcen wie beispielsweise YouTube-Links werden mit Internetadresse und Quellen in Form eines Literaturverzeichnisses angegeben. Design4Xperience Das Projekt Design4Xperience wird von Partnern aus Stuttgart durchgeführt und ist Teil des Projektes „Einfach intuitiv–UsabilityfürdenMittelstand“, das vom BMWi gefördert wird. Hierzu zählen unter anderem die Stuttgarter Hochschule der Medien, das Institut für Arbeitswissenschaft und Technologiemanagement der Universität Stuttgart sowie das Fraunhofer-Institut für Arbeitswissenschaft und Organisation, Stuttgart. Ziel des Projektes ist es passgenaue User Experience-Vorgehensweisen und Maßnahmen zu entwickeln, die KMU dabei unterstützen, ihre Softwareprodukte attraktiver, innovativer und erfolgreicher zu gestalten. (BMWi, 2015b) Design4Xperience beschreibt Methoden nach den neun Kriterien Name, Aufwand, Expertise, Teilnehmer, Ziel, Durchführung, Material, Praxistest und Quelle. Die Informationen zum benötigten Aufwand, zur erforderlichen Expertise, zum Ziel der Methode, zur Beschreibung der Durchführung sowie zum benötigten Material sind im Fließtext angegeben. Bei Teilnehmer wird die benötigte Anzahl als Zahl ange- Erstellung eines Kriterienkataloges 6 geben die Quelle hat das Format eines Literaturverzeichnisses. Der Praxistest gibt an, wie erprobt bzw. wissenschaftlich fundiert die Methode ist. KompUEterchen4KMU In das Projekt KompUEterchen4KMU (Kompetenznetzwerk Usability Engineering für mobile Unternehmenssoftware von KMU für KMU) sind unter anderem das mobilemediaand communicationlab der FH Aachen, der Bundesverband IT-Mittelstand e.V. sowie die CAS Software AG involviert. Das Projekt ist Teil der Förderinitiative „Einfach intuitiv – Usability für den Mittelstand“, die im Rahmen des Förderschwerpunktes Mittelstand-Digital – IKT Anwendungen in der Wirtschaft vom BMWi unterstützt wird. Ziel ist es ein Kompetenzzentrum im Bereich Usability Engineering speziell für mobile Unternehmenssoftware aufzubauen. Methodenkompetenz soll so an kleine und mittlere Unternehmen vermittelt werden und auf diesem Weg die Vermarktung nutzerfreundlicher Produkte im Wettbewerb stärken. ("KompUEterchen4KMU," 2015; BMWi, 2015d) KompUEterchen4KMU verwendet sechzehn Kriterien zur Beschreibung von Methoden und unterteilt diese in einer tabellarischen Darstellung in Kategorien und Unterkategorien. Die erste Kategorie enthält das Kriterium Name. Es folgt die Kategorie Rahmenbedingung mit den Kriterien Aufwand (Skala von 1 bis 4), Schwierigkeit (Skala von 1 bis 4), Eignung mobil (dreistufige Skala von positiv über neutral bis negativ), Projektphasen sowie Beteiligte Rollen. Letzteres beschreibt die Personengruppen, die für die Durchführung der Methode benötigt werden, z. B. Entwickler, Designer, Benutzer oder Kunde. Die dritte Kategorie namens Zusammenfassung beinhaltet die Kriterien: Kurzbeschreibung, Abbildung, Ziele, und Ressourcen. Der letzte Punkt beschreibt die benötigten Werkzeuge, die Anzahl und die Art der Teilnehmer (z.B. 1 Leiter und mindestens 3 Teilnehmer) sowie die Zeit in Personentagen. Die Informationen sind in Form von Stichpunkten gegeben, das Kriterium Kurzbeschreibung beschreibt die Methode in wenigen Sätzen. In der vierten Kategorie wird das Vorgehen im Fließtext beschrieben. Unter der Kategorie Unterstützung sind die Kriterien Hilfsmittel, Literaturempfehlung und Das sollten Sie beachten enthalten. Die letzte Kategorie beinhaltet das Kriterium Quelle. PQ4Agile An dem Projekt PQ4Agile (Produktqualität für Agile Softwareentwicklung) sind die Partner HK Business Solutions GmbH, CAS Software AG, Fraunhofer IESE sowie YellowMap AG beteiligt. Das Verbundvorhaben wird vom Bundesministerium für Bildung und Forschung im Rahmen der Maßnahme KMU-innovativ gefördert. PQ4Agile entwickelt Unterstützungen für Anwender agiler Methoden. Es werden Beschreibungen von Softwareengineering-Methoden bereitgestellt, die einen möglichst einfachen Einsatz in agilen Projekten ermöglichen sollen. Die Hauptzielgruppe sind hierbei kleine und mittlere Unternehmen der Softwareindustrie. ("Das Verbundvorhaben PQ4Agile," 2015) Innerhalb des Projektes PQ4Agile werden Methoden anhand von 30 Kriterien beschrieben. Diese sind teilweise in Kategorien unterteilt; Informationen werden größtenteils in Form von Fließtext bereitgestellt. Zunächst werden dem Anwender der Methodenbeschreibung neben der Bezeichnung der Methode Informationen zu dem Bereich zu dem die Methode zu zählen ist, z.B. Evaluation, sowie zu der Aktivität, Erstellung eines Kriterienkataloges 7 z.B. Anforderungen erheben, gegeben. Es folgen Informationen zu Aufwand, Schwierigkeit und Agilitätsfaktor, die jeweils in einer dreistufigen Skala von hoch über mittel bis gering angegeben sind. Piktogramme verdeutlichen die Ausprägung dieser drei Kriterien. Die Kriterien Ziele, Motivation/Problemstellung, Kurzbeschreibung, Abbildung, Input und Output leiten die Methodenbeschreibung ein und stellen jeweils auch eine eigene Kategorie dar. Die Informationen von Motivation/Problemstellung und Kurzbeschreibung sind als Fließtext, die übrigen in Stichpunkten gegeben. Nachfolgend werden die sechs Kriterien Ausführender, Vorkenntnisse/Erfahrungen, Weitere Teilnehmer, Werkzeuge, Hilfsmittel, Ort/Umgebung sowie Voraussichtliche Dauer in der Kategorie Rahmenbedingungen zusammengefasst. Eine Kategorie Vorgehensweise beinhaltet die drei Kriterien Vorbereitung, Durchführung und Nachbereitung/Auswertung, die die Anwendung einer Methode beschreiben. Zusätzliche Hinweise geben die Kriterien Gütekriterien/Empfehlungen sowie Risiken. Es folgt die Kategorie Einordnung in den agilen Referenzprozess, die die drei Kriterien Mögliche Vorgänger, Mögliche Nachfolger und Mögliche Alternativen, verwandte Praktiken enthält, sowie die Kategorie bzw. das Kriterium Einordnung in das PQ4Agile-Qualitätsmodell. Abgeschlossen wird die Methodenbeschreibung mit dem Kriterium Schlagworte sowie den Kriterien Informationen im Internet und Literatur, die in der Kategorie Weiterführende Informationen zusammengefasst sind. PUMa Wie bereits in Kapitel 2.1 erwähnt, handelt es sich bei PUMa um ein Projekt an dem unter anderem das Institut für Arbeitswissenschaft der TU Darmstadt beteiligt ist. Das Projekt verfolgt das Ziel Softwareentwickler und Softwareanwender online mit Usability-Experten zu vernetzen. Der Kriterienkatalog des PUMa-Projektes ist mit 41 Kriterien der umfangreichste der betrachteten Kataloge. Die Kriterien sind in 12 Kategorien aufgeteilt. In Tabelle 1 sind die Kriterien am Beispiel der Methode Prototyping dargestellt. Erstellung eines Kriterienkataloges 8 Tabelle1:KriterienkatalogdesPUMa‐Projektes(BMWi,2014b) Nr. Kategorie Kriterien 1 Name Name 2 Abbildung(en) Abbildung(en) 3 Beschreibung Beschreibung Ausprägungen Synonym(e) 2 bis 4 Sätze Ergebnisse Vorteile Nachteile Praxis-Tipps 4 Hinweise zum Vorgehen Vorbereitung Durchführung Auswertung Hilfsmittel & Werkzeuge 5 6 7 Anwendungsdomäne & Projekthintergrund Zweck Rahmenbedingungen & Ressourcen Mein Produkt ist… • Software bzw. ein grafisches Interface • ein physikalisches Produkt/ Hardware • ein integriertes Produkt, bestehend aus Hardund Software • eine Dienstleistung • eine Kombination aus den vorgenannten Es handelt sich um… • ein Produkt, das bereits existiert (Redesign) • ein neues Produkt, das vergleichbar bereits existiert • ein neues Produkt, das so noch nicht auf dem Markt ist Geplante Markteinführung; Das Produkt soll auf den Markt kommen in… • 1-3 Monaten • 4-12 Monate • 13-24 Monate • > 24 Monate Inspiration & Information • Nutzer • Kontexte • Handlungen & Erfahrungen • Strukturen & Prozesse" Fragen & Verstehen. • Nutzer • Kontexte • Handlungen & Erfahrungen • Strukturen & Prozesse Ausprobieren, Entwerfen & Entwickeln • Ideen & Konzepte • Prototypen & Demonstratoren Bewerten, Auswerten & Validieren • Ideen & Konzepte • Prototypen & Demonstratoren • Daten analysieren Darstellen & Dokumentieren • Ordnen & Organisieren • Kommunizieren • Dokumentieren • Verbreiten Aufwand - Nutzer Skala: 1 bis 5 1: wenig Zeit erforderlich, um aussagekräftige Ergebnisse zu erhalten 5: sehr zeitaufwändig, um aussagekräftige Ergebnisse zu erhalten Maximaler Zeithorizont • 1 Tag • 1 Woche • 1 Monat • 3 Monate • 6 Monate • 1 Jahr oder länger Aufwand in Personentage • 10 oder weniger •… Anzahl der Teilnehmer TBD Erstellung eines Kriterienkataloges 9 8 9 Kategorisierung Bezug zu Puma-Entwicklungsprozess (Gewünschte) Teilnehmer • Egal, • Experten • Endnutzer • Firmeninterne • Stakeholder Besondere Teilnehmergruppen TBD Rolle der Teilnehmer • Partizipatorisch/ am Entwurfsprozess beteiligt • Diskussion • Wird beobachtet • Selbstbeobachtung Ort • Natürliche Umgebung • Usability Labor • Besprechungsraum • Remote • Schreibtisch Schwierigkeitsgrad – Durchzuführen von… Laie vs. Profi Art der Teilnehmer • Benutzerorientierte Methode • Expertenorientierte Methode Zeitpunkt in der Entwicklung • Gegen Ende des Entwicklungsprozesses • Entwicklungsbegleitend • Nach einem Launch Im laufenden Betrieb • In den frühen Phasen der Entwicklung Datentyp der Ergebnisse Qualitativ vs. Quantitativ 1 Projektorganisation & Prozessunterstützung 2 Konzeption, Analyse, Requirements Engineering 3 Design, Prototype 4 Implementierung, Umsetzung 5 Evaluierung, QM & User Feedback Bezug zu Prozessen/ Modellen 10 Referenzen Literatur Weblinks Zu beachtende Normen und Zertifikate Fragen & Problemstellungen 11 Verwandte und weiterführende Methoden Verwandte Methoden Weiterführende & ergänzende Methoden 12 Anwendungsbeispiele Beispiele/ Best Practice Simply usable Das Forschungsprojekt Simply usabile wird im Rahmen der Initiative „Einfach intuitiv – Usability für den Mittelstand“ vom BMWi gefördert. Die Projektpartner sind das Fraunhofer-Institut für Angewandte Informationstechnik FIT, die i22 Internetagentur GmbH sowie die sunzinet AG. Ziel des Projektes ist es ein Vorgehensmodell zu entwickeln, das Usability-Maßnahmen in den Software-Entwicklungsprozess von KMU etabliert. (BMWi, 2015e) Im Rahmen des Usability-Vorgehensmodells von Simply usable wurde ein Baukasten entwickelt, mit dessen Hilfe sich, abhängig vom Projekt, die passende Methode wählen lässt. Die Methoden werden anhand von elf Kriterien beschrieben, die in fünf Kategorien unterteilt sind. Kategorie eins beinhaltet den Namen der Methode. Die zweite Kategorie enthält das Kriterium Kurzbeschreibung, das einen kurzen Überblick über die Methode gibt. Ergänzt wird diese kurze Beschreibung durch ein Bild bzw. ein Foto. Kategorie drei enthält das Kriterium Ergebnis, das über die Resultate der Methode informiert. Erstellung eines Kriterienkataloges 10 Die folgenden vier Kriterien Projektestand, Benötigte Ressourcen, Zeitaufwand und Hilfsmittel sind in der Kategorie Voraussetzungen zusammengefasst. Das Kriterium Benötigte Ressourcen beinhaltet Informationen zu den benötigten Personen sowie ggf. das erforderliche Know-how. Der Zeitaufwand wird in Stunden angegeben. Zu verwendende Hilfsmittel sind als Aufzählung angegeben. Die letzte Kategorie der Methodenbeschreibung enthält die Kriterien Vorbereitung und Durchführung, die beide als Fließtext gegeben sind, sowie die abschließenden Kriterien Rahmenbedingungen und Literaturhinweise. UCDtoolbox Die UCDtoolbox wurde im Rahmen eines Projektes der niederländischen Technischen Universität Delft erstellt. Sie stellt eine Datenbank von Usabilty-Methoden dar. Mittels eines Filtersystems lassen sich zu einem Projekt passende Methoden finden. Hierbei werden zwei unterschiedliche Arten von Kriterien verwendet. Zum einen solche Kriterien, die zur Auswahl einer Methode von Bedeutung sind und zum anderen Kriterien, welche die Methoden und ihre Anwendung beschreiben. Zur Filterung, und somit zur Auswahl der Methoden, werden neun Kriterien verwendet, die in fünf Kategorien gegliedert sind. Unter der ersten Kategorie findet sich ein Kriterium, das die Methoden nach der Art der Produkte filtert, bei deren Erstellung sie verwendet werden können. Es ist mit Ich erstelle ein… bezeichnet und besitzt die Ausprägungen physikalisches Produkt, displaybasierte Benutzerschnittstelle, Dienstleistung und Umgebung/Ort. Das Kriterium der zweiten Kategorie Mein Ziel ist… besitzt Ausprägungen, die sich wiederum in eine weitere Ebene von Ausprägungen gliedert. Hierdurch bildet sich eine Satzstruktur aus. Die vorgesehenen Ausprägungen lauten: Mein Ziel ist… o mehr zu erfahren über… Benutzer Interaktionen zwischen Benutzer und Produkt Benutzererfahrung Kontext o die Schaffung von… Ideen & Konzepten Prototypen & Modellen o das Evaluieren von… Ideen & Konzepten Prototypen & Modellen o die Auswertung von Daten o die Darstellung von Ergebnissen Es folgt die dritte Kategorie Verfügbare Ressourcen, in der drei Kriterien enthalten sind. Ziel dieser Kriterien ist es, abhängig von der zur Verfügung stehenden Anzahl von Personen sowie von der verfügbaren Zeit, passende Methoden heraus zu filtern. Die Namen der Kriterien sind hierbei aus der Sicht des Anwenders formuliert. Sie fragen den Benutzer ab, welche Ressourcen zur Verfügung stehen, und können so zur Filterung der Methoden-Liste verwendet werden. Das erste Kriterium maximale Team- Erstellung eines Kriterienkataloges 11 größe besitzt die Ausprägungen 1, 2, 3, 4, 5 oder mehr und gibt damit an, wie viele Personen mindestens notwendig sind, um eine Methode zu verwenden. Für das zweite Kriterium maximale Dauer sind die Ausprägungen 1 Tag, 1 Woche, 1 Monat, 3 Monate, 6 Monate sowie 1 Jahr oder länger vorgesehen. Es gibt an, wie viel Zeit mindestens zur Verfügung stehen muss, um eine Methode anwenden zu können. Das letzte Kriterium dieser Gruppe betrifft ebenfalls die Ressource Zeit und gibt an, welche Methoden in Abhängigkeit der verfügbaren maximalen Personenstunden des Teams anwendbar sind. Vorgegeben sind hier die Ausprägungen 10 oder weniger, 40, 80, 120, 160 und 200 oder mehr. Kategorie vier der Filter-Kriterien heißt Teilnehmer und enthält die beiden Kriterien Art der Einbeziehung der Nutzer und Nutzer(gruppen) die beteiligt werden sollen. Ersteres hat die vier Ausprägungen physikalische Einbeziehung der Teilnehmer, aus der Ferne teilnehmende Personen, Experten, sowie User representation. Die ersten beiden Ausprägungen klassifizieren dabei Methoden danach, ob ein physikalischer Kontakt mit den Teilnehmern, z.B. in einem Usability-Labor benötigt wird, ober ob Personen aus der Ferne, z.B. per Telefon oder Internet teilnehmen können. Die Ausprägung Experten gibt an, dass bei der Verwendung der Methode Experten befragt werden, die auf diesem Weg Erfahrungen oder Wissen zu einem Fachgebiet einbringen. Unter User representation sind solche Methoden zu verstehen, bei denen das Verhalten von Benutzern simuliert wird. Das zweite Kriterium Nutzer(gruppen) die beteiligt werden sollen, hat die Ausprägungen: Kinder, Ältere Personen, Personen mit körperlicher Beeinträchtigung, Personen mit kognitiver Beeinträchtigung, Sehbehinderte, Hörgeschädigte sowie Personen mit mehreren ethnischen Hintergründen (Multiple Ethnicities). Die fünfte und letzte Kategorie Charakteristik der Methode beinhaltet die beiden Filter-Kriterien Output der Methode und Ort der Durchführung. Das Kriterium Output der Methode gibt den Datentyp der resultierenden Daten nach qualitativ und quantitativ an. Mit Hilfe dieses Kriteriums können Methoden danach gefiltert werden, ob sie qualitative Daten, z.B. in Form von Bildern, Texten, Audio- oder Videoaufzeichnungen erzeugen, oder numerische Daten hervorbringen, die häufig in Form von Tabellen oder Graphiken dargestellt werden. Das Kriterium Ort der Durchführung hat die Ausprägungen natürliche Nutzerumgebung, simulierte Nutzerumgebung (zur Durchführung der Methode wird die natürliche Umgebung, in der das Produkt genutzt wird, simuliert), Labor oder Tagungsraum und heimischer Schreibtisch. Zur Beschreibung von Methoden verwendet die UCDtoolbox 18 Kriterien, die in fünf Kategorien eingeteilt sind. Die ersten beiden Kriterien Name und Synonyme sind keiner übergeordneten Kategorie zugeteilt. Die erste Kategorie Überblick enthält die fünf Kriterien Kurzbeschreibung, Abbildungen, mögliche Ergebnisse, Vorteile und Grenzen. Das Kriterium Kurzbeschreibung stellt eine kurze Übersicht über die Methode dar. Unter der Kategorie Beschreibung sind die Kriterien Beschreibung, Diese Methode passt gut zu…, vorangegangene Aktivitäten und nachfolgende Aktivitäten aufgeführt. Das Kriterium Beschreibung stellt hier im Gegensatz zur Kurzbeschreibung eine etwas ausführlichere Übersicht in ca. fünf Sätzen dar. Die dritte Kategorie Optimierung enthält ausschließlich ein gleichnamiges Kriterium. Die nachfolgende Kategorie Instruktionen enthält die drei Kriterien Vorbereitung, Durchführung und Auswertung, welche die Anwendung der Methode beschreiben. Abschließend enthält die Kategorie Literatur die beiden Kriterien weiterführende Literatur sowie Quellen. Erstellung eines Kriterienkataloges 12 Usability Inside Das Projekt Usability Inside ist Teil der Förderinitiative „Einfach intuitiv – Usability für den Mittelstand“ und wird vom BMWi gefördert. Projektpartner sind das Fraunhofer-Institut für Arbeitswissenschaft und Organisation IAO, die CAS Software AG, der Bundesverband IT-Mittelstand e.V. sowie das Institut für Arbeitswissenschaft und Technologiemanagement IAT der Universität Stuttgart. Die Ziele des Projektes sind die Durchführung von Veranstaltungen zur Vermittlung von Know-how aus dem Bereich Usability, die Entwicklung und pilothafte Erprobung von Methoden sowie die Etablierung eines Online Portals zur Veröffentlichung der Ergebnisse des Projektes. (BMWi, 2014c) Usability Inside verwendet bei der Beschreibung von Methoden eine Sammlung von acht Kriterien. Auf das Kriterium Name folge das Kriterium Beschreibung und gibt dabei einen kurzen Überblick über die Methode in ca. fünf Sätzen. Es folgen die Kriterien Voraussetzungen, Nutzen und Herausforderungen. Die letzten drei Kriterien Vorbereitung, Durchführung und Auswertung sind unter der Kategorie Exemplarischer Ablauf zusammengefasst. Alle Informationen der Methodenbeschreibung sind in Fließtext gegeben. UseTree UseTree ist ein Projekt, das ebenfalls im Rahmen der Förderinitiative des BMWi gefördert wird. Projektpartner sind die Technische Universität Berlin, die Universität der Künste Berlin, die bao – Büro für Arbeits- und Organisationspsychologie GmbH und die Berlin Partner für Wirtschaft und Technologie GmbH. Das Projekt hat das Ziel ein Kompetenzzentrum für die Usability betrieblicher Anwendungssoftware aufzubauen und zu betreiben. Der Fokus liegt hierbei auf mobilen, internetbasierten Applikationen. (BMWi, 2014d) Der Kriterienkatalog von UseTree umfasst 19 Kriterien die teilweise in Kategorien zusammengefasst sind. Die Methodenbeschreibungen beginnen mit den Kriterien Name, Synonym(e), Abbildung, Beschreibung (in 2 bis 3 Sätzen) und der Fragestellung, die mit dieser Methode beantwortet werden kann. Es folgt die Kategorie Wann, die die zwei Kriterien Phase (grob) und Phase (genauer beschrieben, mit Bezug zum Stand des Systems) enthält. Die Kriterien Wer, Dauer und Womit, informieren über die benötigten Personen, den Zeitaufwand in Stunden sowie nützliche bzw. erforderliche Hilfsmittel und Werkzeuge. Die Verwendung der Methode wird in den drei Kriterien Vorbereitung, Durchführung und Auswertung der Kategorie Vorgehen im Fließtext beschrieben. Das Kriterium Vorteile stellt drei Vorzüge eine Methode in Stichpunkten dar, während das Kriterium Checkliste weiteres Wissenswertes bzw. Aspekte, die zu beachten sind, in einer abhakbaren Liste darlegt. Das Kriterium Weiterführende Infos gibt Auskunft über Literatur und Internetseiten mit zusätzlichen Informationen zur Vertiefung. Eine abschließende Kategorie Übungen fasst das Kriterium Vorlagen, Übungsaufgaben und Reflektionsfragen zusammen. Die Vorlagen stellen Handouts dar, die den Ablauf der Methode als Checkliste beschreiben und in die Ergebnisse direkt eingetragen werden können. Übungsaufgaben dienen dazu Aspekte einer Methode im Vorfeld zu trainieren, z.B. das Mitschreiben von Notizen. Reflektionsfragen regen zum rückblickenden Überlegen über die Methode bzw. über die Übungsaufgabe an. Erstellung eines Kriterienkataloges 13 3.1.2 Zusammenführung Im Folgenden werden die analysierten Kriterien miteinander verglichen und zusammengeführt. Mit „Zusammenführung“ ist hierbei gemeint, dass alle Kriterien in eine gemeinsame Tabelle eingefügt und nach Kategorien geordnet werden. In diesem Schritt werden nur solche Kriterien zusammengelegt und unter einer einheitlichen Bezeichnung aufgeführt, die in den ursprünglichen Kriterienkatalogen dieselbe Art von Informationen enthielten. Auf diese Weise soll in diesem Arbeitsschritt so wenig wie möglich vereinheitlicht und zusammengefasst werden. Es geht zunächst darum eine geordnete Darstellung aller Kriterien zu erreichen, ohne das Informationen aus den einzelnen Katalogen verloren gehen. Bei der Zusammenführung wird der Kriterienkatalog des PUMa-Projektes als Grundlage betrachtet, da dies der umfangreichste der analysierten Kataloge ist. Die übrigen Kriterienkataloge werden nacheinander dem zusammengeführten Katalog hinzugefügt. Es ergibt sich eine Sammlung von 90 Kriterien, die in 17 Kategorien aufgeteilt sind. Tabelle 2 zeigt die zusammengeführten Kriterien. Tabelle2:ZusammenführungderanalysiertenKriterien Nr Kategorie Kriterien Form Quelle 1 Bezeichnung Name PUMa, KompUEterchen4KMU, CUBES, UseTree, UCDtoolbox, Usability Inside, Simply usable Synonyme PUMa, UseTree, UCDtoolbox 2 Abbildungen Abbildungen PUMa, KompUEterchen4KMU, UseTree, UCDtoolbox, Simply usable 3 Klassifizierung Bereich PQ4Agile Aktivität PQ4Agile 4 Beschreibung Kurzbeschreibung 2 bis 4 Sätze PUMa, PQ4Agile, KompUEterchen4KMU, CUBES, UseTree, Design4Xperience, UCDtoolbox, Usability Inside, Simply usable Beschreibung Fließtext UCDtoolbox Nutzen Fließtext CUBES, Usability Inside Projektestand Fließtext Simply usable Projektphase Vorgabe* KompUEterchen4KMU, CUBES Phase (grob) Vorgabe UseTree Phase (genauer beschrieben) Vorgabe UseTree Ziele Stichpunkte PQ4Agile, KompUEterchen4KMU Ergebnisse Stichpunkte PUMa, UCDtoolbox, Simply usable Motivation/Problemstellung 2 bis 4 Sätze PQ4Agile Fragestellung, die mit der Methode beantw. werden kann UseTree 2 Fragen umgangsspr. form. Voraussetzungen Fließtext Input Stichpunkte PQ4Agile Output Stichpunkte PQ4Agile Vorteile Stichpunkte PUMa, CUBES, UseTree, UCDtoolbox Nachteile Stichpunkte PUMa, CUBES Grenzen Risiken Usability Inside UCDtoolbox Fließtext PQ4Agile Gütekriterien/Empfehlungen Fließtext PQ4Agile Praxis-Tipps Stichpunkte* PUMa, KompUEterchen4KMU, UseTree, UCDtoolbox, Usability Inside Erstellung eines Kriterienkataloges 14 Nr. Kategorie Kriterien 5 Rahmenbedingungen & Ressourcen Benötigte Ressourcen Simply usable Rahmenbedingungen Simply usable (Wer?) Form Ausführender PQ4Agile Weitere Teilnehmer (neben dem/den Ausführenden) PQ4Agile, KompUEterchen4KMU Teilnehmer Vorgabe UseTree Anzahl der Teilnehmer Vorgabe* PUMa, CUBES, Design4Xperience, UCDtoolbox (Gewünschte) Teilnehmer Vorgabe PUMa Nutzer(gruppen) die beteiligt werden sollen Vorgabe UCDtoolbox Beteiligte Rollen Vorgabe KompUEterchen4KMU Besondere Teilnehmergruppen (Schwierigkeit) (Womit?) Rolle der Teilnehmer Vorgabe PUMa Vorkenntnisse/Erfahrungen Aufzählung oder Fließtext PQ4Agile, Design4Xperience Art der Einbeziehung der Teilnehmer (z.B. remote) Vorgabe UCDtoolbox Schwierigkeitsgrad - Durchzuführen von… Vorgabe PUMa, CUBES Schwierigkeit Vorgabe/Skala PQ4Agile, KompUEterchen4KMU Werkzeuge, Hilfsmittel Aufzählung PUMa, PQ4Agile, KompUEterchen4KMU, UseTree, Design4Xperience, Simply usable KompUEterchen4KMU (Wo?) Ort/Umgebung PQ4Agile Ort Vorgabe PUMa, UCDtoolbox (Kosten) Kosten Vorgabe/Skala CUBES Aufwand Vorgabe/Skala* PQ4Agile, KompUEterchen4KMU, Design4Xperience Aufwand (Zeit-) - Nutzer Vorgabe/Skala PUMa Maximaler Zeithorizont Vorgabe PUMa, UCDtoolbox Aufwand in Personenstunden/tage Vorgabe/Skala* PUMa, KompUEterchen4KMU, UCDtoolbox (Sonstiges) 7 PUMa Literaturempfehlung (Dauer) 6 Quelle Vorgehensweise Anwendungsdomäne & Projekthintergrund Voraussichtliche Dauer PQ4Agile, UseTree Zeitaufwand Simply usable Agilitätsfaktor Vorgabe/Skala PQ4Agile Eignung mobil Vorgabe/Skala KompUEterchen4KMU Vorbereitung Fließtext PUMa, PQ4Agile, UseTree, UCDtoolbox, Usability Inside, Simply usabile Durchführung Fließtext PUMa, PQ4Agile, KompUEterchen4KMU, UseTree, Design4Xperience, UCDtoolbox, Usability Inside, Simply usabile Nachbereitung/Auswertung Fließtext PUMa, PQ4Agile, UseTree, UCDtoolbox, Usability Inside Mein Produkt ist… (Software, Hardware, Dienstleistung etc.) / Methode ist anwendbar bei der Erstellung folgender Produkte Vorgabe PUMa, UCDtoolbox Es handelt sich um… (existierende oder neues Produkt) Vorgabe PUMa Das Produkt soll auf den Markt kommen in… (Geplante Markteinführung) Vorgabe PUMa Erstellung eines Kriterienkataloges 15 Nr. Kategorie 8 Zweck (Mein Ziel ist…) 9 10 Kategorisierung Bezug zum Entwicklungsprozess Kriterien Form Quelle Inspiration & Information Vorgabe PUMa Fragen & Verstehen Vorgabe PUMa Ausprobieren, Entwerfen & Entwickeln Vorgabe PUMa Bewerten, Auswerten & Validieren Vorgabe PUMa Darstellen & Dokumentieren Vorgabe PUMa mehr zu erfahren über… Vorgabe UCDtoolbox die Schaffung von… Vorgabe UCDtoolbox das Evaluieren von… Vorgabe UCDtoolbox (weitere Ziele) Vorgabe UCDtoolbox Art der Teilnehmer (benutzeroder expertenorientierte Methode) Vorgabe PUMa Zeitpunkt in der Entwicklung Vorgabe PUMa Datentyp der Ergebnisse (qualitativ, quantitativ) Vorgabe PUMa, UCDtoolbox Bezug zum PUMaEntwicklungsprozess (Prozessphasen) Vorgabe PUMa Bezug zu Prozessen/Modellen PUMa Mögliche Vorgänger Aufzählung PQ4Agile, KompUEterchen4KMU, UCDtoolbox Mögliche Nachfolger Aufzählung PUMa, PQ4Agile, KompUEterchen4KMU, UCDtoolbox Aufzählung PQ4Agile 11 Einordnung in das PQ4AgileQualitätsmodell Beeinflusste Qualitätsmerkmale und -teilmerkmale (Softwarequalität) 12 Praxistest Praxistest 13 Schlagworte Schlagworte Aufzählung PQ4Agile 14 Referenzen und weiterführende Informationen Literatur / Quellen Aufzählung PUMa, PQ4Agile, KompUEterchen4KMU, CUBES, UseTree, Design4Xperience, UCDtoolbox, Simply usabile Design4Xperience weiterführende Literatur Weblinks UCDtoolbox Aufzählung YouTube Link Zu beachtende Normen und Zertifikate 15 Verwandte (und weiterführende) Methoden PUMa, PQ4Agile, UseTree, Design4Xperience CUBES, UseTree Aufzählung PUMa Fragen & Problemstellungen PUMa Mögliche Alternativen, verwandte Praktiken PUMa, PQ4Agile, UCDtoolbox Diese Methode passt gut zu… UCDtoolbox 16 Anwendungsbeispiele Beispiele/Best Practice PUMa, CUBES 17 Übungen Vorlagen UseTree Übungsaufgaben UseTree Reflektionsfragen UseTree Im Folgenden werden die Wahl der Kategorie- und Kriterien-Bezeichnungen, die zusammengelegten Kriterien, sowie Besonderheiten beim Format der Kriterien; die in Tabelle 2 mit einem Stern (*) markiert sind, erläutert. Die Bezeichnungen der 1. und 3. Kategorie Bezeichnung und Klassifizierung wurden im Rahmen dieser Arbeit gewählt. Die Namen der Kategorien 2 und 4 Abbildung und Beschreibung sind dem Kriterienkatalog von PUMa entnommen. Alternativen für die 4. Kategorie sind Kurzbeschreibung, nach CUBES Erstellung eines Kriterienkataloges 16 sowie Zusammenfassung nach dem Katalog von KompUEterchen4KMU. Rahmenbedingung & Ressourcen, die Bezeichnung der 5. Kategorie ist ebenfalls nach PUMa benannt. Die Positionierung dieser Informationen, im Anschluss an die Kategorie Beschreibung, ist an die Kriteriensammlung von PQ4Agile angelehnt. Kategorie 6 Vorgehensweise wurde entsprechend der Methodenbeschreibung von PQ4Agile benannt. Die Kategorien 11, 12, 13 und 17 sind entsprechend der Projekte, denen sie entstammen benannt. Die Bezeichnung von Kategorie 14 wurde aus der Benennung Referenzen nach PUMa und der Benennung Weiterführende Informationen nach PQ4Agile zusammengefügt zu Referenzen und weiterführende Informationen. Alle übrigen Kategoriebezeichnungen sind dem PUMa-Kriterienkatalog entnommen. Die Kriterien Projektphase nach CUBES und KompUEterchen4KMU wurden zusammengelegt. Letzteres Projekt gibt die Phasen Analyse, Konzeption & Entwicklung, Umsetzung und Betrieb vor, während CUBES keine Vorgaben macht. Unter dem Kriterium Praxis-Tipps von PUMa wurden die Kriterien Das sollten Sie beachten von KompUEterchen4KMU, Optimierung von UCDtoolbox und Herausforderung von Usability Inside zusammengefasst. Die Tipps sind allgemein in Stichpunkten angegeben, nur Usability Inside gibt die Informationen im Fließtest an. Das Kriterium Anzahl der Teilnehmer orientiert sich mit der Benennung nach den Vorgaben des PUMaKataloges. Alternative Bezeichnungen sind Teilnehmer, nach CUBES und Design4Xperience und (verfügbare) maximale Teamgröße nach UCDtoolbox. Letztere Quelle macht als einzige der vier eine Vorgabe für dieses Kriterium (1, 2, 3, 4, 5 oder mehr). Beim Kriterium Aufwand variieren die Vorgaben je nach Projekt. PQ4Agile verwendet eine dreistufige Skale von hoch über mittel bis niedrig, KompUEterchen4KMU nutzt eine Skala von 1 bis 4 während Disign4Xperience den Aufwand als Fließtext angibt. Für Aufwand in Personenstunden/-tage sind ebenfalls unterschiedliche Vorgaben gemacht. Während von PUMa eine Skala angedacht ist, diese aber nicht konkret vorgegeben wird, ist in der UCDtoolbox eine Skala von 10 bis 200 Stunden angegeben. KompUEterchen4KMU macht keine Vorgabe bei diesem Kriterium. Die beiden Kriterien Möglicher Vorgänger und Möglicher Nachfolger wurden aus dem Kriterienkatalog von PQ4Agile entnommen. Nach KompUEterchen4KMU sind diese Kriterien mit andere UEMethodenelemente und nach UCDtoolbox mit vorausgegangenen Aktivitäten und nachfolgenden Aktivitäten benannt. Im Katalog von PUMa ist ausschließlich letzteres Kriterium mit der Bezeichnung weiterführende & ergänzende Methoden vorhanden. Bei der Analyse und der Zusammenführung der Kriterienkataloge hat sich gezeigt, dass sich die existierenden Sammlungen stark in ihrem Umfang unterscheiden. Während beispielsweise die Methoden im Projekt Usability Inside nur durch acht Kriterien beschrieben werden, verwendet das PUMa-Projekt einen Katalog aus 41 Kriterien. Es hat sich ebenfalls herausgestellt, dass viele Projekte ähnliche Kriterien verwenden. Häufig liegen die Unterschiede lediglich bei den verwendeten Bezeichnungen, den zugeordneten Kategorien, der Reihenfolge mit der die Kriterien im Katalog bzw. der Methodenbeschreibung auftauchen oder in der Form, in der die Informationen angegeben werden. 3.2 Erstellung eines vorläufigen Kriterienkataloges Ziel dieses Unterkapitels ist es einen vorläufigen Kriterienkatalog auf Basis der zusammengeführten Kriterien zu definieren, der im Rahmen einer Befragung evaluiert werden kann. Hierzu sind die KriteErstellung eines Kriterienkataloges 17 rien des zusammengeführten Kataloges zu vereinheitlichen und zusammenzufassen. Der Katalog wird dadurch gekürzt, er sollte aber mindestens all jene Kriterien enthalten bleiben, die von mehr als einem der in Kapitel 3.1.1 vorgestellten Projekte verwendet wurden. Durch die Zusammenfassung des Kataloges, soll die Anzahl der 90 Kriterien deutlich verringert werden. Die Verringerung der Kriterienanzahl hat auch zum Ziel, die Dauer der Befragungen gering zu halten, um eine möglichst hohe Akzeptanz bei den Teilnehmern zu erzielen. Ebenfalls werden sich das Verständnis und die Übersichtlichkeit der Kriterien durch eine Selektion verbessern. Einige wenige Kriterien mit ähnlichem Inhalt werden ohne Zusammenfassung im vorläufigen Kriterienkatalog verbleiben, um im Rahmen der Befragung zu ermitteln, welche Form der Informationsdarstellung als besser angesehen wird. 3.2.1 Anpassungen am zusammengeführten Kriterienkatalog Im Folgenden werden die durchgeführten Anpassungen am zusammengeführten Kriterienkatalog aus Kapitel 3.1.2 dargestellt und diskutiert. Im Rahmen der Anpassungen wurden Kriterien in andere Kategorien verschoben, Kriterien zusammengefasst sowie ganze Kategorien und einzelne Kriterien aus dem Katalog entfernt. Kriterien verschieben Folgende Kriterien werden in andere Kategorien verschoben: Das Kriterium Abbildung wurde aus Gründen der besseren Übersichtlichkeit aus der Kategorie Abbildung in die Kategorie Beschreibung verschoben. Die Kriterien der Kategorie Kategorisierung von PUMa wurden auf andere Kategorien aufgeteilt. Das Kriterium Art der Teilnehmer ist in der Kategorie Rahmenbedingungen & Ressourcen eingeordnet, der Zeitpunkt in der Entwicklung befindet sich unter der Kategorie Anwendungsdomäne & Projekthintergrund. Die Art des Datentyps der Ergebnisse steckt implizit in Kriterien der Kategorie Zweck. Kriterien zusammenfassen Die folgenden Kriterien werden zu einem bestehenden oder neu definierten Kriteriums zusammengefasst: 1 Die Kriterien Projektphase von KompUEterchen4KMU und CUBES, Phasen (grob) und Phase (genauer beschrieben, mit Bezug zum Stand des Systems) von UseTree, Projektestand von Simply usable sowie Bezug zum Puma-Entwicklungsprozess von PUMa wurden zum Kriterium Die Methode ist anwendbar in der/den Projektphase(n) zusammengefasst1. Da sich alle Angaben der Autoren auf die Projektphasen beziehen in denen eine Methode eingesetzt werden kann, gehen durch diese Maßnahme keine Informationen verloren. Die Angaben der bestehenden Kriterienkataloge unterscheiden sich in den vorgegebenen Ausprägungen, sprich der Form, in der die Im späteren Verlauf der Erstellung des Kriterienkatalogs wird das Kriterium in Projektphasen umbenannt (vgl. Kap 3.3.5). Erstellung eines Kriterienkataloges 18 Kriterien angegeben sind. Hierbei gibt es unterschiedliche Vorgaben zum Format der Angaben. Nach PUMa gibt es beispielsweise die Prozessphasen Projektorganisation & Prozessunterstützung, Konzeption, Analyse, Requirements Engineering, Design, Prototype, Implementierung, Umsetzung und Evaluierung, QM & User Feedback. KompUEterchen4KMU und UseTree geben hier ihrerseits eigene abweichende Bezeichnungen für Projektphasen an. Aufgrund der nicht einheitlichen Vorgaben wird zunächst keine fest vorgegebene Kriteriumsausprägung für das Kriterium der Projektphasen festgelegt. Die Definition der Projektphasen erfolgt in Kapitel 3.4 im Rahmen der Darstellung des finalen Kriterienkataloges. Neben der Zusammenfassung der Kriterien wird ebenfalls die Kategorie in der Projektphasen auftaucht vereinheitlicht. Während nach KompUEterchen4KMU, CUBES und UseTree eine Einordnung des Kriteriums in der Kategorie Beschreibung bzw. Wann vorgenommen wird, verwendet PUMa die Kategorie Bezug zum PumaEntwicklungsprozess. Das Kriterium der Projektphase wird aufgrund seiner Satz-Formulierung zunächst der Kategorie Anwendungsdomäne & Projekthintergrund zugeordnet, da hier ebenfalls diese Formulierungsart der Kriterien verwendet wird. In Anlehnung an die Kategoriebezeichnung Verwandte und weiterführende Methoden nach PUMa wird im Folgenden eben diese Bezeichnung verwendet, unter der sich die Kriterien Alternative Methoden oder verwandte Praktiken, Möglicher Vorgänger und Möglicher Nachfolger einreihen, hinter denen sich eine Aufzählung von Methoden verbirgt, die vor oder nach der Anwendung der beschriebenen Methode eingesetzt werden können. Das Kriterium Fragestellung, die mit der Methode beantwortet werden kann von UseTree wurde in das Kriterium Ziel integriert, das von PQ4Agile sowie von KompUEterchen4KMU verwendet wird. Die beiden Kriterien unterscheiden sich nur in der Art der Informationsdarstellung und können daher zusammengefasst werden. Unter dem Punkt Ziel ist es so ebenfalls möglich, die Informationen in Form von Fragen darzustellen. Die Informationen des durch das Projekt Usability Inside eingebrachten Kriteriums Voraussetzungen werden durch das Kriterium Input sowie den Kriterien der Kategorie Rahmenbedingungen & Ressourcen abgedeckt. Das ursprüngliche Kriterium taucht damit nicht explizit im vorläufigen Kriterienkatalog auf. Ergebnisse, das von PUMa und UCDtoolbox verwendet wird, wird mit Output von PQ4Agile zu dem Kriterium Output/Ergebnisse zusammengelegt. Die neue Bezeichnung soll zum einen den Bezug zum Kriterium Input von PQ4Agile herstellen und zum anderen eine gute Verständlichkeit aufweisen. Inhaltlich drücken beide Begriffe die Resultate aus, die die Anwendung einer Methode hervorbringt. Die Kriterien Grenzen von UCDtoolbox, im Original als Limitations bezeichnet, sowie Risiken von PQ4Agile werden unter dem Kriterium Nachteile von CUBES und PUMa zusammengefasst wobei die Bezeichnung Nachteile/Grenzen gewählt wird um eine höhere Verständlichkeit des Kriteriums zu erreichen. Die drei zusammengeführten Kriterien sind sich inhaltlich sehr ähnlich und unterscheiden sich im Wesentlichen dadurch, dass die Informationen bei Risiken in Form von Fließtext und bei Grenzen und Nachteilen in Form von Stichpunkten gegeben sind. In den bestehenden Kriterienkatalogen ist eine Vielzahl von Kriterien vorgesehen die Anwendungstipps beinhalten. Nach KompUEterchen4KMU ist dieses Kriterium mit Das sollten Sie beachten, nach PUMa mit Praxis-Tipps und nach UseTree mit Checkliste – Weiteres Wissenswertes/Darauf ist zu achten bezeichnet. Von UCDtoolbox werden solche Hinweise unter dem Kriterium Optimierung hinterlegt. Bei all diesen Katalogen werden die Informationen anhand von Erstellung eines Kriterienkataloges 19 Stichpunkten aufgezeigt. PQ4Agile bezeichnen ihr Kriterium für Hinweise mit Gütekriterien/Empfehlungen und stellen die Informationen in einem Fließtext dar. Im Rahmen dieser Arbeit werden alle erwähnten Kriterien unter Anwendungs-Tipps zusammengefasst. Die Kriterien zum Thema Anwendungs-Tipps werden von den Autoren unterschiedlichen Kategorien zugeordnet. PQ4Agile, UCDtoolbox und UseTree schaffen jeweils eine eigene Kategorie für Hinweise, die der Beschreibung der Vorgehensweise der Methoden nachgestellt ist. Nach KompUEterchen4KMU werden Hinweise zur Anwendung zusammen mit Hilfsmitteln, Literaturempfehlungen und Quellen in einer Kategorie Unterstützung gruppiert. Der Kriterienkatalog nach PUMa sieht eine Kategorisierung unter Beschreibung vor. In Anlehnung an PQ4Agile, UseTree und UCDtoolbox wird im Folgenden das Kriterium Anwendungs-Tipps unter einer gleichnamigen Kategorie aufgeführt, die auf die Kategorie Vorgehensweise folgt. Die beiden Kriterien Benötigte Ressourcen und Rahmenbedingungen nach Simply usable werden in die Kriterien der Kategorie Rahmenbedingungen & Ressourcen integriert. Nach den Kriterienkatalogen von CUBES, Design4Xperience, KompUEterchen4KMU, PQ4Agile, PUMa und UCDtoolbox wird ein Kriterium angegeben, das die Anzahl der Teilnehmer angibt. All diese Kriterien wurden im Kontext dieser Arbeit unter dem Kriterium Benötigte Teilnehmeranzahl zusammengefasst. KompUEterchen4KMU, PUMa, und UseTree haben in ihren Kriterienkatalogen Kriterien, welche die Art der Teilnehmer, die zur Durchführung der Methode benötigt werden bzw. erwünscht sind, angegeben. Diese Kriterien, mit unterschiedlichen Bezeichnungen und Ausprägungen, werden in der neu erstellten Kategorie Art der Teilnehmer zusammengefasst. Die Ausprägungen aus den bestehenden Katalogen werden zusammengeführt, so dass die Vorgaben Firmeninterne, Entwickler, Software Gestalter, Experten (z.B. Usability Experten), Endnutzer, Kunden, Stakeholder und egal unterschieden werden. Die Ausprägung Testleiter wurde entfernt, da die Informationen über die Ausführenden einer eigenen Kategorie zu entnehmen sind. Weitere Ausprägungen können sich bei der Einordnung der Methoden in den fertigen Kriterienkatalog ergeben. Angaben zum Schwierigkeitsgrad werden nach CUBES, KompUEterchen4KMU, PQ4Agile und PUMa anhand von vorgegebenen Skalen angegeben. Diese Kriterien werden unter dem Begriff Schwierigkeitsgrad zusammengefasst. Eine Skala zur Bewertung der Schwierigkeit wird vorerst nicht vorgegeben. Nach PQ4Agile, PUMa und UCDtoolbox wird der Ort der Anwendung angegeben. In Anlehnung an die Kriterienbezeichnung von PQ4Agile wird hierzu ein Kriterium namens Ort/Umgebung gewählt. Die Vorgaben von PUMa und UCDtoolbox werden zu den Ausprägungen natürliche Nutzungsumgebung, simulierte Nutzungsumgebung, Usability Labor, Tagungsraum und Schreibtisch zusammengefasst. Das Kriterium Zeitaufwand von Simply usabile wird in das Kriterium Voraussichtliche Dauer von PQ4Agile und Usetree integriert. Die Kriterien zum Thema Zweck von PUMa und UCDtoolbox wurden unter einer gleichnamigen Kategorie zusammengeführt. Die Kriterien dieser Kategorie wurden in Anlehnung an die Filterfunktion der UCDtoolbox in eine Satzstruktur überführt, so dass der Zweck einer Methode leichter verständlich ist. So geht beispielsweise direkt aus der Satzstruktur der Kriterien hervor, das eine Methode anwendbar ist, wenn es das Ziel ist, die Interaktion zwischen Benutzern und dem Produkt zu untersuchen. Erstellung eines Kriterienkataloges 20 Die Kriterien der Kategorie Referenzen und weiterführende Informationen wurden zusammengefasst zu den Kriterien Verweis auf weiterführende Literatur, Zu beachtende Normen und Zertifikate und Quellen. Die Kriterien Weblinks und YouTube Link gliedern sich auf die drei bestehenden Kriterien auf. Kategorien entfernen Im Folgenden werden jene Kategorien aufgeführt, die aus dem Katalog entfernt werden: Die Kategorie Klassifizierung (von PQ4Agile) mit den Kriterien Bereich und Aktivität wurde aus dem Kriterienkatalog entfernt, da keine festen Vorgaben für die Ausprägungen dieser Kriterien gegeben sind. Es wird sich daher vermutlich um Angaben handeln, die nur innerhalb des Projektes von PQ4Agile von Bedeutung sind. In den übrigen bestehenden Kriterienkatalogen tauchen keine ähnlichen Kriterien auf. Eine Einordnung in das PQ4Agile-Qualitätsmodell ist im Kontext dieser Masterthesis nicht anwendbar. Entsprechend wurde das Kriterium Beeinflusste Qualitätsmerkmale und –teilmerkmale (Softwarequalität) sowie die genannte Kategorie, die nach PQ4Agile in den zusammengeführten Kriterienkatalog übernommen wurde, aus dem vorläufigen Kriterienkatalog entfernt. Nach Design4Xperience sind die Kategorie und das Kriterium Praxistest im Kriterienkatalog vorhanden. Da im Rahmen dieser Arbeit Informationen zur Praxiserprobungen nicht relevant sind, wird dieses Kriterium nicht in den vorläufigen Katalog aufgenommen. Da alle Methodenbeschreibungen literarischen Quellen entnommen werden, wird eine Praxiserprobung vorausgesetzt. Die Kategorie Übungen von UseTree wurde nicht in den vorläufigen Kriterienkatalog übernommen, da es sich hierbei um projektinterne Kriterien handelt, die im Kontext der vorliegenden Arbeit keine Relevanz besitzen. Kriterien entfernen Folgende Kriterien werden aus dem Katalog entfernt: Das Kriterium Beschreibung wird von UCDtoolbox verwendet und stellt eine ausführliche Darstellung der Methode im Fließtext da. Unter diesem Kriterium sind zusätzliche allgemeine Informationen der Methode enthalten, die über die Informationen der Kurzbeschreibung hinausgehen. Das Kriterium wurde nicht in den Kriterienkatalog für die Befragung aufgenommen, da die hier, im Vergleich zur Kurzbeschreibung zusätzlich enthaltenen Informationen, sich in anderen Kriterien, wie beispielsweise im Kriterium Vorteile wiederfinden. Das Kriterium Nutzen, das von CUBES verwendet wird kombiniert die Kriterien Kurzbeschreibung, Ziele und Vorteile. Da diese Kriterien in separater Form im Kriterienkatalog bestehen bleiben, ist das Kriterium Nutzen nicht von Bedeutung. In den Katalogen von Design4Xperience, KomUEterchen4KMU und PQ4Agile wird ein Kriterium namens Aufwand angegeben. Da es jedoch nicht eindeutig definiert ist und nur anhand von Skalen bzw. eines Fließtextes Kosten und Zeitaufwand zusammenfasst, wurde es in den zusammengeführten Kriterienkatalog nicht aufgenommen. Stattdessen wurde eine Unterkategorie Aufwand definiert, unter der Kriterien zu den Kosten sowie dem Zeitaufwand aufgeführt sind. Erstellung eines Kriterienkataloges 21 Das Kriterium Aufwand - Nutzer von PUMa wird im vorläufigen Kriterienkatalog weggelassen, da sich Methoden im Rahmen der vorliegenden Arbeit nur schwer in die vorgegebene Skala einordnen lassen. Es wäre eine Anwendung der Methoden notwendig um den Aufwand zu ermitteln. Zum Ausgleich der gestrichenen Kriterien werden die drei Kriterien Voraussichtliche Dauer, Maximaler Zeithorizont sowie Aufwand in Personenstunden/-tagen in den vorläufigen Katalog aufgenommen. Abhängig von den Ergebnissen der Befragung können diese drei Kriterien zum Zeitaufwand weiter zusammengefasst werden. Das Kriterium Agilitätsfaktor, welches im Rahmen des PQ4Agile-Projektes verwendet wird, wird nicht in den Kriterienkatalog aufgenommen, da dieses Kriterium im Rahmen dieser Arbeit nur schwer anwendbar und einschätzbar ist. Das von KompUEterchen4KMU verwendete Kriterium Eignung mobil wird aus dem vorläufigen Katalog entfernt, da diese Information bereits im Kriterium Ort/Umgebung enthalten ist. 3.2.2 Vorläufiger Kriterienkatalog Die dargestellten und diskutierten Veränderungen der zusammengeführten Kriterien führen auf den in Tabelle 3 dargestellten vorläufigen Kriterienkatalog. Der Katalog enthält 45 Kriterien, die in elf Kategorien aufgeteilt sind. In dieser Form wird der Kriterienkatalog im nächsten Kapitel im Rahmen einer Befragung evaluiert. Ziel ist es, die relevanten Kriterien zu identifizieren. Der Kriterienkatalog wird im Anschluss an die Befragung entsprechend angepasst werden. Erstellung eines Kriterienkataloges 22 Tabelle3:VorläufigerKriterienkatalog,derimRahmenderBefragungevaluiertwird Nr. Kategorie 1 Bezeichnung Unterkategorie Kriterium - Ausprägungen/Hinweise Name Synonyme 2 Beschreibung - Kurzbeschreibung 2 bis 4 Sätze Abbildungen 3 Rahmenbedingungen Wer? & Ressourcen Ziele Stichpunkte Motivation/Problemstellung 2 bis 4 Sätze Input Stichpunkte Output/Ergebnisse Stichpunkte Vorteile Stichpunkte Nachteile/Grenzen Stichpunkte Benötigte Teilnehmeranzahl Art der Teilnehmer Nutzergruppen, sollen die beteiligt werden Firmeninterne Entwickler Software Gestalter Experten (z.B. Usability Experten) Endnutzer Kunde Stakeholder egal … Kinder Senioren Personen mit körperlicher Beeinträchtigung Sehbehinderte Hörgeschädigte … Rolle der Teilnehmer partizipatorisch/ am Entwurfsprozess beteiligt Diskussion wird beobachtet Selbstbeobachtung Art der Einbeziehung der Teilnehmer physikalische Einbeziehung der Teilnehmer (z.B. in einem Usability Labor) Remote (z.B. per Telefon od. Internet) Rolle des/der Ausführenden (z.B. Interviewer) Nützliche oder erforderliche Vorkenntnis- Aufzählung oder Stichpunkte se oder Erfahrungen Schwierigkeitsgrad Skala (z.B. Profi bis Laie oder hoch bis gering) Womit? Werkzeuge, Hilfsmittel Aufzählung Wo? Ort/Umgebung Aufwand Kosten natürliche Nutzungsumgebung simulierte Nutzungsumgebung Usability Labor Tagungsraum Schreibtisch Voraussichtliche Dauer (z.B. ca. 60 Minuten pro Interview, zusätzliche Zeit für Vorbereitung und Auswertung) Maximaler Zeithorizont 1 Tag oder kürzer 1 Woche 1 Monat 3 Monate 6 Monate 1 Jahr oder länger Zeitaufwand in Personenstunden/-tagen Erstellung eines Kriterienkataloges 23 Nr. Kategorie 4 Vorgehensweise 5 Anwendungs-Tipps 6 Anwendungsdomäne & Projekthintergrund Unterkategorie Kriterium - - Ausprägungen/Hinweise Vorbereitung Fließtext Durchführung Fließtext Nachbereitung/Auswertung Fließtext Anwendungs-Tipps Stichworte Die Methode ist bei der Erstellung folgender Produkte anwendbar… Physikalisches Produkt Software bzw. grafisches Interface Integriertes Produkt, bestehend aus Hard- und Software Dienstleistung Umgebung/Ort Kombination aus vorgenannten wenn es sich um ein Produkt handelt, das… bereits existiert (Redesign) neu ist und vergleichbar bereits existieren neu ist und so noch nicht auf dem Markt ist wenn die Markteinführung des Produkts geplant ist in… 1-3 Monaten 4-12 Monaten 13-24 Monaten <24 Monaten zu folgendem Zeitpunkt in der Entwick- lung in der frühen Phase gegen Ende entwicklungsbegleitend nach einem Launch im laufenden Betrieb in der/den Projektphase(n) 7 8 9 Zweck Verwandte und weiterführende Methoden Benutzer (Wer ist der Benutzer?) Interaktion zwischen Benutzer und Produkt Strukturen und Prozesse Benutzererfahrung Kontext (Zusammenhang, in dem das Produkt erstellt wird) folgendes zu erstellen Ideen & Konzepte Prototypen & Demonstratoren folgendes zu bewerten Ideen & Konzepte Prototypen & Demonstratoren Daten… zu ordnen und zu organisieren zu kommunizieren zu dokumentieren zu verbreiten Alternative Methoden oder verwandte Praktiken Aufzählung Mögliche Vorgänger Aufzählung Mögliche Nachfolger Aufzählung Die Methode ist mehr zu erfahren über… anwendbar, wenn es mein Ziel ist… - Anwendungsbeispiele - Beispiele/Best Practice 10 Schlagworte - Schlagworte 11 Referenzen und weiterführende Informationen - Verweis auf weiterführende Literatur Aufzählung Zu beachtende Normen und Zertifikate Quellen Erstellung eines Kriterienkataloges 24 3.3 Evaluation des vorläufigen Kriterienkataloges Um einen Usability-Methodenkatalog zu entwickeln, der den Anforderungen der Nutzer genügt, sollen die Nutzer selbst in die Entwicklung mit einbezogen werden. Im vorliegenden Fall soll der vorläufige Kriterienkatalog im Rahmen einer Befragung, von potentiellen Anwendern der Kompetenzplattform evaluiert werden. Es soll ermittelt werden, welche der Kriterien sie im Kontext der Methodenbeschreibung als wichtig und welche als unwichtig ansehen. Auf Grundlage der Ergebnisse der Befragung wird der vorläufige Kriterienkatalog angepasst und für die Beschreibung von Usability-Methoden finalisiert. Auf diese Weise soll ein Methodenkatalog entstehen, der an die Bedürfnisse der Benutzer angepasst ist. 3.3.1 Auswahl des Befragungsverfahrens Zunächst ist eine Auswahl des Befragungsverfahrens erforderlich. Befragungen können, abhängig von der Form der Durchführung, als schriftliche Befragung, mündliche Befragung, Telefoninterview und als internetgestützte Befragung ausgeführt werden. (Schnell, Hill, & Esser, 2011). Im Folgenden werden die Befragungsarten kurz vorgestellt und miteinander verglichen. Im Anschluss werden die Anforderungen an die, im Rahmen dieser Arbeit durchgeführten Befragung erläutert. Davon ausgehend wird ein Befragungsverfahren ausgewählt. Mögliche Befragungsverfahren Schriftliche Befragungen, die sowohl postalisch als auch durch anwesende Personen durchgeführt werden können, verwenden einen standardisierten Fragebogen, der von den Befragungsteilnehmern ausgefüllt wird (Mayer, 2012). Eine schriftliche Befragung ist in der Regel kostengünstiger als eine mündliche Befragung, da sie meist in kürzerer Zeit und mit weniger Personalaufwand durchgeführt werden kann. Hinzu kommt, dass eine größere Zahl von Befragten erreicht werden kann (Atteslander, 1991). Weitere Vorteile dieser Befragungsart im Vergleich zum Interview sind, dass Antworten ehrlicher und überlegter gegeben werden, da kein direkter, persönlicher Kontakt zum Fragenden besteht und mehr Zeit zum Antworten vorhanden ist (Schnell et al., 2011). Nachteilig ist, dass die Befragungssituation nicht kontrolliert werden kann, da im Allgemeinen kein Interviewer anwesend ist. So können Fragen unvollständig beantwortet oder übersehen werden. Eine Beeinflussung der Zielperson oder gar ein Ausfüllen durch eine dritte Person kann nicht ausgeschlossen werden (Atteslander, 1991). Ein weiterer wesentlicher Nachteil vor allem von postalischen Befragungen ist die geringe Rücklaufquote (Mayer, 2012). Diese kann lediglich bei 15 Prozent der verendeten Fragebögen liegen (Berekoven, Eckert, & Ellenrieder, 2001). Die mündliche Befragung zeichnet sich dadurch aus, dass ein Interviewer physisch mit dem Befragten in Verbindung tritt und Fragen stellt. Dadurch ist er in der Lage, eine Regel- und Kontrollfunktion zu übernehmen (Atteslander, 1991). So ist es unter anderem möglich auch schwierigere Themenstellungen in die Befragung einzubeziehen (Stiller, 2015). Nachteilig ist, dass der Interviewer direkten Einfluss auf den Gesprächsverlauf nimmt und damit einen Verzerrungsfaktor darstellt (Mayer, 2012). Um die Verzerrungen so gering wie möglich zu halten ist es erforderlich, dass der Interviewer in jeder Phase des Gesprächs genau weiß, was er zu sagen und zu tun hat (K. Holm, 1986). Durch Schulungen der Erstellung eines Kriterienkataloges 25 Interviewer kann diese Qualifikation erreicht werden. Weitere Nachteile einer mündlichen Befragung sind der Zeitaufwand und die hohen Kosten (Mayer, 2012). Ein Telefoninterview ist eine spezielle Form der mündlichen Befragung. Das Erscheinen und Auftreten des Interviewers spielen keine Rolle (Mayer, 2012). Es ist ein geringerer Zeitaufwand als beim klassischen Interview notwendig, da kein physischer Kontakt zum Befragten bestehen muss. Der finanzielle Aufwand wird hierdurch ebenfalls reduziert. Nachteilig ist, dass kein Demonstrationsmaterial vorgelegt werden kann. Daher müssen umfangreiche Fragenkomplexe stärker aufgegliedert und offene Fragen sowie Antwortmöglichkeiten reduziert werden (Berekoven et al., 2001). Online-Befragungen sind eine internetbasierte Variante der schriftlichen Befragungsmethode. Aus dem Browser heraus können die Befragten Online-Fragebögen ausfüllen, die auf einem Web-Server hinterlegt sind. Die Ergebnisse können vom Interviewer heruntergeladen und ausgewertet werden. Diese Befragungsmethode stellt eine kostengünstige Möglichkeit der Befragung dar. OnlineBefragungen lassen sich wesentlich schneller realisieren als mündliche oder schriftliche Befragungen und sind deutlich günstiger. Die Befragten können entscheiden, wann sie den Fragebogen beantworten. Die erhobenen Daten sind sofort auf dem Server verfügbar. (Mayer, 2012) Ein Nachteil der Online-Befragung stellt die Tatsache dar, dass die Abbruchquote im Vergleich zu anderen Befragungsmethoden höher ist (Welker, 2005). Wahl des Befragungsverfahrens Vor der Wahl eines Befragungsverfahrens werden zunächst die Anforderungen gesammelt, die an die Befragung bestehen. Hierzu werden sowohl der bestehende Zeitplan zur Erstellung dieser Master Thesis betrachtet, wie auch die Eigenheiten der sich ergebenden Befragungssituation. Im Rahmen dessen wird ein Brainstorming, kombiniert mit der Erstellung einer Mindmap, durchgeführt um die Anforderungen zu sammeln und zu strukturieren. Im Anschluss an die Auflistung der Anforderungen werden diese erläutert und im Zusammenhang mit den zur Wahl stehenden Befragungsverfahren Interview, Telefoninterview, Fragebogen und Online-Befragung bewertet. Die relevanten Anforderungen für die Wahl des Befragungsverfahrens sind:2 2 Die Befragung soll „aus der Ferne“ möglich sein. Die befragten Personen sollen ausreichend Zeit haben um überlegt auf Fragen antworten zu können. Den befragten Personen soll ein visueller Überblick über die Kategorien, Kriterien und Ausprägungen ermöglicht werden. Der Zeitaufwand für die gesamte Durchführung aller Befragungen soll möglichst gering sein, maximal 60 Arbeitsstunden betragen und innerhalb eines Zeitraums von maximal 30 Tagen beendet werden können. Die Kosten für die Durchführung der Befragung sollten möglich gering sein; Optimal wäre eine kostenlose Durchführung Die vollständige Anforderungsliste zur Befragung ist in Anhang A hinterlegt. Erstellung eines Kriterienkataloges 26 Die erste Anforderung besagt, dass die Befragung ohne direkten physischen Kontakt zu den Befragten durchführbar sein soll. Dieser Punkt ist essentiell, da sich die potentiellen Nutzer der Kompetenzplattform und damit die Teilnehmer der Befragung über ganz Deutschland verteilt befinden. Aufgrund dieser Tatsache ist das Interview als Befragungsmethode für den vorliegenden Fall ungeeignet. Die Anforderungen zwei und drei sind notwendig, um das Verständnis des Kriterienkatalogs zu erleichtern. Um die abstrakten Fragen zu den Kriterien anschaulicher zu gestalten soll den befragten Personen neben ausreichender Zeit bei der Beantwortung der Fragen, auch der Kriterienkatalog selbst zur Verfügung gestellt werden. Letztere Anforderung macht die Befragungsmethode des Telefoninterviews ungeeignet, da hier nur mit Umständen das Vorlegen des Kriterienkatalogs möglich wäre z.B. durch das vorherige Senden per E-Mail. Die Anforderung zum Zeitaufwand ergibt sich aus der Zeitplanung, die im Rahmen der Master Thesis durchgeführt wird. Es ist daher möglichst ein Befragungsverfahren zu wählen, dass eine Befragung der Teilnehmer in kurzer Zeit ermöglicht. Die beiden verbleibenden Methoden Fragebogen und OnlineBefragung erfüllen beide diese Anforderungen. Sowohl die Versendung per Post als auch die Versendung per E-Mail benötigen wenig Zeit. Letztere Möglichkeit ist aufgrund der nahezu sofortigen Zustellung der Nachrichten leicht im Vorteil. Die Online-Befragung bietet ebenfalls den Vorteil, dass die Datenaufnahme und -auswertung weniger Zeit in Anspruch nimmt. Die letzte aufgeführte Anforderung betrifft die Kosten, die eine Befragung mit sich bringt. Im Falle des Fragebogens wären dies z.B. die Kosten für das Porto sowie für den Ausdruck der Fragebogen. Für die Online-Befragung können Kosten durch die Nutzung einer Befragungssoftware entstehen. Im Vergleich der beiden Kostenpunkte ist mit höheren Portokosten im Vergleich zu den Lizenzkosten für die Benutzung einer Software zu rechnen, weshalb die Online-Befragung auch in diesem Punkt der Verwendung von Fragebogen vorzuziehen ist. Da die Nutzung von Fragebogen im vorliegenden Fall keine relevanten Vorteile mit sich bringen würde, fällt die Entscheidung auf die Verwendung der Online-Befragung. Sie bietet den Vorteil, dass die Befragungsteilnehmer unabhängig von ihrem Standort gut erreichbar sind, den Fragebogen zu einem ihnen angenehmen Zeitpunkt beantworten können und keinen Zeitdruck bei der Beantwortung der Fragen haben. Außerdem lassen sich Teile des Kriterienkatalogs den Befragten visuell vorgelegt. So kann ein besserer Überblick über die Kriterien und Ausprägungen einer Kategorie ermöglicht werden. Zusätzlich kann hierdurch das Verständnis der Kriterien erleichtert werden. Sowohl bei der Datenaufnahme als auch bei der Auswertung der Daten ist im Vergleich zum klassischen Fragebogen mit einer Zeitersparnis zu rechnen. Hinzu kommt der Zeitvorteil durch das schnellere Versenden der Befragungseinladungen. Der erwartete Kostenaufwand ist bei der Verwendung einer Online-Befragung ebenfalls gering. 3.3.2 Erstellung eines Fragebogens In diesem Unterkapitel wird die Erstellung des Online-Fragebogens erläutert. Zunächst werden hierzu allgemeine Grundlagen zur Fragebogenerstellung aufgeführt, die im Rahmen dieser Master Thesis relevant sind. Die Wahl der Befragungssoftware wird diskutiert, bevor im Anschluss der Entwicklungsvorgang des Evaluationsfragebogens dargestellt ist. Erstellung eines Kriterienkataloges 27 Grundlagen zum Fragebogenaufbau Im Folgenden werden die theoretischen Grundlagen zum Aufbau von Fragebogen dargelegt. Aufgrund der großen Menge an verschiedenen Regeln und Richtlinien, beschränken sich die Ausführungen auf die wichtigsten Grundlagen, die im Zusammenhang mit dem, im Rahmen dieser Arbeit erstellten Fragebogen von Bedeutung sind. Da der Interviewer bei Online-Befragungen nicht anwesend ist, sollte ein kurzes Begleitschreiben mit dem Zugang zur Befragung versendet werden. Hierin sollte über das allgemeine Ziel der gesamten Untersuchung, die dahinterstehende Institution sowie die Versicherung der Wichtigkeit des Befragten für den Erfolg der Studie informiert werden (Schnell et al., 2011). Zusätzlich sollte auf die Anonymität und den Datenschutz hingewiesen werden. Optional kann den Befragten angeboten werden, ihnen auf Wunsch einen Kurzbericht zuzusenden (Diekmann, 2004). Zu Beginn eines Fragebogens steht die Instruktion. Der Teilnehmer wird hier über das Thema der Befragung informiert und zur Mitarbeit animiert. Die Instruktion schließt mit einem Verweis auf die Person oder das Institut, welches den Fragebogen zur Verfügung stellt oder organisiert ab. (Moosbrugger, 2012) Im Zusammenhang mit dem hier zu erstellenden Fragebogen werden zwei Antwortformate für gestellte Fragen unterschieden: geschlossene und offene Fragen. Bei geschlossenen Fragen gibt es festgelegte Antwortalternativen zwischen denen sich der Befragungsteilnehmer entscheiden muss. Bei offenen Fragen sind keine Antworten vorgegeben. (Mayer, 2012) Der Fragebogen sollte mit einem Dank für die Mitarbeit abgeschlossen werden (Mayer, 2012). Wahl der Befragungssoftware Es gibt eine Vielzahl von webbasierter Fragebogensoftware, die zur Durchführung einer Onlinebefragung verwendet werden kann. Um eine Auswahl treffen zu können, wurde zunächst eine Anforderungsliste erstellt (siehe Anhang A). Aufgrund der Anforderung, dass die Software im Rahmen der Arbeit kostenlos verwendet werden kann, wurden zwei Softwarelösungen näher betrachtet: QuestionPro und SoSci Survey. QuestionPro wurde 2002 von dem US-amerikanischen Unternehmen Survey Analytics entwickelt und im Jahre 2012 von der QuestionPro Inc übernommen ("[About QuestionPro]," 2015). QuestionPro ist in mehreren Versionen erhältlich, die sich im Funktionsumfang und im Preis unterscheiden. Diese reichen von der einfachen, kostenfrei Free-Version, die nur eine rudimentäre Funktionalität bietet, bis zur Corporate-Version mit vollem Funktionsumfang. Das Unternehmen gewährt Studenten im Rahmen des „Student Research Sponsorship“ eine kostenlose Nutzungslizenz der Corporate-Version. QuestionPro zeichnet sich durch eine selbsterklärende Bedienung und die Möglichkeit aus, Umfragen in kurzer Zeit zu erstellen. Das Layout der Fragebogen ist ansprechend und die Auswertung der Daten wird durch eine Echtzeitübersicht und zahlreichen Analysefunktionen unterstützt. Nachteilig ist, dass die Teilnehmer der Befragung während der Beantwortung des Fragebogens nicht beliebig zwischen den Fragen vor und zurücknavigiert können. Mit der Zurück-Funktion kann lediglich die vorherige Seite erneut aufgerufen werden. Hinzu kommt die Einschränkung, dass sich keine Bilder unabhängig von Fragen in den Fragebogen integrieren lassen. Das Softwarepaket SoSci Survey wurde 2003 am Institut für Kommunikationswissenschaft der Uni München entwickelt. Das Programm wird seitdem stetig weiterentwickelt. Die kommerzielle Nutzung Erstellung eines Kriterienkataloges 28 der Software ist kostenpflichtig. Die Verwendung für Abschluss- und Doktorarbeiten ist kostenfrei. (https://www.soscisurvey.de/) SoSci Survey ist ein sehr umfangreiches Fragebogenprogramm. Durch die Möglichkeit der HTML und PHP Programmierung lassen sich Fragebogen in großem Maße individualisieren. Dies hat aber zur Konsequenz, dass das Softwarepaket weniger benutzerfreundlich ist als die Lösungen der Mitbewerber. Es steht eine ausführliche Online-Anleitung zu Verfügung, die einen relativ schnellen Einstieg in die Benutzung der Software ermöglicht. Zur Erstellung der Online-Befragung wird im Rahmen dieser Arbeit auf das Softwaretool SoSci Survey zurückgegriffen. Es setzt zwar eine längere Einarbeitungszeit voraus, hat dafür aber weniger Einschränkungen in der Funktionalität wie beispielsweise QuestionPro. Das beliebige vor- und zurückbewegen innerhalb der Fragebogen, sowie das freie Einfügen von Bild-Dateien in die Fragebogen sind möglich. Fragebogen für die Evaluation Zur Entwicklung des Online-Fragebogens wurde zunächst ein erster Entwurf der Fragen und ihrer Anordnung erstellt. Hierbei wurde sich am vorläufigen Kriterienkatalog orientiert und die Wichtigkeit der einzelnen Kriterien abgefragt. Bei der Formulierung der Fragen wurde auf eine gute Verständlichkeit sowie auf die Eindeutigkeit der Formulierung geachtet (siehe Anforderungsliste, Anhang A). Nach der Fertigstellung des Fragebogenentwurfs wurde ein Pretest durchgeführt. Im Rahmen von Pretests wird die Verständlichkeit und Vollständigkeit der Fragen überprüft sowie die Eindeutigkeit und Vollständigkeit der Antwortvorgaben betrachtet (Mayer, 2012). Dieser Test wurde von zwei Mitarbeitern des Instituts für Arbeitswissenschaft der TU Darmstadt durchgeführt, die Erfahrung in der Erstellung von Fragebogen besitzen. Auf Grundlage der Anregungen aus dem Pretest wurden die Formulierung sowie die Reihenfolge einiger Fragen optimiert. Im Folgenden werden Aufbau und Inhalt des fertigen Fragebogens erläutert. Der gesamte Fragebogen ist in Anhang B zu sehen. Die Befragung beginnt auf der Instruktionsseite des Fragebogens. Hier werden die Teilnehmer der Umfrage begrüßt und über die Hintergründe der Studie informiert. Über eine Schaltfläche Weiter gelangen sie zur ersten Seite des Fragebogens. Die Probanden werden hier zunächst auf die Anordnung der Fragen und den Aufbau der Seiten des Fragebogens hingewiesen. Jede Seite des Fragebogens ist in drei Abschnitte untergliedert. Wie in Abbildung 1 zu sehen ist, zeigt der erste Abschnitt einen Ausschnitt des Kriterienkatalogs, um den Befragten einen Überblick über den Inhalt der Fragen zu geben. Im zweiten Abschnitt wird mittels einer Matrix-Frage die Wichtigkeit der Kriterien abgefragt. Hierbei wird eine Rating-Skala verwendet, die es dem Befragten ermöglicht über eine fünfstufige verbale bipolare Skala (wichtig, eher wichtig, neutral, eher unwichtig, unwichtig) die Kriterien zu bewerten. Zusätzlich gibt es die „Weiß-nicht“ Kategorie, die verhindern soll, dass Teilnehmer die neutrale Mittelkategorie als Ausweichoption missbrauchen (Moosbrugger, 2012). Der dritte Abschnitt beinhaltet zwei offene Fragen. Die erste gibt dem Befragungsteilnehmer die Möglichkeit weitere Kriterien anzugeben, die er im Zusammenhang der dargestellten Kategorien als wichtig erachtet, die aber nicht im Kriterienkatalog enthalten sind. Mittels der zweiten offenen Frage können weitere Anmerkungen zur aktuellen Fragebogenseite gemacht werden, z.B. wenn die Benennung der Kriterien nicht eindeutig oder missverständlich ist oder Anregungen zu den Ausprägungen der Kriterien gegeben werden wollen. Die letzte Seite des Fragebogens zeigt dem Erstellung eines Kriterienkataloges 29 Teilnehmer noch einmal den gesamten Kriterienkatalog und gibt noch einmal die Möglichkeit über zwei offenen Fragen, zusätzliche Kriterien hinzuzufügen und Anmerkungen zu machen. Die Befragung schließt mit der Danke-Seite. Erstellung eines Kriterienkataloges 30 Abbildung1:AufbaueinerFragebogen‐Seite Erstellung eines Kriterienkataloges 31 3.3.3 Durchführung der Befragung Um die Wichtigkeit der Kriterien des Kataloges zu bewerten wird eine Online-Befragung unter potentiellen Nutzern der Kompetenzplattform des PUMa-Projektes durchgeführt. Da hierbei die Grundgesamtheit nicht vollständig befragt werden kann, wird eine Stichprobe durchgeführt. Unter der Grundgesamtheit versteht man die Gesamtmenge von Individuen, auf die sich die Aussagen der Untersuchung beziehen sollen. Im Allgemeinen sollte die Stichprobe repräsentativ sein, d.h. die Verteilung aller interessierenden Merkmale der Stichprobe muss der Grundgesamtheit entsprechen. Die Stichproben können hierbei entweder zufallsgesteuert oder durch eine bewusste Auswahl gebildet werden. Ist die Repräsentativität nicht gegeben, sind keine Rückschlüsse auf die Grundgesamtheit möglich. (Mayer, 2012) Die Durchführung einer repräsentativen Studie würde den Umfang der vorliegenden Arbeit überschreiten. Aus diesem Grund wird eine Sonderform des nicht zufallsgesteuerten StichprobenAuswahlverfahrens verwendet, eine „Auswahl aufs Geratewohl“. Diese willkürliche Auswahl wird z.B. gewählt, wenn im Rahmen einer Vorstudie Kategorien gesammelt werden sollen (Berekoven et al., 2001). Bei diesem Verfahren sind keine Rückschlüsse der Stichprobe auf die Gesamtheit möglich. Im Rahmen dieser Master Thesis ist die Aussagekraft dieser Stichproben jedoch ausreichend. Die Zielgruppe der potentiellen Nutzer der Kompetenzplattform lässt sich in zwei Untergruppen aufteilen, die Usability-Experten und die Softwareentwickler. Aus beiden Gruppen sollen Personen zu der Relevanz der Kriterien im Zusammenhang mit der Beschreibung von Usability-Methoden befragt werden. Insgesamt sollen laut Aufgabenstellung mindestens 12 Personen befragt werden. Aus den Forschungsprojekten, die ihre Kriterienkataloge zur Analyse und zur Zusammenführung bereitgestellt haben (siehe Kapitel 3.1.1), konnten einige Usability-Experten als Teilnehmer der Befragung gewonnen werden. Insgesamt wurden neun Personen dieser Gruppe der „internen UsabilityExperten“ angeschrieben und zur Befragung eingeladen. Die Begleitschreiben (Einladungsemails) sind in AnhangC angefügt. Weitere Usability-Experten wurden über das webbasierte soziale Netzwerk XING ausfindig gemacht. Die Kontaktdaten der Personen wurden mittels der Suchmaschine Google recherchiert. Insgesamt wurden aus diesen Quellen 15 „externe Usability-Experten“ zur Befragung eingeladen. Aus der Gruppe der Softwareentwickler wurden sowohl deutsche, softwareentwickelnde KMU3 angeschrieben als auch Einzelpersonen. Zunächst wurden E-Mail-Adressen von softwareentwickelnden Unternehmen mit Hilfe des Branchenverzeichnisses Gelben Seiten ermittelt. Auf diese Weise wurden 122 Einladungen versendet. Weitere vier Einladungen wurden an einzelne Softwareentwickler verschickt, deren Adressen über XING bzw. Google recherchiert wurden. Insgesamt wurden 150 Personen zur Befragung eingeladen. Die Befragung wurde am 09.03.2015 gestartet und nach einer Dauer von 25 Tagen am 02.04.2015 beendet. 3 Zur Überprüfung der Zugehörigkeit der angeschriebenen Unternehmen zu der Gruppe der KMU (vgl. Kapitel Fehler! Verweisquelle konnte nicht gefunden werden.) konnten lediglich die Kriterien der maximalen Beschäftigtenzahl sowie der Eigenständigkeit berücksichtig werden. Die Umsatzerlöse und Bilanzsummen konnten nicht für alle Unternehmen recherchiert werden und bleiben daher unberücksichtigt. Da es sich laut Europäische Kommission (2006), bei 99 Prozent aller deutscher Unternehmen um KMU handelt, ist der potenziell auftretende Fehler der Annahme als akzeptabel anzusehen. Erstellung eines Kriterienkataloges 32 3.3.4 Befragungsergebnisse Am 02. April 2015 wurde die Befragung zum geplanten Termin beendet. Insgesamt wurden 14 Fragebogen beantwortet, von denen fünf aus der Befragung von Softwareentwicklern und neun aus der Befragung von Usability-Experten generiert wurden. Somit konnte die Mindestanzahl von zwölf befragten potentiellen Nutzer der Plattform erreicht werden. Im Folgenden werden die Ergebnisse der Umfrage aufgeführt und diskutiert. Zunächst werden die Ergebnisse der geschlossenen Fragen dargestellt und eine erste Selektion der Kriterien vorgenommen. Im Anschluss werden die offenen Fragen betrachtet und Konsequenzen für den finalen Kriterienkatalog abgeleitet. Ergebnisse der geschlossenen Fragen (Wichtigkeit der Kriterien) Im geschlossenen Teil des Fragebogens wurden die Teilnehmer gebeten, die Wichtigkeit der einzelnen Kriterien im Kontext der Auswahl, der Anwendung oder des Verständnisses einer Methode zu bewerten. Hierbei war eine Bewertungsskala von wichtig = 5, über eher wichtig = 4, neutral = 3 und eher unwichtig=2 bis zu unwichtig = 1 vorgegeben. Zusätzlich stand die Option weiß nicht zur Verfügung, die innerhalb der Fragebogenauswertung mit -1 codiert wurde. In einem ersten Schritt der Auswertung wird die Häufigkeitsverteilung betrachtet, die in Tabelle 4 dargestellt ist. Unter einer Häufigkeitsverteilung versteht man allgemein die Zuordnung von Häufigkeiten zu den Merkmalsausprägungen (Bamberg, Baur, & Krapp, 2011). Im vorliegenden Fall sind die Merkmalsausprägungen die fünf relevanten Antwortmöglichkeiten der geschlossenen Fragen: wichtig, eher wichtig, neutral, eher unwichtig, unwichtig. Als Häufigkeit ist die absolute Häufigkeit angegeben, welche der Anzahl der Personen entspricht, die sich für die jeweilige Antwortalternative entschieden haben. Mit Blick auf die Häufigkeitsverteilung werden zunächst all jene Kriterien als relevant eingestuft, die von mindestens der Hälfte der Personen als wichtig oder eher wichtig bewertet wurden4. Ist dieser Anteil kleiner als 50 Prozent, haben also weniger als die Hälfte der Personen für die Wichtigkeit eines Kriteriums plädiert, so wird das Kriterium als nicht relevant eingestuft und aus dem Kriterienkatalog aussortiert. ist durch die Statistisch lässt sich dieser Sachverhalt über den Median beschreiben. Der Median Eigenschaft definiert, dass mindestens 50 Prozent aller Merkmalswerte kleiner oder gleich und mindestens 50 Prozent größer oder gleich sind (Bamberg et al., 2011). Unter einem Merkmalswert, der auch als Beobachtungswert bezeichnet wird, versteht man die Merkmalsausprägung, die bei einem Befragten beobachtet wird. Antwortet im vorliegenden Fall der erste Befragte auf die Frage nach der 5. Sind alle MerkWichtigkeit eines Kriteriums mit wichtig, so ist der zugehörige Merkmalswert malswerte bereits der Größe nach geordnet ⋯ , so liegt der Median „in der Mitte“ dieser Zahlen (Bamberg et al., 2011). Nach Georgii (2009) wird der Median für eine ungerade Beobachtungsanzahl mittels 4 Personen, die ein Kriterium nicht oder mit „weiß nicht“ bewertet haben, werden hier nicht berücksichtigt. Erstellung eines Kriterienkataloges 33 errechnet. Für eine gerade Anzahl von gilt: 1 2 . Ist der Median im vorliegenden Fall größer als 3, entspricht also mehr als der mittleren Merkmalsausprägung neutral, so ist nach der oben definierten Eigenschaft ein Kriterium relevant. Ist der Median 3 so ist ein Kriterium nicht für die Beschreibung von Usability-Methoden relevant. Tabelle 4 zeigt die Mediane der einzelnen Kriterien und zusätzlich die Anzahl der Merkmalswerte mit einem Wert von 4 oder 5, bezogen auf alle Merkmalswerte. Grau hinterlegt sind die Kriterien, die als nicht relevant bewertet wurden. Erstellung eines Kriterienkataloges 34 Tabelle4:ErgebnissederBefragungfürdiegeschlossenenFragen. Nr. Kategorie Unterkategorie Kriterium Bewertungsergebnisse Häufigkeitsverteilung eher eher unwichtig neutral unweiß wichtig wichtig (5) (3) wichtig nicht (4) (1) (2) 1 2 3 4 Bezeichnung - Name 10 3 0 0 0 1 13/13 5 Synonyme 5 3 3 2 0 1 8/13 4 Kurzbeschreibung 4 6 3 1 0 0 10/14 4 Abbildungen 4 3 5 2 0 0 7/14 3,5 Ziele 11 1 1 0 0 1 12/13 5 Motivation/Problemstellung 9 2 1 0 1 1 11/13 5 Input 7 0 2 1 0 4 7/10 5 Output/Ergebnisse 11 2 0 0 0 1 13/13 5 Vorteile 6 2 4 2 0 0 8/14 4 Nachteile/Grenzen 6 3 4 1 0 0 9/14 4 Benötigte Teilnehmeranzahl 6 4 1 1 1 0 10/13 4 Art der Teilnehmer 6 6 0 1 0 0 10/13 4 Nutzergruppen, die beteiligt werden sollen 5 3 1 1 2 1 8/12 4 Rolle der Teilnehmer 5 6 1 0 1 0 11/13 4 Art der Einbeziehung der Teilnehmer 5 5 2 0 1 0 10/13 4 Rolle des/der Ausführenden 4 2 3 2 1 1 6/12 3,5 Nützliche oder erforderliche Vorkenntnisse oder Erfahrungen 6 6 0 1 0 0 12/13 4 Schwierigkeitsgrad 5 3 5 0 0 0 8/13 4 Womit? Werkzeuge, Hilfsmittel 8 3 1 0 0 0 11/12 5 Wo? Ort/Umgebung 4 6 2 0 0 0 10/12 4 Aufwand Kosten 4 3 2 2 0 1 7/11 4 Voraussichtliche Dauer 4 5 2 0 0 1 9/11 4 Maximaler Zeithorizont 2 7 2 0 0 1 9/11 4 Zeitaufwand in Personenstunden/-tagen 3 5 2 0 2 0 8/12 4 Beschreibung Rahmenbedingungen & Ressourcen Vorgehensweise 5 AnwendungsTipps 6 Anwendungsdomäne & Projekthintergrund Anzahl der Bewertungen mit „wichtiger“ Median oder „eher wichtiger“ - Wer? - Die Methode ist anwendbar… Vorbereitung 9 3 0 0 0 0 12/12 5 Durchführung 10 2 0 0 0 0 12/12 5 Nachbereitung/Auswertung 10 2 0 0 0 0 12/12 5 Anwendungs-Tipps 6 2 3 0 0 1 8/11 5 bei der Erstellung folgender Produkte 5 3 1 1 0 2 8/10 4,5 wenn es sich um ein Produkt handelt, das… 2 1 3 1 3 2 3/10 3 wenn die Markteinführung des Produkts geplant ist in… 2 2 1 2 3 2 4/10 2,5 zu folgendem Zeitpunkt in der Entwicklung 3 4 2 0 1 1 7/10 4 in der/den Projektphase(n) 3 3 2 1 1 2 6/10 4 Erstellung eines Kriterienkataloges 35 Nr. Kategorie Unterkategorie Kriterium Bewertungsergebnisse Häufigkeitsverteilung eher eher unwichtig neutral unweiß wichtig wichtig (5) (3) wichtig nicht (4) (1) (2) 7 8 Zweck Verwandte und weiterführende Methoden Die Methode ist anwendbar, wenn es mein Ziel ist… - Anzahl der Bewertungen mit „wichtiger“ Median oder „eher wichtiger“ mehr zu erfahren über… 6 3 0 1 0 2 9/10 5 folgendes zu erstellen 4 3 1 1 1 2 7/10 4 folgendes zu bewerten 4 4 0 1 1 2 8/10 4 Daten… 3 3 3 0 1 2 6/10 4 Alternative Methoden oder verwandte Praktiken 4 5 2 0 0 0 9/11 4 Mögliche Vorgänger 1 5 1 2 0 2 6/9 4 Mögliche Nachfolger 1 5 1 2 0 2 6/9 4 9 Anwendungsbeispiele - Beispiele 4 3 1 0 0 3 7/8 4,5 10 Schlagworte - Schlagworte 2 1 1 5 1 1 3/10 2 11 Referenzen und weiterführende Informationen - Verweis auf weiterführende Literatur 2 3 4 1 0 1 5/10 3,5 Zu beachtende Normen und Zertifikate 2 8 0 0 1 0 10/11 4 Quellen 1 5 2 1 0 2 6/9 4 Es zeigt sich, dass zwei Kriterien der Kategorie Die Methode ist anwendbar… als „nicht relevant“ zu bewerten sind. Sowohl für das Kriterium wenn es sich um ein Produkt handelt, das…, das die Existenz des zu erstellenden Produktes beschreibt, als auch für das Kriterium wenn die Markteinführung des Produkts geplant ist in… hat sich keine ausreichende Wichtigkeit gezeigt, um das Kriterium im Kriterienkatalog aufzuführen. Als drittes nicht relevantes Kriterium stellt sich das Kriterium Schlagworte heraus. Nur drei der zehn befragten Personen, die eine Meinung zur Wichtigkeit dieses Kriterium geäußert haben, empfanden es als wichtig bzw. eher wichtig. Somit wird auch dieses Kriterium als dem Katalog gestrichen. Die verbleibenden Kriterien sind im Rahmen einer weiteren Betrachtung zusammenzufassen und ggf. eindeutiger zu bezeichnen. Dies wird in Kapitel 3.3.5 thematisiert. Zu erwähnen sind noch die Kriterien, die besonders häufig mit weiß nicht bewertet wurden. Zu den auffälligen Kriterien werden solche gezählt, die von mehr als einer Person mit weiß nicht bewertet wurden. Insgesamt betrifft dies 13 der 45 Kriterien. Das Kriterium Input hat mit 4 Stimmen für weiß nicht die größte Ausprägung bei der Ausweichoption. Dies könnte darauf zurückzuführen sein, dass die Bezeichnung Input nicht eindeutig ist und einige der Befragten nicht feststellen konnten, was mit diesem Kriterium gemeint ist. Der Autor dieses Kriteriums PQ4Agile nutzt dieses Kriterium um auszudrücken welche Informationen vor der Anwendung einer Methode vorhanden sein müssen. Eine weitere Interpretationsmöglichkeit von Input könnte sein, alle Ressourcen die für die Anwendung einer Methode verwendet werden unter diesem Kriterium zu verstehen. Die schlechte Verständlichkeit zeigt, dass dieses Kriterium entweder umbenannt oder mit einem anderen klarer verständlichen Kriterium zusammengelegt werden sollte. Für eine Zusammenlegung würden sich die Kriterien der Kategorie Rahmenbedingungen & Ressourcen sowie das Kriterium Mögliche Vorgänger der Kategorie Verwandte und weiterführende Methoden anbieten. Für letztes Kriterium wäre allerdings ebenfalls ein treffenderer Titel zu wählen um eine bessere Verständlichkeit zu er- Erstellung eines Kriterienkataloges 36 zielen. Die Optimierung des Kriteriums Input und aller weiteren Kriterien wird in Kapitel 3.3.5 diskutiert. Die Kriterien der Kategorie 6 und 7 sind ebenfalls als auffällig anzusehen. Möglicherweise führt hier die Formulierung in einer Satz-Struktur zu einem Missverständnis der Kriterien. Ebenfalls denkbar wäre, dass nicht direkt ersichtlich war, dass es sich bei diesen Kriterien um Filter-Kriterien handelt, die zur Auswahl einer geeigneten Methode verwendet werden können. Die beiden Kriterien Möglicher Vorgänger und Möglicher Nachfolger sind ebenfalls beide mit zwei weißnicht-Stimmen bewertet worden, was eine Ungenauigkeit der Kriterienbezeichnung nahelegt. Gleiches gilt für das Kriterium Beispiele. Hier wurde drei Mal weiß nicht ausgewählt. Ebenso wie bei den beiden zuvor angesprochenen Kriterien sollte hier über eine eindeutigere Bezeichnung nachgedacht werden. Zuletzt ist noch das Kriterium Quelle als auffällig zu bezeichnen. Hier könnte das Missverständnis darin liegen, dass Quellenangaben selbstverständlich und unerlässlich sind und es eigentlich keiner Abstimmung darüber bedarf. Ergebnisse der offenen Fragen Im Folgenden werden die Kriterien genannt und diskutiert, die in den offenen Fragen angegeben wurden. Die Aufführung erfolgt in alphabetischer Reihenfolge: Art der Technologie/Schnittstelle (Bsp. VUI, GUI, Bewegungssteuerung): Diese Informationen können über das Kriterium Die Methode ist anwendbar, wenn es mein Ziel ist folgendes zu erstellen der Kategorie Zweck abgebildet werden. Falls es die in Kapitel 4 beschriebenen Methoden erfordern, können die angesprochenen Ausprägungen hinzugefügt werden. Benötigte Anzahl von Ausführenden: Diese Information ist bisher nicht durch den Kriterienkatalog abgedeckt gewesen. Daher wird dem Katalog dieses Kriterium hinzugefügt. Benötigte Expertise, Benötigte Ressourcen, Benötigter Zeitaufwand: Diese drei Aspekte sind durch die Kriterien der Kategorie Rahmenbedingungen & Ressourcen im Kriterienkatalog vorhanden und müssen nicht hinzugefügt werden. Benutzer vs. Experten Methode: Durch die vorhandenen Kriterien Schwierigkeitsgrad und Nützliche oder erforderliche Vorkenntnisse oder Erfahrungen werden die angesprochenen Informationen in ähnlicher Weise dargestellt. Kompetenz des Durchführenden, Soft Skills: Die beiden Aspekte werden durch das Kriterium Nützliche oder erforderliche Vorkenntnisse oder Erfahrungen abgedeckt. Skalierbarkeit: Dieser Gesichtspunkt ist Gegenstand von aktuellen Forschungsprojekten (Brandenburg et al., 2015). Im Rahmen dieser Arbeit kann daher keine Aussage zur Skalierbarkeit von Methoden getroffen werden. Software die verwendet werden kann: Durch das Kriterium Werkzeuge, Hilfsmittel werden diese Informationen bereitgestellt. Weiterführende Literatur oder bekannte Kursangebote: Falls sich Kursangebote zu bestimmten Methoden finden sollten, so werden diese der Kategorie Weiterführende Literatur hinzugefügt, ohne das die Bezeichnung der Methode verändert wird. Zugriff auf Benutzer: Diese Information kann den Kriterien der Kategorie Rahmenbedingungen & Ressourcen, die sich mit der Rolle und der Art der Einbeziehung der Teilnehmer befassen, entnommen werden. Erstellung eines Kriterienkataloges 37 3.3.5 Anpassung des vorläufigen Kriterienkataloges Auf Grundlage der durchgeführten Befragung wird der vorläufige Kriterienkatalog angepasst und optimiert. Dies führt auf einen Kriterienkatalog, der aus 35 Kriterien besteht, die in 9 Kategorien angeordnet sind. Im Folgenden werden die Anpassungen kurz erläutert und im speziellen auf die Änderungen im Vergleich zum vorläufigen Kriterienkatalog (vgl. Tabelle 3) eingegangen. Die Finalisierung des Kataloges wurde erst in der Arbeitsphase der Methodenbeschreibung (vgl. Kapitel 4) erreicht. Erst bei der Anwendung des Kriterienkatalogs zur Beschreibung von Usability-Methoden haben sich Feinheiten, wie z.B. die Skalen der Kriterien Kosten und Zeitaufwand, festlegen lassen. Eine ausführliche Darstellung aller Kriterien des finalen Katalogs inkl. der enthaltenen Informationen sowie der zugehörigen Leitfragen ist in Kapitel 3.4 gegeben. Die im Folgenden thematisierten Änderungen des Kriterienkatalogs lassen sich anhand der Darstellung des finalen Kriterienkataloges, die in Tabelle 5 gegeben ist, nachverfolgen: Die ersten fünf Kriterien des Kataloges (Name, Synonyme, Kurzbeschreibung, Abbildungen, Ziele) bleiben in der Art und Weise, wie sie im vorläufigen Kriterienkatalog vorgesehen waren erhalten. Das Kriterium Motivation/Problemstellung ist in der endgültigen Fassung der KriterienSammlung nicht enthalten, da es sich inhaltlich mit dem Kriterium Ziele überschneidet. Unter letzterem Kriterium werden zukünftig Informationen zu Sinn und Nutzen einer Methode hinterlegt. Wie bereits im vorherigen Kapitel thematisiert, ist das Kriterium Input durch seine Bezeichnung nicht eindeutig definiert. Zum einen erlaubt es die Beschreibung von Ressourcen, die für die Anwendung der Methode benötigt werden, und zum anderen können sich Informationen, die im Vorfeld verfügbar sein müssen hinter diesem Kriterium verbergen. Um die angesprochenen Informationen eindeutiger zuzuordnen, werden sie den Kriterien der Kategorie Rahmenbedingungen & Ressourcen sowie dem Kriterium Mögliche Vorgänger integriert. Das Kriterium Input taucht somit nicht mehr explizit im finalen Kriterienkatalog auf. Das Kriterium Output/Ergebnisse wird umbenannt in Ergebnisse/Output. Ziel der Umbenennung ist es den Fokus auf den Begriff Ergebnisse zu setzen. Da das Kriterium Input nicht mehr vorhanden ist, ist der starke Bezug zum Begriff Output nicht mehr notwendig. Da aber weiterhin auch verdeutlicht werden soll, dass die Fragestellung „Was erhält man durch Anwendung der Methode?“ unter dem Begriff Ergebnisse zu finden ist, wird die Bezeichnung Ergebnisse/Output gewählt. Die Kriterien Vorteile und Nachteile/Grenzen bleiben unverändert. Ein neues Kriterium Projektphase(n) wird der Kategorie Beschreibung hinzugeführt. Es ersetzt die beiden Kriterien Die Methode ist anwendbar zu folgendem Zeitpunkt in der Entwicklung und Die Methode ist anwendbar in der/den Projektphase(n), die in der Kategorie Anwendungsdomäne & Projekthintergrund eingeordnet waren. Die konkreten Phasen, werden erst im nächsten Arbeitsschritt, der Beschreibung von Usability-Methoden festgelegt und sind in Kapitel 3.4 erläutert. Die beiden Kriterien Benötigte Teilnehmeranzahl und Art der Teilnehmer bleiben bestehen. Letzteres wird jedoch um die Informationen des Kriteriums Nutzergruppen, die beteiligt werden sol- Erstellung eines Kriterienkataloges 38 len ergänzt, damit dieses Kriterium wegfallen kann. Die Ausprägung des Kriteriums Art der Teilnehmer wurde entsprechend durch Endnutzer (ggf. spezielle Nutzergruppen z.B. Kinder) ergänzt. Die Kriterien Rolle der Teilnehmer, Art der Einbeziehung der Teilnehmer und Rolle des/der Ausführenden erfahren keine Änderung. Das Kriterium Benötigte Anzahl Ausführender wird, wie in Kapitel 3.3.4 erläutert, hinzugefügt. Das Kriterium Nützliche oder erforderliche Vorkenntnisse oder Erfahrungen wird umbenannt in Erforderliche Kompetenzen. Die Angabe des Schwierigkeitsgrades wird aus dem finalen Kriterienkatalog entfernt. Zum einen ist eine Einteilung der Methoden in eine feste Schwierigkeits-Skala problematisch, zum anderen ist es für den Anwender der Methodenbeschreibung nur schwer möglich seinen eigenen Kenntnisstand anhand der Skala abgebildet zu sehen und eine Methode gemäß seiner Kompetenzen auszuwählen. Das Kriterium Erforderliche Kompetenzen informiert den Anwender über die benötigte Expertise. Die Kriterien Werkzeuge, Hilfsmittel, Ort/Umgebung und Kosten des angepassten Kriterienkataloges entsprechen den Kriterien aus dem vorläufigen Katalog. Die drei Kriterien Voraussichtliche Dauer, Maximaler Zeithorizont und Zeitaufwand in Personenstunden/-tagen werden unter der Bezeichnung Zeitaufwand zusammengefasst. Die Kriterien der Kategorie Vorgehensweise (Vorbereitung, Durchführung, Nachbereitung/Auswertung) bleiben unverändert bestehen. Das Kriterium Anwendungs-Tipps wird in Praxis-Tipps umbenannt, um einen besseren Bezug zu den Informationen dieses Kriteriums herzustellen. Die Kategorie Anwendungsdomäne & Projekthintergrund wird komplett aus dem Kriterienkatalog entfernt. Die Informationen der Kategorie Die Methode ist anwendbar bei der Erstellung folgender Produkte wurde in die Kriterien der Kategorie Zweck integriert. Die Kriterien mit dem Bezug zur Projektphase wurden in dem neuen Kriterium Projektphase(n) der Kategorie Beschreibung integriert. Die beiden übrigen Kategorien wurden gemäß Kapitel 3.3.4 aus dem Katalog entfernt. Die Kriterien der Kategorie Zweck werden um die oben genannten Informationen ergänzt und verbleiben ansonsten unverändert im Kriterienkatalog. Die Bezeichnung des Kriteriums Alternative Methoden oder verwandte Praktiken wird gekürzt und heißt nun Verwandte Methoden. Die Kriterien Möglicher Vorgänger und Möglicher Nachfolger werden umbenannt zu Mögliche vorangegangene Methode/Tätigkeit und Mögliche nachfolgende Methode/Tätigkeit, um die Verständlichkeit zu verbessern. Das Kriterium Beispiele wird in Mögliche Anwendungsgebiete umbenannt um den Inhalt verständlicher zu gestalten. Das Kriterium Verweis auf weiterführende Literatur wird zu Weiterführende Informationen gekürzt. Die beiden übrigen Kriterien der Kategorie Referenzen und weiterführende Informationen erfahren keine Veränderungen. Der Kriterienkatalog wurde nach seiner Überarbeitung noch einmal von den „internen UsabilityExperten“, die bereits in Kapitel 3.3.3 in die Befragung eingebunden wurden, überprüft. Es wurden keine weiteren Anmerkungen oder Verbesserungsmöglichkeiten kommuniziert, weshalb die jetzigen Erstellung eines Kriterienkataloges 39 Kriterien für die Beschreibung der Usability-Methoden in Kapitel 4 verwendet werden. Im folgenden Unterkapitel werden abschließend alle Kriterien noch einmal detailliert beschrieben und im Anschluss das Layout des Methodenkatalogs angepasst. 3.4 Finaler Kriterienkatalog Nachdem im vorherigen Kapitel die Evaluation sowie die Anpassung des Kriterienkataloges diskutiert wurden, werden im vorliegenden Kapitel alle Kriterien, die zur Beschreibung der Usability-Methoden in Kapitel 4 verwendet werden, noch einmal im Detail beschrieben. Hierin eingeschlossen sind Optimierungen des Kriterienkataloges, die erst während der Phase der Methodenbeschreibung festgelegt werden konnten. Im Anschluss wird der finale Kriterienkatalog entwickelt, der das Layout aufweist, das zur Beschreibung von Usability-Methoden in Kapitel 4 verwendet wird. 3.4.1 Definiton der Kriterien Im Folgenden wird insbesondere auf die enthaltenen Informationen bzw. die möglichen Ausprägungen der Kriterien eingegangen. Es werden außerdem Leitfragen angegeben, die durch die Informationen der Kriterien beantwortet werden sollen. Ein Überblick über den optimierten Kriterienkatalog ist in Tabelle 5 gegeben. Name Das Kriterium Name gibt eine gängige Bezeichnung für die Methode an. Das Kriterium dient zur Identifikation der Methode sowie zur Abgrenzung gegenüber anderen Methoden. Synonyme Das Kriterium Synonyme gibt weitere Namen an unter denen die Methode bekannt ist. Dies können neben gänzlich anderen Bezeichnungen auch alternative Schreibweisen sowie englische bzw. internationale Bezeichnungen einer Methode sein. Kurzbeschreibung Dieses Kriterium stellt eine kurze Beschreibung der Methode sowie eine Zusammenfassung der wichtigsten Eigenschaften dar. Es können beispielsweise Informationen zum Nutzen der Methode, zum Ablauf sowie zu Vorteilen gegeben sein. Ziel des Kriteriums ist es, dem Anwender des Methodenkatalogs die Methode in wenigen Sätzen nahe zu bringen, darzustellen was die Inhalte der Methode sind und für welche Zwecke die Methode einsetzbar ist. Abbildung Abbildungen werden nur bei Bedarf einer Methode hinzugefügt. Sie können aus Fotos, Zeichnungen oder Schaubildern bestehen. Wichtig ist, dass in der Abbildung zusätzliche Informationen enthalten sind, die die Informationen der Kurzbeschreibung unterstützen oder ergänzen. Sinnvolle Abbildungen Erstellung eines Kriterienkataloges 40 können z.B. die Ergebnisse einer Methode darstellen oder die Durchführung mit den beteiligten Personen, den nötigen Werkzeugen und Hilfsmitteln sowie der bevorzugten Umgebung. Ziele Das Kriterium Ziele, gibt Informationen zum Sinn, Nutzen und zur Motivation hinter einer Methode an. Die Informationen werden in Stichpunkten oder in zusammenhängenden Sätzen angegeben. Mögliche Leitfragen sind: Was sind Ziele der Methode? Was erreicht man durch die Anwendung? Wofür verwendet man die Methode? Weshalb macht die Anwendung Sinn? Ergebnisse/Output Das Kriterium Ergebnisse/Output zielt auf die Resultate ab, die durch die Anwendung einer Methode erzielt werden. Die Ergebnisse einer Methode können z.B. gewonnene Informationen, Veränderungen an einem Produkt oder ein neu erschaffenes Produkt sein. Es wird in Stichpunkten angegeben welche Ergebnisse gewonnen werden und in welcher Form sie vorliegen. Mögliche Leitfrage: Was ist das Ergebnis, das man nach der Anwendung der Methode „in den Händen hält“? Vorteile Die Vorteile einer Methode werden in Stichpunkten angegeben. Mögliche Leitfragen sind: Was sind positive Aspekte der Methode? Warum bzw. in welchen Aspekten ist die Methode besser als vergleichbare Methoden? Nachteile/Grenzen Die Nachteile und Grenzen einer Methode werden in Stichpunkten angegeben. Mögliche Leitfragen sind: Welche Aspekte der Methode sind negativ? Welche Eigenschaften einer Methode sind unerwünscht oder können zu unerwünschten Resultaten führen? Lassen sich die negativen Aspekte ggf. durch entsprechende Maßnahmen abschwächen oder beseitigen? Was sind die Anwendungsgrenzen einer Methode? Wann ist eine Methode nicht mehr anwendbar bzw. wann ist eine Anwendung nicht mehr sinnvoll? Projektphase(n) Das Kriterium Projektphase(n) beschreibt, in welchen Phasen des Projektes die Methode anwendbar ist. Bei der Bezeichnung der einzelnen Projektphasen wurde sich an der Einteilung von Jacobsen, (2007) orientiert und die Phasen Planung, Konzeption, Umsetzung und Betrieb festgelegt. Neben der Angabe der konkreten Phasen können bei Bedarf weitere Informationen in Stichpunkten angegeben werden. Mögliche Leitfrage: Wann im Projekt ist die Anwendung der Methode möglich? Erstellung eines Kriterienkataloges 41 Abbildung2:EinteilungderProjektphasennachJacobsen,(2007) Benötigte Teilnehmeranzahl Das Kriterium Benötigte Teilnehmeranzahl gibt an ob bzw. wie viele Probanden neben den ausführenden Personen für die Anwendung der Methode benötigt werden. Neben der Anzahl können auch weitere Informationen angegeben sein, z.B. in welchen Anwendungsfällen wie viele Teilnehmer nötig sind. Art der Teilnehmer Das Kriterium Art der Teilnehmer gibt an, welche Probanden für die Anwendung der Methode benötigt werden. Mögliche Ausprägungen des Kriteriums könnten sein: Entwickler, Software-Gestalter, (generell) Firmeninterne, Experten (z.B. Usability Experten), Endnutzer (ggf. spezielle Nutzergruppen), Kunden oder Steakholder. Darüber hinaus sind je nach Methode weitere Ausprägungen denkbar. Rolle der Teilnehmer Das Kriterium Rolle der Teilnehmer beschreibt, welche Aufgabe die Probanden bei der Durchführung der Methode haben und wie sie in den Ablauf der Methode einbezogen werden. Die vorgesehenen Ausprägungen sind: Partizipation, Diskussion, wird beobachtet und wird befragt. Die Rolle der „Partizipation“ meint, dass die Teilnehmer in den Entwicklungsprozess einbezogen werden. Ein Beispiel hierfür könnte sein, wenn Usability-Experten eine Software-Anwendung auf die Gebrauchstauglichkeit untersuchen und Probleme ausfindig machen. Die Rolle der „Diskussion“ meint, dass Teilnehmer im Rahmen einer Besprechung in den Ablauf der Methode einbezogen werden. Bei der Rolle „wird beobachtet“ wird der Teilnehmer z.B. bei der Durchführung von Aufgaben mit einer zu untersuchenden Software beobachtet bzw. seine Aktionen werden durch Aufnahmegeräte, wie Videokameras oder Diktiergeräte aufgezeichnet. Im Falle von „wird befragt“ werden Teilnehmer beispielsweise im Rahmen eines Interviews oder mittels eines Fragebogens nach ihrer Meinung gefragt. Erstellung eines Kriterienkataloges 42 Art der Einbeziehung der Teilnehmer Bei der Art der Einbeziehung der Teilnehmer werden zwei Fälle unterschieden: die physikalische Einbeziehung und die Remote-Einbeziehung. Im Falle der physikalischen Einbeziehung findet ein direkter Kontakt zwischen den Ausführenden und den Probanden statt. Das heißt, der Anwender der Methode und die Teilnehmer müssen sich für die Durchführung am selben Ort befinden, z.B. in einem Usability-Labor. Bei der Remote-Einbeziehung ist kein direkter Kontakt zwischen dem Anwender und dem Probanden nötig. Probanden können z.B. telefonisch, über das Internet oder postalisch in die Durchführung der Methode eingebunden werden. Anwender und Teilnehmer müssen sich nicht am selben Ort befinden. Benötigte Anzahl Ausführender Das Kriterium Benötigte Anzahl Ausführender gibt an, wie viele Anwender für die Verwendung der Methode benötigt werden. Im Rahmen dieses Kriteriums können außerdem Empfehlungen über die Anzahl der Ausführenden gegeben werden. Rolle des/der Ausführenden Die Angaben des Kriteriums Rolle des/der Ausführenden sind an die Aufgaben angelehnt, die von den Anwendern durchgeführt werden müssen. Mögliche Ausprägungen könnten z.B. sein: Organisator, Moderator, Interviewer, Beobachter, Analyst, usw. Es gibt keine fest vorgegebenen Ausprägungen und es können auch methodenspezifische Rollen wie „Ersteller des Prototyps“ angegeben sein. Erforderliche Kompetenzen Dieses Kriterium gibt an, welche Kompetenzen von den Ausführenden erforderlich sind, um die Methode anzuwenden. Das Kriterium enthält Informationen zu Vorkenntnissen, Erfahrungen aber auch zu sozialen Kompetenzen die im Kontext der Anwendung der Methode hilfreich oder notwendig sind. Falls von den Teilnehmern besondere Kompetenzen verlangt werden, können diese ebenfalls hier aufgeführt werden. Werkzeuge, Hilfsmittel Dieses Kriterium gibt an, welche Werkzeuge oder Hilfsmittel für die Anwendung der Methode benötigt oder empfohlen werden. Ort/Umgebung Das Kriterium Ort/Umgebung gibt an, wo die Durchführung der Methode stattfindet. Hierbei sind vier Ausprägungen vorgegeben. Mit „Natürlicher Nutzungsumgebung“ ist gemeint, dass die Methode an dem Ort durchgeführt wird, an dem auch das fertige Produkt verwendet wird. Dies kann z.B. am Arbeitsplatz oder bei den Teilnehmern zu Hause sein. Die Ausprägung „Simulierte Nutzungsumgebung“ meint, dass die Methode an einem Ort durchgeführt wird, der der natürlichen Umgebung nachempfunden ist. Erstellung eines Kriterienkataloges 43 Die Orte Usability-Labor und Tagungsraum sind selbsterklärend, während mit „Schreibtisch“ gemeint ist, dass der Anwender keinen besonderen Ort für die Durchführung der Methode benötigt und diese direkt vom Schreibtisch aus angewendet werden kann. Teilnehmer können in diesem Fall z.B. über Internet oder Telefon einbezogen werden. Kosten Die Kosten für die Anwendung einer Methode werden anhand einer dreistufigen Skala von gering über mittel bis hoch angegeben: gering: < 10000 € mittel: 10000 € bis 20000 € hoch: > 20000 €. Die Zahlenwerte sind an die Einteilung der Kosten angelehnt, die von dem Projekt CHeval der Hochschule für Technik und Wirtschaft Chur verwendet werden. (CHeval, 2013) Zusätzlich können ergänzende oder erklärende Informationen gegeben werden. Zeitaufwand Das Kriterium Zeitaufwand wird anhand einer dreistufigen Skala von gering über mittel bis hoch bewertet: gering: < 1 Woche mittel: 1 Woche bis 1 Monat hoch: > 1 Monat. Die Einteilung veranschaulicht den zeitlichen Aufwand, den die Methode für den Ausführenden darstellt. Eine Methode mit geringem Zeitaufwand lässt sich in unter einer Woche bewältigen. Hierbei wird die effektive Arbeitszeit des Ausführenden herangezogen und berücksichtig. Der maximale Zeithorizont, also die Gesamtdauer vom Beginn der Vorbereitungen bis zur Fertigstellung der Analyse bzw. der Nachbereitung kann durchaus mehr als eine Woche betragen. Es kann z.B. ein Zeitraum anfallen, in dem Probanden rekrutiert werden. Ein weiteres Beispiel für einen größeren maximalen Zeithorizont könnte eine Online-Umfrage sein, die über mehrere Wochen hinweg von den Teilnehmern bearbeitet werden kann. In beiden Fällen könnte trotz der längeren Zeitdauer zur kompletten Durchführung der Methode eine Einteilung zu „geringem Zeitaufwand“ erfolgen. Eine Methode mit mittlerem Zeitaufwand lässt sich in unter einem Monat effektiver Arbeitszeit bewältigen, alles darüber hinaus wird mit einem hohen Zeitaufwand bewertet. Zusätzlich werden ergänzende bzw. erklärende Informationen gegeben. Diese können beispielsweise den maximalen Zeithorizont, die erforderlichen Personenstunden oder Zeitangaben für bestimmte Schritte der Methode sein, z.B. ca. 60 Minuten pro Interview. Vorbereitung Das Kriterium Vorbereitung gibt an, welche Arbeitsschritte vor der Durchführung der Methode zu erledigen sind. Die Angaben können in Form einen Fließtextes oder anhand von Stichpunkten gegeben sein. Erstellung eines Kriterienkataloges 44 Durchführung Das Kriterium Durchführung gibt die Arbeitsschritte für die eigentliche Anwendung der Methode an. Die Angaben können in Form einen Fließtextes oder anhand von Stichpunkten gegeben sein. Nachbereitung/Auswertung Das Kriterium Nachbereitung/Auswertung gibt an, welche Schritte nach der Durchführung der Methode notwendig sind, um Erkenntnisse aus den gewonnenen Daten zu ziehen bzw. die Ergebnisse aufzubereiten. Die Angaben können in Form eines Fließtextes oder anhand von Stichpunkten gegeben sein. Praxis-Tipps Unter dem Kriterium Praxis-Tipps werden weitere Informationen und Hinweise zur Vorbereitung, Durchführung und Nachbereitung angegeben, die sich bei der praktischen Anwendung der Methode bewährt haben. Außerdem kann hier angegeben sein, welche Variationen der Methode möglich sind, und wann sich diese anwenden lassen. Mögliche Leitfragen sind: Was gibt es bei der Anwendung in der Praxis zu beachten? Welche Anregungen und Hinweise gibt es für die Anwendung? Welche Varianten der Methode sind möglich? Auch hier können die Angaben in Form eines Fließtextes oder anhand von Stichpunkten gegeben sein. Zweck Das Kriterium Zweck ist zur Filterung des Methodenkataloges und damit zur Auswahl von UsabilityMethoden gedacht. Die Methoden werden je nach Zweck und Nutzen den sie verfolgen in unterschiedliche Kategorien eingeteilt. So ist je nach Anwendungsfall des jeweiligen Projekts ersichtlich, welche Methoden anwendbar sind. Die Informationen des Kriteriums sind anhand einer Satzstruktur aufgebaut (vgl. Tabelle 5 auf Seite 46). Mittels des Kriteriums wird berücksichtigt, ob es das Ziel einer Methode ist Informationen zu gewinnen. Ebenfalls ist die Art der zu gewinnenden Information angegeben. So sind Informationen über die Benutzer eines Produktes, über die Interaktion zwischen Benutzer und Produkt, über Strukturen und Prozesse, über die Benutzererfahrung sowie zum Kontext eines Produktes vorgesehen. Außerdem werden Methoden danach kategorisiert ob sie im Kontext der Erstellung oder Bewertung von Ideen und Produkten angewendet werden können. Die Produkte werden weiter unterteilt in physikalische Produkte, Software, integrierte Produkte die sowohl Hard- als auch Software beinhalten, Dienstleistungen und Umgebungen bzw. Orte. Als letzter Punkt findet eine Einteilung statt, ob Daten mit Hilfe der Methode geordnet und organisiert, kommuniziert, dokumentiert oder verbreitet werden. Verwandte Methoden Das Kriterium Verwandte Methoden gibt Methoden an, die der beschriebenen ähnlich sind. Mögliche Leitfragen sind: Welche Methoden sind der beschriebenen ähnlich? Welche Methoden weisen Gemeinsamkeiten mit der beschriebenen auf? Welche Methoden gehören zur gleichen Kategorie bzw. lassen sich in einer Kategorie mit der beschriebenen zusammenfassen? Erstellung eines Kriterienkataloges 45 Mögliche vorangegangene Methoden/Tätigkeiten Die Leitfrage dieses Kriterium ist: Gibt es Methoden oder Tätigkeiten, die vor der eigentliche Methode durchgeführt werden können oder sollten? Mögliche nachfolgende Methoden/Tätigkeiten Die Leitfrage dieses Kriterium ist: Welche Methoden oder Tätigkeiten können oder sollten auf die beschriebene Methode folgen? Mögliche Anwendungsgebiete Das Kriterium Mögliche Anwendungsgebiete gibt anhand von Beispielen an, für welche Fälle sich der Einsatz der beschriebenen Methode eignet. Weiterführende Informationen Unter diesem Kriterium werden Literaturempfehlungen zur Vertiefung des Wissens über die Methode gegeben, auf interessante Internetressourcen wie z.B. Onlineartikel, Usability-Plattformen oder VideoTutorials verwiesen sowie weitere Informationsquellen angegeben. Zu beachtende Normen und Zertifikate Falls bei der Anwendung einer Methode Normen oder Zertifikate zu beachten sind, so werden diese unter diesem Kriterium angegeben. Quellen Die Quellen aller Informationen, die innerhalb der Methodenbeschreibung zu finden sind, sind hier aufgeführt. Zusätzlich sind Quellen im Literaturverzeichnis am Ende dieser Arbeit aufgeführt. Tabelle5:ÜberarbeiteterKriterienkatalog Nr. Kategorie 1 Bezeichnung Unterkategorie - Kriterium Ausprägungen/Hinweise Name Synonyme 2 Beschreibung - Kurzbeschreibung 2 bis 4 Sätze Abbildungen Erstellung eines Kriterienkataloges Ziele Stichpunkte Ergebnisse/Output Stichpunkte Vorteile Stichpunkte Nachteile/Grenzen Stichpunkte Projektphase(n) Planung Konzeption Umsetzung Betrieb ggf. weitere Informationen 46 Nr. Kategorie Unterkategorie Kriterium 3 Rahmenbedingungen & Ressourcen Wer? Benötigte Teilnehmeranzahl Art der Teilnehmer Ausprägungen/Hinweise Entwickler Software Gestalter Firmeninterne Experten (z.B. Usability Experten) Endnutzer (ggf. spezielle Nutzergruppen z.B. Kinder) Kunde Stakeholder Egal … Rolle der Teilnehmer Partizipation Diskussion Wird beobachtet Wird befragt Art der Einbeziehung der Teilnehmer Physikalische Einbeziehung „Remote“ Benötigte Anzahl Ausführender 4 Rolle des/der Ausführenden Aufzählung (z.B. Moderator, Interviewer, Analyst) Erforderliche Kompetenzen Aufzählung/Stichpunkte Womit? Werkzeuge, Hilfsmittel Aufzählung/Stichpunkte Wo? Ort/Umgebung Aufwand Kosten Gering: < 10000 € Mittel: 10000 bis 20000 € Hoch: > 20000 € Zeitaufwand Gering: < 1 Woche ggf. weitere InformaMittel: 1 Woche bis 1 Monat tionen Hoch: > 1 Monat Vorbereitung Fließtext/Stichpunkte Durchführung Fließtext/Stichpunkte Nachbereitung/Auswertung Fließtext/Stichpunkte Praxis-Tipps Fließtext/Stichpunkte mehr zu erfahren über… Benutzer (Wer ist der Benutzer?) Interaktion zwischen Benutzer und Produkt Strukturen und Prozesse Benutzererfahrung Kontext folgendes zu erstellen: Ideen & Konzepte Physikalisches Produkt Software bzw. grafisches Interface Integriertes Produkt, bestehend aus Hard- und Software Dienstleistung Umgebung/Ort Vorgehensweise 5 Praxis-Tipps 6 Zweck - Die Methode ist anwendbar, wenn es das Ziel ist… folgendes zu bewerten: Daten… Erstellung eines Kriterienkataloges Natürliche Nutzungsumgebung Simulierte Nutzungsumgebung Usability Labor Tagungsraum Schreibtisch ggf. weitere Informationen Ideen & Konzepte Physikalisches Produkt Software bzw. grafisches Interface Integriertes Produkt, bestehend aus Hard- und Software Dienstleistung Umgebung/Ort zu ordnen und zu organisieren zu kommunizieren zu dokumentieren zu verbreiten 47 Nr. Kategorie 7 Verwandte und weiterführende Methoden Unterkategorie - Kriterium Ausprägungen/Hinweise Verwandte Methoden Aufzählung Mögliche vorangegangene Methoden/Tätigkeiten Aufzählung Mögliche nachfolgende Methoden/Tätigkeiten Aufzählung 8 Anwendungsbeispiele - Mögliche Anwendungsgebiete 9 Referenzen und weiterführende Informationen - Weiterführende Informationen Zu beachtende Normen und Zertifikate Quellen 3.4.2 Festlegen des Layouts des Methodenkatalogs Im Folgenden wird das finale Layout des Kriterienkatalogs für die Verwendung zur Methodenbeschreibung erläutert und die Änderungen diskutiert. Das Layout des optimierten Kriterienkatalogs (siehe Tabelle 5) hatte zum Ziel, die Kriterien und ihre Zugehörigkeit zu Kategorien und ggf. Unterkategorien darzustellen. Diese Anordnung bot sich hauptsächlich im Zusammenhang mit dem Sammeln und Anordnen der Kriterien an und sollte damit die Struktur innerhalb des Kriterienkatalogs verdeutlichen. Für die Methodenbeschreibung ist die Hervorhebung der Struktur nur noch von geringer Bedeutsamkeit. Hier liegt der Fokus mehr auf der Übersichtlichkeit, gerade bei der Darstellung im DIN A4Format. Das Ziel der Veränderung des Layouts ist es, nur jene Informationen des Kriterienkatalogs darzustellen, die dem Verständnis der Methodenbeschreibungen zuträglich sind. Nichtrelevante Informationen werden entfernt, die Struktur und die generelle Übersichtlichkeit einer Tabelle sollen dabei erhalten bleiben. Aus diesem Grund wird das Layout der Kriterien-Tabelle in der Art geändert, dass die Spalte Unterkategorie entfernt wird, da ihre Informationen für die Beschreibung der Methoden nicht von Bedeutung sind. Hinzu kommt das Entfernen der Spalte Nr. Die wegfallenden Informationen werden direkt in die Spalte Kategorie integriert, um die Verdeutlichung der Struktur zu erhalten. Als dritter Punkt wurden einige Bezeichnungen der Kriterien gekürzt um eine bessere Übersichtlichkeit zu schaffen. Dies betrifft insbesondere die Kriterien der Kategorie 3 Rahmenbedingungen & Ressourcen. Hier wurde die Gruppierung jener Kriterien, die Informationen zu den Teilnehmern sowie den Anwendern enthalten, neu hervorgehoben und die Bezeichnung verkürzt (siehe Tabelle 6). Mit diesen Maßnahmen wurde das Layout des Kriterienkatalogs optimiert, und Informationen, die für die Beschreibung von Usability-Methoden nicht relevant sind, entfernt. Neben der verbesserten Übersichtlichkeit ist die Platzausnutzung deutlich besser als in der vorherigen Version. Etwa dreiviertel der Seitenbreite können so zur Beschreibung von Methoden verwendet werden, während die restliche Breite die Strukturierung der Kriterien einnimmt. Erstellung eines Kriterienkataloges 48 Tabelle6:LayoutdesfinalenKriterienkatalogs,wieerinKapitel4zurBeschreibungvonUsability‐Methodeneingesetztwird Kategorie Kriterium 1.Bezeichnung Name (Name der Methode) Synonyme 2. Beschreibung Kurzbeschreibung 2 bis 4 Sätze Abbildungen Eine Abbildung sollte zusätzliche Informationen enthalten, die die Informationen der Kurzbeschreibung unterstützen oder ergänzen Ziele Stichpunkte Ergebnisse/ Output Stichpunkte Vorteile Stichpunkte Nachteile/ Grenzen Stichpunkte Projektphase(n) Planung Konzeption Umsetzung Betrieb Anwender 4. Vorgehensweise ggf. weitere Informationen (ansonsten kann diese Zelle entfernt werden) Anzahl Art … Entwickler Software Gestalter Firmeninterne Experten (z.B. Usability Experten) Endnutzer (ggf. spezielle Nutzergruppen z.B. Kinder) Kunde Stakeholder Egal Rolle Partizipation Diskussion Wird beobachtet Wird befragt Einbeziehung Physikalische Einbeziehung „Remote“ Teilnehmer 3. Rahmenbedingungen & Ressourcen Anzahl Rolle Aufzählung (z.B. Moderator, Interviewer, Analyst) Erforderliche Kompetenzen Aufzählung/Stichpunkte Werkzeuge, Hilfsmittel Aufzählung/Stichpunkte Ort/Umgebung Natürliche Nutzungsumgebung Simulierte Nutzungsumgebung Usability Labor Tagungsraum Schreibtisch Kosten Gering: < 10000 € Mittel: 10000 bis 20000 € Hoch: > 20000 € ggf. weitere Informationen Zeitaufwand Gering: < 1 Woche Mittel: 1 Woche bis 1 Monat Hoch: > 1 Monat ggf. weitere Informationen Vorbereitung Fließtext/Stichpunkte Durchführung Fließtext/Stichpunkte Nachbereitung/ Auswertung Fließtext/Stichpunkte Erstellung eines Kriterienkataloges 49 Kategorie Kriterium (Name der Methode) 5. Praxis-Tipps Praxis-Tipps Tipps: Varianten: 6. Zweck 7. Verwandte und weiterführende Methoden Benutzer Interaktion Strukturen/Prozesse Benutzererfahrung Kontext folgendes zu erstellen: Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort folgendes zu bewerten: Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort Daten… zu ordnen/organisieren zu kommunizieren zu dokumentieren zu verbreiten Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… Verwandte Methoden Aufzählung Mögliche voran gegangene Methoden/Tätigkeite n Stichpunkte/Aufzählung Mögliche nachfol- gende Methoden/ Tätigkeiten Stichpunkte/Aufzählung 8. Anwendungsbeispiele Mögliche Anwendungsgebiete 9. Referenzen und weiterführende Informationen Weiterführende Informationen Zu beachtende Normen und Zertifikate Quellen Damit sind alle Kriterien des Kataloges definiert und das Layout wurde festgelegt. Der Kriterienkatalog ist, so wie er in Tabelle 6 dargestellt ist, in der finalen Form und wird in diesem Aufbau im folgenden Kapitel zur Beschreibung von Usability-Methoden verwendet. Erstellung eines Kriterienkataloges 50 4 Usability-Methodenkatalog In diesem Kapitel werden zunächst unterschiedliche Klassifizierungsmöglichkeiten für UsabilityMethoden analysiert. Ziel ist es, eine Auswahl von 23 Usability-Methoden, die im Rahmen dieser Arbeit beschrieben werden sollen, in geeignete Kategorien einzuordnen. Hierzu werden die untersuchten Klassifizierungsmöglichkeiten, im Zusammenhang mit der Einordnung der gewählten Methoden, bewertet. Aus den ermittelten Vor- und Nachteilen wird eine geeignete Klassifizierungsmöglichkeit ausgewählt, die zur Strukturierung des Methodenkatalogs verwendet werden kann. Im Anschluss werden die ausgewählten Usability-Methoden, nach den in Kapitel 3 definierten Kriterien, beschrieben und nach der gewählten Kategorisierung strukturiert. 4.1 Klassifizierung von Usability-Methoden Es gibt eine Vielzahl von Möglichkeiten Methoden zu klassifizieren, die von Buchautoren und Erstellern von Usability-Websites verwendet werden. Ziel der Klassifizierung ist die Strukturierung von Methoden, sodass solche mit gleichen Eigenschaften unter einem Oberbegriff zusammengefasst werden können. Die Zusammenfassung ermöglicht eine übersichtlichere Darstellung und vereinfacht das Identifizieren von passenden Methoden zu einer bestehenden Projektsituation. Im folgenden Verlauf werden zunächst bestehende Klassifizierungsmöglichkeiten analysiert und im Zusammenhang mit den im Rahmen dieser Arbeit ausgewählten Methoden bewertet. Im Anschluss werden geeignete Kategorien definiert, die zur Strukturierung der zu beschreibenden Methoden im Methodenkatalog verwendet werden. 4.1.1 Analyse und Bewertung bestehender Klassifizierungsmöglichkeiten Im Folgenden sollen zwei unterschiedliche Ansätze der Strukturierung thematisiert werden. Zunächst wird die Einteilung von Methoden in Kategorien diskutiert, wie sie zur Strukturierung des Methodenkatalogs benötigt werden. Die Kategorien stellen festgelegte Sortierkriterien dar, nach denen die Methoden geordnet werden. Im Anschluss wird auf die Möglichkeit der Filterung eingegangen, um flexiblere Strukturen in einem webbasierten Methodenverzeichnis zu erzeugen. Hierbei lassen sich die Sortier- oder genauer die Filterkriterien frei wählen und so je nach Situation eine optimierte Strukturierung der Methoden erreichen. Auf die Darstellung der existierenden Klassifizierungsmöglichkeiten folgt jeweils eine Bewertung im Zusammenhang mit der Einteilung der 23 ausgewählten Usability-Methoden. Als erstes sollen drei Möglichkeiten der Kategorisierung von Usability Methoden aufgezeigt werden die von Sarodnick &Brau (2011) beschrieben werden. Die erste Möglichkeit stellt eine grobe Einteilung in zwei Methoden-Gruppen, den empirischen und den analytischen Methoden dar. a. Bei den empirischen Methoden werden Informationen von Nutzern gewonnen. Hierbei testen reale oder potenzielle Nutzer ein Produkt und werden dabei beobachtet oder im Anschluss an den Test befragt. Durch die Interpretation der gewonnenen Daten werden Probleme der Gebrauchstauglichkeit aufgedeckt und Verbesserungsmöglichkeiten können abgeleitet werden Usability-Methodenkatalog 51 b. Analytische Methoden beinhalten eine Beurteilung von Usability-Experten, die sich aufgrund ihres Wissens und ihrer Erfahrung in die Lage von Nutzern versetzen und auf diese Weise Usability-Probleme ausfindig machen und Lösungsvorschläge anbieten. (Sarodnick &Brau, 2011) Tabelle 7 zeigt die Einteilung der ausgewählten Usability-Methoden in diese Kategorien. Tabelle7:KlassifizierunginEmpirischeundAnalytischeMethoden Empirische Methoden A/B-Testing AttrakDiff Benchmarking Blickbewegungsanalyse Fokusgruppe Fragebogen Interview Kontextuelles Interview Lautes Denken Mausbewegungsmessung Online-Befragung Paper-Prototyping Usability-Test Wizard of Oz Analytische Methoden Cognitive Walkthrough Heuristische Evaluation Sonstige Affinity-Diagramm Aufgabenanalyse Card Sorting Personas Prototyping Storyboarding Szenarien Wie zu sehen ist, können nicht alle Methoden eindeutig in die beiden Klassen eingeteilt werden. Die Methoden Aufgabenanalyse und Card Sorting könnten zu den empirischen Methoden gezählt werden, falls sie unter der Einbeziehung von Nutzern angewendet werden. Bei den Methoden AffinityDiagramm, Personas, Prototyping, Storyboarding und Szenarien besteht eine Ähnlichkeit zu analytischen Methoden, allerdings werden bei ihnen im Allgemeinen keine Usability-Experten zur Durchführung benötigt. Somit stellt diese Art zur Klassifizierung keine geeignete Variante für die Strukturierung der gewählten Usability-Methoden dar. Die zweite Einteilungsmöglichkeit die Sarodnick & Brau aufzeigen, ist die Unterteilung in summative und formative Evaluations-Methoden. a. Summative Methoden werden gegen Ende des Entwicklungsprozesses eingesetzt, um die Qualität eines Produkts zu überprüfen. b. Formative Methoden werden hingegen entwicklungsbegleitend eingesetzt, um Verbesserungsmöglichkeiten aufzuzeigen. (Sarodnick &Brau, 2011) Tabelle 8 teilt die 23 gewählten Methoden in dieses Schema ein. Tabelle8:KlassifizierunginsummativeundformativeMethoden Summative Methoden A/B-Testing AttrakDiff Benchmarking Cognitive Walkthrough Heuristische Evaluation Usability-Test Usability-Methodenkatalog Formative Methoden Affinity-Diagramm Aufgabenanalyse Card Sorting Fokusgruppe Kontextuelles Interview Paper-Prototyping Personas Prototyping Storyboarding Szenarien Wizard of Oz Sonstige Blickbewegungsanalyse Fragebogen Interview Lautes Denken Mausbewegungsmessung Online-Befragung 52 Auch hier zeigt sich, dass sich einige Methoden nicht in die Kategorien einfügen lassen. Blickbewegungsanalyse, Mausbewegungsmessung sowie die Befragungsmethoden Fragebogen, Interview und Online-Befragung lassen sich nicht eindeutig zuordnen. Sie können sowohl zur Qualitätsprüfung bei fertigen Produkten, als auch zur Optimierung von Prototypen verwendet werden. Die Methode Lautes Denken zielt darauf ab, dass ein Proband seine Handlungen und Gedanken verbalisiert, während er beobachtet wird. Diese Methode lässt sich nicht in das Schema von summativen und formativen Methoden einreihen. Auch mit dieser Klassifizierungsmöglichkeit lassen sich die gewählten UsabilityMethoden nicht in die vorgegebenen Klassen einfassen. Damit ist auch diese Variante für die im Rahmen dieser Arbeit gewählten Methoden ungeeignet. In einer dritten Möglichkeit unterteilen Sarodnick &Brau Usability-Methoden anhand der fünf folgenden Kategorien: Gestaltungsrichtlinien, Formal-analytische Verfahren, Inspektionsmethoden, UsabilityTests und Fragebogen. a. Unter Gestaltungsrichtlinien (engl. Design-Guidelines) verstehen sie Grundsätze zur nutzergerechten Gestaltung von Systemen. Hierunter fallen Regelsammlungen, sog. Guidelines, nach denen ein Produkt überprüft und die Gebrauchstauglichkeit verbessert werden kann. Ein konkreter Vertreter dieser Kategorie ist z.B. Guidelines for Designing User Interface Software. b. Die formal-analytischen Verfahren sind solche Methoden, bei denen Usability-Experten Benutzerschnittstellen anhand von festgelegten Formalismen analysieren und beschreiben. Sarodnick & Brau teilen die Kategorie in zwei Untergruppen ein, die aufgabenanalytischen Verfahren und die Expertenleitfäden. Zur ersten Gruppe zählen Methoden, welche die Gebrauchstauglichkeit aus der Sicht der Aufgaben, die mit dem System erfüllt werden sollen, betrachten. Hierzu zählt z.B. das GOMS-Modell, bei dem Zeiten für bestimmte physische und kognitive Prozesse vorgegeben sind, mittels derer auf die notwendige Bearbeitungszeit von Aufgaben geschlossen werden kann. Die Gruppe der Expertenleitfäden zeichnet sich dadurch aus, dass bei ihnen Experten leitfadenorientierte Prüfverfahren durchführen, um die Gestaltung von Benutzerschnittstellen zu optimieren. Sarodnick & Brau nennen EVADIS II als Beispiel. Mit dieser Methode werden die Funktionalität und die ergonomische Qualität von Mensch-Computer-Schnittstellen für den Bürobereich evaluiert. c. Bei den Inspektionsmethoden untersuchen Usability-Experten ein Produkt auf Probleme bei der Gebrauchstauglichkeit. Beispiele für Methoden dieser Kategorie sind die Heuristische Evaluation, bei der Experten ein System aufgrund von erstellten Richtlinien und Erfahrungen auf Probleme überprüfen, und der Cognitive Walkthrough, bei dem die Erlernbarkeit eines Systems im Vordergrund steht. d. Die Kategorie der Usability-Tests umfasst neben der gleichnamigen Methode auch weitere Methoden, die im Zusammenhang mit Usability-Tests anwendbar sind. Bei der Methode „UsabilityTest“ verwenden Nutzer das zu testende Produkt und werden dabei von Usability-Experten beobachtet. Hierbei werden Aspekte der Bedienung aufgedeckt, die dem Nutzer Probleme bereiten. Weitere Methoden, die zu dieser Kategorie gezählt werden, sind z.B. das Laute Denken, bei dem ein Proband seine Handlungen, Gedanken und Meinungen verbalisiert, während er ein Produkt testet. Ein weiteres Beispiel stellt die Methode der Blickbewegungsmessung dar, bei der aufgezeichnet wird, wohin ein Proband bei der Nutzung eines Produkts blickt. e. Als letzte Methoden-Klasse werden die Fragebogen genannt. Hierunter fallen besondere, meist standardisierte Fragebogen wie die Methode AttrakDiff, bei der die Qualität und Attraktivität Usability-Methodenkatalog 53 eines Produkts mittels eines vorgegebenen Fragebogens bei Nutzern abgefragt wird. (Sarodnick &Brau, 2011) In Tabelle 9 sind die Methoden dieser Arbeit in diese Klassen einsortiert. Tabelle9:KlassifizierungsmöglichkeitfürUsability‐MethodennachSarodnick&Brau(2011) Gestaltungsrichtlinien Formal-analytische Verfahren Inspektionsmethoden Cognitive Walkthr. Heurist. Evaluation Usability-Tests Fragebogen Sonstige A/B-Testing Blickbewegungsanal. Lautes Denken Mausbewegungsm. Usability-Test AttrkDiff Fragebogen Online-Befragung Affinity-Diagramm Aufgabenanalyse Benchmarking Card Sorting Fokusgruppe Interview Kontextu. Interview Paper-Prototyping Personas Prototyping Storyboarding Szenarien Wizard of Oz Es zeigt sich, dass viele der hier gewählten Methoden nicht nach diesen Kategorien eingeteilt werden können. Dies hängt damit zusammen, dass es sich bei den Methoden nicht um Usability-EvaluationMethoden handelt, für die diese Klassifizierungsmöglichkeit gedacht ist. Es ist allerdings ebenfalls erkennbar, dass sich die gewählten Methoden der Usability-Evaluation eindeutig in die Kategorien Inspektionsmethoden und Usability-Tests einfügen lassen. Demnach sind diese beiden Kategorien prinzipiell für die Einteilung der beschriebenen Methoden geeignet. Für die übrigen Methoden, welche sich nicht einteilen lassen, müssten alternative Kategorien definiert werden, um eine Systematisierung für alle Methoden des Katalogs zu erzielen. Eine weitere Einteilung von Usability-Methoden wird von Bernsen & Dybkjær (2010) verwendet. Ihre Systematisierung von Methoden ist an die jeweilige Art der Datenermittlung angelehnt. Es sind fünf Kategorien festgelegt: Fragen/Antworten (Question-answering), Treffen mit Diskussion (Meetings with discussion), Beobachtung (Observation), Vorstellungskraft (Imagination) und Interaktion mit dem zu entwickelnden System (Interaction with the system under development). a. Unter der ersten Kategorie Fragen/Antworten zählen die Autoren Methoden, bei denen eine Befragung potentieller oder tatsächlicher Nutzer, Kunden oder Experten durchgeführt wird. Entsprechende Methoden sind z.B. das Experteninterview oder der Online-Fragebogen. b. Die Kategorie Treffen mit Diskussion beinhaltet Methoden, bei denen Gruppendiskussionen geführt werden. Ein Beispiel für eine Methode dieser Kategorie ist die Fokusgruppe. Hierbei werden potenzielle Nutzer eines Produktes eingeladen und diskutieren, geleitet durch einen Moderator, über ihre Erwartungen, Wünsche und Gefühle, die sie gegenüber dem zu entwickelnden Produkt haben. c. Methoden der Kategorie Beobachtung untersuchen die Handlungen von Nutzern oder den Kontext der Nutzung eines Produkts. Ein typischer Vertreter dieser Kategorie ist die Methode Usability-Test. d. Die Kategorie Vorstellungskraft beinhaltet Methoden, deren Ergebnisse auf der Erfahrung und der Vorstellungskraft der durchführenden Entwickler oder Experten basieren. Für diese Methoden werden keine Nutzer benötigt und es ist auch keine Vorabversion des Produkts oder ein Usability-Methodenkatalog 54 Prototyp notwendig. Beispiele für Methoden dieser Gruppe sind Nutzungsszenarien (vgl. Kapitel 4.2.2) und Personas (vgl. Kapitel4.2.1). e. Die fünfte Kategorie Interaktion mit dem zu entwickelnden System enthält Methoden, bei denen Nutzer einen Prototyp des Produkts verwenden. Methoden dieses Bereichs sind beispielsweise Lautes Denken und Wizard of Oz. Bei letzterer Methode wird ein Prototyp eines technischen Systems mit noch eingeschränkter Funktionalität geschaffen und von einem Anwender evaluiert. Ein menschlicher Akteur beobachtet die Aktionen des Anwenders und simuliert die Systemantwort für die noch nicht implementierten Funktionen in Echtzeit. Das ganze geschieht meist, ohne dass der Anwender es während seinem Test bemerkt. Tabelle10:KlassifizierungvonUsability‐MethodennachBernsen&Dybkjær(2010) Fragen/Antworten AttrakDiff Fragebogen Interview Online-Befragung Treffen mit Diskussion Fokusgruppe Beobachtung Vorstellungskraft A/B-Testing Aufgabenanalyse Benchmarking Blickbewegungsm. Kontextue. Interview Lautes Denken Mausbewegungsm. Usability-Test Wizard of Oz Aufgabenanalyse Personas Storyboarding Szenarien Interaktion mit d. zu entwickelnd. System Cognitive Walkthr. Heurist. Evaluation. Lautes Denken Paper-Prototyping Prototyping Usability-Test Wizard of Oz Sonstige Affinity-Diagramm Card Sorting Wie in Tabelle 10 ersichtlich, lassen sich bei dieser Einteilungsmöglichkeit nach Bernsen &Dybkjær (2010) die zwei Methoden Affinity-Diagramm und Card Sorting nicht zuordnen. Außerdem ist bei den Methoden Aufgabenanalyse, Usability-Test, Wizard of Oz und Lautes Denken, die in Tabelle 10 grau hervorgehoben sind, keine eindeutige Zuordnung möglich und die Methoden tauchen in mehr als einer Kategorie auf. Dies hängt damit zusammen, dass sich die von den Autoren gewählten Kategorien Beobachtung und Interaktion mit dem zu entwickelnden System überschneiden. Positiv ist im Zusammenhang mit der Einteilung der hier gewählten Methoden die Kategorie Fragen/Antworten zu nennen. Diese Kategorie stellt eine Erweiterung der Kategorie Fragebogen nach Sarodnick &Brau (2011) dar, in die auch andere Befragungsmethoden wie z.B. das Interview eingeordnet werden können. Da die Methode Fokusgruppe die einzige der gewählten Methoden ist, die in die Kategorie Treffen mit Diskussion eingeordnet wird, würde sich eine Zusammenlegung dieser Kategorie mit der Frage/AntwortKategorie anbieten. Weitere Klassifizierungen finden sich auf Internetplattformen zum Thema Usability-Methoden. Die Website „Usability Body of Knowledge“ verwendet eine detaillierte Klassifizierung um Methodenbeschreibungen zu strukturieren (UXPA, 2012). a. Die Kategorie Nutzerforschung (engl. User Research) enthält Methoden, mit denen etwas über die Benutzer eines Produkts herausgefunden werden kann. Mit Ausnahme der Methode Fokusgruppe sind alle weiteren Methoden in Unterkategorien eingeteilt. Die Unterkategorie Nutzungskontext (Context of Use) enthält Methoden, die den Zusammenhang betrachten, in dem ein Produkt benutzt wird. Dies können z.B. zeitliche oder räumliche Aspekte der Nutzung eines Produkts ein. Typische Fragen sind: Wann, wo, wie und warum verwendet ein Nutzer ein Produkt. Ein Beispiel für eine Methode dieser Unterkategorie ist das Kontextuelle Interview, bei Usability-Methodenkatalog 55 b. c. d. e. f. dem ein Proband bei der Verwendung eines Produkts in seiner natürlichen Nutzungsumgebung beobachtet und interviewt wird. Eine weitere Unterkategorie sind die ethnographischen Methoden (Ethnographic Methods). Bei diesen Methoden soll ein Einblick in den Alltag von Personen und ihre kulturbedingten Wertevorstellungen erhalten werden. Ein Beispiel ist die Methode Cultural Probe, bei der mittels Objekten wie Tagebücher, Fotos, Postkarten oder ähnliches, Einblicke in das Leben von Probanden erhalten wird und somit Erfahrungen, Handlungen und Emotionen von Personen erkannt und verstanden werden können. Die dritte und letzte Unterkategorie sind die Feldstudien Methoden (Field Study Methods), bei denen Nutzer bei ihrer Arbeit beobachtet werden und so Daten über sie und über ihre Bedürfnisse gesammelt werden. Ein Beispiel für dieses Methodenfeld ist die Tagebuchstudie (Diary Study). Hierbei findet eine Selbstbeobachtung der Teilnehmer statt, die ihre Tätigkeiten in Form eines Tagebuchs festhalten. Die zweite Kategorie sind die Methoden der Anforderungsanalyse (Requirements Methods). Mit diesen Methoden werden Anforderungen, die an ein Produkt bestehen ermittelt. Methoden dieser Kategorie sind z.B. Personas und Nutzungsszenarien. Die Kategorie der kognitiven Modelle (Cognitive Models) entspricht der Klasse der aufgabenanalytischen Verfahren, die von Sarodnick & Brau verwendet wird. Ein Beispiel für eine Methode dieser Gruppe ist demnach das GOMS-Modell. Eine weitere Methodenklasse des Usability Body of Knowledge sind die Aufgabenanalyse und Modellierungsmethoden (Task Analysis and Modelling Methods). Bei den Methoden dieser Kategorie geht es um die Untersuchung von Aufgaben. Die klassische Methode der Aufgabenanalyse (Task Analysis) ist ein Vertreter dieser Klasse. Hierbei werden Arbeitsabläufe betrachtet und untersucht. Es gibt mehrere Varianten dieser Methode - beispielswiese die Hierarchical Task Analysis, bei der die hierarchische Struktur von Arbeitsabläufen betrachtet wird – die ebenfalls zu dieser Methodenkategorie gezählt werden. Die Gruppe der Entwurfsmethoden (Design Methods) umfasst Methoden, die das Entwerfen von Produkten zum Thema haben. Beispiele hierfür sind das Card Sorting, mit dem z.B. die Sitemap einer Internetseite entwickelt werden kann und Prototyping Methoden, die das Ziel haben Prototypen eines Produktes zu entwickeln, um sich bereits vor der Fertigstellung das Endprodukt zu vergegenwärtigen. Die letzte Kategorie sind die Usability Evaluations Methoden (Usability Evaluation Methods). Die Kategorie gliedert sich in mehrere Unterkategorien. Die erste wird durch die UsabilityInspektionsmethoden gebildet, zu denen, analog zur Definition von Sarodnick &Brau (2011) Methoden wie die Heuristische Evaluation oder der Cognitive Walkthrough zählen. Weitere Unterkategorien sind Usability-Tests mit Nutzern, zu denen Methoden wie der Usability-Test selbst oder auch die Methode Wizard of Oz zählen, und die Unterkategorie Fragebogen und Umfragen (Questionnaire and Survey Methods) die entsprechend der Bezeichnung Methoden wie beispielsweise AttrakDiff enthalten. (UXPA, 2012) Tabelle 11 zeigt die gewählten Methoden, eingeordnet in die Kategorien von usabilitybok.org. Die Methode Affinity-Diagramm lässt sich in keine der vorgesehenen Kategorien einordnen. Außerdem lassen sich die Befragungsmethoden wie z.B. Interview und Fragebogen nicht eindeutig zuordnen, da sie sowohl zur Nutzerforschung als auch als Werkzeug für die Usability-Evaluation genutzt werden können. Die Methode Personas lässt sich ebenfalls nicht eindeutig zuordnen, da neben dem Aspekt der Nutzerforschung auch die Anforderungsanalyse im Fokus der Methode steht. Positiv ist bei dieser KlassifizieUsability-Methodenkatalog 56 rungsmethode die Kategorie Entwurfsmethoden hervorzuheben, da sich hierin alle Methoden des Prototypings zusammenfassen lassen. Tabelle11:KlassifizierungvonUsability‐MethodennachderStrukturierungaufwww.usabilitybok.org Nutzerforschung Anforderungsanalyse Fokusgruppe Fragebogen Interview Kontext. Interv. Online-Befragung Personas Personas Szenarien Kognitive Modelle Aufgabenanalyse und Modellier. Entwurfsmethoden Aufgabenanalyse Card Sorting Paper-Prototyp. Prototyping Storyboarding UsabilityEvaluationsmethoden A/B-Testing AttrakDiff Benchmarking Blickbewegung. Cognitive Walkth. Fragebogen Heurist. Evaluat. Interview Lautes Denken Mausbewegung. Online-Befragung Usability-Test Wizard of Oz Sonstige Affinity-Diagr. Eine weitere Möglichkeit der Klassifizierung von Usability-Methoden wird auf der Website „UsabilityNet“ aufgezeigt. Die Einteilung ist in Abbildung 3 dargestellt und orientiert sich an den Phasen eines Entwicklungsprojekts. a. Die erste Kategorie Planung und Machbarkeit (Planning & Feasibility) richtet sich an die frühe Entwicklungsphase und beinhaltet Methoden, die den Einstieg in ein Projekt unterstützen und für den effektiven Einsatz von Usability-Maßnahmen im weiteren Projektverlauf sorgen. Ein Vertreter dieser Methoden ist die ISO 13407, nach der ein Plan erstellt wird, in dem nutzerzentrierte Gestaltungsmaßnahmen über den gesamten Produktlebenszyklus hinweg geplant werden. b. Die zweite Kategorie Anforderungen (Requirements) enthält Methoden die bei der Ermittlung von Nutzer- und Usability-Anforderungen helfen. Die Methoden unterstützen das Sammeln von Informationen. Beispiele sind Interviews, Fokusgruppen und Brainstorming, und das Strukturieren von Informationen z.B. durch die Methode des Card Sortings. c. Die Kategorie Entwurf beinhaltet Methoden, um einen Entwurf des Produkts zu entwickeln und zu testen. Hierzu zählen Methoden des Prototypings wie z.B. die Methode Wizard of Oz sowie Evaluationsmethoden z.B. die Heuristische Evaluation. d. Die beiden Methoden der Kategorie Implementierung sollen sicherstellen, dass in der Umsetzungsphase die Prinzipien der Gebrauchstauglichkeit angewendet und umgesetzt werden. Style guides stellen beispielsweise Gestaltungsrichtlinien dar, um einen konsistenten Aufbau des Nutzerinterfaces sicherzustellen. e. Die Kategorie Tests & Messungen beinhaltet Evaluationsmethoden, mit denen die Erfüllung der Anforderungen überprüft werden kann. Es besteht die Möglichkeit der nutzerbasierten Evaluation z.B. mittels Performance testing oder der expertenbasierten Evaluation beispielsweise mit Anwendung der Heuristischen Evaluation. Mit Hilfe dieser Methoden lassen sich UsabilityProbleme aufspüren und Verbesserungen ableiten. Usability-Methodenkatalog 57 f. Die letzte Kategorie Post Release enthält Methoden, die nach der Veröffentlichung des Produkts angewendet werden können. Ziel ist die Verbesserung des Produkts. Auch in dieser Phase bietet sich die Methode der Nutzerbefragung (User surveys) an. (UsabilityNet, 2006a) Abbildung3:KategorisierungvonUsability‐MethodenanhandvonProjektphasen(UsabilityNet,2006a) Tabelle 12 zeigt die Einordnung der gewählten Methoden nach der Strukturierung von UsabilityNet (2006a). Tabelle12:KlassifizierungvonUsability‐MethodennachderStrukturierungaufwww.usabilitynet.org Planung & Machbarkeit Anforderungen Entwurf Affinity-Diagr Aufgabenanalyse Benchmarking Card Sorting Fokusgruppe Fragebogen Interview Kontext. Interv. Online-Befragung Personas Szenarien Cognitive Walkth. Heurist. Evaluat. Papter-Prototyp. Prototyping Stroyboarding Wizard of Oz Implementierung Tests & Messungen Benchmarking Blickbewegunsa. Cognitive Walkth. Fragebogen Heurist. Evaluat. Interview Mausbeweg. Online-Befragung Usability-Test Post Release Sonstige A/B-Testing AttrakDiff Benchmarking Fragebogen Interview Online-Befragung Lautes Denken Es ist zu sehen, dass sich viele Methoden nicht eindeutig zuordnen lassen und mehreren Kategorien zugeteilt sind. Dies gilt insbesondere für die Befragungsmethoden wie z.B. dem Interview. Diese Methoden lassen sich sowohl in frühen Entwicklungsphasen zur Ermittlung von Anforderungen als auch in späteren Phasen im Rahmen von Usability-Tests verwenden. Außerdem können sie nach dem ReleaUsability-Methodenkatalog 58 se eingesetzt werden um Informationen über das entwickelte Produkt einzuholen. Die Methode Lautes Denken lässt sich nicht einordnen, da sie keiner bestimmten Projektphase zuzuordnen ist. Als positiver Aspekt ist bei dieser Klassifizierungsmöglichkeit, im Zusammenhang mit der Einordnung der gewählten Methoden, die Kategorie Anforderungen zu nennen. Abgesehen von den Befragungsmethoden lassen sich die gewählten Methoden eindeutig in diese Kategorie einteilen. Eine weitere Möglichkeit der Unterteilung von Methoden stellt die Filterung dar. Diese Möglichkeit bietet sich besonders bei digitalen Verzeichnissen wie z.B. Websites an, auf denen der Nutzer die Auswahl der angezeigten Objekte bestimmen kann. Eine umfangreiche Auswahl an Filterkriterien ist auf der Website der UCDtoolbox gegeben. Eine ausführliche Beschreibung dieser wurde bereits in Kapitel 3.1.1 auf Seite 11, im Rahmen der Analyse von Kriterienkatalogen gegeben. Wie in Abbildung 4 zu sehen ist, ist die Website so aufgebaut, dass auf der linken Seite die Filterkriterien gesetzt werden können. Im rechten Anzeigebereich werden die entsprechenden Methoden dargestellt. Abbildung4:FilterungsmöglichkeitderMethodenaufderWebsitederUCDtoolbox(http://filter.ucdtoolbox.com/filter) Auf Grundlage der Methodenbeschreibungen, die im weiteren Verlauf dieses Kapitels erstellt werden, kann eine vergleichbare Internetplattform für deutsche Nutzer aus softwareentwickelnden KMU zusammengestellt werden. Eine ähnliche Art der Filterung kann ebenfalls umgesetzt werden. Angelehnt an die Filterungsmöglichkeit der UCDtoolbox werden dem erstellten Methodenkatalog jene Informationen hinzugefügt, die für eine Filterung nach dem Kriterium Zweck benötigt werden. Tabelle 13 zeigt diese Informationen zusammengefasst. Für die 23 ausgewählten Usability-Methoden, die im Rahmen dieser Arbeit beschrieben werden sollen, ist hier der Zweck ihrer Anwendung dargestellt. Aufbauend Usability-Methodenkatalog 59 auf den angegebenen Daten lässt sich eine Filtermöglichkeit, ähnlich jener, die bei der UCDtoolbox verwendet wird, auf einer Internetplattform für deutsche KMU implementieren. X folgendes zu bewerten: X X Physikalisches Produkt X X X X X X Integriertes Produkt X X X Dienstleistung X X Umgebung/Ort X X X X X X X Integriertes Produkt X X X Dienstleistung X X Umgebung/Ort X zu ordnen/organisieren X zu kommunizieren X zu dokumentieren X zu verbreiten X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X Szenarien X X X X X X X X X X X X Storyboarding Prototyping Personas Paper-Prototyping Mausbewegungsmessung Online-Befragung Lautes Denken Kontextuelles Interview Interview Heuristische Evaluation Fragebogen X X X X X X X X Software Daten… X X X X X Ideen & Konzepte Physikalisches Produkt X X X X X X Ideen & Konzepte Software X X Kontext folgendes zu erstellen: Fokusgruppe Cognitive Walkthrough X Card Sorting Blickbewegungsanalyse X Wizard of Oz Benutzererfahrung X Usability-Test X Benchmarking X Aufgabenanalyse AttrakDiff Affinity-Diagram Die Methode ist anwendbar, wenn es das Ziel ist… mehr zu Benutzer erfahren Interaktion über… Strukturen/Prozesse A/B-Testing Tabelle13:ZusammenfassungderInformationendesKriteriumsZweckdesMethodenkatalogs X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X Neben der Filterung nach dem Zweck lassen sich weitere Filterkriterien anhand der enthaltenen Informationen der Methodenbeschreibungen realisieren. Es ist z.B. eine Filterung nach der Projektphase denkbar, in der die Methode angewendet werden kann. Ebenfalls lassen sich Kriterien wie die Benötigte Teilnehmeranzahl, die Art der Einbeziehung und die Rolle der Teilnehmer, die Kosten sowie der Zeitaufwand als Filterkriterien umsetzen. 4.1.2 Festlegen einer Klassifizierungmöglichkeit zur Verwendung im Methodenkatalog Für die Klassifizierung der in dieser Arbeit zu beschreibenden Methoden soll eine möglichst eindeutige Einteilung erfolgen. Es ist zu verhindern, dass sich einzelne Methoden nicht eingliedern lassen und dass Methoden gleichzeitig in mehreren Kategorien eingeteilt sind. Nach der Analyse und der Bewertung aller betrachteten Klassifizierungsmöglichkeiten lässt sich sagen, dass keine der Varianten gänzlich für die Verwendung im Rahmen dieser Arbeit geeignet erscheint. Bei allen Möglichkeiten würde es zu Problemen bei der Einteilung kommen und Methoden würden sich nicht eindeutig einer Kategorie zuteilen lassen. Allerdings lassen sich, durch eine Kombination der analysierten Kategorien, alle 23 gewählten Methoden in eine strukturierte Form überführen. Durch eine Kombination der positiven Aspekte der betrachteten Varianten und durch eine Umbenennung der Kategorien zur Konkretisierung können alle Einteilungsprobleme beseitig werden. Usability-Methodenkatalog 60 Ausgehend von den Ergebnissen der Analyse werden fünf Kategorien definiert, deren Bezeichnungen sich an den Zielen der beinhaltenden Methoden orientieren: Anforderungsanalyse und Strukturierung Befragung Prototyping Usability-Test mit Nutzern Usability-Inspektion. Im Folgen werden die einzelnen Methodenklassen beschrieben. a. Die Kategorie Anforderungsanalyse und Strukturierung wurde nach dem Vorbild der Kategorie Anforderungen gemäß UsabilityNet (2006a) definiert. Sie enthält Methoden deren Ziel es ist, Anforderungen zu ermitteln und zu strukturieren, sowie Methoden bei denen die Strukturierung und Analyse von Informationen und Prozessen im Vordergrund steht. Die Benennung der Kategorie wurde entsprechend angepasst, um die beinhaltenden Methoden konkreter zu beschreiben. Die Methoden dieser Kategorie werden meist in den frühen Phasen des Entwicklungsprozesses verwendet, um Anforderungen und Eigenschaften des zu entwickelnden Produkts festzulegen. Typische Vertreter dieser Kategorie sind die Methoden Personas, Card Sorting und Aufgabenanalyse. Die Methoden dieser Kategorie werden in Kapitel 4.2 beschrieben. Nach den analysierten Problemen auf der Website UsabilityNet, werden Befragungsmethoden aus der Kategorie Anforderungsanalyse und Strukturierung ausgelagert und in einer gesonderten Kategorie Befragung aufgeführt. b. Die zweite Kategorie Befragung orientiert sich an der Kategorie Fragen/Antworten nach Bernsen &Dybkjær (2010) und zielt darauf ab, Informationen von tatsächlichen oder potentiellen Nutzern des Produkts, von Experten oder von sonstigen Personen zu erhalten. Diese Informationen können z.B. mithilfe von Interviews oder Fragebogen gewonnen werden. Der Inhalt der gewonnenen Erkenntnisse kann vielfältig sein und z.B. Wissen über die Benutzer selbst, den Kontext in dem ein Produkt verwendet wird oder die Meinung der Befragten zu einem Produkt bzw. zu einem Thema beinhalten. Entsprechend ist auch kein fester Zeitpunkt zur Anwendung dieser Methoden im Entwicklungszyklus eines Produkts festgelegt. In Kapitel 4.3 werden die Methoden dieser Kategorie beschrieben. c. Die dritte Kategorie Prototyping ist an die Kategorie Entwurfsmethoden nach UXPA (2012) angelehnt und enthält Methoden, die es zum Ziel haben eine Repräsentation des zu entwickelnden Produkts oder Teile dessen zu entwickeln.5 Die Methoden dieser Kategorie sind an keine feste Produktphase gebunden und lassen sich je nach Detailgrad zu vielen Zeitpunkten des Produktentwicklungsprozesses anwenden. Die Bezeichnung der Methode wurde im Vergleich zur Vorlage nach UXPA in Prototyping geändert, um besser verständlich zu machen, dass die Kategorie Prototyping-Methoden umfasst. Die Beschreibungen der Prototyping-Methoden sind in Kapitel 4.4 gegeben. 5 Im Gegensatz zur Vorlage nach UXPA (2012) wird die Methode Card Sorting nicht in die Kategorie Prototyping aufgenommen, sondern unter Anforderungsanalyse und Strukturierung aufgeführt, da die Strukturierung von Informationen bei der Methode im Vordergrund steht und die Evaluation einer Sitemap als „Website-Prototyp“ nur ein spezieller Anwendungsfall der Methode ist. Usability-Methodenkatalog 61 d. Die vierte Kategorie Usability-Test mit Nutzern ist nach der Vorlage von Sarodnick &Brau (2011) gewählt, während sich die Bezeichnung an der Wahl von UXPA (2012) orientiert. Die Kategorie beinhaltet Methoden, die im Kontext eines Usability-Tests angewendet werden können. Dies sind hauptsächlich Methoden, bei denen potentielle oder tatsächliche Nutzer bei der Verwendung des Produkts beobachtet werden. Die entsprechenden Methodenbeschreibungen sind in Kapitel 4.5 zu finden. e. Die fünfte Kategorie Usability-Inspektion orientiert sich an der gleichnamigen Kategorie von Sarodnick &Brau (2011) und hat zum Ziel, ein Produkt von Usability-Experten testen zu lassen. Entsprechend der Vorlage nach Sarodnick &Brau beinhaltet diese Kategorie z.B. die Methode der Heuristischen Evaluation. Die Methodenbeschreibungen sind in Kapitel 4.6 enthalten. Die konkrete Aufteilung der gewählten Usability-Methoden auf die abgeleiteten Kategorien ist in Tabelle 14 zu sehen. Ebenfalls ist in der Tabelle festgelegt, in welcher Reihenfolge die Methoden im finalen Katalog aufgeführt werden. Hierbei wurde vom Allgemeinen zum Speziellen angeordnet. So wird in der Kategorie Prototyping zunächst die gleichnamige Methode beschrieben, die einen Überblick über die verschiedenen Anwendungsvarianten gibt und das grundsätzliche Vorgehen bei den Methoden dieser Gruppe beschreibt. Das gleiche gilt für die Methoden der Kategorie Usability-Test mit Nutzern. Hier wird zunächst die Methode Usability-Test beschrieben, bevor im Anschluss weitere Methoden, deren Anwendung im Rahmen des Usability-Tests sinnvoll sein können, detailliert dargestellt werden. Zusätzlich zu der Sortierung zum Speziellen, wurden verwandte bzw. ähnliche Methoden innerhalb der Kategorien gruppiert. So folgen z.B. die Methoden Personas und Szenarien aufeinander, da sie ähnlich in ihrer Anwendung sind und bei beiden die Vorstellungskraft der Anwender eine entscheidende Rolle spielt. Bei den Befragungsmethoden wurden Methoden zur mündlichen Befragung und solche zur schriftlichen Befragung zusammengelegt. Tabelle14:FinaleKlassifizierungderimRahmendieserArbeitgewähltenMethoden Anforderungsanalyse und Strukturierung Persona Szenarien Benchmarking Aufgabenanalyse Kontextuelles Interview Card Sorting Affinity-Diagramm Befragung Prototyping Usability-Test mit Nutzern Usability-Inspektion Interview Fokusgruppe Fragebogen AttrakDiff Online-Befragung Prototyping Storyboarding Paper-Prototyping Wizard of Oz Usability-Test Lautes Denken Blickbewegungsanalyse Mausbewegungsmessung A/B-Testing Cognitive Walkthrough Heuristische Evaluation Durch die gewählte Klassifizierungsvariante konnte eine geeignete Lösung gefunden werden, um alle 23 Methoden, die im Rahmen dieser Arbeit beschrieben werden sollen, sinnvoll zu kategorisieren. Es konnte eine Einteilung erreicht werden, die alle Methoden strukturiert, ohne dass sich einzelne Methoden nicht zuordnen lassen würden oder Methoden in mehr als einer Kategorie aufgeführt wären. Zusammen mit der strukturierten Anordnung des Kriterienkatalogs, der in Kapitel 3 entwickelt wurde, sind somit die Grundvoraussetzungen geschaffen, um einen strukturierten Methodenkatalog aufzubauen, der systematisiertes Methodenwissen bereitstellen kann. Unabhängig von der gewählten Lösung für die vorliegende Arbeit hat die Untersuchung der Klassifizierungsmöglichkeiten gezeigt, dass eine Eignung der Varianten stark vom jeweiligen Anwendungsfall und von den betreffenden Methoden sowie deren Beschreibungen abhängig ist. Je nachdem, welche Usability-Methodenkatalog 62 Methoden strukturiert werden sollen und welche Anforderungen an die Strukturierung bestehen, kann jede der betrachteten Möglichkeiten in bestimmten Fällen geeignet sein. So ist beispielsweise die Einteilung nach Sarodnick &Brau (2011) gut geeignet, wenn es darum geht, Methoden der UsabilityEvaluation einzugliedern. Die Variante nach UsabilityNet (2006a), bei der Methoden nach Projektphasen gegliedert sind, kann beispielsweise sinnvoll sein, wenn das mehrfache Auftauchen einzelner Methoden in unterschiedlichen Kategorien kein Problem darstellt. Der Aspekt des mehrfachen Vorhandenseins einer Methode in unterschiedlichen Kategorien ist eine Problematik, die unteranderem daraus resultiert, dass Methoden nicht genormt sind, demnach je nach Autor unterschiedlich beschrieben werden können und teilweise auch in abgewandelter Form auftreten. Dies hat zur Folge, dass ein und dieselbe Methode unterschiedliche Ziele verfolgt, zu unterschiedlichen Zeiten in der Produktentwicklung eingesetzt wird, im Ablauf variiert und auch die Art der Anwendung sich verändern kann. Die aufgezeigten Beispiele machen deutlich, dass die Existenz einer generischen Strukturierung von Usability-Methoden, die universell für alle existierenden Methoden eine eindeutige Klassifizierung, in eine einzige Kategorie bietet und dabei gleichzeitig bei einer sinnvollen Anzahl an Kategorien bleibt, äußerst fragwürdig erscheint. Im folgenden Verlauf des Kapitels werden die gewählten Methoden des Usability-Methodenkatalogs anhand des finalen Kriterienkatalogs beschrieben und nach der oben entwickelten Klassifizierungsmöglichkeit strukturiert. Usability-Methodenkatalog 63 4.2 Anforderungsentwicklung und Strukturierung 4.2.1 Personas Kategorie 1. Bezeichnung Kriterium Personas Name Personas Synonyme 2. Beschreibung Kurzbeschreibung Mit dieser Methode werden reale Nutzer durch fiktive Charaktere sog. Personas repräsentiert. Mithilfe einer umfangreichen Beschreibung der Charaktere fällt es den Entwicklern leichter, sich in die Lage der Nutzer zu versetzen und ihre Perspektive zu vertreten. Somit können Anforderungen und Eigenschaften des Produktes definiert und auf die Bedürfnisse der Nutzer eingegangen werden. Die Nutzerdaten sind im Vorfeld z.B. mittels Fragebogen oder Interviews zu erheben. Abbildungen Abbildung 5: Beispiele für die Darstellung von Personas (Schweibenz, 2007) Ziele Während der Produktentwicklung die Sichtweise der Personas einnehmen und so ein Produkt auf die Bedürfnisse der zukünftigen Nutzergruppen ausrichten und Anforderungen definieren. Ergebnisse/ Output Beschreibung menschlicher Archetypen, die eine große Gruppe von Nutzern repräsentieren (Weevers, Jacobs, & Oestendorp, 2013) Vorteile Nachteile/ Grenzen Projektphase(n) Sie fördern das Verständnis für die spezifischen Anforderungen und Bedürfnissen der Nutzergruppen (Usability Inside, 2015). Das Projektteam entwickelt ein gemeinsames Verständnis für die Aufgabe und eine nutzerzentrierte Einstellung (Uselab, 2015). Die produktbezogene Kommunikation zwischen den beteiligten Abteilungen wird unterstützt und Entscheidungen werden erleichtert (Wilson, 2010). Eine kleine Anzahl von Personas kann die Bedürfnisse vieler Nutzer repräsentieren (Weevers et al., 2013). Design-Anstrengungen können auf Grundlage der Personas priorisiert werden (Calabria, 2004). Personas ersetzen keine anderen Usability-Methoden sondern stellen eine Unterstützung dar (Calabria, 2004). Es besteht die Gefahr, dass flache, unrealistische Personen kreiert werden, die nicht nützlich sind (Wilson, 2010). Planung, Konzeption 3. Rahmenbedingungen & Ressourcen Teilnehmer Kann bereits beim Vorhandensein von Ideen angewendet werden (CHeval, 2013; Cooper, 1999) Am besten schon zu Beginn eines Projektes einsetzen, wenn die Anforderungen bestimmt werden (Simply Usable) Anzahl 0 bis unbeschränkt (KUSi, 2015; Weevers et al., 2013) Art Firmeninterne Stakeholder Rolle Partizipation Diskussion Einbeziehung Physikalische Einbeziehung Usability-Methodenkatalog 64 Kriterium Anwender Kategorie 4. Vorgehensweise Personas Anzahl 1 Rolle Organisator, Moderator, Analyst Erforderliche Kompetenzen Werkzeuge, Hilfsmittel Ort/Umgebung Tagungsraum Kosten Mittel 10000-15000 € (CHeval, 2013) Zeitaufwand Gering bis hoch Vorbereitung Durchführung 5. Praxis-Tipps Empirische Daten der (potentiellen) Endnutzer Schreibmaterial Zeithorizont: je nach Projektzeitplan 1 Tag bis zu mehreren Monaten (Wilson, 2010) Übliche Dauer 1-4 Wochen (CHeval, 2013; Wilson, 2010) Eine fundierte Benutzerforschung wird durchgeführt. Z.B. mittels kontextuellen (vgl. Kapitel 0) oder individuellen Interviews (vgl. Kapitel 4.3.1), Fragebogen (vgl. Kapitel 4.3.3), Fokusgruppen (vgl. Kapitel 4.3.2) oder Usability Tests (vgl. Kapitel 4.5.1) (Carey, 2011; Simply Usable). Die gesammelten Daten über die Nutzer werden analysiert und in Gruppen mit ähnlichen Eigenschaften eingeteilt. Sind die wichtigsten Zielgruppen identifiziert können die repräsentativen Eigenschaften dieser Gruppen in jeweils eine Persona zusammengefasst werden (Usability Inside, 2015). Aus den Ergebnissen der Analyse der realen Zielgruppen werden fiktive Nutzer (Personas) abgeleitet. Basierend auf den realen Informationen werden den Personas Eigenschaften zugeordnet. Folgende Eigenschaften können definiert werden: (Simply Usable; Usability-Toolkit, o. J.) Vor- und Nachnamen, Bild Alter, Geschlecht Beruf, Funktion, Verantwortlichkeiten Tägliche Aufgaben (auch außerhalb der Applikation) Vorlieben, Werte, Hobbys Ziele, Wünsche, Erwartungen, Bedürfnisse Fachliche Ausbildung, Wissen, Fähigkeiten Relevantes Nutzungsverhalten Evtl. ein Zitat, das einen wichtigen Aspekt der Persona zum Ausdruck bringt (Simply Usable; UsabilityToolkit, o. J.) Die Informationen sollten in narrativer Form in einem 1-2 seitigen Text festgehalten werden. Besonders die erzählende Form ist wichtig, da Geschichten fesselnder und einprägsamer sind als Aufzählungen von Stichpunkten (Usability-Toolkit, o. J.). Es sollten 3 bis 7 Personas definiert werden (Cooper, 1999). Die erstellten Personas werden in der Gruppe diskutiert und verfeinert (CHeval, 2013). Sie werden in primäre und sekundäre Personas aufgeteilt: Die primären Personas stellen die Hauptzielgruppe des Produkts dar. Für sie wird das Produkt entwickelt und optimiert. Die Anforderungen der sekundären Personas sind größtenteils durch die primären Personas abgedeckt. Kleine Erweiterungen sind nötig um zusätzliche Eigenschaften umzusetzen. Nachbereitung/ Auswertung Die Beschreibungen der Personas können nun immer dann im Projekt verwendet werden, wenn Informationen zu den Anforderungen und Bedürfnissen der Zielgruppe notwendig sind. Z.B. können die Ergebnisse der Methode bei Meetings eingesetzt werden, um den Nutzer vor Augen zu haben und bei Entscheidungen zu berücksichtigen (Cooper, 1999; Usability Inside, 2015). Praxis-Tipps 6. Zweck Wissen über das Produkt und die Nutzer (UseWell, 2011) Kreativität (UseWell, 2011) Wenn zur Benutzerforschung Interviews verwendet werden sind ca. 10 bis 12 einstündige Interviews für eine einfache Anwendung ausreichend, um genügend empirische Informationen zu erhalten. Bei umfangreichen Systemen sollten es jedoch mehr sein (Goodwin, 2008a). Einer Persona einen Namen zu geben ist einer der wichtigsten Punkte bei der erfolgreichen Definition. Durch den Namen soll ein konkretes Individuum in den Köpfen der Entwickler geschafft werden (Cooper, 1999). Bei der Erstellung der Persona ist es wichtig einprägsame und glaubhafte Stereotype zu entwickeln, die „political correctness“ muss nicht eingehalten werden (Cooper, 1999). Die Zuordnung von Bildern/Fotos/Zeichnungen von Gesichtern zu den fiktiven Personen erleichtert die Identifikation mit ihnen. Hierzu können z.B. Fotos aus Datenbanken verwendet werden (z.B. www.fotolia.de), Zeichnungen erstellt oder Bilder aus Katalogen ausgeschnitten werden (Cooper, 1999; Simply Usable). Personas sollen sehr detailliert beschrieben werden, die Genauigkeit ist zweitrangig. Wenn beispielsweise ein durchschnittlicher Nutzer 2,3 Kinder hat, sollte die fiktive Person mit 2 oder mit 3 Kindern beschrieben werden. Die Genauigkeit ist zweitrangig (Cooper, 1999) . Personas sollten wenige Redundanzen enthalten (CHeval, 2013) Alle Projektbeteiligten sollten sich mit den Personas identifizieren können und mit ihnen vertraut sein. In den Köpfen der Entwickler sollen es richtige Personen werden (CHeval, 2013; Cooper, 1999). Es sollten nicht mehr als drei primäre Personas definiert werden (Cooper, 1999). Zur Auswertung kann man für die Personas Facebook Profile erstellen um sie noch mehr „zum Leben zu erwecken“ (UseWell, 2011). Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… Usability-Methodenkatalog Benutzer Benutzererfahrung Kontext 65 Kategorie Kriterium 7. Verwandte Verwandte Meund weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/ Tätigkeiten Personas folgendes zu erstellen: Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort Daten… zu kommunizieren zu dokumentieren Szenarios (Richter & Flückiger, 2010) Interview, Fragebogen Mögliche nachfolgende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Es wird eine Applikation entwickelt und man will eine detaillierte Vorstellung davon erhalten, für wen konkret man entwickelt, um daraus Anforderungen ableiten zu können (Völkel, 2006). 9. Referenzen und weiterführende Informationen Weiterführende Informationen Eine ausführlichere Darstellung der Vorgehensweise bei der Erstellung von Personas ist in „Persona conception and gestation“ von Wilson, C. gegeben. Das Dokument wird von dem Projekt Uselab der TU Berlin bereitgestellt: (englisch) http://www.uselab.tu-berlin.de/wiki/images/f/f1/Wilson_%282010%29.pdf Wilson, C. (2010). Persona conception and gestation. User Experience Re-Mastered: Your Guide to Getting the Right Design Weiterführende Informationen zur Methode können dem Artikel “An introduction to personas and how to create them“ von Calabria, T. entnommen werden: (englisch) http://www.steptwo.com.au/files/kmc_personas.pdf Calabria, T. (2004). An introduction to personas and how to create them. Retrieved from http://www.steptwo.com.au/papers/kmc_personas/ Neben weiterführenden Informationen wird von Carey, (2011) ein Fragenkatalog zur Bewertung der Qualität der eigens erstellten Personas gegeben: (englisch) http://www.usabilitybok.org/persona Carey, J. (2011). Persona. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/persona Weitere Informationen zur Vorbereitung der Methode bietet der Artikel “Getting from research to personas: harnessing the power of data“ von Goodwin, K.: (englisch) http://www.cooper.com/journal/2002/11/getting_from_research_to_perso Goodwin, K. (2008a). Getting from research to personas: harnessing the power of data. Retrieved from http://www.cooper.com/journal/2002/11/getting_from_research_to_perso Weitere Tipps und Hinweise zur Erstellung von Personas gibt Goodwin, 2008b. in seinem Artikel „Perfecting your personas“: (englisch) http://www.cooper.com/journal/2001/08/perfecting_your_personas Goodwin, K. (2008b). Perfecting your personas. Retrieved from http://www.cooper.com/journal/2001/08/perfecting_your_personas Ausführliche Informationen zur Erstellung, dem Aufbau, der Präsentation und der Nutzung von Personas bietet das Buch „Communicating design“ von Brown, 2011: (englisch) Brown, D. M. (2011). Communicating design: Developing web site documentation for design and planning (2nd ed.). Voices that matter. Berkeley, CA: New Riders. Zu beachtende Normen und Zertifikate Usability-Methodenkatalog 66 Kategorie Kriterium Personas Quellen Brown, D. M. (2011). Communicating design: Developing web site documentation for design and planning (2nd ed.). Voices that matter. Berkeley, CA: New Riders. Calabria, T. (2004). An introduction to personas and how to create them. Abgerufen von http://www.steptwo.com.au/papers/kmc_personas/ Carey, J. (2011). Persona. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/persona CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/ Cooper, A. (1999). The Inmates are running the Asylum. Indianapolis, IN: SAMS: Macmillan Computer Publishing. Goodwin, K. (2008a). Getting from research to personas: harnessing the power of data. Abgerufen von http://www.cooper.com/journal/2002/11/getting_from_research_to_perso Goodwin, K. (2008b). Perfecting your personas. Abgerufen von http://www.cooper.com/journal/2001/08/perfecting_your_personas KUSi. (2015). Usability & User-Experience Methoden für den Mittelstand. Zugriff am 16.05.2015. Abgerufen von http://www.usability-siegen.de/qualifizierung.html Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln (2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag. Schweibenz, W. (2007). Putting personas into practice. Workshop "Using the Personas Method for Applying Marketing and User Research Data", Jan 2007(15th BOBCATSSS symposium), 29–31. Simply Usable. Factsheet-Personas. Zugriff am 16.05.2015. Abgerufen von http://www.simply-usable.de/wpcontent/uploads/2015/02/Factsheet-Personas-simply-usable.pdf Usability Inside. (2015). Persona. Zugriff am 16.05.2015. Abgerufen von http://www.usabilityinside.net/wissen/massnahmen-und-methoden/methoden/persona/ Usability-Toolkit. (o. J.). Usability-Methoden. Zugriff am 17.05.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/ Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von http://www.usewell.be/#/methods/ Völkel, M. (2006). Webride-Usability: Das Personas-Modell. Abgerufen von http://www.webblog.net/comments/P212_0_1_0/ Weevers, T., Jacobs, L., & Oestendorp, W. (2013). UCD Toolbox. Zugriff am 21.05.2015. Abgerufen von http://filter.ucdtoolbox.com/filter# Wilson, C. (2010). Persona conception and gestation. User Experience Re-Mastered: Your Guide to Getting the Right Design Usability-Methodenkatalog 67 4.2.2 Szenarien Kategorie Kriterium Szenarien 1. Bezeichnung Name Szenarien Synonyme Anwendungsszenarien, Nutzungsszenarien, Scenario(s), Scenario of Use, Task Scenarios 2. Beschreibung Kurzbeschreibung Szenarien sind erdachte Anwendungsbeispiele, die in einfachen Sätzen oder Stichpunkten formuliert sind und auf zuvor gewonnene Nutzerinformationen basieren. Sie beschreiben anhand von Geschichten die Interaktion eines Nutzers mit dem fertigen Produkt in einem realistischen Kontext. Mit der Methode lässt sich ein Verständnis über die Nutzer, ihre Bedürfnisse und Wünsche sowie ihre alltägliche Situation in der sie das Produkt verwenden, ausarbeiten. Die fertigen Szenarien können als Werkzeug zur Kommunikation mit dem EntwicklerTeam oder sonstigen Stakeholdern verwendet werden. Ausgehend von den Szenarien können Anforderungen an das Produkt abgeleitet werden. Abbildungen Ziele Erhebung und Validierung von Anforderungen (Richter & Flückiger, 2010) Einnehmen der Benutzerperspektive, z.B. um aus ihr heraus zu diskutieren und zu argumentieren (Richter & Flückiger, 2010) Kommunikation von Design Aspekten (Bevan, Degler, & Wilson, 2011) Ergebnisse/ Output Beschreibung der Interaktion eines Benutzers mit dem zu entwickelnden Systems, in einem realistischen Anwendungskontext (Quirmbach, 2013) Vorteile Durch die leichte Verständlichkeit können Szenarien schon früh in der Entwicklung von Auftraggebern, Benutzern und Entwicklern überprüft, ergänzt oder korrigiert werden (Richter & Flückiger, 2010). Die Anwendung eines geplanten Systems kann schon früh im Entwicklungsprozess relativ genau umrissen werden, ohne dass die Details präzisiert werden müssen (Richter & Flückiger, 2010). Sie vermitteln ein Verständnis der Abläufe und Zusammenhänge (Richter & Flückiger, 2010) Szenarien können zeigen, in welcher Reihenfolge Nutzer Aktionen durchführen (Richter & Flückiger, 2010) Stärken und Schwächen des eigenen Produkts im Vergleich zu Konkurrenzprodukten oder Vorgängerversionen können herausgearbeitet werden (Richter & Flückiger, 2010) Geringer Ressourcen-Aufwand erforderlich (Bevan et al., 2011) Szenarien sind einfach zu erstellten (Bevan et al., 2011) Kann in allen Projektphasen eingesetzt werden (Richter & Flückiger, 2010) Nachteile/ Grenzen Projektphase(n) Alle Falls die Szenarien nicht auf realen Nutzerdaten beruhen besteht die Gefahr, dass falsche Annahmen getroffen werden (Bevan et al., 2011) Anwender 3. Rahmenbedingungen & Ressourcen Teilnehmer Kann zur Erhebung und Validierung von Anforderungen in den frühen Entwicklungsphasen verwendet werden (Richter & Flückiger, 2010) Kann zur Entwicklung von Szenarien für Usability Tests verwendet werden (Richter & Flückiger, 2010) Szenarien können zur Schulung von Benutzern und als Basis für die Erstellung von Anleitungen dienen (Richter & Flückiger, 2010) Anzahl Beliebig Art Firmeninterne Experten Endnutzer Rolle Partizipation Diskussion Einbeziehung Physikalische Einbeziehung Anzahl 1 Rolle Ersteller der Szenarien, Moderator Szenarien können iterativ im Team entwickelt oder in Workshops zusammen mit Nutzern ausgearbeitet werden (Richter & Flückiger, 2010). Erforderliche Ggf. Moderationskenntnisse, falls die Szenarien im Team entwickelt werden (Bevan et al., 2011) Kompetenzen Werkzeuge, Hilfsmittel Schreibmaterial Ggf. Haftnotizzettel Ort/Umgebung Tagungsraum Schreibtisch Kosten Gering Zeitaufwand Gering bis mittel Usability-Methodenkatalog Erarbeiten von Szenarien: 3-10 PT; inkl. Aufwand für Auftraggeber und Beteiligte, wenn alle notwendigen Grundlagen vorhanden sind (Richter & Flückiger, 2010) 68 Kategorie Kriterium Szenarien 4. Vorgehensweise Vorbereitung Durchführung Nachbereitung/ Auswertung Definition der Ziele, die mit der Erstellung von Szenarien erreicht werden soll (UseWell, 2011) Sammeln von Erkenntnissen über die (zukünftigen) Benutzer, z.B. mittels Befragungs-Methoden (vgl. Kapitel 4.3) oder Kontextuellen Interviews (vgl. Kapitel 0), um nicht an der Zielgruppe vorbei zu entwickeln (Richter & Flückiger, 2010). Wer sind die Nutzer? (Bevan et al., 2011) Welche Ziele wollen sie erreichen? (Bevan et al., 2011) Welche Aufgaben sollen durch das Produkt, welche von den Nutzern durchgeführt werden? (Bevan et al., 2011) In welchem Kontext soll das Produkt genutzt werden? (Bevan et al., 2011) Festlegen in welcher Art die Szenarien erstellt werden sollen. Mögliche Ausprägungen sind: Videos, geschriebene Geschichten, Comics oder Bilder mit Anmerkungen. (UseWell, 2011) Festlegen des Detailgrades der Szenarien: High-Level Szenarien (breiter Überblick über die Arbeitsabläufe der Nutzer) oder Lower-Level Szenarien (Beschreibung eines Aspekts oder einer Aufgabe im Detail) (UseWell, 2011) Ggf. ermitteln von Personas (vgl. Kapitel 4.2.1) um die Hauptcharaktere zu beschreiben (UseWell, 2011) Einladen einer Gruppe bestehend aus Mitgliedern des Entwicklungsteams, unterschiedlichen Steakholdern oder Endnutzern, um die fertigen Szenarien zu diskutieren und zu verfeinern (UseWell, 2011). Ggf. hinzuziehen von Personen zur eigentlichen Entwicklung der Szenarien (Entwicklung im Team) Sammeln aller gewonnenen Nutzer- und Nutzungsinformationen, die zur Erstellung der Szenarien verwendet werden können: Herausarbeiten von wichtigen Zitaten und Fakten Es bietet sich an die Informationen auf Haftnotizzettel zu schreiben und an einer Wand das Bild des Nutzers und sein Umfeld zu entwickeln (UseWell, 2011). Szenarien werden entwickelt. Folgende Eigenschaften zeichnen nach Richter & Flückiger (2010) ein Szenario aus: Es wird für eine bestimmte Benutzergruppe entworfen, berücksichtigt ihre Eigenschaften und erfüllt ihre Bedürfnisse. Es stellt einen konkreten Fall aus der Anwendung dar. Es zeigt, wie die Benutzer die neue Software in ihrem realen Umfeld einsetzen werden. Es illustriert die für die Entwicklung der neuen Lösung relevanten Aspekte. Es beschränkt sich nicht auf den Schönwetterfall, sondern beschreibt auch exemplarisch wichtige Ausnahme- und Fehlersituationen. (S. 32) Verteilen der Szenarien innerhalb des Unternehmens Erstellen von Plakaten, die firmenintern in den Büros und/oder auf Fluren aufgehängt werden können (UseWell, 2011) Erstellen einer digitalen Version, die unter den Kollegen verteilt wird (UseWell, 2011) Diskussion mit Entwicklern, Fachleuten, Nutzern usw. zur Verfeinerung der Szenarien (Richter & Flückiger, 2010) Ableiten von Anforderungen 5. Praxis-Tipps Praxis-Tipps 6. Zweck Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… 7. Verwandte Verwandte Meund weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/ Tätigkeiten Bei der Erstellung der Szenarien bietet es sich an zunächst einen generellen Überblick zu beschreiben und diesen dann iterativ mit Details zu füllen (UseWell, 2011). Benutzer Interaktion Strukturen/Prozesse Kontext folgendes zu erstellen: Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort Daten… zu kommunizieren zu verbreiten Personas, Use Case Befragungsmethoden, Kontextuelle Interviews: Sammeln von Erkenntnisse über zukünftige Nutzer (Richter & Flückiger, 2010) Personas, Use Case: Dienen als Grundlage für die Erstellung von Szenarien (Quirmbach, 2013). Mögliche nachfol- Ableiten von Anforderungen (Bevan et al., 2011) gende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Usability-Methodenkatalog Bei der Entwicklung einer neuen Softwareanwendung soll Informationen über die zukünftigen Nutzer, ihren Zielen und ihrer alltäglichen Situation zusammengefasst und dem Entwickler-Team präsentiert werden. 69 Kategorie Kriterium Szenarien 9. Referenzen und weiterführende Informationen Weiterführende Informationen Weitere Informationen zur Erstellung und Anwendung von Szenarien geben Rosson & Carroll (2002) in ihrem Buch: (englisch) Rosson, M. B., & Carroll, J. M. (2002). Usability engineering: Scenario-based development of human-computer interaction (1st ed.). Morgan Kaufmann series in interactive technologies. San Fancisco: Academic Press. Der Web-Artikel „Scenario of Use” von Bevan et al. (2011), fasst einige weiterführende Quellen zusammen und stellt unter anderem eine Abgrenzung der Szenarien zur Methode Use Cases dar: (englisch) http://usabilitybok.org/scenario-of-use Bevan, N., Degler, D., & Wilson, C. (2011). Scenario of Use. Abgerufen von http://usabilitybok.org/scenario-ofuse Zu beachtende Normen und Zertifikate Quellen Bevan, N., Degler, D., & Wilson, C. (2011). Scenario of Use. Abgerufen von http://usabilitybok.org/scenario-ofuse Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung. X.media.press. Berlin u.a.: Springer. Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln (2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag. Rosson, M. B., & Carroll, J. M. (2002). Usability engineering: Scenario-based development of human-computer interaction (1st ed.). Morgan Kaufmann series in interactive technologies. San Fancisco: Academic Press. UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von http://www.usewell.be/#/methods/ Usability-Methodenkatalog 70 4.2.3 Benchmarking Kategorie Kriterium Benchmarking 1. Bezeichnung Name Benchmarking Synonyme Usability Benchmark, Benchmark-Analyse 2. Beschreibung Kurzbeschreibung Bei einem Benchmarking wird ermittelt, wie ein Produkt im Vergleich zum Wettbewerb oder einer anderen Produktversion abschneidet. Daraus lassen sich Inspirationen und Optimierungsmöglichkeiten ableiten. Schneidet das eigene Produkt im Vergleich zu anderen schlecht ab, so kann durch Designverbesserungen und weitere Usability-Maßnahmen die Benutzerfreundlichkeit erhöht werden. Schneidet das eigene Produkt gut ab, können die ermittelten Daten in Marketing-Kampagnen verwendet werden. (Bevan, Wilson, & Kantner, 2009; Usability.de, 2015) Abbildungen Ziele Unterschiedliche Produkte sollen miteinander verglichen werden. Ergebnisse/ Output Liefert eine Bewertung eines Produkts im Vergleich zu einem anderen. Vorteile Ermöglicht eine Aussage darüber, wie benutzerfreundlich ein Produkt sein muss (ermöglicht es Ziele für die Benutzerfreundlichkeit zu definieren) (Berkun, 2003) Nachteile/ Grenzen Anwender 3. Rahmenbedingungen & Ressourcen Teilnehmer Projektphase(n) Anzahl Viele Sitzungen mit vielen Teilnehmern notwendig, um statistisch aussagekräftige Ergebnisse zu erhalten. (Bevan et al., 2009) Aufwendige Vorbereitung notwendig: Studiendesign ist zu entwickeln und zu testen (Bevan et al., 2009) Teuer: Die gewonnenen Erkenntnisse können dennoch die Methode rentabel machen und eine Anwendung rechtfertigen. (Bevan et al., 2009) Betrieb Die Produkte müssen voll funktionsfähig sein 24 bis 60 oder mehr (Bevan et al., 2009) Art Endnutzer Rolle Wird beobachtet Einbeziehung Physikalisch Einbeziehung Anzahl 1 oder mehr Rolle Organisator, Entwickler des Studiendesigns, Beobachter, Analyst Erforderliche Kompetenzen Mehrere Anwender sind von Vorteil, da die Vorbereitung sehr aufwendig ist. Ggf. ist ein Statistiker als Ansprechpartner für die Vorbereitung und zur Auswertung der Ergebnisse erforderlich. Kenntnisse über die Erstellung experimenteller Untersuchungen (study design) (Berkun, 2003; Bevan et al., 2009) Grundkenntnisse über statistische Analyse (Bevan et al., 2009) Der Ausführenden sollte nicht am Entwicklungsprozess beteiligt sein, um Verzerrungen der Ergebnisse zu vermeiden (Bevan et al., 2009). Erfahrung in der Durchführung von Usability Test helfen dabei die Gültigkeit und Zuverlässigkeit der Ergebnisse zu gewährleisten (Bevan et al., 2009). Werkzeuge, Hilfsmittel Usability Labor: Computer, Audio- und Videoaufnahmegeräte, Aufnahme-Software z.B. Techsmith Morae or Noldus Observer (Bevan et al., 2009). Ort/Umgebung Usability Labor Kosten Hoch Zeitaufwand Mittel bis hoch Usability-Methodenkatalog Aufwendiges Studiendesign ist im Vorfeld zu entwickeln und zu testen (Bevan et al., 2009) Bei der Durchführung als "Remote-Variante" (vgl. Praxis-Tipps) sind die Kosten gering, ca. 5000€ (Travis, 2015) Aufwendiges Studiendesign ist im Vorfeld zu entwickeln und zu testen (Bevan et al., 2009) Pro Sitzung mit einem Teilnehmer in mit einer Zeitaufwand von 2 Stunden zu rechnen (Berkun, 2003) 71 Kategorie Kriterium Benchmarking 4. Vorgehensweise Vorbereitung 5. Praxis-Tipps Durchführung Die geplante Versuchsdurchführung ist mit den Teilnehmern umzusetzen Nachbereitung/ Auswertung Die Daten werden durch den Statistiker ausgewertet. Der Fokus sollte hierbei auf den definierten Zielen liegen Praxis-Tipps 6. Zweck Variablen und Hypothesen (vordefinierte Beziehungen zwischen den Variablen) sind zu definieren. Die Messungen sind zu definieren. Was soll gemessen werden? (Erfolg/Misserfolg innerhalb eines Zeitfensters; Zeit bis zur Ausgabenerfüllung; Anzahl der Fehler bis zur Aufgabenerfüllung) (Berkun, 2003) Das Versuchs-Design ist festzulegen. (z.B. Within-subject-Design, Between-subjects-Design, Mixed-Design) Aufgaben, die die Teilnehmer während des Tests durchführen, sind zu definieren. Ziele für die jeweiligen Aufgaben sind festzulegen z.B. 75% der Teilnehmer sollen die Aufgabe innerhalb von 3 Minuten bewältigen (Berkun, 2003). Ein globales Ziel ist zu definieren z.B. 10% besser zu sein, als das Konkurrenz-Produkt (Berkun, 2003). Abbruchkriterien sind für jede Aufgabe festzulegen (z.B. ein Zeitlimit) Ggf. sind Pre-Test-Fragebogen zu erstellen oder auszuwählen (z.B. zu personenbezogene Angaben und Vorwissen) Ggf. sind Post-Test-Fragebogen zu erstellen oder auszuwählen (z.B. zur Zufriedenheit) (Bevan et al., 2009) Teilnehmer rekrutieren (sollen die Nutzergruppe repräsentieren) (Bevan et al., 2009) Es ist zu entscheiden, wie viele Sitzungen pro Produktvariation benötigt werden (Bevan et al., 2009). Fehler sind zu definieren und Fehlercodes zu entwickeln (Bevan et al., 2009). Falls man kein Statistiker ist, sollte man einen Experten auf diesem Gebiet zu Rate ziehen um die Projektdefinition zu Überprüfen und sicherzustellen, dass die gesammelten Daten für einen Vergleich geeignet sein werden (Bevan et al., 2009). Es ist eine Datei für die Erfassung der Daten vorzubereiten (Tabellenkalkulation). Die Spaltenüberschriften sind in Absprache mit dem Statistiker zu definieren, um die anschließende Analyse der Daten mit Hilfe eines Statistik-Programms zu erleichtern (Bevan et al., 2009). Es sind mehrere Pilotversuche durchzuführen, um sicherzustellen, dass das Aufnehmen der Daten funktioniert (Bevan et al., 2009). Es sollten alle Sitzungen vom selben Ausführenden durchgeführt werden, um die Konsistenz zu gewährleisten (Bevan et al., 2009). Die Aufgaben der Teilnehmer können beispielsweise aus Szenarien, Use-cases, Web-Datenprotokollen, Fokus Gruppen oder Cognitive Walkthrough abgeleitet werden. Falls möglich sollten mehrere Datenquellen herangezogen werden. (Berkun, 2003; Bevan et al., 2009) Bei der Definition der Aufgaben der Teilnehmer ist darauf zu achten, dass die Aufgabe bei allen betrachteten Produkten erreicht werden kann (Bevan et al., 2009). Zur Dokumentation sollte jeder Aufgabenbeschreibung mindestens ein Screenshot beigefügt werden (Berkun, 2003). Um Kosten zu sparen kann die Studie auch ohne Beobachtung der Teilnehmer durch einen Ausführenden und „remote“ durchgeführt werden. Es ergeben sich niedrigere Kosten pro Teilnehmer, die Analyse des Teilnehmerverhaltens leidet allerdings unter der Einsparung. (Bevan et al., 2009) Der Schwerpunkt der Studie sollte eindeutig identifiziert und festgelegt werden, um den Aufwand der Methode zu minimieren. (Nur wichtige Daten sind zu sammeln.) (Bevan et al., 2009) Es kann hilfreich sein, ein und dieselbe Person eine Aufgabe zweimal ausführen zu lassen. So kann der Lerneffekt zusätzlich gemessen werden (Berkun, 2003). Die Methode ist mehr zu erfahren über… anwendbar, wenn folgendes zu bewerten: es das Ziel ist… 7. Verwandte Verwandte Meund weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/ Tätigkeiten Interaktion Physikalisches Produkt Software Integriertes Produkt Summativer Usability Test Szenarien, Use Cases Mögliche nachfolgende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Usability-Methodenkatalog Wenn die Benutzerfreundlichkeit eines Produkts mit einem anderen verglichen werden soll, kann die Anwendung eines Benchmarkings vorteilhaft sein. Es kann beispielsweise ermittelt, wie viel in Usability-Maßnahmen für die neue Produktversion investiert werden sollte, um mit den Produkten der Konkurrenz mithalten zu können. Es ist allerdings zu beachten, dass die Methode keine Antwort darauf gibt, warum ein Produkt benutzerfreundlich ist oder nicht. 72 Kategorie Kriterium Benchmarking 9. Referenzen und weiterführende Informationen Weiterführende Informationen Ausführlicher Artikel zur Methode mit vielen Praxis-Tipps von Scott Berkun: (englisch) http://scottberkun.com/essays/27-the-art-of-usability-benchmarking/ Berkun, S. (2003). #27 - The art of usability benchmarking: Benchmark: A standard by which something can be measured or judged. Retrieved from http://scottberkun.com/essays/27-the-art-of-usability-benchmarking/ Weitere Informationen zur günstigen Remote-Variante des Benchmarkings von David Travis auf Userfocus.co.uk: (englisch) http://www.userfocus.co.uk/consultancy/benchmarkusabilitytesting.html Travis, D. (2015). Benchmark usability testing. Retrieved from http://www.userfocus.co.uk/consultancy/benchmarkusabilitytesting.html Zu beachtende Normen und Zertifikate Quellen Berkun, S. (2003). #27 - The art of usability benchmarking: Benchmark: A standard by which something can be measured or judged. Abgerufen von http://scottberkun.com/essays/27-the-art-of-usability-benchmarking/ Bevan, N., Wilson, C., & Kantner, L. (2009). Usability Benchmark. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/usability-benchmark Travis, D. (2015). Benchmark usability testing. Zugriff am 12.05.2015. Abgerufen von http://www.userfocus.co.uk/consultancy/benchmarkusabilitytesting.html Usability.de. (2015). Ausgewählte UX Methoden im Überblick. Zugriff am 27.04.2015. Abgerufen von http://www.usability.de/leistungen/methoden.html Usability-Methodenkatalog 73 4.2.4 Aufgabenanalyse (Task Analysis) Kategorie Kriterium Aufgabenanalyse (Task Analysis) 1. Bezeichnung Name Aufgabenanalyse Synonyme Task Analysis 2. Beschreibung Kurzbeschreibung Mit der Aufgabenanalyse werden die typischen Aufgaben und Aktionen der Nutzer, bei der Verwendung eines Produkts untersucht. Zum Sammeln der Daten können die Anwender bei der Verwendung des Produkts beobachtet und/oder im Anschluss an die Nutzung interviewt werden. Bei Produkten, die sich noch in einem sehr frühen Stadium der Entwicklung befinden, können vergleichbare Produkte zur Analyse herangezogen werden oder alternativ ein hypothetisches Produkt betrachtet werden. Die Ergebnisse der Methode können in Form eines hierarchischen Strukturbaums dargestellt werden (Hierarchical Task Analysis). Durch die Analyse jedes Arbeitsschrittes können Prozesse optimiert und Probleme beseitigt werden. Auf Grundlage der ermittelten Daten können anschließend außerdem Modelle (z.B. in Form von Szenarien oder Use Cases) erstellt werden. Abbildungen Abbildung 6: Hierarchisch strukturierte Ergebnisse einer Aufgabenanalyse (Usetree, 2014a) Ziele Strukturbaum, der eine Abfolge von Teilschritten enthält, die von einem Nutzer durchzuführen sind um das übergeordnete Ziel zu erreichen. Vorteile Hilft bei der Vermeidung von unnötigen Funktionen (Vanatenhoven & Wilkinson, o. J.) Durch die strukturierte Darstellung ist eine fokussierte Analyse der wesentlichen Aspekte einer Aufgabe mögliche (besonders relevant bei der Untersuchung von Sicherheitsfragen) (Crystal & Ellington, 2004) Nachteile/ Grenzen Die starke Fokussierung auf Aufgaben kann zu einem Tunnelblick führen (Vanatenhoven & Wilkinson, o. J.) Nicht aus allen Informationen lassen sich klare Forderungen ableiten (Vanatenhoven & Wilkinson, o. J.) Kann je nach Detailgrad der Analyse sehr zeitintensiv sein Projektphase(n) Alle (Hornsby, 2010; Usetree, 2014a) Anzahl 5 (Nielsen, 2000) Art Rolle Wird beobachtet Einbeziehung Physikalische Einbeziehung Anzahl 1-2 (USERfit, 1996b) Rolle Organisator, Beobachter, Protokollant, ggf. Interviewer Teilnehmer Ergebnisse/ Output Anwender 3. Rahmenbedingungen & Ressourcen Einen Überblick über die Teilschritte verschaffen, die ein Nutzer durchführen muss um eine typische Aufgabe zu bewältigen. Diese Information kann dabei helfen (Hackos & Redish, 1998): Aufgaben zu definieren, die eine Website oder eine Anwendung unterstützen soll den Umfang einer Anwendung zu ermitteln die Effizienz, Effektivität und Benutzerzufriedenheit eines Produkts zu erhöhen Handbücher und Bedienungsanleitungen zu erstellen (USERfit, 1996b) Kann sowohl auf existierende Produkte als auch auf solche, die sich in der Entwicklung befinden angewendet werden (Potentielle) Endnutzer, Firmeninterne (USERfit, 1996b) Software-Gestalter (USERfit, 1996b) Domain-Experten (USERfit, 1996b) Erforderliche Keine (USERfit, 1996b) Kompetenzen Werkzeuge, Hilfsmittel Usability-Methodenkatalog Schreibmaterial Haftnotizen (zur Entwicklung des Strukturbaums) Ggf. Aufnahmegeräte (z.B. Videokamera) 74 Kategorie 4. Vorgehensweise Kriterium Aufgabenanalyse (Task Analysis) Ort/Umgebung Kosten Gering Zeitaufwand Gering Vorbereitung Vorbereitung einer Aufgabenanalyse durch Beobachtung der Teilnehmer (Shepherd, 1985; UseWell, 2011): Schwerpunkt der Analyse ist festzulegen: Welche Aufgaben sollen analysiert werden? In welchem Detailgrad sollen Aufgaben analysiert werden (Stopp-Regeln)? Wofür sollen die Ergebnisse verwendet werden? Aufgaben-Szenarien sind zu entwickeln: Dies sind Schritt-für-Schritt Beschreibung der von den Teilnehmern durchzuführenden Aufgaben. Sie werden während der Durchführung den Teilnehmern zur Verfügung gestellt. Teilnehmer für die Durchführung auswählen: Wer ist für die Durchführung geeignet? Sollen bestimmte Nutzergruppen repräsentiert werden? Teilnehmer sind einzuladen Die Durchführung der Aufgabenanalyse ist zu planen: Wo und wann ist welcher Teilnehmer zu analysieren. Das Sammeln der Daten ist vorzubereiten indem ein Blatt zur schnellen Aufnahme der Daten entwickelt wird. Die benötigten Werkzeuge (Schreibmaterial, Aufnahmegeräte) sind zu organisieren und ggf. zu testen. Durchführung Durchführung einer Aufgabenanalyse durch Beobachtung der Teilnehmer (UseWell, 2011): Bei einer Durchführung in der spezifischen Umgebung des Teilnehmers (z.B. zuhause/am Arbeitsplatz) sollte sich zunächst mit der Umgebung vertraut gemacht und die Ausrüstung aufgebaut werden. Hierbei kann der Teilnehmer kennengelernt werden um eine angenehme Test-Umgebung zu schaffen. Dem Teilnehmer ist die Durchführung zu erläutern: Was ist das Thema? Wie soll die Aufgabenanalyse ablaufen? Wie sollen die Ergebnisse verwendet werden? Die persönlichen Daten des Teilnehmers sind aufzunehmen (Geschlecht, Alter, Bildungsstand, …) Die Untersuchung wird durchgeführt: Der Teilnehmer wird bei der Durchführung der Aufgabe(n) beobachtet. Die Beobachtungen werden dokumentiert. Äußere Einflussgrößen wie beispielsweise ein Telefonanruf sind aufzunehmen. (Die Methode „Lautes Denken“ bietet sich an und kann vom Teilnehmer durchgeführt werden) Nachdem der Teilnehmer die Aufgabe(n) durchgeführt hat, bietet es sich an, die gemachten Notizen mit ihm durchzusprechen, um ggf. Missverständnisse zu korrigieren. Nachbereitung/ Auswertung 5. Praxis-Tipps Praxis-Tipps 6. Zweck Natürliche Nutzungsumgebung (UseWell, 2011) Usability Labor Tagungsraum Maximaler Zeithorizont: 1 Woche (Vanatenhoven & Wilkinson, o. J.) 40 Peronenstunden (Vanatenhoven & Wilkinson, o. J.) Es ist eine generelle Beschreibung der Durchführung anzufertigen: Wie wurde die Analyse durchgeführt? (In welcher Arbeitsumgebung? Welche Benutzergruppe?) (UseWell, 2011) Wichtige Erkenntnisse aus der Analyse sind zu dokumentieren (UseWell, 2011). Ggf. sind die Aufnahmen zu transkribieren (UseWell, 2011) Ein Bericht über die Ergebnisse ist zu schreiben (UseWell, 2011). Die Ergebnisse sollten mit den Teilnehmern überprüft und validiert werden (UseWell, 2011) Zum Abschluss wird ein Strukturbaum erstellt: Die gesamte Aufgabe wird in Einzelschritte zerlegt, die hierarchisch in einem Struktogramm angeordnet werden. Jeder Einzelschritt kann bis auf die Ebene der Nutzerinteraktion beschrieben werden. (Finde das Eingabefeld „Name“; Bewege den Cursor zum Eingabefeld „Name“; Tippe den Namen ein; …) Optional kann der Beschreibung ein Screenshot hinzugefügt werden (Hornsby, 2010). Die Arbeitsschritte, die durch den Strukturbaum visualisiert sind, lassen sich nun auf vielfältige Weise analysieren. Beispiele: „Wie unterstützt das System den Nutzer im jeweiligen Arbeitsschritt bei der Aufgabenerfüllung?“ Bei welchem Arbeitsschritt bestehen Probleme?“ (Usetree, 2014a) Es ist vorteilhaft die Durchführung mit zwei Ausführenden vorzunehmen. So kann eine Person Fragen stellen und mit den Teilnehmer kommunizieren, während die andere Person Protokoll führt und die Aufnahmegeräte bedient. (UseWell, 2011) Zur Ergänzung der Daten kann nach der Beobachtung der Nutzer noch ein Interview durchgeführt werden (UseWell, 2011). Die Durchführung sollte nach Möglichkeit in der natürlichen Umgebung stattfinden, also je nach Anwendung z.B. bei den Teilnehmern zu Hause oder in ihrer Arbeitsumgebung (UseWell, 2011). Zur Entwicklung des Strukturbaums aus den Ergebnissen der Untersuchungen können Haftnotizzettel verwendet werden. Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… folgendes zu erstellen: Daten… Interaktion Strukturen/Prozesse Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort zu dokumentieren zu verbreiten 7. Verwandte Verwandte Meund weiterfühthoden rende Methoden Usability-Methodenkatalog 75 Kategorie Kriterium Aufgabenanalyse (Task Analysis) Mögliche vorangegangene Methoden/Tätigkeite n Mögliche nachfol- gende Methoden/ Tätigkeiten Interview: um die Daten einer Beobachtung zu vervollständigen Szenarien, Use Cases, Personas, Paper-Prototyping: zur Verwendung der gewonnenen Daten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Eine Website soll verfeinert und teilweise neu definiert werden. Um den angemessenen Umfang der Inhalte auf der Seite zu ermitteln sind Aufgaben zu analysieren, die die Website unterstützen soll. Mögliche Leitfragen zur Optimierung der Website: Was sind die Ziele der Benutzer? Was machen die Benutzer um ihre Ziele zu erreichen? Wie ist ihr Workflow? 9. Referenzen und weiterführende Informationen Weiterführende Informationen Einen guten Überblick über die Methode bietet die Darstellung von USERfit (englisch): http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTtask-analysis.pdf USERfit. (1996). Task Analysis. Zugriff am 11.05.2015. Abgerufen von http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTtask-analysis.pdf Neben der hier fokussierten hierarchischen Anordnung der Ergebnisse gibt es noch eine Reihe anderer Ausprägungen der Aufgabenanalyse. Ein guter Überblick über mögliche Variationen der Methode bietet das Projekt Uselab der TU Berlin auf ihrer Internetplattform an: http://www.uselab.tuberlin.de/wiki/index.php/Methoden_der_Aufgabenanalyse_und_%E2%80%93darstellung:_Teil_I Uselab. (2015). Usability und UX Wiki. Retrieved from http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite TaskArchitect ist ein Software-Tool, das die Durchführung einer Aufgabenanalyse und die Darstellung der Ergebnisse unterstützt (englisch): http://taskarchitect.com/case_studies.html Zu beachtende Normen/Zertif. Quellen Crystal, A., & Ellington, B. (2004). Task analysis and human-computer interaction: approaches, techniques, and levels of analysis. Proceedings of the Tenth Americas Conference on Information Systems. Abgerufen von http://www.ils.unc.edu/~acrystal/AMCIS04_crystal_ellington_final.pdf Hackos, J. T., & Redish, J. (1998). User and task analysis for interface design. Wiley computer publishing. New York: Wiley. Hornsby, P. (2010). Hierarchical Task Analysis. Abgerufen von http://www.uxmatters.com/mt/archives/2010/02/hierarchical-task-analysis.php Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/ Shepherd, A. (1985). Hierarchical Task Analysis and Training Decisions. Innovations in Education & Training International, 22(2), 162–176. doi:10.1080/1355800850220209 USERfit. (1996). Task Analysis. Zugriff am 11.05.2015. Abgerufen von http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTtask-analysis.pdf Usetree. (2014). Aufgabenanalyse. Zugriff am 09.05.2015. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Aufgabenanalyse.pdf UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von http://www.usewell.be/#/methods/ Vanatenhoven, J. V. & Wilkinson, A. W. (o. J.). Task Analysis. Zugriff am 05.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter#info-37-task-analysis Usability-Methodenkatalog 76 4.2.5 Kontextuelles Interview (Contextual Inquiry) Kategorie Kriterium Kontextuelles Interview (Contextual Inquiry) 1. Bezeichnung Name Kontextuelles Interview Synonyme Contextual Inquiry 2. Beschreibung Kurzbeschreibung Die Methode stellt eine Kombination aus der Beobachtung und der Befragung eines Probanden dar und untersucht den Kontext der Nutzung eines Systems. Ein potentieller Nutzer wird bei der Bewältigung von Arbeitsabläufen beobachtet und zu den Tätigkeiten befragt. Die untersuchten Prozesse sollen zukünftig durch das zu entwickelnde Produkt (z.B: eine Software) unterstützt werden. Die Methode wird in der natürlichen Nutzungsumgebung des zukünftigen Produkts durchgeführt, z.B. am Arbeitsplatz des Teilnehmers. Durch die Untersuchung werden die Bedürfnisse der Anwender ermittelt, sowie Verbesserungsmöglichkeiten, ausgehend von der gegenwärtigen Arbeitssituation der Probanden entwickelt. Abbildungen Abbildung 7: Beobachtung eines Probanden durch den Methodenanwender bei der Durchführung eines Kontextuellen Interviews (Schmitt Hartmut, Dominik Rost, & Balthasar Weitzel, 2015) Ziele Verstehen warum Nutzer tun was sie tun (Vanhoutte & van Vliembergen, o. J.) Identifizieren von Produktanforderungen (Herzon, DeBoard, Wilson, & Bevan, 2010) Verbessern von Prozessen (Herzon et al., 2010) Bedürfnisse potenzieller Nutzer ermitteln. (Herzon et al., 2010) Probleme von Nutzern identifizieren (Vanhoutte & van Vliembergen, o. J.) Aufdecken von Einflüssen der Umgebung auf die Interaktion der Nutzer mit einem Produkt Ergebnisse/ Output Fundiertes Wissen über Benutzer im Kontext ihrer Arbeit oder ihres alltäglichen Lebens (Richter & Flückiger, 2010) Vorteile Wissen, dass von Personen in bestimmten Situationen angewendet wird, kann nicht immer einfach abgerufen und verbal beschrieben werden. Durch die Beobachtung lässt sich dieses Wissen erfassen. (Richter & Flückiger, 2010) Die gleichzeitige Beobachtung und Befragung ermöglicht es, das Geschehen im Detail zu erfassen und die Gründe und Zusammenhänge dahinter zu durchleuchten (Richter & Flückiger, 2010). Da die Datenerhebung in der gewohnten Umgebung der Teilnehmer stattfindet, sind die Ergebnisse näher an der Realität als bei Labor-Daten (Herzon et al., 2010). Ermöglicht es einem ganzen Team sich in die Nutzer hineinzuversetzen (Vanhoutte & van Vliembergen, o. J.) Es lassen sich zuverlässige und detaillierte Informationen gewinnen (Vanhoutte & van Vliembergen, o. J.) Deckt implizites Wissen und latente Bedürfnisse der Nutzer auf (Vanhoutte & van Vliembergen, o. J.) Nachteile/ Grenzen Projektphase(n) Usability-Methodenkatalog Zeitintensive Methode (Vanhoutte & van Vliembergen, o. J.) Großer personeller Aufwand, da viele Personen in die Analyse der Daten einbezogen werden müssen. (Vanhoutte & van Vliembergen, o. J.) Es werden gezielte Kenntnisse benötigt (soziale Kompetenz, Einfühlungsvermögen, Sittlichkeit) Es können sprachliche und kulturellen Barrieren entstehen (Vanhoutte & van Vliembergen, o. J.) Die Beobachtungen und Erkenntnisse sind nur Momentaufnahmen, die es nicht ermöglichen die Ergebnisse zu quantifizieren (Vanhoutte & van Vliembergen, o. J.). Planung Anwendung bei Projektinitialisierung (Richter & Flückiger, 2010) 77 Kategorie Kriterium Anwender Teilnehmer 3. Rahmenbedingungen & Ressourcen Kontextuelles Interview (Contextual Inquiry) Anzahl 3-60 (Richter & Flückiger, 2010) Art Endnutzer Müssen nicht repräsentativ sein, sollten aber ein breites Spektrum an Meinungen und Bedürfnissen abdecken (Richter & Flückiger, 2010) Auf eine Streuung, bezüglich Alter, Geschlecht, Position, Arbeitsort, Erfahrung, Fachwissen, kultureller Hintergrund, usw. sollte geachtet werden (Richter & Flückiger, 2010) Rolle Einbeziehung Physikalische Einbeziehung Anzahl 2, besser mehr (Holtzblatt, Wendell, & Wood, 2005) Rolle Organisator, Interviewer, Beobachter, Analyst, ggf. Moderator Diskussion Wird beobachtet Wird befragt 1-5 Interviewer/Beobachter (Richter & Flückiger, 2010) Zur Analyse der Daten bietet sich ein Team (ca. 5 Personen (Vanhoutte & van Vliembergen, o. J.)) an, in dem zusätzlich Entwickler und Produktmanager einbezogen werden (Richter & Flückiger, 2010) Erforderliche Empathie, soziale Kompetenz, Sittlichkeit (Holtzblatt et al., 2005) Kompetenzen Werkzeuge, Hilfsmittel Ggf. erste Entwürfe oder Prototypen Videokamera oder Diktiergerät zum Aufzeichnen des Interviews Ggf. Haftnotizzettel und Schreibmaterial für die Analyse der Daten Ort/Umgebung Natürliche Nutzungsumgebung Kosten Gering bis hoch Je nach Umfang der Durchführung Bis zu 25000 € (CHeval, 2013) Zeitaufwand Gering bis hoch Der Zeitaufwand ist abhängig von der Komplexität des Projekts und der Menge an Interviews die durchgeführt werden: (Richter & Flückiger, 2010) Klein: 1 Durchgang, 1-2 Interviewer, 3-6 Teilnehmer: 3-12 Personentage Mittel: 2 Durchgänge, 2 Interviewer, 6-12 Teilnehmer: 12-30 Personentage Groß: mehrere Durchgänge, 3-5 Interviewer, mit je 6-12 Teilnehmern: 30 Personentage und mehr Ca. 2 Stunden pro Interview (Holtzblatt et al., 2005) 4. Vorgehensweise Vorbereitung Usability-Methodenkatalog Festlegen, was in Bezug auf das neue Produkt wichtig zu wissen ist und mit der Methode herausgefunden werden soll (Richter & Flückiger, 2010). Auswähler aus welchen Aufgabenbereichen Personen interviewt werden sollen. Hierbei kann sich an unten stehenden Fragen orientiert werden, um zu erfahren, welches Wissen über die potenziellen Nutzer vorhanden ist. Davon ausgehend können Aufgabenbereiche definiert werden, aus denen Personen in die Untersuchung einbezogen werden sollen (Holtzblatt et al., 2005): Welche Arbeit oder Aktivität soll durch das zu entwickelnde Produkt unterstützt werden? Wie sind diese Prozesse in das Arbeitsleben der potenziellen Nutzer integriert? Mit welchen anderen Prozessen sind die Aktivitäten verknüpft? Welche weiteren Personen sind in die Prozesse involviert? Mit wem arbeiten die Nutzer zusammen? Wer stellt die Informationen für die Tätigkeit bereit? Wer nutzt die Ergebnisse? Was sind die Hauptarbeitsschritte, die durch das Produkt unterstützt werden sollen? Interview-Stil festlegen (Holtzblatt et al., 2005): Wechselnd: Biete sich bei Arbeiten an, die nicht kontinuierlich sind oder unterbrochen werden können. Unterbrechungsfrei: Bei Arbeiten, die nicht unterbrochen werden können sollte ein Interview vor und eines nach dem Durchführen der Arbeitstätigkeit geführt werden. Alternativ ist es möglich die Interviews mit einem Informanten zu führen, der die Arbeitsabläufe der Person die beobachtet wird kennt. Umgebungszentriert: Wenn die Aktivitäten die beobachtet werden auf den physikalischen Kontext, also den Ort an dem sie stattfinden, fixiert sind, z.B. ein interaktives Exponat, das in einem Museum ausgestellt wird, so kann es sinnvoll sein, beliebe Personen zu interviewen, die dieses System bedienen und daran/damit arbeiten. 78 Kategorie Kriterium Kontextuelles Interview (Contextual Inquiry) Durchführung Nachbereitung/ Auswertung Usability-Methodenkatalog Teilnehmer aus den festgelegten Aufgabenbereichen rekrutieren (Holtzblatt et al., 2005) Dabei ist darauf zu achten, dass die Probanden die Untersuchung auch wirklich unterstützen wollen und bereit sind, ca. 2 Stunden an der Durchführung teilzunehmen. Anders kann es sein, dass Teilnehmer versuchen die Befragungs- und Beobachtungssituation möglichst schnell „hinter sich zu bringen“. Es sollten mehr Interviews eingeplant werden, als für die Analyse gebraucht werden, da es immer sein kann, dass Termin abgesagt werden. Interviews zeitlich und örtlich planen (Holtzblatt et al., 2005). Die Wege zwischen den Interviews sollten klein gehalten werden. Nach Möglichkeit sollten zwei bis drei Probanden in näherer Umgebung (z.B. an einem Unternehmensstandort) hintereinander interviewt werden. Es sollte ein bisschen mehr Zeit, als die angesetzte Dauer für ein Interview eingeplant werden (z.B. 2,5 Stunden). Die Zeit um zum nächsten Probanden zu gelangen sollte ebenfalls eingeplant werden. Analyse der Ergebnisse planen (Holtzblatt et al., 2005): Zeitliche Planung: Die Zusammenfassung und Interpretation der Daten sollte innerhalb von 48 Stunden nach den Interviews eingeplant und im Team durchgeführt werden. Räumliche Planung: Tagungsraum reservieren und die benötigten Werkzeuge und Hilfsmittel für die Analyse organisieren (bei Verwendung der Methode Affinity-Diagramm z.B. Haftnotizzettel, Schreibmaterial sowie ein Ort zum Anbringen der Notizen (vgl. Kapitel 4.2.7) Personelle Planung: Das Team für die Analyse sollte aus unterschiedlichen Aufgabenbereichen kommen um ein breites Blickfeld auf die Ergebnisse zu ermöglichen. Erstellen eines Leitfadens mit Fragen, die gestellt werden sollen. Aspekte festlegen, die erfasst und dokumentiert werden sollen. Mögliche Bereiche die untersucht werden können, sind in den Praxis-Tipps aufgeführt. (Richter & Flückiger, 2010) Erstellen eines Formulars um Notizen zu einem Interview zusammenzufassen (Holtzblatt et al., 2005). Die Probanden einen Tag vor dem Interview telefonisch an den Termin erinnern. Die Methode wird bei dem Teilnehmer vor Ort in der natürlichen Nutzungsumgebung durchgeführt (z.B. am Arbeitsplatz und während der Arbeit) (Richter & Flückiger, 2010). Einstieg mit einem klassischen Interview: Der Interviewer stellt sich vor und erläutert die Ziele des Projekts und den Hintergrund der Durchführung (Holtzblatt et al., 2005). Erste Informationen über den Probanden und seine Arbeit erfahren und Vertrauen zu ihm aufbauen (Herzon et al., 2010) Der Probanden wird gefragt, ob mit der Aufzeichnung des Interviews (z.B. per Videokmera) einverstanden ist (Einverständniserklärung). Dann werden die Geräte einrichten und einschalten. (Herzon et al., 2010) Zum „beobachtenden Interview“ wechseln: Der Ausführende beobachtete den Probanden bei dem Durchlaufen des Arbeitsprozesses und stellt gezielt Fragen über das Beobachtete und anhand des erstellten Leitfadens. Der Proband sollte in seiner Arbeitsweise möglichst wenig beeinflusst werden, d.h. er soll nicht unterbrochen und nicht verbessert werden. (Herzon et al., 2010; Rammelt & Otto, o. J.; Richter & Flückiger, 2010) Bei der Durchführung sollte der Interviewer den Proband als Experten anzusehen und sich selbst in die Rolle eines Auszubildenden versetzen (Holtzblatt et al., 2005). Es wird, ausgehend von der gerade durchgeführten Arbeitstätigkeit, über Probleme, fachliche Zusammenhänge und Verbesserungsmöglichkeiten diskutiert (Richter & Flückiger, 2010). Zum Ende des Interviews fasst der Ausführende das erfahrene zusammen (Holtzblatt et al., 2005). Gegen Ende können Fragen gestellt werden, die sich während der Tätigkeit nicht ergeben haben (Holtzblatt et al., 2005). Falls der Proband noch Fragen an den Interviewer hat, kann er diese stellen (Holtzblatt et al., 2005). Der Ausführende sammelt alles, was im Interview diskutiert wird: ausgefüllte Formulare, Screenshots, Skizzen über interessante fachliche Zusammenhänge, Audio- und Videoaufnahmen von Gesprächen usw. (Herzon et al., 2010; Richter & Flückiger, 2010). Dem Probanden danken, die Aufwandsentschädigung überreichen und sich verabschieden (Holtzblatt et al., 2005) Zusammenfassen aller Informationen die während des Interviews gesammelt wurden; ggf. Transkription der Aufzeichnungen. Hierfür biete sich z.B. die Methode Affinity-Diagramm an (Holtzblatt et al., 2005). Analyse der Daten und extrahieren folgender Informationen (Richter & Flückiger, 2010): Ziele und Bedürfnisse der befragten Personen sowie deren Probleme, Werte und Eigenheiten Aufgaben, Abläufe und Tätigkeiten, um zukünftige Abläufe im neuen System zu gestalten Schwierigkeiten und erprobte Lösungsansätze der Benutzer mit heutigen Werkzeugen, um Informationen über die Bedürfnisse der Benutzer und die dazu passenden Funktionen zu erarbeiten Begriffe und Informationen zum Domänenmodell 79 Kategorie Kriterium Kontextuelles Interview (Contextual Inquiry) 5. Praxis-Tipps Praxis-Tipps 6. Zweck Es bietet sich an die Methode in mehreren Interviewrunden über den Verlauf des Projektes hinweg anzuwenden. Nicht alle Informationen des Nutzerkontextes lassen sich mit einer Anwendung erfassen. Zu Beginn des Projekts sind die Fragen noch breit und unscharf formuliert, während im Verlauf der Kontext des Produkts immer besser erkannt wird und die Fragen enger und konkreter gestellt werden können. (Richter & Flückiger, 2010) Falls der Einsatz einer Videokamera zur Aufzeichnung der Interviews nicht möglich sein sollte, wird empfohlen einen zweiten Ausführenden einzusetzen, der die Durchführung protokolliert (Herzon et al., 2010). Kulturelle Aspekte sind bei den Treffen zu beachten, besonders wenn Probanden zuhause besucht werden (Holtzblatt et al., 2005). Die Kleidung des Interviewers für die Durchführung sollte an der des Probanden angepasst und auf einem Level in Bezug auf die Formalität sein. Wenn ein Teilnehmer z.B. zuhause besucht wird, ist ein Anzug unangebracht. Besser ist es ein legereres Business-Outfit zu wählen. (Holtzblatt et al., 2005) Lohnenswerte Fragen zielen auf den Einsatz und das Umfeld von heute benutzten Produkten ab (Richter & Flückiger, 2010). Aspekte, die mit der Methode erfasst und dokumentiert werden können sind nach Richter & Flückiger (2010): Rollenverteilung und Kommunikation: Wie ist die typische Rollenverteilung? Was sind Vorteile und Probleme? Was ist das Kommunikationsmittel? Was sind Zweck und Inhalt der Kommunikation? Handlungsstrategien und Vorgehen: Wie werden Tätigkeiten ausgeführt? Welche unterschiedlichen Vorgehensweisen gibt es? Was sind Stärken und Schwächen? Wie sind Häufigkeit, Frequenz, Intensität und Dauer der Durchführung? Artefakte: Welche Artefakte z.B: Dokumente, Formulare, Werkzeuge usw. werden bei der Arbeit benutzt? Wie sind die Artefakte aufgebaut, welche Informationen enthalten sie und wann werden sie verwendet? Sind die Artefakte an die individuellen Bedürfnisse Angepasst? Werden sie zweckentfremdet? Welche Vorteile und Probleme ergeben sich? Kulturelle und soziale Einflüsse: Welche Personen nehmen Einfluss? Wie ist die Wirkung von sozialem Druck und Machtausübung? Welche Verhaltensregeln gibt es? Was sind Ziele, Werte und Vorlieben? Gibt es widersprüchliche Einflüsse? Was sind Probleme und Chancen auf kultureller Ebene? Physisches Umfeld: Wie ist die Raumaufteilung und das Platzangebot? Welche Hilfsmittel sind Verfügbar? Welche Wege und Distanzen sind vorhanden und müssen überwunden werden? Welchen Einfluss hat dies auf die Kommunikation? Welches Verbesserungspotential gibt es? Erste Entwürfe oder Prototypen können in die Interviews einbezogen werden (Richter & Flückiger, 2010). Zur Analyse der Daten bietet sich ein Team aus Analysten und Entwicklern an (Richter & Flückiger, 2010). Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… folgendes zu erstellen: 7. Verwandte Verwandte Meund weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/ Tätigkeiten Mögliche Anwendungsgebiete Usability-Methodenkatalog Benutzer Interaktion Strukturen/Prozesse Benutzererfahrung Kontext Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort Interview, Beobachtung, Contextmapping, Aufgabenanalyse, ethnografische Beobachtung Erstellen von Nutzerprofilen Mögliche nachfol- gende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Affinity-Diagramm: Zur Analyse der gewonnenen Daten (Herzon et al., 2010) Aufgabenanalyse: Zur Verifizierung der Arbeitsabläufe (Herzon et al., 2010) Contextual Design (Herzon et al., 2010) Personas (Vanhoutte & van Vliembergen, o. J.) Eine neue Software soll entwickelt werden, die den Nutzer bei der Bewältigung seiner Arbeit unterstützt. Hierzu soll die Arbeitsweise der Nutzer verstanden werden, um die passende Software zu erarbeiten. Potentielle Nutzer werden hierzu bei ihrer Arbeit beobachtet und zu den Abläufen befragt. 80 Kategorie Kriterium Kontextuelles Interview (Contextual Inquiry) 9. Referenzen und weiterführende Informationen Weiterführende Informationen Das Buch „Rapid Contextual Design“ von Holtzblatt et al., (2005) bietet eine sehr ausführliche Darstellung des gesamten Prozesses zur Anwendung der Methode. Angefangen bei den Vorbereitungen und der Auswahl und Rekrutierung der Teilnehmer über die Durchführung des Interviews und den zu beachtenden Punkten bis hin zur Auswertung der erhobenen Daten werden alle wichtigen Aspekte der Methode im Detail behandelt: (englisch) Holtzblatt, K., Wendell, J. B., & Wood, S. (2005). Rapid Contextual Design: A How-to Guide to Key Techniques for User-centered Design: Elsevier/Morgan Kaufmann. Lesenswerte Internetartikel von Gaffney (2004) der viele Fakten zusammenfasst: http://www.sitepoint.com/contextual-enquiry-primer/ Gaffney, G. (2004). Contextual Enquiry - A Primer. Abgerufen von http://www.sitepoint.com/contextualenquiry-primer/ Ross, (2012) geht in seinem Artikel „Why are Contextual Inquiries So Difficult?“ auf die Probleme und Schwierigkeiten der Methode ein und zeigt Möglichkeiten auf, diesen entgegen zu wirken: http://www.uxmatters.com/mt/archives/2012/06/why-are-contextual-inquiries-so-difficult.php Ross, J. (2012). Why Are Contextual Inquiries So Difficult? Abgerufen von http://www.uxmatters.com/mt/archives/2012/06/why-are-contextual-inquiries-so-difficult.php Zu beachtende Normen und Zertifikate Quellen CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/ Gaffney, G. (2004). Contextual Enquiry - A Primer. Abgerufen von http://www.sitepoint.com/contextualenquiry-primer/ Herzon, C., DeBoard, D., Wilson, C., & Bevan, N. (2010). Contextual Inquiry. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/contextual-inquiry Holtzblatt, K., Wendell, J. B., & Wood, S. (2005). Rapid Contextual Design: A How-to Guide to Key Techniques for User-centered Design: Elsevier/Morgan Kaufmann. Rammelt, R. & Otto, S. (o. J.). Rapid Prototyping. Zugriff am 30.05.2015. Abgerufen von http://www.berlinusability.de/usability/methoden-zur-evaluierung/rapid-prototyping.html#c200 Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln (2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag. Ross, J. (2012). Why Are Contextual Inquiries So Difficult? Abgerufen von http://www.uxmatters.com/mt/archives/2012/06/why-are-contextual-inquiries-so-difficult.php Schmitt Hartmut, Dominik Rost, & Balthasar Weitzel. (2015). Kontextuelles Benutzerinterview durchführen. Abgerufen von http://www.pq4agile.de/PQ4WP/wp-content/uploads/2015/02/PQ4Agile-AP-2.2Kontextuelles-Benutzerinterview-durchf%C3%BChren-V.1.pdf Vanhoutte, A. S. J. & van Vliembergen, E. J. W. (o. J.). Contextual Inquiry. Zugriff am 04.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter Usability-Methodenkatalog 81 4.2.6 Card Sorting Kategorie Kriterium Card Sorting 1. Bezeichnung Name Card Sorting Synonyme Card Sort 2. Beschreibung Kurzbeschreibung Mit dem Card Sorting wird die geplante Struktur eines Systems, z.B. einer Website (Sitemap) getestet oder es wird ermittelt, welche Struktur für die Website sinnvoll wäre. Die Informationen, z.B. Inhalte einer Website, werden hierbei durch den Ausführenden jeweils auf eine Karteikarte geschrieben. Die Teilnehmer sortieren die Karten nach Kategorien die entweder fest vorgegeben (geschlossenes Card Sorting) oder von ihnen selbst gewählt werden (offenes Card Sorting). Im Anschluss bringen sie die Karten in eine hierarchische Struktur. Abbildungen Abbildung 8: Beispiel für die Anwendung des Card Sorting (Nielsen, 1994c) Ziele Ergebnisse/ Output Informationen in kategorisierter und hierarchisch strukturierter Form z.B. Sitemap Vorteile Schnell (besonders unter Verwendung von Software-Tools, vgl. Werkzeuge, Hilfsmittel) und kostengünstig durchführbar (Killam, Preston, McHarg, & Wilson, 2009) Keine besonderen Kenntnisse vom Ausführenden erforderlich (Killam et al., 2009) Stellt eine gute Grundlage für die Struktur einer Website oder eines Produkts dar (Killam et al., 2009) Nachteile/ Grenzen Anwender Teilnehmer Projektphase(n) 3. Rahmenbedingungen & Ressourcen Überprüfen, ob eine vorgesehene Struktur einer Anwendung der Einteilung der Zielgruppe entspricht (Usability.de, 2015). Informationen benennen und (aus der Sicht der Nutzer) ordnen, kategorisieren und strukturieren (Nielsen, 2004; Redondo, Bravo, & Ortega, 2009) Wording-Probleme lösen (Bsp.: Sind Menü-Benennungen verständlich für die Zielgruppe?) (Usability.de, 2015) Bei vielen Probanden und ohne Software Unterstützung ist die Auswertung der Daten aufwendig (Killam et al., 2009) Die Meinungen der Experten über die benötigte Anzahl von Teilnehmern gehen auseinander. Konzeption Beginn der Konzeptionsphase (Jacobsen, 2007) Anzahl Art Repräsentative Endnutzer (Nielsen, 2004) Rolle Partizipation Wird beobachtet Einbeziehung Physikalische Einbeziehung Ggf. Remote, falls eine webbasierte Software für die Durchführung verwendet wird Anzahl 1 ggf. ein zusätzlicher Protokollant wenn z.B. Lautes Denken integriert wird (Usability.gov, 2013) Rolle Beobachter, Moderator, ggf. Protokollant, Analyst Mindestens 15 (Nielsen, 2004) 5 bis 10 (Jacobsen, 2007) Erforderliche Keine (Killam et al., 2009) Kompetenzen Usability-Methodenkatalog 82 Kategorie Kriterium Card Sorting Werkzeuge, Hilfsmittel Papierkarten (bzw. –Zettel) in unterschiedlichen Farben, Stifte (Nielsen, 2004) Ausreichend großer Tisch zum Ausbreiten der Zettel oder eine große Wand (z.B. Pinnwand, Flipchart) um die Zettel zu befestigen (kleben/pinnen) (Usability.gov, 2013) Ggf. eine Kamera zum Aufzeichnen der Ergebnisse Alternativ kann eine Software verwendet werden (z.B. CardSword, CardZort, aCaSo, Concept System, OptimalSort) (Redondo et al., 2009) Computer (für die softwaregestützte Variante) (Usability.gov, 2013) Tabellenkalkulationsprogramm (Spreadssheet Template) zur Auswertung (Lamantia, 2003) Ort/Umgebung Tagungsraum Schreibtisch Kosten Gering Weniger als 5000 € (CHeval, 2013) Zeitaufwand Gering Ca. eine Stunde pro Teilnehmer plus Auswertung (Usability.gov, 2013) Maximaler Zeithorizont: 1 Woche (CHeval, 2013) Vorbereitung 4. Vorgehensweise Art des Card Sortings wählen z.B. offenes, geschlossenen Card Sorting (Killam et al., 2009) Art der Durchführung wählen z.B. mit Papierkarten oder Online-Tool (Killam et al., 2009) Plan für die Durchführung und die Auswertung erstellen; inkl. Zeitplan (Killam et al., 2009) Werkzeuge und Hilfsmittel organisieren Testpersonen rekrutieren (soll möglichst die Gesamtheit der Nutzer repräsentieren) (CHeval, 2013; Nielsen, 2004) Begriffe und ggf. kurze Beschreibungen (z.B. Elemente einer Sitemap) werden durch den Ausführenden (Designer, Entwickler etc.) auf Papier-Karten geschrieben, ein Begriff pro Karte (Nielsen, 2004). Durchführung Der Ausführende erläutert dem Teilnehmer das Vorhaben und informiert ihn über die Ziele der Untersuchung. (CHeval, 2013) Die Karten werden gemischt und einem Benutzer geben. Der Benutzer sortieren die Karten nach selbst gewählten Kriterien (sog. offenes Card Sorting) oder nach zuvor durch den Ausführenden vorgegebenen Kriterien (geschlossenes Card Sorting) und bilden Stapel. Die Kriterien sind im Falle des offenen Card Sortings im Anschluss durch den Benutzer zu benennen und auf separate leere andersfarbige Karten zu notieren. (Nielsen, 2004; Redondo et al., 2009) Nachbereitung/ Auswertung Bei wenigen Versuchspersonen kann jedes Ergebnis einzeln von einem Experten analysiert werden und Erkenntnisse abgeleitet werden. Hierzu sollte nach der Durchführung ein Foto von den Ergebnissen gemacht werden, alternativ können die Ergebnisse anhand von Nummern, die in der Vorbereitungsphase auf die Karten geschrieben werden, festgehalten werden. (Usability.gov, 2013) Qualitative Analyse anhand der Kommentare der Teilnehmer (Usability.gov, 2013) Quantitative Analyse anhand der Informationen aus dem Kartenlegen (Welche Karten sind häufig zusammengefasst worden? Wie oft sind Karten in bestimmten Kategorien aufgetaucht?) (Usability.gov, 2013) Für große Datenmengen bietet es sich an eine „Faktorenanalyse“ durchzuführen. Alternativ kann die Auswertung softwaregestützt erfolgen z.B. mit CardZort (Redondo et al., 2009). 5. Praxis-Tipps Praxis-Tipps Tipps: Während der Durchführung bietet sich die Methode „Lautes Denken“ an (vgl. Kapitel 4.5.2) (Uselab, 2015) Für das offene Card Sorting sollten nicht mehr als 40 Karten verwendet werden (Usability.gov, 2013) Den Teilnehmern sollte für die Durchführung die Zeit vorgegeben werden, die sie zur Verfügung haben (Usability.gov, 2013) Varianten: 6. Zweck Kombination von offenem und geschlossenem Card Sorting: Erst ein offenes Card Sorting durchführen, um übergeordnete Kategorien zu ermitteln, danach ein geschlossenes Card Sorting durchführen. Affinity-Diagramm: Die Teilnehmer (z.B. Entwickler) starten mit leeren Karten und müssen zunächst Begriffe darauf schreiben. Im Anschluss werden die Karten aller Teilnehmer zu einem Stapel zusammengefasst und mit diesem die Sortierung und Strukturierung durchgeführt (ggf. im Rahmen einer Gruppendiskussion) (vgl. Methodenbeschreibung Affinity-Diagramm Kapitel 4.2.7). Struktur testen: Eine bereits bestehende Struktur (z.B. Menüstruktur) wird auf Karten nachgestellt und von Endnutzern getestet. Jeder Menüeintrag wird auf eine Karte geschrieben. Alle Elemente, die einem gemeinsamen Menü bzw. Untermenü angehören, werden zu einem Stapel zusammengefasst. Die Oberbegriffe zu jedem Stapel werden auf andersfarbige Karten geschrieben und oben, offen auf die Stapel gelegt. Ein Proband bekommt nun die Aufgabe Menüelemente in den Stapeln zu finden. Auf diese Weise lässt sich überprüfen, ob die Strukturierung des Menüs für den Nutzer intuitiv angeordnet ist. Strukturen/Prozesse Ideen & Konzepte Software folgendes zu bewerten: Software Daten… zu ordnen/organisieren Die Methode ist mehr zu erfahren über… anwendbar, wenn folgendes zu erstellen: es das Ziel ist… 7. Verwandte Verwandte Meund weiterfühthoden rende Methoden Usability-Methodenkatalog Affinity-Diagram, Mindmap, Concept Map, Brainstorming 83 Kategorie Kriterium Card Sorting Mögliche voran gegangene Me thoden/Tätigkeite n Methoden des Bereichs „User research” (Killam et al., 2009) Brainstorming (Killam et al., 2009) Aufgabenanalyse (Task Analysis) (Killam et al., 2009) Mögliche nachfol- gende Methoden/ Tätigkeiten Clusteranalyse: Zur Auswertung der Daten (max. 50 Karten) (Faiks & Hyland, 2000) Faktorenanalyse: Zur Auswertung der Daten (Capra, 2005) Pathfinder-Methode: Zur Auswertung der Daten (Redondo et al., 2009) Paper Prototyping: Verwenden, um das Design einer Webseite zu verfeinern (Nielsen, 2004) 8. Anwendungsbeispiele Mögliche Anwendungsgebiete 9. Referenzen und weiterführende Informationen Weiterführende Informationen Literatur: Umfangreiche Internetseite der TU Berlin mit Informationen zu Cart Sorting und weiteren Lege- und Mappingtechniken: http://www.uselab.tu-berlin.de/wiki/index.php/Lege-_und_Mapping-Techniken Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite Erstellung einer Webseiten Sitemap (offenes Card Sorting) Verändern einer bestehenden Webseite (geschlossenes Card Sorting) Gestaltung und Aufbau von Software/Applikationen (z.B. Menüstrukturen) (CHeval, 2013) Informationen zur Methode auf usability.gov: Beschreibt u.a. unterschiedliche Varianten von Card Sorting und stellt diese mit Vor- und Nachteilen einander gegenüber. Enthält außerdem viele zusätzliche Anwendungstipps: (englisch) http://www.usability.gov/how-to-and-tools/methods/card-sorting.html usability.gov. (2013). How To & Tools. Zugriff am 27.04.2015. Abgerufen von http://www.usability.gov/howto-and-tools/index.html Software und Tools: Auf Boxes And Arrows wird ein Excel-Template zur Auswertung der Daten angeboten: http://boxesandarrows.com/analyzing-card-sort-results-with-a-spreadsheet-template/ Plattformbasierte Software CardSword zur Durchführung von Card Sorting: http://sourceforge.net/projects/cardsword/ Plattformbasierte Software CardZort Zone zur Durchführung von Card Sorting (inkl. 30 Tage Trial): http://www.cardzort.com/cardzort/index.htm Webbasierte Software OptimalSort zur Durchführung von Card Sorting inkl. Demo-Version: https://www.optimalworkshop.com/optimalsort Videos: YouTube Tutorial eines alternativen Card Sortings mit “Blanko-Karten“ (englisch): https://www.youtube.com/watch?v=FTzHeYPB9c8 Zu beachtende Normen und Zertifikate Usability-Methodenkatalog - 84 Kategorie Kriterium Card Sorting Quellen Capra, M. (2005). Factor Analysis of Card Sort Data: An Alternative to Hierarchical Cluster Analysis. Proceedings of the Human Factors and Ergonomics Society 49th Annual Meeting, 2005, 691–695. Abgerufen von http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.60.3176&rep=rep1&type=pdf CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/ Faiks, A., & Hyland, N. (2000). Gaining user insight: a case study illustrating the card sort technique. College & Research Libraries, (61(4)), 349–357. Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley. Killam, B., Preston, A., McHarg, S., & Wilson, C. (2009). Card Sorting. Zugriff am 05.06.15. Abgerufen von http://usabilitybok.org/card-sorting Lamantia, J. (2003). Analyzing Card Sort Results with a Spreadsheet Template. Abgerufen von http://boxesandarrows.com/analyzing-card-sort-results-with-a-spreadsheet-template/ Nielsen, J. (1994). Usability Testing of WWW Designs: Article by Jakob Nielsen. Abgerufen von http://www.nngroup.com/articles/usability-testing-1995-sun-microsystems-website/ Nielsen, J. (2004). Card Sorting: How Many Users to Test. Abgerufen von http://www.nngroup.com/articles/card-sorting-how-many-users-to-test/ Redondo, M., Bravo, C., & Ortega, M. (2009). Engineering the user interface: From research to practice. London: Springer. usability.de. (2015). Ausgewählte UX Methoden im Überblick. Zugriff am 27.04.2015. Abgerufen von http://www.usability.de/leistungen/methoden.html usability.gov. (2013). How To & Tools. Zugriff am 27.04.2015. Abgerufen von http://www.usability.gov/howto-and-tools/index.html Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite Usability-Methodenkatalog 85 4.2.7 Affinity-Diagramm Kategorie Kriterium Affinity-Diagram 1. Bezeichnung Name Affinity-Diagram Synonyme Kawakita Jiro Method, KJ Methode 2. Beschreibung Kurzbeschreibung Die Methode kann in zwei Varianten durchgeführt werden. Variante A „neue Ideen“: Eine Personengruppe sammelt Begriffe (oder Phrasen), die auf Haftnotizen geschrieben und nach Oberbegriffen sortiert und ggf. strukturiert werden. Am Ende wird über die finale Anordnung entschieden Variante B „bestehende Ideen“: Bestehende Begriffe (oder Phrasen) (z.B. aus einer Nutzerumfrage), die auf Haftnotizen stehen, werden von einer Personengruppe nach Oberbegriffen sortiert. Am Ende wird über die finale Anordnung entschieden. Abbildungen Abbildung 9: Anwendung der Methode Affinity-Diagram (Weevers et al., 2013) Ziele Informationen sind (z.B. an einer Wand) nach den Vorstellungen der Teilnehmer nach Oberbegriffen geordnet und ggf. strukturiert und gewähren so eine visuellen Überblick. Vorteile Kann in vielen unterschiedlichen Situationen und in verschiedenen Disziplinen wie z.B. der Produktplanung, dem Design oder dem User Research angewendet werden. (Weevers et al., 2013) Nachteile/ Grenzen Wenig geeignet, wenn eine Situation schnelles und entschlossenes Handeln erfordert (Weevers et al., 2013) Wenig geeignet, wenn die Design-Lösung einfach ist (Weevers et al., 2013) Projektphase(n) Alle Teilnehmer Ergebnisse/ Output Anwender 3. Rahmenbedingungen & Ressourcen Variante A „neue Ideen“: Es sollen Ideen erzeugt werden, die im Anschlussgruppiert und ggf. strukturiert werden, um sie übersichtlich darzustellen. Variante B „bestehende Ideen“: Eine große Menge an Informationen soll gruppiert und strukturiert werden, um sie übersichtlich darzustellen. Anzahl 0-10, je nach Anwendungsfall können auch mehr Personen teilnehmen (Holtzblatt et al., 2005) Art Firmeninterne, Stakeholder Rolle Einbeziehung Physikalische Einbeziehung Partizipation Diskussion Anzahl 1-2 (Holtzblatt et al., 2005) Rolle Moderator, Organisator Erforderliche Besonders bei einer großen Menge an Daten und vielen Teilnehmern werden gute Moderationsfähigkeiten Kompetenzen benötigt. (Holtzblatt et al., 2005) Werkzeuge, Hilfsmittel Ort zur Anordnung der Haftnotizen (z.B. Wand, Whiteboard, Tisch) Haftnotizzettel in unterschiedlichen Farben Schreibmaterial Ort/Umgebung Tagungsraum Schreibtisch Kosten Gering Zeitaufwand Gering Usability-Methodenkatalog Variante A „neue Ideen“: ca. 1-2 Stunden (UsabilityNet, 2003) Variante B „bestehende Ideen“: bei 50-80 Notizen pro Person ca. 1 Tag; die Durchführung sollte maximal 2 Tage dauern (ansonsten sollten mehr Teilnehmer involviert werden) (Holtzblatt et al., 2005) 86 Kategorie Kriterium Affinity-Diagram 4. Vorgehensweise Vorbereitung Durchführung 5. Praxis-Tipps Die Teilnehmer sind über die Methode selbst sowie über die Grundregeln (siehe Praxis-Tipps) zu informieren (Courage & Baxter, 2005). Den Teilnehmern ist die Leitfrage bzw. das Thema darzustellen (UsabilityNet, 2003). Jeder Teilnehmer für sich führt ein Brainstorming durch und schreibt Ideen auf die Haftnotizen, die ihm im Zusammenhang mit der Leitfrage einfallen. Hierbei können je nach Art der Information unterschiedlich gefärbte Haftnotizen verwendet werden, z.B. für Beobachtungen, Hypothesen, Fragen, Design-Ideen, Schwachstellen usw. (Courage & Baxter, 2005) Die Notizen werden zu Gruppen auf einem Tisch oder an einer Wand zusammengefasst (Holtzblatt et al., 2005): (Optional können alle Notizen zuvor eingesammelt, gemischt und dann unter den Teilnehmern neu verteilt werden.) (Courage & Baxter, 2005) Hierzu beginnt ein Teilnehmer, liest seine Notiz laut vor und befestigt sie an der Wand. Die übrigen Teilnehmer durchsuchen ihre Notizen nach solchen, die dazu passen würden. Die Teilnehmer die passende Notizen haben, lesen diese ebenfalls laut vor und hängen sie zu der bestehenden Notiz (z.B. in einer Spalte untereinander) bis keiner mehr passende Haftzettel hat. Ein Teilnehmer fährt fort und eröffnet eine neue Spalte mit einem seiner Zettel, die Prozedur beginnt von vorne bis alle Teilnehmer all ihre Zettel an der Wand haben. Falls jemand mit der Anordnung eines Zettels nicht einverstanden ist, kann er diesen anders platzieren. Zu diesem Zeitpunkt sollte keine Diskussion darüber stattfinden! Sind alle Notizen an der Wand, sollte sich jeder Teilnehmer noch einmal alle Notizen durchlesen. Verfeinern der Ergebnisse und Benennung der Kategorien: Die einzelnen Notizzettelgruppen werden durchgegangen. Entweder zusammen von allen Teilnehmer in einer Gruppendiskussion oder in kleinen Personengruppen (jede kleine Personengruppe betrachtet dabei eine Notizen-Spalte. Es werden Notizen gesucht, die zu kleineren Gruppen zusammengefasst werden können. Redundanzen werden entfernt Die Gruppen werden betitelt, so dass aus der Bezeichnung auf die einzelnen Notizen geschlossen werden kann, ohne sie einzeln zu lesen. Die Titel werden auf andersfarbige Haftnotizzettel geschrieben und zu den bzw. über die übrigen Notizen geklebt (Holtzblatt et al., 2005). Ggf. können Zettel zugeordnet werden. Strukturieren der Informationen: Die vorhandenen Kategorien können nun hierarchisch strukturiert, bzw. zu übergeordneten Kategorien gruppiert werden. Nachbereitung/ Auswertung Bei der Verwendung der Ergebnisse sollte man flexibel sein, da die Gruppierungen willkürlich entstanden sind (Weevers et al., 2013). Praxis-Tipps Falls zunächst von den Teilnehmern ein Brainstorming durchgeführt wird, sollte hierfür ein Zeitlimit festgelegt werden (UsabilityNet, 2003). Grundregeln für die Erstellung eines Affinity-Diagramms (Courage & Baxter, 2005): jeder Teilnehmer ist gleich Ideen dürfen nicht kritisiert werden es gibt keine vorgefassten Kategorien; sie entstehen aus den Daten Notizzettel können dupliziert werden, wenn sie in mehreren Gruppen anzuordnen sind Einzelne Notizen gehören niemandem. Jeder darf jede beliebige Notiz neu anordnen (Holtzblatt et al., 2005). Tipps zur Gruppierungsphase: Es sollte keine Diskussion stattfinden (Holtzblatt et al., 2005). Den Gruppen (Spalten) sollten keine Namen gegeben werden! Es ist darauf zu achten, dass auch in Gesprächen die Gruppen neutral bezeichnet werden, um die Teilnehmer bei der Zuordnung ihrer Notizen nicht zu beeinflussen. Zum Beispiel: „Hat noch jemand einen Zettel, der zur Notiz E-Mail passt? (Holtzblatt et al., 2005) Hat ein Teilnehmer keine Notizen mehr, können die Notizen eines anderen Teilnehmers aufgeteilt werden (Holtzblatt et al., 2005). Ziel dieser Phase ist, alle Notizen an die Wand zu bekommen. Die Zuordnung muss noch nicht perfekt sein. Es sollte nicht zu viel Zeit in die Anordnung investiert werden (Holtzblatt et al., 2005). Einzelne Notizzetteln mit Informationen die zu keiner Gruppe zugeordnet werden können, sollten aussortiert werden anstatt sie zwanghaft irgendwo einzusortieren (Weevers et al., 2013). 6. Zweck Materialien und Ort bereitstellen Thema festlegen: entweder im Vorfeld Daten sammeln z.B. mittels einer Umfrage oder Leitfrage(n) oder Themen festlegen, zu denen Ideen von den Teilnehmern während der Durchführung gesammelt werden sollen z.B. „Welche Faktoren bestimmen oder beeinflussen die Qualität unserer Produkte“ (Weevers et al., 2013) Team zusammenstellen: benötigte Expertise beachten (Holtzblatt et al., 2005); Außenstehende können einen neuen Blick auf das Thema ermöglichen (Weevers et al., 2013)) Ggf. die Ergebnisse einer Befragung auf Notizzettel schreiben Die Methode ist mehr zu erfahren über… anwendbar, wenn folgendes zu erstellen: es das Ziel ist… Usability-Methodenkatalog Strukturen/Prozesse Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort 87 Kategorie Kriterium Affinity-Diagram Daten… 7. Verwandte Verwandte Meund weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/ Tätigkeiten zu ordnen/organisieren zu kommunizieren zu dokumentieren Card Sorting, Brainstorming, Mindmap Mögliche nachfolgende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete 9. Referenzen und weiterführende Informationen Weiterführende Informationen In einer Workshop-Umgebung sollen Teilnehmer Informationen sammeln, zu Kategorien gruppieren und die Ergebnisse diskutieren (Weevers et al., 2013). Eine große Menge an Informationen (z.B. aus einem Kontextuellen Interview, einer Feldstudie oder einer Usability Evaluation) liegt vor und soll ausgewertet bzw. übersichtlich dargestellt werden (Weevers et al., 2013). Weitere Informationen zur Anwendung der Methode, im Besonderen vor dem Hintergrund der Auswertung von Befragungsergebnissen können folgendem Buch entnommen werden: (englisch) Holtzblatt, K., Wendell, J. B., & Wood, S. (2005). Rapid Contextual Design: A How-to Guide to Key Techniques for User-centered Design: Elsevier/Morgan Kaufmann. Zu beachtende Normen und Zertifikate Quellen Courage, C., & Baxter, K. (2005). Understanding Your Users: A Practical Guide to User Requirements: Methods, Tools, and Techniques: Morgan Kaufmann Publishers. Holtzblatt, K., Wendell, J. B., & Wood, S. (2005). Rapid Contextual Design: A How-to Guide to Key Techniques for User-centered Design: Elsevier/Morgan Kaufmann. UsabilityNet. (2003). List of methods. Zugriff am 07.05.2015. Abgerufen von http://www.usabilitynet.org/tools/list.htm Weevers, T., Jacobs, L., & Oestendorp, W. (2013). UCD Toolbox. Zugriff am 21.05.2015. Abgerufen von http://filter.ucdtoolbox.com/filter# Usability-Methodenkatalog 88 4.3 Befragung 4.3.1 Interview Kategorie 1. Bezeichnung 2. Beschreibung Kriterium Interview Name Interview Synonyme Mündliche Befragung Kurzbeschreibung Bei einem Interview findet eine persönliche Befragung der Probanden durch einen Interviewer statt. Dieser orientiert sich in seinem Befragungsgespräch an einen im Vorfeld definierten Leitfaden, um den Ablauf der einzelnen Interviews möglichst einheitlich und dadurch vergleichbar zu machen. Mit einem Interview lassen sich Meinungen und Fakten von Nutzern zu einem Produkt erfahren. Abbildungen Ziele Spezifische Nutzergruppen besser kennenlernen (Usetree, 2014d) Herausfinden, wie Endnutzer Produkteigenschaften wahrnehmen, interpretieren und nutzen (Usetree, 2014d) Ergebnisse/ Output Informationen zu den Meinungen der Befragten Vorteile Das nicht-standardisierte Interview ermöglicht es die Befragung flexibel aufzubauen und den Gegebenheiten anzupassen. So kann bei Unklarheiten genauer nachgefragt werden und so mehr über den Nutzer erfahren werden. (Quirmbach, 2013) Die Methode ist kostengünstig und lässt sich gut mit anderen Vorhaben kombinieren (Quirmbach, 2013). Nachteile/ Grenzen Anwender 3. Rahmenbedingungen & Ressourcen Teilnehmer Projektphase(n) Die Auswertung ist zeitintensiv (Quirmbach, 2013). Die Ergebnisse der Interviews sind nur dann gut miteinander vergleichbar, wenn ein hoher Standardisierungsgrad bei Fragen und möglichen Antworten besteht (Quirmbach, 2013). Die Probanden können durch den Interviewer beeinflusst werden (Quirmbach, 2013). Eine gewisse Verbalisierungsfähigkeit wird vom Nutzer vorausgesetzt (Sarodnick & Brau, 2011). Es können keine statistisch verwendbaren Daten gewonnen werden (Sarodnick & Brau, 2011). Menschen tun und denken nicht immer das, was sie bei einer Befragung angeben (Jacobsen, 2007). Alle Vor allen in frühen Entwicklungsphasen Bedürfnisse und die Einstellung der Nutzer ermitteln (Quirmbach, 2013). Anzahl 6-10 (Heuwing, 2010; KUSi, 2015) Art (Tatsächliche bzw. potentielle) Endnutzer (Usetree, 2014d) Rolle Diskussion Wird befragt Einbeziehung Physikalische Einbeziehung „Remote“ z.B. per Telefon Anzahl 1+ (empfohlen wird zusätzlich ein Protokollant (Usetree, 2014d)) Rolle Organisator, Interviewer, ggf. Protokollant Erforderliche Soziale Kompetenz, Erfahrungen in der Interviewführung (Sarodnick & Brau, 2011) Kompetenzen Werkzeuge, Hilfsmittel Schreibmaterial, Notizblock Aufnahmegerät z.B. Diktiergerät oder Videokamera Ort/Umgebung Natürliche Nutzungsumgebung Simulierte Nutzungsumgebung Usability Labor Tagungsraum Schreibtisch Kosten Gering Zeitaufwand Gering bis mittel Usability-Methodenkatalog Übliche Dauer pro Interview: 30 bis 60 min (Heuwing, 2010) Maximale Dauer pro Interview: 90 min (Heuwing, 2010) 89 Kategorie Kriterium Interview 4. Vorgehensweise Vorbereitung Durchführung Nachbereitung/ Auswertung 5. Praxis-Tipps Praxis-Tipps Definition der Ziele: Was soll mit den Interviews herausgefunden werden? (UseWell, 2011) Festlegen welche Teilnehmer einbezogen werden sollen (UseWell, 2011) Interviewtyp wählen z.B. offen/strukturiert, standardisiert/nichtstandardisiert, Telefoninterview/direktes Interview (USERfit, 1996a; Usetree, 2014d; UseWell, 2011) Zeitplanung durchführen und ggf. Räume reservieren (UseWell, 2011) Teilnehmer einladen: Einladung verschicken und die Details des Interviews kommunizieren (Ort, Zeit, Dauer, Thema), Informationen zu öffentlichen Verkehrsmitteln und Parkmöglichkeiten. Erstellen einer Leitfadens bzw. spezifischer Fragen, die im Interview angesprochen werden sollen. Mögliche Themengebiete sind: Verhalten, Meinungen, Werte, Gefühle, Wissen, Demographie (UseWell, 2011). Interview mit 1-2 Personen testen, um mit dem Leitfaden vertraut zu werden, die Verständlichkeit der Fragen sowie den zeitlichen Rahmen der Durchführung zu überprüfen (Usetree, 2014d; UseWell, 2011). Teilnehmer einen Tag vor der Durchführung telefonisch an die Termine erinnern (UseWell, 2011). Aufnahmegeräte einrichten und testen (UseWell, 2011) Den Teilnehmer begrüßen und sich selbst vorstellen (UseWell, 2011) Dem Teilnehmer das Thema des Interviews vorstellen und erklären, wofür die Ergebnissen verwendet werden (UseWell, 2011). Abarbeiten der Fragen des Leitfadens Über Zwischenfragen kann der Befragte dazu gebracht werden, seine Antworten genauer darzustellen und weiter auszuarbeiten (UseWell, 2011). Folge-Fragen oder Fragen, die durch eine Reaktion ausgelöst wurden können zwischen geschoben werden (UseWell, 2011). Während des Interviews beobachtet der Ausführende (oder ein Protokollant) den Teilnehmer und macht sich kurze Notizen (nach Möglichkeit nur Schlagworte) zu den Antworten oder zum Verhalten des Befragten. Nach dem Interview werden die Notizen vervollständigt (UseWell, 2011). „Schwere“ und „leichte“ Fragen sind abzuwechseln, genau wie faktenbasierende und auf Szenarien basierende Fragen (UseWell, 2011). Die Frage-Phase wird durch den Interviewer beendet. Der Teilnehmer erhält die Möglichkeit seinerseits Fragen zu stellen (UseWell, 2011). Dem Befragten für die Teilnahme an dem Interview danken (UseWell, 2011). Dem Teilnehmer werden eine Aufwandsentschädigung sowie eine Kostenerstattung überreicht (UseWell, 2011). Die Notizen zu jedem geführten Interview sollten zeitnah (innerhalb von 24 Stunden) vervollständigt werden (UseWell, 2011). Aufzeichnungen durcharbeiten, ggf. transkribieren (UseWell, 2011) Die Notizen je Interview sind zu vergleichen und Ergebnisse bzw. Kernaussagen herauszuarbeiten (Usetree, 2014d; UseWell, 2011). Erstellen eines Berichts zu den Ergebnissen (UseWell, 2011). Ergebnisse präsentieren (UseWell, 2011) Tipps: Der Schlüssel zu einem guten Interview ist eine angenehme Atmosphäre für den Interviewten zu schaffen (UseWell, 2011). Der Interview-Leitfaden sollte so gestaltet sein, dass die Fragen kurz, präzise und neutral formuliert sind (Usetree, 2014d). Fragen müssen offen formuliert sein, damit der Proband nicht nur mit ja oder nein antwortet (Knill, 2003). Der Interviewer sollte sich während der Durchführung neutral verhalten (UseWell, 2011). Eine Durchführung direkt am Arbeitsplatz biete sich oft an, da so Aspekte direkt gezeigt und vorgeführt werden können und so die Verbalisierungsfähigkeit der Nutzer weniger zum Tragen kommt (Sarodnick & Brau, 2011). Bei der Auswertung der Ergebnisse ist darauf zu achten, dass nicht nur Probleme herausgearbeitet werden, sondern auch Positives festgehalten wird (Usetree, 2014d). Varianten: 6. Zweck Standardisiert/Nichtstandardisiert: Bei standardisierten Interviews sind die Durchführung sowie die Fragestellungen vorgegeben, bei nichtstandardisierte Interviews können der Aufbau und die Durchführung frei gestaltet werden (Quirmbach, 2013).. Offen/Strukturiert: Bei offenen Interviews sind nur die anzusprechenden Themen vorgegeben, der genaue Verlauf steht im Vorfeld nicht fest. Strukturierte Interviews sind die Fragen inkl. der genauen Formulierung festgelegt, genau wie mögliche Antworten. Offene Interviews können aufschlussreicher sein, sind aber aufwendiger auszuwerten und schwieriger zu vergleichen (Usetree, 2014d). Telefoninterview (Usetree, 2014d) Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… folgendes zu erstellen: Usability-Methodenkatalog Benutzer Benutzererfahrung Kontext Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort 90 Kategorie Kriterium Interview folgendes zu bewerten: Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort 7. Verwandte Verwandte MeFragebogen, Fokusgruppe und weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/Tätigkeite n Mögliche nachfol- Affinity Diagramm gende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete 9. Referenzen und weiterführende Informationen Weiterführende Informationen Das Buch „Interview und schriftliche Befragung“ von Mayer, (2012) enthält Informationen zur Erstellung von Interviewleitfaden sowie zur Durchführung von Interviews: Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg. Interview zur typischen Vorgehensweise beim Nutzen eines Produkts (KUSi, 2015) Interview zu bestehenden Erlebnissen des Nutzers mit einem Produkt oder Produkten einer Marke (KUSi, 2015) Im Rahmen des Usetree-Projekts des Berliner Kompetenzzentrums für Usability Maßnahmen wurde ein Artikel zur Methode verfasst, der unteranderem Beispiel-Fragen für ein halbstandardisiertes Interview und Tipps zur Formulierung von offenen Fragen enthält: http://www.usetree.de/wp-content/uploads/2014/09/Interview.pdf Usetree. (2014). Interview. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Interview.pdf In einem Artikel von Vilela, (2014) werden viele weiterführende Informationen zur Methode, (z.B. Wann eignet sich der Einsatz eines Telefoninterviews, wann ein direktes Interview?), eine Checkliste zur Überprüfung der wichtigen Schritte, Anwendungsbeispiele sowie viele Anwendungstipps gegeben. Der Artikel wird auf der Internetplattform von „Community Tool Box“ zur Verfügung gestellt: (englisch) http://ctb.ku.edu/en/table-of-contents/assessment/assessing-community-needs-and-resources/conductinterviews/checklist Vilela, M. (2014). Conducting Interviews. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-interviews/main Zu beachtende Normen & Zertif. Quellen Heuwing, B. (2010). Interview. Zugriff am 08.06.2015. Abgerufen von http://usability-toolkit.de/usabilitymethoden/interview/ Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley. Knill, M. (2003). Interviewtechnik. Abgerufen von http://www.rhetorik.ch/Interviewtechnik/Interviewtechnik.html KUSi. (2015). Usability & User-Experience Methoden für den Mittelstand. Zugriff am 16.05.2015. Abgerufen von http://www.usability-siegen.de/qualifizierung.html Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg. Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung. X.media.press. Berlin u.a.: Springer. Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. USERfit. (1996). Interviews. Zugriff am 11.05.2015. Abgerufen von http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTinterview.pdf Usetree. (2014). Interview. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Interview.pdf UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von http://www.usewell.be/#/methods/ Vilela, M. (2014). Conducting Interviews. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-interviews/main Usability-Methodenkatalog 91 Usability-Methodenkatalog 92 4.3.2 Fokusgruppe Kategorie Kriterium Fokusgruppe 1. Bezeichnung Name Fokusgruppe Synonyme Themenspezifische Gruppendiskussion, Focus Groups 2. Beschreibung Kurzbeschreibung Potenzielle Nutzer werden im Rahmen einer moderierten Gruppendiskussion zu ihren Erwartungen, Wünsche und Gefühlen gegenüber dem zu entwickelnden Produkt, einer Marke oder einer Firma befragt. Hieraus lassen sich Anregungen ableiten, z.B. zur Gestaltung eines Produkts. Abbildungen Abbildung 10: Anwendung der Methode Fokusgruppe (Usability.de, 2015) Ziele Gedanken, Empfindungen und Meinungen der Nutzer erfahren, die sie bezüglich eines Produktes haben. Ergebnisse/ Output Vorteile Nachteile/ Grenzen Anwender 3. Rahmenbedingungen & Ressourcen Teilnehmer Projektphase(n) Feedback zur Einstellung der Teilnehmer gegenüber einem Produkt Wie nutzen Teilnehmer das Produkt? Welche Inhalte und Funktionen werden nicht genutzt und warum? (Usability.de, 2015) Fehlen den Nutzern bestimmt Funktionen oder Inhalte? (Usability.de, 2015) (Vor-)Urteile und die emotionale Einstellung potentieller Kunden lassen sich gut herausfinden (Jacobsen, 2007). Ermöglicht die Erhebung einer großen Datenmenge in kurzer Zeit (Wilkinson & Vanattenhoven, o. J.) Direktes Feedback von realen Nutzern (Wilkinson & Vanattenhoven, o. J.) Kann zu verschiedenen Zeitpunkten in der Entwicklung eingesetzt werden (Wilkinson & Vanattenhoven, o. J.) Es können verschiedene Designvarianten diskutiert werden Es können Fragen von Nutzern beantwortet werden, die im Rahmen einer schriftlichen Umfrage nur schwer zu beantworten wären (Berkowitz, 2015) Die Methode ist für Webseiten nur bedingt geeignet. Bei bekannten Marken (oder solchen Unternehmen, die bekannten Marken Konkurrenz machen wollen) kann eine Anwendung hilfreich sein, um die Website an den Bedürfnissen der Nutzer auszurichten. (Jacobsen, 2007) Gruppendenken kann dazu führen, dass Teilnehmer ihre Meinung der erwarteten Gruppenmeinung anpassen und so ihre wahren Gedanken nicht äußern. Dem kann dadurch entgegengewirkt werden, dass die Teilnehmer schon vor dem Diskussionstreffen über die Themen informiert werden und die „Hausaufgabe“ erhalten, sich im Vorfeld darüber Gedanken zu machen und diese aufzuschreiben. (Usability First, 2015) Es wird ein erfahrener Moderator benötigt, da die Moderation einer Fokusgruppe schwierig ist (Berkowitz, 2015). Durch die Moderation können die Teilnehmer beeinflusst werden. (Wilkinson & Vanattenhoven, o. J.) Oft handeln Nutzer anders, als sie es sagt. Daher sind die Ergebnisse mit Vorsicht zu interpretieren. Daher rät Nielsen (2001): „Achte darauf was Nutzer tun, nicht darauf was sie sagen.“ Fokusgruppen können ein mächtiges Werkzeug in der Systementwicklung sein, sollten aber nicht die einzige Informationsquelle zum Nutzerverhalten sein. Die Methode liefert Informationen zu den Erwartungen der Nutzer, nicht aber zur Nutzerinteraktion mit dem System oder der Gebrauchstauglichkeit (Nielsen, 1997). Alle Im Rahmen von Webprojekten nur sinnvoll, wenn sie zu Beginn der Konzeption durchgeführt werden (Jacobsen, 2007) Anzahl 5-10 (Jacobsen, 2007) Art Rolle Diskussion Einbeziehung Physikalische Einbeziehung Anzahl 1-3 Rolle Moderator, Organisator, Beobachter Endnutzer Experten (Wilkinson & Vanattenhoven, o. J.) Drei Anwender sind zu empfehlen. (1 Organisator, 1 erfahrener Moderator, 1 CoModerator bzw. Beobachter/Protokollant) (Krueger, 2002) Erforderliche Gute Moderationsfähigkeiten, Wissen über das Produkt Kompetenzen Usability-Methodenkatalog 93 Kategorie 4. Vorgehensweise Kriterium Fokusgruppe Werkzeuge, Hilfsmittel Ort/Umgebung Tagungsraum Kosten Gering bis hoch Ca. 6600 €6 je Fokusgruppe (Nielsen, 1994b) 15000-25000 € (CHeval, 2013) Zeitaufwand Gering bis hoch Max Personenstunden: 40 (Wilkinson & Vanattenhoven, o. J.) Üblicher Zeithorizont: 1-2 Wochen (Wilkinson & Vanattenhoven, o. J.) Max. Zeithorizont: 4-6 Wochen (CHeval, 2013) Vorbereitung Durchführung Nachbereitung/ Auswertung 6 Technische Hilfsmittel zur Aufzeichnung der Diskussion (z.B. Videokamera) Stimulus (z.B. Einführungstext, Bilder, Video) (CHeval, 2013) Ggf. Prototypen oder erste Entwürfe des Produkts (Usability-Toolkit, o. J.) Gesprächsleitfaden zur Steuerung des Diskussionsverlaufs (CHeval, 2013) Schreibmaterial Definition des Ziels: Welche Erkenntnisse sollen gewonnen werden? (UseWell, 2011) Festlegen welche Personen man als Teilnehmer einbeziehen möchte (UseWell, 2011) Zusammensetzung der Fokusgruppe festlegen (UseWell, 2011) Erstellen einer Themenliste und Definition von Fragen für die Diskussion. Daraus wird ein Gesprächsleitfaden abgeleitet. Die erste Frage ist so zu wählen, dass sie gut in das Thema einführt und jeder Teilnehmer etwas dazu beitragen kann. Alle Teilnehmer sollen sich an der Diskussion beteiligt sehen. (UseWell, 2011; Wilson, 2006) Entwicklung einer Vorgehensweise für die Datenauswertung (Wilson, 2006). Ort der Durchführung festlegen z.B. Raum reservieren (UseWell, 2011) Anzahl der Teilnehmer festlegen und einladen (ca. 1-2 Wochen vor der Durchführung) Ggf. kann den Teilnehmern bereits eine Aufgabe mitgeteilt werden, die sie zur Vorbereitung auf das Treffen ausführen. So können sich die Probanden schon im Vorfeld eine Meinung bilden. Die Beeinflussung durch ein Gruppendenken wird so ggf. verringert. (Jacobsen, 2007) Ggf. ist sind Moderator, Co-Moderator und Beobachter zu rekrutieren (UseWell, 2011) Der Raum ist vorzubereiten (Tische und Stühle so anordnen, dass sich alle Teilnehmer sehen können; Videoaufnahmegerät so anbringen, dass alle Teilnehmen zu sehen sind; Namensschilder erstellen; Schreibmaterial bereitstellen, damit die Teilnehmer ihre Gedanken visualisieren können; Getränke und Snacks bereitstellen) (UseWell, 2011; Wilson, 2006) Aufnahmegeräte einrichten und testen (UseWell, 2011) Teilnehmer begrüßen; der Moderator stellt sich und ggf. seine Kollegen vor (UseWell, 2011) Den Teilnehmern wird das Thema vorgestellt und die Grundregeln der Diskussion erläutert (laut sprechen, sich nicht gegenseitig unterbrechen, Handys ausschalten, usw.) (UseWell, 2011). Die Teilnehmer stellen sich vor (UseWell, 2011). Der Moderator leitet durch die Fragen und achtet darauf, den Fokus der Gruppe auf den relevanten Sachverhalt zu lenken (UseWell, 2011). Ggf. kann ein Co-Moderator Notizen machen, die Zeit im Auge behalten und überprüfen, dass alle Themen angesprochen werden (UseWell, 2011). Am Ende der Diskussion fasst der Moderator die Hauptpunkte der Teilnehmer zusammen und dankt allen für die Teilnahme (UseWell, 2011). Ggf. werden den Teilnehmern Aufwandsentschädigungen und Kostenerstattungen ausgehändigt (UseWell, 2011). Zeitnah nach der Durchführung sollten die Erkenntnisse des/der Moderatoren zusammengefasst werden, da dann die Erfahrungen noch frisch im Gedächtnis sind (UseWell, 2011). Die eigenen Notizen und Aufnahmen sind durchzugehen (ggf. zu transkribieren) und auszuwerten (UseWell, 2011) . Es wird ein Bericht erstellt, der alle Ergebnisse der Fokusgruppe zusammenfasst, sodass ein Außenstehender (z.B. ein Kollege, der nicht bei der Diskussion anwesend war) über die Resultate informiert wird. Die Fakten sollten belegt werden, z.B. mit Zitaten der Teilnehmer. (UseWell, 2011) Falls mehrere Fokusgruppen durchgeführt werden, sind die Ergebnisse zu vergleichen und ggf. zu kategorisieren (UseWell, 2011). Inflationsbereinigt; bei einer mittleren Inflationsrate von 2,8% (1994-2014). Usability-Methodenkatalog 94 Kategorie Kriterium 5. Praxis-Tipps Praxis-Tipps Fokusgruppe Tipps: Für eine Diskussion von 1,5 Stunden sollten ca. 5 bis 6 Fragen im Vorfeld definiert werden (UseWell, 2011). Es ist darauf zu achten, dass die Fragen vermitteln, was mit der Durchführung der Fokusgruppe erreicht werden soll (UseWell, 2011). Die Teilnehmer sollten einen Tag vor der Durchführung telefonisch an das Treffen erinnert werden (UseWell, 2011). Die Aufzeichnungsgeräte sollten schon beim Eintreffen der Teilnehmer einschaltet werden (UseWell, 2011). Es ist wichtig den Teilnehmern zu vermitteln, dass ihre Meinungen wichtig und wertvoll sind (UseWell, 2011). Der Moderator muss dafür sorgen, dass die Diskussion immer am Laufen bleibt und ggf. mit Stichworten in die Diskussion eingreifen. Hierbei soll allerdings nicht der freie Fluss der Ideen der Teilnehmer behindert werden. (Jordan, 1998) Der Moderator muss darauf achten, dass alle Teilnehmer an der Diskussion beteiligt werden und die Meinungen einzelner Personen nicht dominieren (Jordan, 1998). Varianten: 6. Zweck Online Fokusgruppe: Es wird eine Software zur Onlinekommunikation (z.B. ein Chat-Programm) verwendet um die Diskussion mit den Nutzern durchzuführen (Wilson, 2006). Benutzer Benutzererfahrung Kontext folgendes zu erstellen: Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort folgendes zu bewerten: Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… 7. Verwandte Verwandte MeBeobachtung, Interviews, Fragebogen, Brainstorming und weiterfühthoden rende Methoden Mögliche voranBrainstorming (Wilkinson & Vanattenhoven, o. J.) gegangene Methoden/Tätigkeite n Mögliche nachfol- gende Methoden/ Tätigkeiten Prototyping (Wilkinson & Vanattenhoven, o. J.) Card Sorting oder Affinity Diagramming: zur Analyse der Ergebnisse (UsabilityNet, 2003) 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Eine Website soll entwickelt werden. Zu Beginn der Entwicklung sollen potentielle Nutzer gefragt werden, was sie von der Website erwarten und sich wünschen. 9. Referenzen und weiterführende Informationen Weiterführende Informationen In einem Artikel von Berkowitz (2015) werden viele weiterführende Informationen zur Methode, (z.B. Wann eignet sich der Einsatz einer Fokusgruppe?), eine Checkliste zur Überprüfung der wichtigen Schritte, Anwendungsbeispiele sowie viele Anwendungstipps gegeben. Der Artikel wird auf der Internetplattform von „Community Tool Box“ zur Verfügung gestellt: (englisch) http://ctb.ku.edu/en/table-of-contents/assessment/assessing-community-needs-and-resources/conduct-focusgroups/main Berkowitz, B. (2015). Conducting Focus Groups. Retrieved from http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-focus-groups/main Weitere Informationen zu den Anforderungen, der Vorgehensweise sowie Praxis-Tipps (z.B: zur Konzeption der Fragen) gibt Krueger (2002) in „Designing and Conducting Focus Group Interviews“: (englisch) http://www.eiu.edu/~ihec/Krueger-FocusGroupInterviews.pdf Krueger, R. A. (2002). Designing and Conducting Focus Group Interviews. University of Minnesota, St. Paul. Abgerufen von http://www.eiu.edu/~ihec/Krueger-FocusGroupInterviews.pdf Zu beachtende Normen und Zertifikate Usability-Methodenkatalog 95 Kategorie Kriterium Fokusgruppe Quellen Berkowitz, B. (2015). Conducting Focus Groups. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-focus-groups/main CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/ Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley. Jordan, P. W. (1998). An introduction to usability. London, Bristol, Pa.: Taylor & Francis. Krueger, R. A. (2002). Designing and Conducting Focus Group Interviews. University of Minnesota, St. Paul. Abgerufen von http://www.eiu.edu/~ihec/Krueger-FocusGroupInterviews.pdf Nielsen, J. (1994). Guerrilla HCI: Using Discount Usability Engineering to Penetrate the Intimidation Barrier. Abgerufen von http://www.nngroup.com/articles/guerrilla-hci/ Nielsen, J. (1997). The Use and Misuse of Focus Groups. Abgerufen von http://www.nngroup.com/articles/focus-groups/ Nielsen, J. (2001). First Rule of Usability? Don't Listen to Users. Abgerufen von http://www.nngroup.com/articles/first-rule-of-usability-dont-listen-to-users/ Usability First. (2015). Usability Methods. Zugriff am 19.05.2015. Abgerufen von http://www.usabilityfirst.com/ usability.de. (2015). Ausgewählte UX Methoden im Überblick. Zugriff am 27.04.2015. Abgerufen von http://www.usability.de/leistungen/methoden.html UsabilityNet. (2003). List of methods. Zugriff am 07.05.2015. Abgerufen von http://www.usabilitynet.org/tools/list.htm usability-toolkit.de. (o. J.). Usability-Methoden. Zugriff am 17.05.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/ UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von http://www.usewell.be/#/methods/ Wilkinson, A. W. & Vanattenhoven, J. V. (o. J.). Fucus Groups. Zugriff am 05.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter#info-32-focus-groups Wilson, C. (2006). Focus Group. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/focus-group Usability-Methodenkatalog 96 4.3.3 Fragebogen Kategorie Kriterium Fragebogen 1. Bezeichnung Name Fragebogen Synonyme Fragebögen, Questionnaire, Surveys, Schriftliche Befragung, Umfrage 2. Beschreibung Kurzbeschreibung Durch das Ausfüllen von Fragebogen durch Probanden, lassen sich Antworten auf festgelegte Fragen erhalten. So können z.B. Nutzer zu ihrer Meinung zu einem Produkt befragt werden. Je nach Typ der Fragen werden Antwortmöglichkeiten vorgegeben (geschlossene Frage) oder der Proband kann seine Antwort frei formulieren (offene Frage). Im Gegensatz zum Interview lassen sich mit vergleichbar geringem Aufwand, viele Personen erreichen. Abbildungen Ziele Erheben von quantitativen Aussagen von Nutzern (Sarodnick & Brau, 2011). Vergleich verschiedener Produkte (Sarodnick & Brau, 2011) Repräsentative Aussagen für die gesamte Benutzergruppe erhalten (Richter & Flückiger, 2010) Ergebnisse/ Output Je nach Fragebogen erhält man Aussagen über die Usability bzw. die pragmatische und hedonische Qualität des Produktes (Simply Usable, 2015). Vorteile Höhere Objektivität als z.B. Interviews, da keine Beeinflussung durch Dritte gegeben ist (Sarodnick & Brau, 2011). Fragebogen können relativ unaufwändig an jeder Stelle des Entwicklungsprozesses eingesetzt werden (Sarodnick & Brau, 2011, S. 184). Es gibt eine Vielzahl standardisierter Fragebogen zur Usability-Evaluation (Sarodnick & Brau, 2011). Es können viele Teilnehmer mittels Onlineerhebung erreicht werden (KUSi, 2015; Sarodnick & Brau, 2011) Es können objektive und statistisch vergleichbare Daten gewonnen werden (Sarodnick & Brau, 2011). Nachteile/ Grenzen Projektphase(n) Anwender Teilnehmer 3. Rahmenbedingungen & Ressourcen Die Erstellung und Auswertung von Fragebogen ist aufwendig (KUSi, 2015; Sarodnick & Brau, 2011) Fragebogen müssen methodisch korrekt erstellt und eingesetzt werden, um aussagekräftige Ergebnisse zu erhalten. Für selbsterstellte Fragebogen ist nicht sicher gestellt, dass sie die Gütekriterien Objektivität, Reliabilität und Validität hinreichend erfüllen. Daher sind sie „mit Vorsicht zu genießen“, nach Möglichkeit sollten standardisierte Fragebogen verwendet werden. (Richter & Flückiger, 2010; Sarodnick & Brau, 2011). Standardisierte Fragebogen lassen nur wenig Raum zur Anpassung durch den Anwender (Sarodnick & Brau, 2011). Es sind keine Nachfragen möglich (KUSi, 2015) Es sind viele Nutzer notwendig (Sarodnick & Brau, 2011). Es können nur bereits bekannte Informationen abgefragt werden (Sarodnick & Brau, 2011). Menschen tun und denken nicht immer das, was sie bei einer Befragung angeben (Jacobsen, 2007). Aufgrund von sozialem Druck füllen Menschen oft unbewusst Fragebogen zu positiv oder zu negativ aus. Dies kann zum einen den Grund haben, dass die Befragten glauben, der Auftraggeber freue sich über positive Ergebnisse und zum anderen dass sie glauben Fehler bzw. negative Aspekte finden zu müssen. Betreffende Fragebogen sollten daher von erfahrenen Psychologen entworfen werden. (Jacobsen, 2007) Alle Anzahl Ca. 10-30 (Simply Usable, 2015) Art Endnutzer Experten Rolle Wird befragt Einbeziehung Physikalische Einbeziehung „Remote“ Anzahl 1+ Rolle Ggf. Ersteller des Fragebogens, Analyst Erforderliche Kompetenzen Abhängig von der Größe der Zielgruppe und von der Art des Fragebogens (Goodman, Kuniavsky, & Moed, 2012; Simply Usable, 2015) Ggf. ein zusätzlicher Experte für die Erstellung des Fragebogens (Richter & Flückiger, 2010) Basis-Usability-Know-how (Simply Usable, 2015) Kenntnisse in Statistik und Testtheorie (Usetree, 2014b) Der Ausführende sollte sich mit dem Fragebogen auskennen, damit es nicht zu Unklarheiten kommt. (Simply Usable, 2015) Ggf. Kenntnisse über die Erstellung von Fragebogen (Richter & Flückiger, 2010) Werkzeuge, Hilfsmittel Schreibmaterial und gedruckte Fragebogen Software zur Durchführung der Befragung Ort/Umgebung Natürliche Nutzungsumgebung Simulierte Nutzungsumgebung Usability Labor Tagungsraum Schreibtisch Kosten Gering Usability-Methodenkatalog Ca. 0-10000 € (CHeval, 2013) 97 Kategorie 4. Vorgehensweise Kriterium Fragebogen Zeitaufwand Gering bis hoch Vorbereitung Zeitaufwand nach Richter & Flückiger, (2010) S. 76: Erstellen und Auswerten eines kleineren qualitativen Fragebogens: 5–10 PT Durchführen und Auswerten einer Untersuchung mit Standardfragebogen: 10–20 PT Erstellen und Auswerten einer quantitativen Fragebogen-Studie: nicht unter 30 PT Definition der Ziele: Welche Fragen oder Hypotesen sollen beantwortet werden? Welcher Teil des Produkts soll evaluiert werden? (Richter & Flückiger, 2010; Usetree, 2014b; UseWell, 2011) Festlegen welcher Fragebogen benutzt werden soll. Fragebogen können selbst entwickelt und erstellt werden, oder es kann auf standardisierte Fragebogen zurückgegriffen werden (vgl. Praxis-Tipps): (UsabilityNet, 2006b) AttrakDiff IsoMetrics ISONORM 9241-110-S QUIS SUMI SUS WAMMI … Art der Einbeziehung der Teilnehmer festlegen (UsabilityNet, 2006b): Physikalische Einbeziehung: Z.B. Ausfüllen des Fragebogens nach einem Usability-Test bzw. im Rahmen einer anderen Usability-Methode. „Remote-Einbeziehung“: Den Probanden wird der Fragbogen per Post oder E-Mail zugeschickt. Wählen wie Personen ausgewählt werden sollen, die an der Befragung teilnehmen: entweder als zufällige Stichprobe oder nach bestimmten Kriterien (Richter & Flückiger, 2010) Anzahl der teilnehmenden Personen festlegen: Wie viele Personen müssen befragt werden, um statistisch genügend gesicherte Aussagen machen zu können? (Richter & Flückiger, 2010, S. 70). Personen auswählen, die befragt werden sollen (Richter & Flückiger, 2010; UsabilityNet, 2006b). Zeitplanung durchführen (Richter & Flückiger, 2010) Die Probanden müssen sich mit dem zu testenden Produkt auseinander setzen oder dies bereits getan haben (Simply Usable, 2015). Ggf. Fragebogen erstellen (zur detaillierteren Darstellung der Fragebogenerstellung, siehe Methodenbeschreibung zum Online-Fragebogen Kapitel 4.3.5) Ggf. Fragebogen testen, um zu überprüfen, ob alles richtig verstanden wird und Bearbeitungsdauer festzustellen (Usetree, 2014b) Auswertung der Daten planen (Usetree, 2014b) Die Fragebogen werden den Teilnehmern zugänglich gemacht, z.B. per E-Mail (UsabilityNet, 2006b) Durchführung Die Teilnehmer beantworten die Fragebogen Nachbereitung/ Auswertung Statistische Auswertung der Ergebnisse (UsabilityNet, 2006b) Ableiten von Erkenntnissen Usability-Methodenkatalog 98 Kategorie Kriterium 5. Praxis-Tipps Praxis-Tipps Fragebogen Tipps: Wichtig ist, die Anonymität und den Datenschutz zu gewährleisten (Usetree, 2014b). Es ist ggf. auf die Durchführungshinweise der jeweiligen Fragebogen zu achten (Simply Usable, 2015). Varianten: 6. Zweck Papier-Fragebogen Online-Fragebogen (vgl. Methodenbeschreibung Kapitel 4.3.5) Telefonbefragung: Proband wird per Telefon angerufen, und bekommt die Fragen gestellt (Richter & Flückiger, 2010). Standardisierte Fragebogen: (eine Auswahl wird im Folgenden kurz beschrieben) AttrakDiff: Es wird erfasst, wie die Nutzer die Qualität und Attraktivität eines Produkts bewerten (vgl. Methodenbeschreibung Kapitel 4.3.4). IsoMetrics: Der Fragebogen steht in zwei Versionen zur Verfügung. Eine für den Einsatz während des Entwicklungsprozesses einer Software (IsoMetrics (short)) und eine für die Bewertung einer fertigen Software (IsoMetrix (long). Die Langform besteht aus 90 Items, die anhand einer fünfstufigen Skala bewertet werden. Zusätzlich wird die Bedeutsamkeit der Items vom Nutzer bewertet. Letztere Bewertung findet bei der kurzen Version nicht statt, außerdem beinhaltet der Fragebogen weniger Items. Die Auswertung des Fragebogens liefert eine detaillierte Auflistung von Usability-Problemen, die mit Hilfe einfacher Kategorisierungen priorisiert werden können. In der Langform ist die Bearbeitung des Fragebogens allerdings recht zeitintensiv. Zur Anwendung des Fragebogens steht ein Softwaretool zur Verfügung. (Sarodnick & Brau, 2011) ISONORM 9241-110-S: Der Fragebogen besteht aus 21 Items (Fragen) die nach einer Skala von sieben Gestaltungsanforderungen der DIN EN ISO 9241-110 von sehr negativ (---) bis sehr positiv (+++) bewertet werden. Durch die Normierung des Fragebogens lassen sich die Ergebnisse unterschiedlicher Befragungen miteinander vergleichen. Das Ausfüllen des Fragebogens dauert ca. 15 Minuten. Zur Auswertung wird eine Mittelwertberechnung angewendet. Es ergeben sich Hinweise, in welchen Bereichen Schwachpunkte vom Teilnehmer wahrgenommen wurden. Lösungsansätze zur Besaitung der Probleme werden durch die Methode nicht angeboten. Der Fragebogen steht kostenlos zur Verfügung und kann sowohl papiergestützt als auch online durchgeführt werden (Sarodnick & Brau, 2011). QUIS (Questionnaire for User Interface Satisfaction): Dieser Fragebogen erfasst ausschließlich die subjektive Zufriedenheit der Nutzer mit dem Benutzerinterface. Der Fragebogen umfasst 90 Items, die je aus zwei gegensätzlichen Adjektiven bestehen, die anhand einer neunstufigen Skala vom Nutzer bewertet werden. Der Umfang der Fragen kann durch den Versuchsleiter angepasst werden indem ItemGruppen weggelassen werden. Der Fragebogen ist nicht kostenlos nutzbar und muss lizensiert werden. Es ist ein Online-Tool verfügbar. (Sarodnick & Brau, 2011) SUMI (Software Usability Measurement Inventory): Der Fragebogen zielt darauf ab, die Eindrücke, Gefühle und die Zufriedenheit der Nutzer im Umgang mit einer Software zu ermitteln. Es sind 50 Items enthalten, die in die fünf Unterskalen Emotion (affect), Effizienz (efficiency), Erlernbarkeit (learnablility), Hilfsbereitschaft (helpfulness) und Kontrolle (control) eingeteilt sind. Der Nutzer wählt bei der Beantwortung, ob er den Aussagen zustimmt, nicht zustimmt oder unentschlossen ist. Die Auswertung liefert einen globalen Wert, welcher die subjektive Gebrauchstauglichkeit widerspiegelt. Zur Anwendung der Methode wird eine Mindestmenge von zehn Teilnehmern empfohlen. Das Ausfüllen eines Fragebogens dauert ca. 5 Minuten. Die Verwendung ist kostenpflichtig. (Kirakowski & Corbett, 1993; Sarodnick & Brau, 2011) SUS (System Usability Scale): Dieser kurze Fragebogen ermöglicht eine umfassende Bewertung der Gebrauchstauglichkeit. Er enthält 10 Items, die mittels einer fünf-stufigen Skala bewertet werden. Der Nutzer beantwortet die Fragen direkt nachdem er das zu bewertende Produkt getestet hat, ohne dass zuvor eine Nachbesprechung stattfindet. Die Bewertung soll ohne großes Nachdenken erfolgen. Im Zweifel soll die Mitte der Skala gewählt werden. Die Auswertung der Ergebnisse liefert einen Wert, der ein Maß für die gesamte Gebrauchstauglichkeit des Produkts angibt. Das Verfahren kann kostenfrei angewendet werden. (Bangor, Kortum, & Miller, 2008; Brooke) WAMMI (Website Analysis and Measurement Inventory): Dieser Fragebogen ist auf Webseiten spezialisiert stellt eine Weiterentwicklung es SUMI dar. Er enthält 20 Items auf den gleichen fünf Skalen, wobei „affect“ durch „attractivity“ ersetzt wurde. Der Fragebogen lässt sich auf der zu testenden Webseite eingliedern und kann direkt aus ihr gestartet werden. Zur Interpretation der Ergebnisse besteht die Möglichkeit die sich ergebenen Kennwerte mit einer Datenbank zu vergleichen. Die Anwendung ist kostenpflichtig. (Sarodnick & Brau, 2011) … Benutzer Benutzererfahrung Kontext folgendes zu erstellen: Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort folgendes zu bewerten: Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… Usability-Methodenkatalog 99 Kategorie Kriterium 7. Verwandte Verwandte Meund weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/Tätigkeite n Fragebogen Interview, Fokusgruppe Usability-Test: Nachdem sich der Teilnehmer in einem Usability-Test hinreichend mit dem zu testenden Produkt auseinandergesetzt hat, biete sich die Verwendung von Fragebogen an, um die subjektiven Urteile der Probanden zu den Produktaspekten zu erfahren (Sarodnick & Brau, 2011). Mögliche nachfol- Interview: Im Anschluss an den Fragebogen kann mit einer kleinen Teilgruppe der Probanden ein Interview gende Methoden/ durchgeführt werden, um detailliertere Informationen zu erhalten (UsabilityNet, 2006b). Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Eine neue Softwareversion wurde veröffentlicht. Nachdem die Nutzer diese einige Zeit verwendet haben, sollen sie nach ihrer Zufriedenheit gefragt werden. 9. Referenzen und weiterführende Informationen Weiterführende Informationen Methodische Details zur Durchführung von Fragebogen-Untersuchungen können dem Buch „Forschungsmethoden und Evaluation“ von Bortz & Döring, (2002), entnommen werden: Bortz, J., & Döring, N. (2002). Forschungsmethoden und Evaluation: Für Human- und Sozialwissenschaftler (3., überarb. Aufl.). Springer-Lehrbuch. Berlin [u.a.]: Springer Das Buch „Interview und schriftliche Befragung“ von Mayer, (2012), enthält Informationen zur Erstellung und Verwendung von eigenen Fragebogen: Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg. Die Erstellung von Fragebogen wird ebenfalls in dem Buch „Testtheorie und Fragebogenkonstruktion“ von (Moosbrugger, 2012), thematisiert: Moosbrugger, H. (2012). Testtheorie und Fragebogenkonstruktion: Mit 66 Abbildung und 41 Tabellen (2., aktual. und überarb. Aufl.). Springer-Lehrbuch. Berlin: Springer Das Buch „Methoden der Usability Evaluation“ von Sarodnick & Brau, (2011) bietet einen guten Überblick über einige Standardisierte Fragebogen: Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Der Artikel „Standardisierte Fragebögen zur Messung der Usability/User Experience – derzeit wieder in Mode?“ von Beschnitt, (2009), biete einen Überblick über standardisierte Fragebogen und verlink weitere Informationen zu den einzelnen Methoden: http://www.usabilityblog.de/2009/09/standardisierte-fragebogen-zur-messung-der-usabilityuser-experiencederzeit-wieder-in-mode/ Beschnitt, M. (2009). Standardisierte Fragebögen zur Messung der Usability/User Experience - derzeit wieder in Mode? Abgerufen von http://www.usabilityblog.de/2009/09/standardisierte-fragebogen-zur-messungder-usabilityuser-experience-derzeit-wieder-in-mode/ In einem Artikel von Hampton & Vivela, (2014), werden viele weiterführende Informationen zum Thema Umfragen gegeben. Enthalten sind außerdem eine Checkliste zur Überprüfung der wichtigen Aspekte, Anwendungsbeispiele sowie viele Anwendungstipps. Der Artikel wird auf der Internetplattform von „Community Tool Box“ zur Verfügung gestellt: (englisch) http://ctb.ku.edu/en/table-of-contents/assessment/assessing-community-needs-and-resources/conductsurveys/example Hampton, C. & Vivela, M. (2014). Conducting Surveys. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-surveys/main Zu beachtende Normen und Zertifikate Usability-Methodenkatalog 100 Kategorie Kriterium Fragebogen Quellen Bangor, A., Kortum, P. T., & Miller, J. T. (2008). An Empirical Evaluation of the System Usability Scale. International Journal of Human-Computer Interaction, 24(6), 574–594. doi:10.1080/10447310802205776 Beschnitt, M. (2009). Standardisierte Fragebögen zur Messung der Usability/User Experience - derzeit wieder in Mode? Abgerufen von http://www.usabilityblog.de/2009/09/standardisierte-fragebogen-zur-messungder-usabilityuser-experience-derzeit-wieder-in-mode/ Bortz, J., & Döring, N. (2002). Forschungsmethoden und Evaluation: Für Human- und Sozialwissenschaftler (3., überarb. Aufl.). Springer-Lehrbuch. Berlin [u.a.]: Springer. Brooke, J. SUS - A quick and dirty usability scale, 1996. Abgerufen von http://cui.unige.ch/isi/iclewiki/_media/ipm:test-suschapt.pdf CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/ Goodman, E., Kuniavsky, M., & Moed, A. (2012). Observing the user experience: A practitioner's guide for user research ([2nd ed]). Amsterdam: Morgan Kaufmann/Elsevier. Hampton, C. & Vivela, M. (2014). Conducting Surveys. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-surveys/main Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley. Kirakowski, J., & Corbett, M. (1993). SUMI: The Software Usability Measurement Inventory. British Journal of Educational Technology, 24(3), 210–212. doi:10.1111/j.1467-8535.1993.tb00076.x KUSi. (2015). Usability & User-Experience Methoden für den Mittelstand. Zugriff am 16.05.2015. Abgerufen von http://www.usability-siegen.de/qualifizierung.html Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg. Moosbrugger, H. (2012). Testtheorie und Fragebogenkonstruktion: Mit 66 Abbildung und 41 Tabellen (2., aktual. und überarb. Aufl.). Springer-Lehrbuch. Berlin: Springer. Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln (2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag. Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Simply Usable. (2015). Factsheet-Benutzerbefragung. Abgerufen von http://www.simply-usable.de/wpcontent/uploads/2015/02/Factsheet-Benutzerbefragung-simply-usable.pdf UsabilityNet. (2006). Subjective Assessment. Zugriff am 08.06.2015. Abgerufen von http://www.usabilitynet.org/tools/subjective.htm Usetree. (2014). Fragebogen. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Fragebogen.pdf UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von http://www.usewell.be/#/methods/ Usability-Methodenkatalog 101 4.3.4 AttrakDiff Kategorie Kriterium AttrakDiff 1. Bezeichnung Name AttrakDiff Synonyme 2. Beschreibung Kurzbeschreibung AttrakDiff ist ein standardisierter Fragebogen zur Usability-Evaluation interaktiver Produkte. Er erfasst, wie die Nutzer die Qualität und Attraktivität eines Produkts bewerten. Hierbei wird nicht nur die reine Gebrauchstauglichkeit (pragmatische Qualität) eines Produktes bewertet, sondern auch das Thema „joy of use“ also die Zufriedenstellung der Nutzer bei Aspekten wie beispielsweise der Neuheit, der Originalität sowie des Spaß bei der Verwendung eines Produkts (hedonische Qualität). Abbildungen Abbildung 11: Beispiel-Items des AttrakDiff (Sarodnick & Brau, 2011) Ziele Die Ermittlung der Attraktivität eines interaktiven Produkts (Hassenzahl, Burmester, & Koller, 2003). Ergebnisse/ Output Informationen darüber, wie die Benutzer ihr Produkt subjektiv, in Bezug auf die Bedienbarkeit und das Aussehen, wahrnehmen (User Interface Design, 2014). Vorteile Neben der pragmatischen Qualität wird auch die hedonische Qualität eines Produkts berücksichtigt Ermöglicht einen Vergleich mit anderen Produkten (Uselab, 2015) Ökonomisch, da schnell durchzuführen und kostenfrei erhältlich (Uselab, 2015) Angemessene Reliabilität und Validität (Uselab, 2015) Individuelle Anpassung des Fragebogens (Uselab, 2015) Ergebnisauswertung kann online und automatisch erfolgen (Uselab, 2015) Nachteile/ Grenzen Fehlende Normstichprobe (Uselab, 2015) Keine explizite, standardisierte Instruktion vorhanden (Uselab, 2015) Es wird lediglich ein Gesamteintrug des bewerteten Produkts ermittelt. Welche Aspekte besonders attraktiv oder unattraktiv sind, geht nicht hervor und muss bei Bedarf gesondert erhoben werden (CHeval, 2013). Enthält viele ähnliche Fragen, was dazu führen kann, dass die Teilnehmer gelangweilt werden (Vermeeren, o. J.) Projektphase(n) Teilnehmer Anzahl Anwender 3. Rahmenbedingungen & Ressourcen Umsetzung, Betrieb Ein funktionierender Entwurf ist notwendig 5-20 oder mehr Art Endnutzer Rolle Wird befragt Einbeziehung Anzahl 1 Rolle Organisator Max. 20 bei der Online-Version; bei Verwendung den Premium Services sind mehr Teilnehmer möglich (Hassenzahl, Burmester, & Koller, 2008) 5-10 können Trends aufzeigen besser sind 15 oder mehr (CHeval, 2013) physikalische Einbeziehung „Remote“ Erforderliche Keine Kompetenzen Werkzeuge, Hilfsmittel Kostenloses Online-Tool: www.attrakdiff.de Ort/Umgebung Kosten Gering Zeitaufwand Gering Usability-Methodenkatalog Natürliche Nutzungsumgebung Schreibtisch Je nach gewählter Dauer des Projektzeitraums Maximaler Zeithorizont: 3 Monate (www.attrakdiff.de) 102 Kategorie Kriterium AttrakDiff 4. Vorgehensweise Vorbereitung Bei Nutzung des Online-Tools: kostenlose Anmeldung auf www.attrakdiff.de Einsatzgebiet von AttrakDiff wählen (Hassenzahl et al., 2008): Einzelauswertung: ein Produkt soll einmalig von Nutzern bewertet werden Vergleich zwischen zwei Produkten Vorher-Nachher-Vergleich: ein Produkt wird vor und nach einer Optimierung bewertet Laufzeit des Projektes wählen Testpersonen auswählen (maximal 20), die das Produkt schon getestet haben und die Qualität bewerten können. Sie können über das Online-Tool angeschrieben und zu dem Test einladen werden. Durchführung Die Teilnehmer bearbeiten den Fragebogen. Nachbereitung/ Auswertung Die Ergebnisse werden durch die Online-Software ausgewertet und in Form von Diagrammen dargestellt. Die Daten sind jederzeit während des Datenerhebungsvorgangs abrufbar. Zusätzlich sind Hinweise zur Interpretation der Ergebnisse gegeben. 5. Praxis-Tipps Praxis-Tipps 6. Zweck Die Methode ist mehr zu erfahren über… anwendbar, wenn folgendes zu bewerten: es das Ziel ist… Benutzererfahrung Physikalisches Produkt Software integriertes Produkt Dienstleistung Umgebung/Ort 7. Verwandte Verwandte MeSUMI, SUS, SQUS, QUIS (Vermeeren, o. J.) und weiterfühthoden rende Methoden Mögliche voranUsability-Test (Sarodnick & Brau, 2011) gegangene Methoden/Tätigkeite n Mögliche nachfolgende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Die Attraktivität einer Website soll von Nutzern bewertet werden. 9. Referenzen und weiterführende Informationen Weiterführende Informationen Ein Überblick über die 28 bipolaren Items des Fragebogens wird von dem Projekt uselab der TU Berlin bereitgestellt unter: http://www.uselab.tu-berlin.de/wiki/images/4/47/AttrakDiff_Fragebogen.pdf Uselab. (2015). Usability und UX Wiki. Retrieved from http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite Ausführliche Informationen über den Einsatz des Online-Tools attrakdiff.de biete ein Artikel der SeitenBetreiber: http://attrakdiff.de/files/up08_ux_auf_der_spur.pdf Hassenzahl, M., Burmester, M., & Koller, F. (2008). Der User Experience (UX) auf der Spur: Zum Einsatz von www.attrakdiff.de. Usability Professionals, 78–82. Retrieved from http://attrakdiff.de/files/up08_ux_auf_der_spur.pdf Zu beachtende Normen und Zertifikate Quellen CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/ Hassenzahl, M., Burmester, M., & Koller, F. (2003). AttrakDiff: Ein Fragebogen zur Messung wahrgenommener hedonischer und pragmatischer Qualität. In G. Szwillus & J. Ziegler (Eds.), Berichte des German Chapter of the ACM. Mensch & Computer 2003 (pp. 187–196). Wiesbaden: Vieweg+Teubner Verlag. Hassenzahl, M., Burmester, M., & Koller, F. (2008). Der User Experience (UX) auf der Spur: Zum Einsatz von www.attrakdiff.de. Usability Professionals, 78–82. Abgerufen von http://attrakdiff.de/files/up08_ux_auf_der_spur.pdf Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite User Interface Design. (2014). AttrakDiff. Zugriff am 08.05.2015. Abgerufen von http://attrakdiff.de/#nutzen Vermeeren, A. P. O. S. (o. J.). Attrakdiff Questionnaire. Zugriff am 05.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter#info-1-attrakdiff-questionnaire Usability-Methodenkatalog 103 4.3.5 Online-Befragung Kategorie Kriterium Online-Befragung 1. Bezeichnung Name Online-Befragung Synonyme Online-Fragebogen 2. Beschreibung Kurzbeschreibung Online-Befragungen sind eine internetbasierte Variante der Fragebogen. Aus dem Browser heraus können die Befragten Online-Fragebogen ausfüllen, die auf einem Web-Server hinterlegt sind. Die Ergebnisse können heruntergeladen und ausgewertet werden. Abbildungen Ziele Erheben von quantitativen Aussagen von Nutzern (Sarodnick & Brau, 2011). Vergleich verschiedener Produkte (Sarodnick & Brau, 2011) Repräsentative Aussagen für die gesamte Benutzergruppe erhalten (Richter & Flückiger, 2010) Ergebnisse/ Output Aussagen über die Gebrauchstauglichkeit des Produktes (Simply Usable, 2015). Vorteile Kostengünstig durch Wegfall von Materialien (Sarodnick & Brau, 2011) Interaktive Ansprache des Befragten (z.B. Hinweise, Hilfestellungen) (Sarodnick & Brau, 2011, S. 185) Die Datenerhebung ist weniger fehleranfällig, da der Befragte Hinweise zur Korrektur von fehlerhaften Eingabeformaten geben kann (Sarodnick & Brau, 2011). Die Datenaufbereitung ist weniger aufwendig und weniger fehleranfällig, da die Daten schon in elektronischer Form vorliegen (Sarodnick & Brau, 2011). Durch die Anonymität im Internet antworten Teilnehmer auch auf heikle und peinliche Fragen (Sarodnick & Brau, 2011). Es ist eine Filterführung der Fragen möglich. So können Fragen übersprungen oder vertiefende Fragen eingeblendet werden, je nachdem welche Antworten der Nutzer zuvor gegeben hat (Quirmbach, 2013) Fragenblöcken können rotiert oder randomisiert werden, um Reihenstellungseffekte zu vermeiden (Quirmbach, 2013). Dem Teilnehmer können Meldungen zur Ausfüllkontrolle der Fragen und Rückmeldungen angezeigt werden, z.B. wenn bei einer Frage nicht alle Punkte beantwortet wurden (Quirmbach, 2013). Nachteile/ Grenzen Anwender 3. Rahmenbedingungen & Ressourcen Teilnehmer Projektphase(n) Hohe Abbruchquote durch die Unverbindlichkeit des Online-Mediums (Sarodnick & Brau, 2011) Personengruppen mit höherer Computerexpertise sind stärker repräsentiert als bei Papier-Fragebogen (Sarodnick & Brau, 2011). Onlinespezifische Gestaltungsfehler z.B. technische Fehler, zu lange oder zu langweilige Fragen, können zur Verzerrung der Daten führen (Sarodnick & Brau, 2011). Die Teilnehmer können keine Verständnisfragen während der Bearbeitung stellen (Sarodnick & Brau, 2011). Alle Anzahl Ca. 10-30 (Simply Usable, 2015) Art Endnutzer Experten Rolle Wird befragt Einbeziehung „Remote“ Anzahl 1+ Rolle Ersteller des Fragebogens, Analyst Erforderliche Kompetenzen Abhängig von der Größe der Zielgruppe und von der Art des Fragebogens (Goodman et al., 2012; Simply Usable, 2015) Ggf. ein zusätzlicher Experte für die Erstellung eines Fragebogens (Richter & Flückiger, 2010) Kenntnisse über die Erstellung von Fragebogen (Richter & Flückiger, 2010) Kenntnisse in Statistik und Testtheorie (Usetree, 2014b) Basis-Usability-Know-how (Simply Usable, 2015) Werkzeuge, Hilfsmittel Software zur Durchführung der Befragung Ort/Umgebung Schreibtisch Kosten Gering Zeitaufwand Gering bis hoch Zeitaufwand nach Richter & Flückiger, (2010) S. 76: Erstellen und Auswerten eines kleineren qualitativen Fragebogens: 5–10 PT Durchführen und Auswerten einer Untersuchung mit Standardfragebogen: 10–20 PT Erstellen und Auswerten einer quantitativen Fragebogen-Studie: nicht unter 30 PT Usability-Methodenkatalog 104 Kategorie Kriterium Online-Befragung 4. Vorgehensweise Vorbereitung Definition der Ziele: Welche Fragen oder Hypotesen sollen beantwortet werden? Welcher Teil des Produkts soll evaluiert werden? (Richter & Flückiger, 2010; Usetree, 2014b; UseWell, 2011) Zeitplanung durchführen (Richter & Flückiger, 2010) Wahl des Online-Umfrage-Tools: Mögliche Auswahlkriterien (Usetree, 2014b): Werden bestimmte Fragenformate benötigt, die von der Software unterstützt werden sollen? Soll ein eigenes Layout erstellt werden können? In welcher Form sollen die Umfragedaten exportiert werden können? Soll eine Installation auf einem eigenen Server möglich sein? … Wählen wie Personen ausgewählt werden sollen, die an der Befragung teilnehmen: entweder als zufällige Stichprobe oder nach bestimmten Kriterien (Richter & Flückiger, 2010) Anzahl der teilnehmenden Personen festlegen: Wie viele Personen müssen befragt werden, um statistisch genügend gesicherte Aussagen machen zu können? (Richter & Flückiger, 2010, S. 70). Personen auswählen, die befragt werden sollen (UsabilityNet, 2006b) Die Probanden müssen sich mit dem zu testenden Produkt auseinander setzen oder dies bereits getan haben (Simply Usable, 2015). Fragebogen erstellen (Eichhorn, 2004 S. 3): Formulierung der Fragen Wahl der Antwortmöglichkeiten Konstruktion von Skalen aus Fragesequenzen Zusammenstellung der Fragen und Fragesequenzen zu einem Fragebogen Fragebogen testen, um zu überprüfen, ob alles richtig verstanden wird und Bearbeitungsdauer festzustellen (Usetree, 2014b) Die Fragebogen werden den Teilnehmern zugänglich gemacht, z.B. per E-Mail (UsabilityNet, 2006b) Durchführung Die Teilnehmer beantworten die Fragebogen Nachbereitung/ Auswertung Statistische Auswertung der Ergebnisse (UsabilityNet, 2006b) Ableiten von Erkenntnissen 5. Praxis-Tipps Praxis-Tipps Tipps: Usability-Methodenkatalog Wichtig ist, die Anonymität und den Datenschutz zu gewährleisten (Usetree, 2014b). Tipps zur Gestaltung von Online-Fragebogen (Gräf, 2002 nach Sarodnick & Brau, 2011, S. 185 f.): Beachte technische Anforderungen. Formuliere die Fragen nach den Regeln der empirischen Sozialforschung. Etabliere eine glaubwürdige Kommunikation mit den Antwortenden. Erzeuge Awareness (in dt. Literatur: «Gewährtigkeit») und Aufmerksamkeit. Verwende ein ansprechendes Design und setze Usability-Kriterien um. Hebe zentrale Textpassagen hervor. Vermeide Matrix-Fragen. Halte den Fragebogen kurz. Setze Filter-Fragen ein. Führe einen Vortest durch Tipps zur Formulierung von Fragen (Eichhorn, 2004 S. 5 ff.): Einfache Wörter verwenden Fremdwörter vermeiden Einfachen Satzbau, kurze Sätze, möglichst keine Nebensätze oder missverständliche temporale oder konjunktive Konstruktionen verwenden der Befragte soll sich angesprochen fühlen der Befragte darf sich nicht durch die Frage angegriffen oder in seiner Privatsphäre gestört fühlen Die Frageformulierung darf den Befragten nicht beeinflussen, die Frage in einer bestimmten Art und Weise zu deuten und zu beantworten. Suggestivfragen, die eine bestimmte Antwort nahelegen, sind zu vermeiden 105 Kategorie Kriterium Online-Befragung Varianten: 6. Zweck Panelumfragen: Hierbei werden Teilnehmergruppen aus einem passiv rekrutierten Adresspool befragt. Internetnutzer registrieren sich bei einem Panelbetreiber und werden dann zu Umfragen eingeladen. Die Auswahl der Einladung erfolgt nach den Daten, die die Internetnutzung ihrem persönlichen Nutzerprofil hinzugefügt haben. Dies können z.B. soziodemokratische Angaben, Vorlieben, Nutzungsverhalten oder Einstellungen der Nutzer sein. Auf diese Weise lassen sich auch schwer zu erreichende Zielgruppen erreichen. (Quirmbach, 2013) Onsitebefragung: Mit dieser Variante lassen sich Umfragen auf Webseiten durchführen. Sie wird verwendet, um schnelle und umfangreiche Nutzerbefragungen, mit großen Stichproben, zu realisieren. Ein Anwendungsbeispiel könnte die Abfrage der allgemeinen Zufriedenheit der Nutzer mit einer Website sein. Die Einladung zur Befragung wird üblicherweise in Form von Pop-ups oder Layern direkt auf der Site eingebunden, kann aber auch per E-Mail, postalisch oder per Telefon versandt werden. Die Nutzer einer Website treffen so meist zufällig beim Surfen auf die Aufforderung zur Teilnahme. Vorteile der Methode sind, die schnelle und günstige Möglichkeit ein Nutzerfeedback zu erhalten, die vielfältigen Möglichkeiten der Verteilung der Einladungen sowie die Möglichkeit der Durchführung auf mobilen Endgeräte. Nachteilig ist, dass nur bestehende Nutzer bzw. Kunden, die z.B. die Website besuchen befragt werden. Dadurch ist die Repräsentativität der gewonnenen Stichprobe möglicherweise nicht gegeben. (Quirmbach, 2013) Onsitefeedback: Bei dieser Variante wird ein Feedback-Button auf einer Site integriert. Hier können gezielt Fragestellungen eingeblendet werden, die Nutzer bei Interesse beantworten können. So können unmittelbare Rückmeldungen zu Inhalten oder integrierten Funktionen erhalten werden. Im Gegensatz zur klassischen Online-Umfrage werden nur ein bis drei Fragen gestellt. Vorteile dieser Variante sind, dass alle Nutzer einer Website die Umfrage sehen können und die Befragung direkt im Kontext der Nutzung erfolgt. Nachteilig ist, dass nur bestehende Nutzer bzw. Kunden befragt werden können. Dadurch ist die Repräsentativität der gewonnenen Stichprobe möglicherweise nicht gegeben. Außerdem können nur Produkte bewertet werden, die schon vom Kunden verwendet werden. (Quirmbach, 2013) Benutzer Benutzererfahrung Kontext folgendes zu erstellen: Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort folgendes zu bewerten: Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… 7. Verwandte Verwandte MeFragebogen, AttrakDiff, Interview, Fokusgruppe und weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/Tätigkeite n Mögliche nachfolgende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Usability-Methodenkatalog Eine neue Softwareversion wurde veröffentlicht. Nachdem die Nutzer diese einige Zeit verwendet haben, sollen sie nach ihrer Zufriedenheit gefragt werden. 106 Kategorie Kriterium Online-Befragung 9. Referenzen und weiterführende Informationen Weiterführende Informationen Methodische Details zur Durchführung von Fragebogen-Untersuchungen können dem Buch „Forschungsmethoden und Evaluation“ von (Bortz & Döring, 2002), entnommen werden: Bortz, J., & Döring, N. (2002). Forschungsmethoden und Evaluation: Für Human- und Sozialwissenschaftler (3., überarb. Aufl.). Springer-Lehrbuch. Berlin [u.a.]: Springer Das Buch „Interview und schriftliche Befragung“ von Mayer, (2012), enthält Informationen zur Erstellung und Verwendung von eigenen Fragebogen: Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg. In „Online-Befragung“ von Eichhorn, (2004), wird detailliert auf die Konstruktion von Online-Fragebogen eingegangen. Das Dokument ist frei erhältlich unter: http://www2.ifkw.uni-muenchen.de/ps/we/cc/onlinebefragung-rev1.0.pdf Eichhorn, W. (2004). Online-Befragung: Methodische Grundlagen, Problemfelder, praktische Durchführung. Abgerufen von http://www2.ifkw.uni-muenchen.de/ps/we/cc/onlinebefragung-rev1.0.pdf Die Erstellung von Fragebogen wird ebenfalls in dem Buch „Testtheorie und Fragebogenkonstruktion“ von (Moosbrugger, 2012), thematisiert: Moosbrugger, H. (2012). Testtheorie und Fragebogenkonstruktion: Mit 66 Abbildung und 41 Tabellen (2., aktual. und überarb. Aufl.). Springer-Lehrbuch. Berlin: Springer Der Artikel „Fragebogen“, der von dem Usetree-Projekt erstellt wurde, enthält eine Gegenüberstellung von Softwarelösungen, die zur Durchführung der Online-Befragung verwendet werden können: http://www.usetree.de/wp-content/uploads/2014/09/Fragebogen.pdf Usetree. (2014). Fragebogen. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Fragebogen.pdf Zu beachtende Normen und Zertifikate Quellen Bortz, J., & Döring, N. (2002). Forschungsmethoden und Evaluation: Für Human- und Sozialwissenschaftler (3., überarb. Aufl.). Springer-Lehrbuch. Berlin [u.a.]: Springer. Eichhorn, W. (2004). Online-Befragung: Methodische Grundlagen, Problemfelder, praktische Durchführung. Abgerufen von http://www2.ifkw.uni-muenchen.de/ps/we/cc/onlinebefragung-rev1.0.pdf Goodman, E., Kuniavsky, M., & Moed, A. (2012). Observing the user experience: A practitioner's guide for user research ([2nd ed]). Amsterdam: Morgan Kaufmann/Elsevier. Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg. Moosbrugger, H. (2012). Testtheorie und Fragebogenkonstruktion: Mit 66 Abbildung und 41 Tabellen (2., aktual. und überarb. Aufl.). Springer-Lehrbuch. Berlin: Springer. Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung. X.media.press. Berlin u.a.: Springer. Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln (2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag. Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Simply Usable. (2015). Factsheet-Benutzerbefragung. Abgerufen von http://www.simply-usable.de/wpcontent/uploads/2015/02/Factsheet-Benutzerbefragung-simply-usable.pdf UsabilityNet. (2006). Subjective Assessment. Zugriff am 08.06.2015. Abgerufen von http://www.usabilitynet.org/tools/subjective.htm Usetree. (2014). Fragebogen. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Fragebogen.pdf UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von http://www.usewell.be/#/methods/ Usability-Methodenkatalog 107 4.4 Prototyping 4.4.1 Prototyping Kategorie 1. Bezeichnung Kriterium Prototyping (allgemein) Name Prototyping Synonyme 2. Beschreibung Kurzbeschreibung Die Erstellung eines Prototyps hilft dabei, sich ein Endprodukt zu vergegenwärtigen, bevor dieses fertig entwickelt ist. Hierdurch können Ideen/Konzepte/Entwürfe erzeugt, kommuniziert und getestet werden. Durch den Eindruck des Systems bzw. die Evaluation des Systems können Probleme gefunden, Verbesserungen abgeleitet und das System weiter entwickelt werden. Abbildungen Abbildung 12: Grober Prototyp eines Geräts aus der HNO-Heilkunde aus einer sehr frühen Entwicklungsphase (Suzuki, 2010) Ziele Förderung der Kreativität: Wird der Prototyp im Rahmen eines Workshops erstellt, kann der kreative Prozess die Entwicklung von Ideen, Funktionen und Benutzerschnittstellen unterstützen. (Bevan & Wilson, 2005) Unterstützung der Kommunikation: Der Prototyp kann die Kommunikation von Design-Ideen unterstützen, indem eine erlebbare Demonstration geschaffen wird. (Bevan & Wilson, 2005) Testmöglichkeit schaffen: Der entwickelte Prototyp kann von realen Nutzern im Hinblick auf die Gebrauchstauglichkeit und die Nützlichkeit getestet werden. (Bevan & Wilson, 2005) Ergebnisse/ Output Repräsentation des Systems Ggf. Erkenntnisse bezüglich der Gebrauchstauglichkeit eines Systems Vorteile Kommunikation: Ermöglicht die Kommunikation und Diskussion über Entwürfe und Ideen (UseWell, 2011) Verbessert die Kommunikation im Projektteam, insbesondere zwischen Programmierern und Designern (Rammelt & Otto, o. J.). Gerade in frühen Phasen des Projektes sind Prototypen besser zur Kommunikation von Ideen geeignet als Worte oder Bilder (Suzuki, 2010). Kosten- und Zeitaufwand: Prototypen können schnell und kostengünstig erstellt, modifiziert und erweitert werden (Rammelt & Otto, o. J.). Verminderung kostspieliger Fehler, da diese schon entdeckt und korrigiert werden können, solange Änderungen noch relativ leicht und günstig zu vollziehen sind (Rammelt & Otto, o. J.). Senkung der Entwicklungszeit, da Verbesserungen frühzeitig gemacht werden können und die Implementierung frühzeitig geplant werden kann (Rammelt & Otto, o. J.). Testbarkeit: Es können frühzeitig Test mit potentiellen Kunden durchgeführt werden (Rammelt & Otto, o. J.). Nachteile/ Grenzen Usability-Methodenkatalog Zu schnelles Entwickeln hin zu Prototypen kann die Ausbildung weiterer Design-Ideen einschränken (Bevan & Wilson, 2005). Der Entwicklungsprozess kann durch Prototyping verlangsamt werden, wenn Anforderungen weder korrekt erhoben noch sauber dokumentiert sind (Rammelt & Otto, o. J.). Design-Features können durch den Umfang des Prototyping-Tools limitiert werden (Bevan & Wilson, 2005). Antipathien gegenüber Prototyping von Seiten der Systementwickler (wenn das Prototyping nicht ernst genommen oder als überflüssig angesehen wird) können den Prozess stören (Rammelt & Otto, o. J.). 108 Kategorie Kriterium Prototyping (allgemein) Projektphase(n) Konzeption, Umsetzung Anwender Teilnehmer 3. Rahmenbedingungen & Ressourcen Anzahl Variiert je nach Art des Prototyps, Anwendungsfall und Art der Teilnehmer die involviert werden sollen Art Firmeninterne Entwickler Designer (Potentielle) Endnutzer Kunde Stakeholder Rolle Partizipation Diskussion Wird beobachtet Einbeziehung Physikalische Einbeziehung Anzahl 1 Rolle Organisator, ggf. Ersteller des Prototyps, ggf. Moderator, ggf. Beobachter Erforderliche Variiert je nach Art des Prototyps: Kompetenzen Einfache Ideenskizzen können von jedem erstellt werden (Usability-Toolkit, o. J.) Generell ist Erfahrung in Konzeption erforderlich (Simply Usable, o. J.) Werkzeuge, Hilfsmittel Prototyping Tools (Gläser, 2014): Für Wireframe-Prototypen (vgl. Praxis-Tipps): Balsamiq, HotGloo, Axure, Omnigraffle, Fireworks, Illustrator Für Mockup-Prototypen (vgl. Praxis-Tipps): Fireworks (für Layouts), Photoshop (Styling), Illustrator (Grafik-Elemente und Icons), Cinama 4D (3D Grafiken). Materialien für die Herstellung des Prototypen (z.B. Papier) Ort/Umgebung Natürliche Nutzungsumgebung Simulierte Nutzungsumgebung Usability Labor Tagungsraum Schreibtisch Kosten Gering bis hoch Variiert je nach Art des Prototyps Zeitaufwand Gering bis hoch Variiert je nach Art des Prototyps Usability-Methodenkatalog 109 Kategorie Kriterium Prototyping (allgemein) 4. Vorgehensweise Vorbereitung Durchführung Nachbereitung/ Auswertung Usability-Methodenkatalog Anlegen eines Logbuchs um darin Zeichnungen, Skizzen und Notizen zu sammeln (UseWell, 2011) Ausgehend von ersten Skizzen werden detaillierte Zeichnungen von dem Konzept bzw. der Idee angefertigt (UseWell, 2011). Ggf. Erstellen eines einfachen Basis-Modells (ohne Funktionen) aus günstigen Materialien z.B. Papier, Pappe oder Holz (UseWell, 2011) Ggf. Basis-Modell auf Probleme untersuchen (UseWell, 2011) Wählen welche Art des Prototypings verwendet werden soll: Exploratives Prototyping: Es werden verschiedene Lösungsmöglichkeiten durch die Prototypen dargestellt und veranschaulicht. Vor- und Nachteile können untersucht und gegenübergestellt werden. Eine begründete und dokumentierte Designentscheidung kann getroffen werden. (DAkkS, 2010) Evolutionäres Prototyping: Ein Prototypt wird iterativ immer weiter verbessert und schließlich zum fertigen Zielsystem weiterentwickelt (Rammelt & Otto, o. J.). Einstufung des Prototyps nach den vier Dimensionen festlegen (Beadouin-Lafon & Mackay, 2003): Repräsentation: Offline Prototypen (z.B. Paper-Prototyps, Storyboards, Mockups) Online Prototypen (z.B. interaktive Videopräsentationen, Wizard of Oz) Präzision (Detailgrad) Interaktivität Evolution (Lebensdauer) Festlegen der Prototyping-Strategie (Nielsen, 1993): Horizontale Prototypen: Überblick über alle Funktionen mit geringem Detailtiefe Vertikale Prototypen: einige wenige Funktionen im Detail mit hoher Präzision Aufgabenorientierte Prototypen: Mix aus horizontalem und vertikalem Prototyp mit der Ausrichtung auf spezifische Aufgaben, die abgebildet werden sollen Szenario-basierte Prototypen: ähnlich den aufgabenorientierten Prototypen aber mit dem Fokus auf Szenarien; der Nutzer soll eine System so erfahren, wie es sich in einer realistischen Situation verhalten würde Kann der Prototyp eigenständig angefertigt werden? Alternativ könnte z.B: ein Unternehmen für Rapid Prototyping beauftragt werden? (UseWell, 2011). Material und Werkzeuge für die Erstellung wählen; bei einer eigenen Erstellung ist die Wahl von günstigen, langlebigen und leicht zu verarbeitenden Materialien sinnvoll (UseWell, 2011) Identifizieren der Arbeitsschritte zur Erstellung des Prototyps (UseWell, 2011) Ermittlung der Kosten für die Erstellung (UseWell, 2011) Falls der Prototyp getestet werden soll (UseWell, 2011): Definition von Aufgaben, die die Probanden mit dem Prototyp ausführen Rekrutierung von Probanden Ort für den Test festlegen und ggf. reservieren Für den Test nötige Werkzeuge und Hilfsmittel organisieren (z.B. Aufzeichnungsgeräte) Erstellen des Prototyps (UseWell, 2011) In einem schnellen Test überprüfen, ob mit dem Prototyp die definierten Aufgaben durchgeführt werden können (UseWell, 2011). Prototyp testen (UseWell, 2011): Werkzeuge und Hilfsmittel z.B: Videoaufzeichnungsgeräte bereitstellen und einrichten Probanden (z.B. repräsentative Endnutzer) für den Test begrüßen und in den Test einweisen (durchzuführende Aufgaben vorstellen) Probanden beobachten (Notizen machen, ggf. im Anschluss interviewen) Nachbesprechung mit den Probanden (UseWell, 2011) Aufzeichnungen über den Test auswerten und einen abschließenden Bericht erstellen, der die Untersuchung zusammenfasst (UseWell, 2011) Ggf. Verbesserungen ableiten (UseWell, 2011) Ggf. die Ergebnisse dem Entwicklerteam präsentieren (UseWell, 2011) Ggf. Überarbeiten des Prototyps (erneutes Durchführen der Prototyping-Methode) (UseWell, 2011) 110 Kategorie Kriterium 5. Praxis-Tipps Praxis-Tipps Prototyping (allgemein) Tipps: Falls der Prototyp nicht selbst erstellt werden kann, kann ein professioneller Prototyp-Designer beauftragt werden (UseWell, 2011) Varianten: 6. Zweck Storyboards: Es werden Skizzen vom Benutzerinterface angefertigt. Im Fokus steht der zentrale Inhalt und wie dieser in Szene gesetzt wird. Elemente wie Listen, Buttons und Drop-down-Menüs werden platziert. Die Skizzen werden anhand von konkreten Anwendungsfällen miteinander verknüpft. Es entsteht eine comic-artige Ablauf-Beschreibung möglicher Interaktionsszenarien (vgl. Kapitel 4.4.2). (Gläser, 2014; Usability-Toolkit, o. J.) Wireframes: Es handelt sich dabei um einen digitalen Prototyp, der das konkrete Design der Benutzeroberfläche zeigt. Der Fokus liegt dabei auf der Anordnung und der Große der Elemente. Texte und Bilder sind daher in der finalen Größe und in der richtigen Relation zueinander dargestellt. Die konkreten Inhalte der Texte und Bilder sind noch nicht enthalten. Man verwendet Blindtexte und Platzhalter für Bilder. Designvariablen wie Farben, Schriftarten, Formen, Texturen und Effekte sind noch nicht definiert. (Gläser, 2014) Paper-Prototypes: Das Benutzerinterface eines Systems wird bei diesem Verfahren aus Papier nachgebildet. Ein Proband führt vorgegebene Aufgaben mit dem Prototyp durch, während der Ausführende das PapierInterface in Echtzeit anpasst, um das Verhalten des Systems zu simulieren (vgl. Kapitel 4.4.3). Mockups: Bei diesem digitalen Prototyp wird das Design der Benutzeroberfläche abgebildet. Eine Teilfunktionalität ist vorhanden. Im Gegensatz zu Wireframes spielen jetzt auch Designvariablen wie Farben, Formen, Texturen, Abstände und Schriftwahl eine Rolle. Detailfragen wie die Rundung von Buttons können an dem Prototyp geklärt werden. (Gläser, 2014) Screenflows: Anhand von Screenflows werden Storyboard-Abläufe als Ganzes dargestellt. Anhand eines Flussdiagramms werden alle Screen-Ansichten dargestellt und mit Verbindungspfaden verknüpft. Es ergibt sich eine Karte auf der ersichtlich ist, welche Screen-Ansichten aufeinander folgen. (Gläser, 2014) Click-Dummys: Es wird eine programmierte, teilfunktionale Demonstration der Anwendung geschaffen. Anhand dieser Prototypen können die Benutzer die Anwendung erleben und die User-Experience kann getestet werden. (Gläser, 2014) Wizard of Oz: Bei der Methode wird ein Prototyp eines technischen Systems mit noch eingeschränkter Funktionalität geschaffen und von einem Anwender evaluiert. Ein menschlicher Akteur (sog. Wizard) (ggf. auch mehrere) beobachtet die Aktionen des Anwenders und simuliert die Systemantwort für die noch nicht implementierten Funktionen in Echtzeit (vgl. Kapitel 4.4.4). Interaktion Strukturen/Prozesse Benutzererfahrung Kontext folgendes zu erstellen: Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Umgebung/Ort folgendes zu bewerten: Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Umgebung/Ort Daten… zu kommunizieren zu verbreiten Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… 7. Verwandte Verwandte Meund weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/Tätigkeite n Paper-Prototyping, Storyboard, Wizard of Oz, Scenario machine, Mockups, User Interface Prototyping, Rapid Prototyping (Richter & Flückiger, 2010; Sarodnick & Brau, 2011) Card-Sorting: zur Festlegung der Navigationsstruktur (Usability-Toolkit, o. J.) Personas, Interviews: zur Festlegung der Zielgruppe (Usability-Toolkit, o. J.) Mögliche nachfolgende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Um den neuen Aufbau einer Webseite zu bestimmen, werden verschiedene Ideen zur Veranschaulichung als Papier-Prototyp umgesetzt. Eine engere Auswahl von Konzepten wird als digitaler, interaktiver Prototyp umgesetzt und mit potentiellen Nutzern getestet, um eine Entscheidung zu treffen. Der Designer kommuniziert die Anforderungen mit Hilfe eines grafisch ausgestaltet Prototypen an den Entwickler. (KUSi, 2015) 9. Referenzen und weiterführende Informationen Weiterführende Informationen Einen guten Überblick über die verschiedenen Arten von Prototypen sowie über Prototyping-Tools gibt der Artikel „Prototyping“ von Postert (2014), der im Rahmen des UseTree Projektes veröffentlicht wurde: http://www.usetree.de/wp-content/uploads/2014/06/Themenschwerpunkt_Juni_Prototyping.pdf Postert, D. (2014). Prototyping. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/06/Themenschwerpunkt_Juni_Prototyping.pdf Zu beachtende Normen und Zertifikate Usability-Methodenkatalog 111 Kategorie Kriterium Prototyping (allgemein) Quellen Beadouin-Lafon, M., & Mackay, W. E. (2003). Prototyping Tools and Techniques. The Human-Computer Interaction Handbook, 1006–1039. Abgerufen von https://www.lri.fr/~mackay/pdffiles/Prototype.chapter.pdf Bevan, N. & Wilson, C. (2005). Rapid Prototyping. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/rapid-prototyping DAkkS. (2010). Leitfaden Usability (Verison 1.3). Abgerufen von http://www.dakks.de/sites/default/files/71_sd_2_007_leitfaden_usability_1.3_0.pdf Gläser, T. (2014). Prototyping UX: Mit Wireframes und Prototypes zum optimalen Interface. Abgerufen von http://t3n.de/magazin/wireframes-prototypes-optimalen-interface-prototyping-ux-233367/ KUSi. (2015). Usability & User-Experience Methoden für den Mittelstand. Zugriff am 16.05.2015. Abgerufen von http://www.usability-siegen.de/qualifizierung.html Nielsen, J. (1993). Usability engineering (Updated ed.). San Francisco, Calif.: Morgan Kaufmann Publishers. Postert, D. (2014). Prototyping. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/06/Themenschwerpunkt_Juni_Prototyping.pdf Rammelt, R. & Otto, S. (o. J.). Rapid Prototyping. Zugriff am 30.05.2015. Abgerufen von http://www.berlinusability.de/usability/methoden-zur-evaluierung/rapid-prototyping.html#c200 Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln (2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag. Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Simply Usable. (o. J.). Factsheet-Prototyping. Zugriff am 30.05.2015. Abgerufen von http://www.simplyusable.de/wp-content/uploads/2015/02/Factsheet-Prototyping-simply-usable.pdf Suzuki, S. (2010). The Power of Prototyping. Abgerufen von http://www.paristechreview.com/2010/11/02/power-prototyping/ Usability-Toolkit. (o. J.). Usability-Methoden. Zugriff am 17.05.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/ UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von http://www.usewell.be/#/methods/ Usability-Methodenkatalog 112 4.4.2 Storyboarding Kategorie Kriterium Storyboarding 1. Bezeichnung Name Storyboarding Synonyme Storyboard, Storyboarded scenarios 2. Beschreibung Kurzbeschreibung Ein Storyboard stellt eine comic-artige Ablauf-Beschreibung der Interaktion zwischen dem Benutzer und dem technischen System dar. Diese Interaktion wird als konkretes Fallbeispiel in Form einer Bilder-Geschichte dargestellt. Hierdurch wird vermittelt, wie ein Produkt vom Nutzer verwendet werden soll, wie es gestaltet ist und welche Funktionen es bietet. Storyboards bieten einem Entwickler die Möglichkeit das Produkts visuell darzustellen, um so eine Evaluationsgrundlage für das Entwickler-Team, potentielle Endnutzer oder sonstige Steakholder zu schaffen. Abbildungen Abbildung 13: Beispiel für ein Storyboard (UX Apprentice, o. J.) Ziele Ergebnisse/ Output Ein oder mehrere Storyboards Vorteile Visualisieren von Ideen/Konzepten Feedback zu Ideen und Entscheidungen erhalten (Richter & Flückiger, 2010) Akzeptanz bei Auftraggebern und Benutzern erzeugen (Richter & Flückiger, 2010) Kontext an das Projektteam kommunizieren (Richter & Flückiger, 2010) Stellt eine effektive Kommunikationsgrundlage zwischen Entwicklern, Designer, Kunden, künftigen Nutzern und anderen Steakholdern dar (Stappers, 2012; van der Lelie, 2006). Die Art der visuellen Darstellung stellt eine universelle Sprache zur Kommunikation von Ideen/Konzepten dar. Personen mit unterschiedlichem Hintergrund können diese Ideen „lesen“ und verstehen (Stappers, 2012; van der Lelie, 2006). Die Methode gewährt einen einheitlichen Blick auf die Form, die Ästhetik, die Funktionalität und die soziale Wirkung eines Produkts (Stappers, 2012). In Bildern können Aspekte vermittelt werden, die mit Text nicht oder nur schwer auszudrücken sind (Richter & Flückiger, 2010). Das „visuelle Denken“, das einen entscheidenden Faktor für den kreativen Prozess in der Entwicklung eines Produkts darstellt, wird durch die Methode unterstützt (Muller, 2001). Es unterstützt die Generierung von Ideen (van der Lelie, 2006). Gibt einen Überblick über das System (UsabilityNet, 2003). Kann von Nutzern evaluiert werden (UsabilityNet, 2003). Es sind keine Programmierkenntnisse erforderlich (Sharon, Ekhteraei, McHarg, & Wilson, 2010). Kann die Erstellung von Personas und Szenarien unterstützen (Sharon et al., 2010). Bietet die Möglichkeit Use Cases in einer kohärenten Beschreibung von Nutzeraktionen zu organisieren (Sharon et al., 2010). Sie sind einfach zu verändern und ermöglichen es Funktionen zu simulieren ohne sich über die Implementierung Gedanken machen zu müssen (Landay & Myers, 1995). Nachteile/ Grenzen Projektphase(n) Konzeption Usability-Methodenkatalog Erfordert vom Anwender Visualisierungsfähigkeit (Stappers, 2012). Erfordert Fähigkeiten des Storytellings und der Szenarioerstellung (Stappers, 2012) Die Interaktion zwischen einem Storyboard und den Endnutzern ist begrenzt (Landay & Myers, 1996). Eine große Herausforderung beim Storyboarding ist die Wahl des Anfangs und des Endes eines Storyboards. Falsch gewählte Punkte führen zu irrelevanten Informationen oder zu zu vielen Funktionen (Sharon et al., 2010). 113 Kategorie Kriterium Anwender Teilnehmer 3. Rahmenbedingungen & Ressourcen Storyboarding Anzahl Beliebig Art Entwickler Software-Gestalter Endnutzer Stakeholder Rolle Partizipation Diskussion Einbeziehung Physikalische Einbeziehung Anzahl 1 Rolle Ersteller des/der Storyboards (Zeichner, Designer) erforderliche Kompetenzen Werkzeuge, Hilfsmittel Erfordert vom Anwender Visualisierungsfähigkeit (Stappers, 2012) Erfordert Fähigkeiten des Storytellings und der Szenarioerstellung (Stappers, 2012) Schreib-, Zeichenmaterial Ggf. Software zum Zeichnen des Storyboards und zur Präsentation des Ergebnisses (z.B. PowerPoint, Photoshop, Illustrator) (Sharon et al., 2010; Stappers, 2012) Ggf. spezielle Software-Tools für Storyboarding z.B. Comic Life, StoryBoard Artist, StoryBoard Quick) (Sharon et al., 2010) Ort/Umgebung Kosten Gering Es sind weder besondere Werkzeuge/Hilfsmittel noch Personen mit speziellem Wissen/Erfahrungen/Kompetenzen notwendig Zeitaufwand Gering Pro Storyboard ca. 1-2 Personentage (sofern alle Grundlagen vorhanden sind) (Richter & Flückiger, 2010) Inkl. Evaluation durch Endnutzer sind ca. 2-4 Tage einzuplanen (Sharon et al., 2010) Tagungsraum Schreibtisch 4. Vorgehensweise Vorbereitung Festlegen des Zeichenstils (vgl. Praxis-Tipps) (Stappers, 2012) Festlegen der Geschichte (Storyline) bzw. der Abfolge der Ereignisse, die visualisiert werden sollen. Als Grundlage dienen Konzeptideen oder Forschungsdaten (Stappers, 2012). Durchführung Erstellen des Storyboards (Stappers, 2012): Festlegen der darzustellenden Situation (Wann? Wo?), der Akteure (Wer?), ihre Motivation (Warum?) sowie den zentralen Aspekt des Designs. Erstellen von ca. 5-7 Bildern, anhand derer die Geschichte erzählt werden soll. (vgl. Praxis-Tipps) Es sind ausreichend optische Details einzufügen, damit das Wo, Wann, Was, Wer, Wie und Warum ersichtlich wird. Anordnen der Bilder, vorzugsweise in einer Zeile von links nach rechts Einfügen von Beschriftungen, um schwierig zu visualisierende Aspekte wie z.B. die Motivation der Nutzer, darzustellen Betiteln des Storyboards um den zentralen Aspekt des Dargestellten zu vermitteln Diskussion und Evaluation von/mit Teammitgliedern, die nicht an der Erstellung der Storyboards beteiligt waren, ggf. von Endnutzern (Stappers, 2012) Verbesserung des Storyboards: Aspekte, die nicht verstanden wurden werden überarbeitet (Stappers, 2012) Fertigstellen des Storyboards (Stappers, 2012) Diskussion mit Stakeholdern (Stappers, 2012) 5. Praxis-Tipps Nachbereitung/ Auswertung Praxis-Tipps Tipps: Das finale Storyboard kann als Poster an die Wand gehängt werden, um das Entwicklungsteam an das zentrale Konzept zu erinnern (Stappers, 2012). Die Wahl des Zeichenstils entscheidet, wie die Betrachter auf das Storyboard reagieren: Der Zeichenstil des Storyboards kann von groben Skizzen bis zu sehr detaillierten Zeichnungen reichen. Storyboards mit einem skizzenartigen Look werden beim Betrachter eher Kommentare und Vorschläge hervorrufen, während detaillierte Hochglanz-Darstellungen eher den Eindruck erwecken, final zu sein (van der Lelie, 2006). Die Geschichte sollte ein konkretes, realitätsnahes Fallbeispiel erzählen, in dem kritische Punkte detailliert dargestellt sind um Anlass zu interessanten Diskussionen zu bieten, in denen Missverständnisse und Diskrepanzen aufgedeckt werden (Richter & Flückiger, 2010). Ein gutes Storyboard soll dem Entwicklerteam ein Gefühl von der Nutzererfahrung vermitteln (Sharon et al., 2010). Die in der Geschichte handelnden Personen sollen charakterisiert werden (Richter & Flückiger, 2010). Die Geschichte sollte plausibel begründen, warum die Personen so handeln (Richter & Flückiger, 2010). Varianten: Usability-Methodenkatalog Eine moderierte Gruppe von Teilnehmern entwickelt eine Geschichte (Storyline) zur Verwendung eines Produkts und visualisiert diese. Aus dieser Darstellung lassen sich Produktdetails ableiten (Stappers, 2012). User Interface Storyboard: Es werden Skizzen vom Benutzerinterface angefertigt. Im Fokus steht der zentrale Inhalt und wie dieser in Szene gesetzt wird. Elemente wie Listen, Buttons und Drop-down-Menüs werden platziert. Die Skizzen werden anhand von konkreten Anwendungsfällen miteinander verknüpft. (Gläser, 2014; Richter & Flückiger, 2010; Usability-Toolkit, o. J.) 114 Kategorie Kriterium Storyboarding 6. Zweck Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… folgendes zu erstellen Daten… Strukturen/Prozesse Kontext Ideen & Konzepte physikalisches Produkt Software integriertes Produkt Dienstleistung Umgebung/Ort zu kommunizieren zu verbreiten 7. Verwandte Verwandte MeSzenario-Analyse, Skizzen (Stappers, 2012) und weiterfühthoden rende Methoden Mögliche voranGenerieren von Ideen, Kontextuelle Studien (z.B. Ethnographische Studie, Nutzer Tests) (Stappers, 2012) gegangene Methoden/Tätigkeite n Mögliche nachfol- Ausarbeitung des Konzepts, Testen des Konzepts (Stappers, 2012) gende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Darstellung der Abfolge von Ansichten eines Benutzerinterfaces bei der Bearbeitung einer Aufgabe mit einem konzipierten technischen System. 9. Referenzen und weiterführende Informationen Weiterführende Informationen Zusätzliche Informationen zur Methode und viele weiterführende Informationsquellen werden von Sharon et al., (2010) auf der Web-Plattform „Usability Body of Knowledge“ gegeben: (englisch) http://www.usabilitybok.org/storyboard Sharon, T., Ekhteraei, S., McHarg, S., & Wilson, C. (2010). Storyboard. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/storyboard Eine Übersicht über die Anwendung von Storyboarding, sowie Praxis-Tipps sind in dem Buch „Usability Engineering kompakt“ von Richter & Flückiger, (2010) gegeben. Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln (2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag. Zu beachtende Normen und Zertifikate Quellen Gläser, T. (2014). Prototyping UX: Mit Wireframes und Prototypes zum optimalen Interface. Abgerufen von http://t3n.de/magazin/wireframes-prototypes-optimalen-interface-prototyping-ux-233367/ Landay, J. A., & Myers, B. A. (1995). Just Draw It! Programming by Sketching Storyboards. Carnegie Mellon University, Human-Computer Interaction Institute Technical Report CMU-HCII-95-106 and School of Computer Science Technical Report CMU-CS-95-199. Abgerufen von http://www.cs.cmu.edu/~landay/research/publications/storyboard-tr/storyboard.pdf Landay, J. A., & Myers, B. A. (1996). Sketching Storyboards to Illustrate Interface Behaviours. In the Conference Companion of ACM Conference on Human Factors in Computing Systems: CHI '96, 193-194. Abgerufen von http://www.cs.cmu.edu/~landay/research/publications/CHI96/short_storyboard.pdf Muller, W. (2001). Order and meaning in design. Delft University of Technology series in industrial design. Utrecht: Lemma Publishers. Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln (2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag. Sharon, T., Ekhteraei, S., McHarg, S., & Wilson, C. (2010). Storyboard. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/storyboard Stappers, P.-J. (2012). Storyoarding. Zugriff am 01.06.15. Abgerufen von http://filter.ucdtoolbox.com/filter#info-12-storyboarding UsabilityNet. (2003). List of methods. Zugriff am 07.05.2015. Abgerufen von http://www.usabilitynet.org/tools/list.htm Usability-Toolkit. (o. J.). Usability-Methoden. Zugriff am 17.05.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/ UX Apprentice. (o. J.). Storyboarding. Zugriff am 01.06.2015. Abgerufen von http://www.uxapprentice.com/strategy/ van der Lelie, C. (2006). The value of storyboards in the product design process. Personal and Ubiquitous Computing, 10(2-3), 159–162. doi:10.1007/s00779-005-0026-7 Usability-Methodenkatalog 115 4.4.3 Paper-Prototyping Kategorie Kriterium Paper-Prototyping 1. Bezeichnung Name Paper-Prototyping Synonyme Stift & Papier Prototypen, Rapid Prototyping 2. Beschreibung Kurzbeschreibung Bei dem Papier-Prototyping wird das Benutzerinterface eines Systems aus Papier nachgebildet. Ein Proband führt vorgegebene Aufgaben mit dem Prototyp durch, während der Ausführende das Papier-Interface in Echtzeit anpasst, um das Verhalten des Systems zu simulieren. Durch das Testen des Prototyps lässt sich schnell ein Eindruck bezüglich des Interface-Designs gewinnen. Es lassen sich auf einfache Weise Probleme finden und Verbesserungen ableiten. Abbildungen Abbildung 14: Durchführung eines Usability-Test an einem Paper-Prototyp (Cronin, 2009) Ziele Usability-Probleme durch die Ausführung von Aufgaben an dem Prototyp aufspüren Vergleichen von Designalternativen Ergebnisse/ Output Nach Prioritäten sortierte Usability Probleme, die sich bei der Evaluation des Papier-Prototyps ergeben haben Vorteile Eine schnelle und einfache Möglichkeit ein Interface ohne Programmierung darzustellen (Snyder, 2003). Es lassen sich viele unterschiedliche Probleme des Benutzerinterfaces finden (Snyder, 2003). Nutzer können ein Interface testen, bevor dieses Implementiert wurde (Snyder, 2003). Es können auch Prozesse und Interaktionsmöglichkeiten mit hoher Komplexität abgebildet und hinterfragt werden (Quirmbach, 2013). Nachteile/ Grenzen Es kann nur das Aussehen des Systems nachgestellt werden, nicht das Gefühl der Nutzung (Snyder, 2003). Die Art und Weise, wie ein Nutzer eine Schnittstelle benutzt kann durch den Prototyp beeinflusst werden und die natürliche Verhaltensweise des Probanden verändern. Die Aktionen und Aussagen der Probanden können dadurch verzerrt werden. (Quirmbach, 2013; Snyder, 2003) Multi-Touch-Schnittstellen lassen sich nur schwer simulieren (Snyder, 2003). Projektphase(n) Konzeption Anwender 3. Rahmenbedingungen & Ressourcen Teilnehmer Anzahl 5 (Nielsen, 2000) Art (Repräsentative) Endnutzer Rolle Wird beobachtet Einbeziehung Physikalische Einbeziehung Anzahl 2 oder mehr Rolle Organisator, Moderator, Beobachter, Simulator der Systemantwort, ggf. Ersteller des Prototyps Erforderliche Kompetenzen Werkzeuge, Hilfsmittel Usability-Methodenkatalog Erfahrungen und Kenntnisse im Bereich Usability sind von Vorteil (Pasman, o. J.). Die Systemantworten müssen möglichst schnell während des Tests simuliert werden. Gute Kenntnis über das System, den Prototyp, sowie die Organisation der Papierelemente sind erforderlich. Prototyp Ggf. Videoaufzeichnungsgeräte 116 Kategorie 4. Vorgehensweise Kriterium Paper-Prototyping Ort/Umgebung Kosten Gering Zeitaufwand Gering bis mittel Vorbereitung Durchführung Nachbereitung/ Auswertung Usability-Methodenkatalog Natürliche Nutzungsumgebung Simulierte Nutzungsumgebung Usability Labor Erstellen des Prototyps: ca. 5 Tage (Snyder, 2003) Erstellen der Aufgaben für den Test: ca. 3-5 Stunden Usability Testing mit Teilnehmern: ca. 2 Stunden pro Teilnehmer (Snyder, 2003) Der Prototypt wird erstellt (vgl. Methodenbeschreibung zu Prototyping Kapitel 4.4.1): Die an der Produktentwicklung beteiligten Personen wie z.B. der Designer und der Produktentwickler entwickeln den Prototypen auf Basis von ersten Ideen und Anforderungen eines Produkts (Quirmbach, 2013). Probanden zum Test einladen, ca. 2-3 Wochen vor dem Termin der Durchführung (Snyder, 2003) Identifizieren von repräsentativen Aufgaben und Szenarien (Pasman, o. J.) Definition einer Aufgabenliste inkl. Kriterien für die Auswertung (Pasman, o. J.) Erstellen eines Skripts mit dem geplanten Ablauf der Tests (Pasman, o. J.) Erstellen von Protokollierungs-Blattern, um Zeiten, Ereignisse und Aktionen der Probanden aufzuzeichnen und zu kommentieren (Pasman, o. J.) Erstellen eines Pre-Test-Fragebogens zur Aufnahme personenbezogener Daten von den Teilnehmern, um zu überprüfen, ob eine repräsentative Probandenauswahl getroffen wurde und die Teilnehmer mit den erwarteten Nutzerprofilen übereinstimmen (Pasman, o. J.) Erstellen eines Post-Test-Fragebogens um die Nutzerzufriedenheit zu messen und den Teilnehmern die Möglichkeit zu geben Anmerkungen zu äußern (Pasman, o. J.) Einverständniserklärung aufsetzen: Die Probanden sollen vor der Durchführung des Tests hier bestätigen, dass sie mit der Videoaufzeichnung einverstanden sind. Der Prototyp ist an die Aufgaben anzupassen, so dass die Teilnehmer diese ausführen können (Pasman, o. J.). Die einzelnen Elemente des Prototyps sind so zu organisieren, dass Systemantworten schnell simuliert werden können. Dabei ist eine Ordnung nach Kategorien sinnvoller als eine Ordnung nach der erwarteten Reihenfolge der Elemente, da es meist nicht möglich ist das genaue Vorgehen der Teilnehmer vorherzusagen. (Pasman, o. J.) Ein Zeitplan für die Tests erstellen und den Ort für die Durchführung organisieren z.B. reservieren (Pasman, o. J.) Durchführen eines Pilot-Tests (Pasman, o. J.) Vertraut machen mit der Durchformung und der Simulation der Systemantworten Videoaufzeichnungsgeräte ausrichten und testen Probenden begrüßen und eine angenehme Atmosphäre schaffen (Pasman, o. J.) Den Probanden das Vorhaben erläutern: Ihnen mitteilen, dass sie Aufgaben abbrechen dürfen, falls sie sie nicht vollenden können (Pasman, o. J.). Die Probanden über die Videoaufzeichnung informieren und die Einverständniserklärung unterzeichnen lassen (Pasman, o. J.) Der Proband füllt den Pre-Test-Fragebogen aus. Die Methode „Lautes Denken“ kann von den Probanden während der Durchführung angewendet werden. Den Teilnehmern ist ggf. die Methode zu erläutern (Pasman, o. J.). Test beginnen Der Proband führt Aufgaben mit dem Prototyp aus; ein Anwender simuliert die Systemantwort, indem das Papier-Interface verändert wird. Der Proband wird dabei beobachtet und seine Aktionen werden protokolliert. Nach Beendigung des Tests wird der Proband gefragt, wie er die Durchführung empfand. In einem Gespräch können die Ereignisse des Tests Revue passiert werden lassen. Bsp.: Wo hatte der Proband Schwierigkeiten bei der Ausführung der Aufgaben? Was war der Grund dafür? usw. (Pasman, o. J.) Der Proband füllt den Post-Test-Fragebogen aus. Dem Proband wird die Aufwandsentschädigung ausgehändigt, dann wird er verabschiedet (Pasman, o. J.). Die Ergebnisse werden zunächst in einer Tabelle zusammengefasst (Pasman, o. J.) : Für jeden Probanden sollte festgehalten werden, wie weit die Aufgaben erfüllt werden könnten und welche Zeit dafür benötigt wurde. Außerdem sollten die Notizen der Beobachtung den Teilnehmern sowie den Aufgaben zugeordnet werden. Daten nach Trends untersuchen (Pasman, o. J.) Usability Probleme identifizieren und die Priorität mit der sie behoben werden müssen festlegen (Pasman, o. J.) Ableiten von Verbesserungen Erstellen eines Berichts 117 Kategorie Kriterium Paper-Prototyping 5. Praxis-Tipps Praxis-Tipps 6. Zweck Bei der Definition von Aufgaben ist besonders wichtig festzulegen, wann eine Aufgabe abgeschlossen ist (Pasman, o. J.). Der Pilot-Test sollte ca. zwei Wochen vor dem realen Test durchgeführt werden (Pasman, o. J.). Während der Durchführung des Tests sollten die Teilnehmer nicht unterbrochen und nicht vom beobachtenden Anwender gestört bzw. beeinflusst werden (Pasman, o. J.). Dem Probanden sollte nicht geholfen werden, wenn er eine Aufgabe nicht beenden kann oder sonstige Probleme mit dem Interface hat (Pasman, o. J.). Bei Bedarf kann mittels Zwischenfragen dem Probanden „geholfen“ werden. „Was versuchen Sie zu erreichen?“ Was denken Sie wofür diese Schaltfläche ist?“ usw. Der Proband ist aus einiger Entfernung zu beobachten (Pasman, o. J.). Interaktion Ideen & Konzepte Software Integriertes Produkt folgendes zu bewerten: Ideen & Konzepte Software Integriertes Produkt Daten… zu kommunizieren Die Methode ist mehr zu erfahren über… anwendbar, wenn folgendes zu erstellen: es das Ziel ist… 7. Verwandte Verwandte MePrototyping, Storyboards, Wireframes und weiterfühthoden rende Methoden Mögliche voran Interview, Beobachtungen, Befragungen: Zur Wahl der repräsentativen Teilnehmer müssen zunächst gegangene MeInformationen über die Endnutzer gesammelt werden (Pasman, o. J.). thoden/Tätigkeite Szenarios, Use Cases: Zur Auswahl von geeigneten Aufgaben und Szenarien, die die Teilnehmer während n des Tests am Prototyp durchführen sollen (Pasman, o. J.). Mögliche nachfol- gende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete 9. Referenzen und weiterführende Informationen Weiterführende Informationen Verfeinern des untersuchten Designs (McHarg, 2010) Unterschiedliche Designideen für eine Benutzeroberfläche eines Programms sollen bereits vor der Implementierung getestet und miteinander verglichen werden. Die Terminologie von Elementen wie Buttons, Checkboxen oder Kategorien soll kontrolliert werden (Quirmbach, 2013). Im mobilen Bereich sollen Nutzungsszenarien überprüft und Erwartungshaltungen der Probanden bei den einzelnen Prozessschritten abgeglichen werden (Quirmbach, 2013). Es soll herausgefunden werden, wann Probanden eine Rückmeldung des Systems erwarten und wie diese auszusehen hätte, damit sie hilfreich ist (Quirmbach, 2013). Viele weiter Informationen sind in dem Buch „Paper Prototyping“ von Snyder, (2003) enthalten. Ebenfalls empfehlenswert ist die zugehörige Internetseite. Hier sind viele zusätzliche Informationen sowie Verweise auf weiterführende Artikel und Paper gegeben: (englisch) http://www.paperprototyping.com/index.html Snyder, C. (2003). Paper prototyping: Fast and easy way to design and refining user interfaces. The Morgan Kaufmann series in interactive technologies. San Francisco, Calif., Oxford: Morgan Kaufmann; Elsevier Science. Das folgende Video zeigt eine beispielhafte Anwendung von Paper-Prototyping in der Praxis: https://www.youtube.com/watch?v=oITeUEjrY3Q#t=23 Zu beachtende Normen und Zertifikate Quellen Cronin, D. (2009). Industry trends in prototyping. Abgerufen von http://www.adobe.com/devnet/archive/fireworks/articles/cooper_prototyping.html McHarg, S. (2010). Paper Prototyping. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/paperprototyping Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/ Pasman, G. J. (o. J.). Paper Prototyping. Zugriff am 05.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter#info-4-paper-prototyping Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung. X.media.press. Berlin u.a.: Springer. Snyder, C. (2003). Paper prototyping: Fast and easy way to design and refining user interfaces. The Morgan Kaufmann series in interactive technologies. San Francisco, Calif., Oxford: Morgan Kaufmann; Elsevier Science. Usability-Methodenkatalog 118 4.4.4 Wizard of Oz Kategorie Kriterium Wizard of Oz 1. Bezeichnung Name Wizard of Oz Synonyme Wizard of Oz Szenario 2. Beschreibung Kurzbeschreibung Bei der Methode wird ein Prototyp eines technischen Systems mit noch eingeschränkter Funktionalität geschaffen und von einem Anwender evaluiert. Ein menschlicher Akteur (sog. Wizard) (ggf. auch mehrere) beobachtet die Aktionen des Anwenders (sog. Oz) und simuliert die Systemantwort für die noch nicht implementierten Funktionen in Echtzeit. Das ganze geschieht meist, ohne dass der Anwender es während seinem Test bemerkt. Abbildungen Abbildung 15: Beispiel für die Durchfühugen der Methode Wizard of Oz (Riek, 2012) Ziele Funktionen eines technischen Systems vor der Implementierung durch Anwender testen lassen um mögliche Probleme zu finden und Verbesserungen abzuleiten Ergebnisse/ Output Gesammelte Informationen über die Nutzerinteraktion (UsabilityNet, 2003) Kenntnisse zur visuellen Affordanz (Gibt die visuelle Darstellung von Objekten dem Nutzer Hinweise zur Interaktion mit dem Objekt?) (UsabilityNet, 2003) Vorteile Ermöglicht das Testen von Konzepten, Techniken und angestrebten Funktionen bevor diese implementiert sind (UsabilityNet, 2003) Stellt eine sehr schnelle Form des Prototypings interaktiver Applikationen dar, da Funktionen nicht aufwendig implementiert werden müssen (Uselab, 2015) Neben der Zeit können auch Kosten gespart werden, da Funktionen bereits vor der Implementierung getestet werden können. Somit entfällt der Aufwand eine vor der Evaluation implementierte Funktion nach Mängeln neu umzusetzen (Uselab, 2015). Sehr kosteneffiziente Methode um mehrere Designs-Möglichkeiten miteinander zu vergleichen (Bevan, Wilson, Chung, DeBoard, & Herzon, 2006) Nachteile/ Grenzen 3. Rahmenbedingungen & Ressourcen Teilnehmer Projektphase(n) Anzahl Werden die Teilnehmer nach der Durchführung der Methode nicht darüber informiert, dass sie nicht mit einem technischen System, sondern mit einem Menschen interagiert haben, bestehen ethische Bedenken gegenüber der Methodenanwendung, da die Teilnehmer getäuscht werden (Riek, 2012). Es findet keine wirkliche Interaktion zwischen Mensch und technischen System statt, sondern zwischen Mensch und Mensch. Bei der Interpretation der Ergebnisse muss dies stets berücksichtigt werden (Riek, 2012). Es besteht die Gefahr, dass durch den „Wizard“ Funktionen simuliert werden, die das System im implementierten Zustand gar nicht leisten können wird (Riek, 2012). Die Tätigkeit des „Wizards“ ist ermüdend. Seine Reaktionen können sich mit der Zeit verschlechtern (Bevan et al., 2006). Konzeption, Umsetzung 5 (Nielsen, 2000) Art Endnutzer Rolle Wird beobachtet Einbeziehung Physikalische Einbeziehung Usability-Methodenkatalog 119 Kriterium Anwender Kategorie Wizard of Oz Anzahl 2 oder mehr Rolle Organisator, Beobachter, „Wizard“, Analyst Erforderliche Der „Wizard“ muss umfassend mit dem System vertraut sein (z.B: ein erfahrenes Mitglied des EntwicklungsKompetenzen teams), um logische und glaubhafte Systemantworten zu simulieren. (Maulsby et al., 1993) Werkzeuge, Hilfsmittel Aufzeichnungsgeräte (z.B. Videokameras), die die Aktionen der Teilnehmer an den „Wizard“ übermitteln; ggf. zusätzliche Geräte zur Analyse der Tests Technisches System, das vom Teilnehmer bedient und vom „Wizard“ beeinflusst werden kann (z.B: Zwei Computer Systeme) (Maulsby et al., 1993) Ort/Umgebung Usabiliy Labor Kosten Gering bis hoch Je nach Anwendungsfall können die Kosten variieren. Bei komplexen System kann das Training des/der Wizards aufwendig sein (Bevan et al., 2006). Zeitaufwand Gering bis hoch Je nach Anwendungsfall und Anzahl der Teilnehmer kann der Zeitaufwand variieren. (Maulsby et al., 1993) Bei komplexen System kann das Training des/der Wizards aufwendig sein (Bevan et al., 2006). Das System glaubwürdig zu machen ist sehr aufwendig, oft sind hierfür 20-40 Pilottests notwendig. Besonders das Erstellen vorgefertigter Menübausteine kostet viel Zeit (Dahlbäck, Jönsson, & Ahrenberg, 1993). 4. Vorgehensweise 1 Ausführender, der den Teilnehmer in den Test einführt und beobachtet, 1 Wizard Je nach Komplexität des Systems können mehrere „Wizards“ erforderlich sein (Maulsby, Greenberg, & Mander, 1993) Vorbereitung Durchführung Nachbereitung/ Auswertung Entwicklung des simulierten Nutzerinterfaces für das technische System (Bevan et al., 2006) Entwicklung eines detaillierten Testplans mit Instruktionen für den Teilnehmer, den „Wizard“ und sonstige Beteiligte (Bevan et al., 2006). Aufgaben, die die Teilnehmer durchführen sollen sind zu definieren (Riek, 2012). Repräsentative Endnutzer sind zu rekrutieren. Der „Wizard“ muss in der Lage sein, die Interaktionen des Teilnehmers in Echtzeit zu verfolgen, um darauf zu reagieren. Der Prototyp muss so gestaltet sein, dass der „Wizard“ in der Lage ist schnell auf die Eingabe des Anwenders zu reagieren. Der „Wizard“ ist zu trainieren (Bevan et al., 2006). Pilot-Tests sind durchzuführen um das System zu testen damit der „Wizard“ Erfahrungen sammeln kann (Bevan et al., 2006). Der Teilnehmer wird begrüßt Er wird darüber informiert, dass es sich bei dem System um einen frühen Prototyp handelt, dessen Performance noch nicht optimiert ist. Der Teilnehmer wird über seine Aufgaben informiert. Der Teilnehmer führt Aufgaben an dem System durch. Der „Wizard“ beobachtet den Teilnehmer und simuliert in Echtzeit die Systemantworten. Die Teilnehmer sollten nach der Durchführung der Tests über die Untersuchung aufgeklärt werden. Die Funktion des „Wizard“ ist ihnen darzulegen, sowie der Grund dafür, warum diese Versuchsanordnung gewählt worden ist. So können ethische Bedenken, wegen einer Täuschung der Teilnehmer entkräftet werden (Bevan et al., 2006; Riek, 2012). Die Daten der Studie werden ausgewertet. Verbesserungen können aus den Ergebnissen abgeleitet werden. 5. Praxis-Tipps Praxis-Tipps 6. Zweck Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… folgendes zu erstellen: Nach der Durchführung und Auswertung der Methode können die Verbesserungen am Prototyp vorgenommen werden. Die Prozedur des Testens kann wiederholt werden (Bevan et al., 2006). folgendes zu bewerten: Interaktion Benutzererfahrung Physikalisches Produkt Software Integriertes Produkt Physikalisches Produkt Software Integriertes Produkt 7. Verwandte Verwandte MePrototyping, Usability Test und weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/Tätigkeite n Mögliche nachfolgende Methoden/ Tätigkeiten Usability-Methodenkatalog 120 Kategorie Kriterium Wizard of Oz 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Es können Bedienschnittstellen (z.B. Sprach- oder Gestensteuerungen) getestet werden, obwohl diese noch nicht in das System integriert sind. 9. Referenzen und weiterführende Informationen Weiterführende Informationen Hintergrundinformationen über die Ursprünge der Methode, unterschiedliche Anwendungsvarianten sowie Beispiele von konkreten Anwendungen können dem Wiki des Uselab-Projektes der TU Berlin entnommen werden: http://www.uselab.tu-berlin.de/wiki/index.php/Wizard_of_Oz_Szenarien Uselab. (2015). Usability und UX Wiki. Retrieved from http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite Das Paper “Prototyping an Intelligent Agent through Wizard of Oz” beschreibt die praktische Anwendung der Methode am Beispiel eines intelligenten Nutzerinterfaces (IUI): (englisch) http://grouplab.cpsc.ucalgary.ca/grouplab/uploads/Publications/Publications/1993-Woz.CHI.pdf Maulsby, D., Greenberg, S., & Mander, R. (1993). Prototyping an intelligent agent through Wizard of Oz. Interchi '93 Conference Proceedings, 277–284. doi:10.1145/169059.169215 Zu beachtende Normen und Zertifikate Quellen Bevan, N., Wilson, C., Chung, S., DeBoard, D., & Herzon, C. (2006). Wizard of Oz. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/wizard-of-oz Dahlbäck, N., Jönsson, A., & Ahrenberg, L. (1993). Wizard of Oz studies — why and how. Knowledge-Based Systems, 6(4), 258–266. doi:10.1016/0950-7051(93)90017-N Maulsby, D., Greenberg, S., & Mander, R. (1993). Prototyping an intelligent agent through Wizard of Oz. Interchi '93 Conference Proceedings, 277–284. doi:10.1145/169059.169215 Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/ Riek, L. (2012). Wizard of Oz Studies in HRI: A Systematic Review and New Reporting Guidelines. Journal of Human-Robot Interaction, 119–136. doi:10.5898/JHRI.1.1.Riek UsabilityNet. (2003). List of methods. Zugriff am 07.05.2015. Abgerufen von http://www.usabilitynet.org/tools/list.htm Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite Usability-Methodenkatalog 121 4.5 Usability-Test mit Nutzern 4.5.1 Usability-Test Kategorie Kriterium Usability-Test 1. Bezeichnung Name Usability-Test Synonyme Nutzertest, Benutzbarkeitstest, Usability Testing 2. Beschreibung Kurzbeschreibung Bei einem Usability-Test führen Probanden realistische Aufgaben mit dem zu untersuchenden Produkt aus und werden dabei von Usability-Experten beobachtet. Aufgrund der Beobachtungen der Experten, der Äußerungen der Testpersonen sowie sonstiger Messungen werden Usability-Probleme identifiziert und Verbesserungsmöglichkeiten abgeleitet. Abbildungen Ziele Gewinnung von Gestaltungs- und Verbesserungsvorschlägen (Sarodnick & Brau, 2011) Analyse von Schwachstellen (Sarodnick & Brau, 2011) Beurteilung eines oder mehrerer Systeme hinsichtlich Leistung oder Güte (siehe auch Methodenbeschreibung A/B-Testing Kapitel 0) (Sarodnick & Brau, 2011) Ergebnisse/ Output Bericht mit priorisierten Usability-Problemen samt Handlungsempfehlungen Vorteile Es werden unmittelbare Einblicke in die Interaktion eines Anwenders mit einem Produkt ermöglicht. So können reale Nutzungsprobleme abgeleitet werden (Nielsen, 1993). Es können sowohl qualitative als auch quantitative Test durchgeführt werden (Quirmbach, 2013). Probleme in der Verwendung eines Produktes werden schnell deutlich (Richter & Flückiger, 2010). Die Bedeutung von Usability Engineering wird unmittelbar ersichtlich (Richter & Flückiger, 2010). Nachteile/ Grenzen Projektphase(n) Die Vorbereitung und Durchführung ist meist sehr zeitintensiv (Quirmbach, 2013). Meist muss ein Usability-Labor gemietet werden, was die Kosten der Anwendung erhöht (Quirmbach, 2013). Da die Anwendung teuer und zeitintensiv ist, können meist nur kleine Stichproben genommen werden (Quirmbach, 2013). Probanden reagieren aufgrund ihrer starken Motivation anders als in der realen Nutzungssituation. Sie geben sich bei dem mehr Mühe, obwohl sie in der normalen Alltagssituation schon aufgegeben hätten (Jacobsen, 2007). Probanden können Hemmungen haben Kritik zu äußern, weil sie die Verantwortlichen nicht verletzen wollen (Jacobsen, 2007). Personen können aufgrund der Beobachtungssituation nervös sein und sich andern verhalten als unter normalen Umständen (Jacobsen, 2007). Es kann nur schwer getestet werden, wie Nutzer nach mehrmaliger Verwendung des Produkts mit diesem umgehen (Jacobsen, 2007). Konzeption, Umsetzung, Betrieb 3. Rahmenbedingungen & Ressourcen Anzahl 3-8 (Jacobsen, 2007; Nielsen, 2000) Teilnehmer Getestet werden kann bereits an Prototypen, allerdings sollten die Systemfunktionalitäten im für die Aufgabenbearbeitung nötigen Bereich möglichst vollständig und das Systemverhalten möglichst realitätsgerecht sein (Sarodnick & Brau, 2011). Bei einfachen Prototypen, die früh in der Entwicklung erstellt werden, fällt es Probanden oft leichter grundsätzliche Aspekte zu kritisieren und sich nicht nur auf die Ebene des Designs zu beziehen (Rosson & Carroll, 2002 nach Sarodnick & Brau, 2011). Usability-Test sollten nicht zu spät im Entwicklungsprozess durchgeführt werden, da Änderungen am System dann sehr zeitaufwendig und kostenintensiv sind (Sarodnick & Brau, 2011). Es bietet sich an mehrere Testrunden in verschiedenen Projektphasen durchzuführen (Jacobsen, 2007). Mit 5 Probanden lassen sich über 75 % der Usability Probleme finden (Nielsen, 2000) Je nach Einsatzfeld kann die Einbeziehung von mehr als 8 Probanden sinnvoll bzw. notwendig sein. Die kann beispielsweise bei Systemen der Fall sein, bei denen möglichst alle Fehler gefunden werden sollten, z.B. in der Medizintechnik oder wenn mit quantitativen Daten gearbeitet werden soll (Sarodnick & Brau, 2011). Es sollte keine Testrunde mit weniger als 3 Teilnehmern durchgeführt werden, da sonst die Gefahr besteht, dass das Produkt für einen Benutzer optimiert wird, der nicht repräsentativ ist (Jacobsen, 2007). Art (Repräsentative) Endnutzer Rolle Einbeziehung Usability-Methodenkatalog Wird beobach- tet Ggf. wird befragt Im Anschluss an die Durchführung kann der Teilnehmer befragt werden z.B. mittels Interview oder Fragebogen. Physikalische Einbeziehung Ggf. „Remote“ (Remote-Usability-Test, siehe Praxis-Tipps) 122 Kategorie Kriterium Anzahl Usability-Test 1-3+ (Jacobsen, 2007; Sarodnick & Brau, 2011) Anwender Rolle Organisator, Beobachter, ggf. Interviewer, Analyst, Erforderliche Kompetenzen Wissen und Erfahrung mit Usability-Test sind hilfreich und führen zu besseren Resultaten, sind aber nicht erforderlich um Probleme aufzudecken (Jacobsen, 2007) Die Person, die die Beobachtung des Probanden durchführt, muss in das zu testende System eingearbeitet sein, um jederzeit die Handlungen der Testperson beurteilen zu können (Sarodnick & Brau, 2011). Werkzeuge, Hilfsmittel Aufzeichnungsgeräte, z.B. Videokamera, Mikrofon Ggf. Eye-Tracking Hard- und Software Ggf. Mouse-Tracking Software Ort/Umgebung Ggf. natürliche Nutzungsumgebung Ggf. simulierte Nutzungsumgebung Usability Labor Ggf. Schreib tisch Meist ist eine Durchführung im Usability Labor vorteilhaft, da so standardisierte Bedingungen geschaffen werden können, die für eine Vergleichbarkeit notwendig sind (Sarodnick & Brau, 2011). Bei induktiven Tests, also solche die zur entwicklungsbegleitenden Bewertung verwendet werden, kann es sinnvoll sein, die natürliche Nutzungsumgebung als Durchführungsort zu verwenden (Feld Usability-Test), um die Einflüsse in die Untersuchung mit einzubeziehen und ggf. Störende Aspekte durch Systemveränderungen zu beheben oder abzuschwächen (Sarodnick & Brau, 2011). Im Falle eines Remote Usability-Test führt der Teilnehmer die Tests vom eigenen Schreibtisch aus durch. Kosten Gering bis hoch Ca. 15000 bis 25000 € (CHeval, 2013) Mindestens 3000 € pro Testrunde, falls der Test durch externe Usability-Experten durchgeführt wird (Jacobsen, 2007) Zeitaufwand Mittel bis hoch Zeitaufwand für einen formalen Usability-Test im Labor mit 5-7 Probanden: ca. 10 Personentage (Richter & Flückiger, 2010) Maximaler Zeithorizont: 4 bis 6 Wochen (CHeval, 2013) Die Testdauer sollte pro Teilnehmer maximal 45 Minuten betragen. (Jacobsen, 2007) 4. Vorgehensweise 1 Moderator, der die hauptsächliche Kommunikation mit der Testperson übernimmt, während der Durchführung beim Probanden im Raum ist, ihn beobachtet, durch den Test leitet und bei Bedarf Hilfestellungen gibt; ggf leitet die Person im Anschluss das Interview (Sarodnick & Brau, 2011) Ggf. 1 Ausführender, der die technischen Geräte wie Kameras, Screen-Recording und Licht bedient und überwacht (Sarodnick & Brau, 2011). Ggf. 1-2 Personen, die ein Beobachtungsprotokoll erstellen, um die Auswertung der aufgezeichneten Daten zu verkürzen; ggf. ist Videomaterial für ein Videofeedback vorzubereiten (Sarodnick & Brau, 2011) Ggf. können weitere Personen (z.B. Vertreter des Auftraggebers, Entwickler, UsabilityExperten) aus einem separaten Raum heraus an der Beobachtung teilnehmen (Richter & Flückiger, 2010) Vorbereitung Usability-Methodenkatalog Festlegen, was mit der Durchführung der Methode erreicht werden soll (Sarodnick & Brau, 2011) Welche Art des Usability-Tests soll verwendet werden (vgl. Praxis-Tipps)? (Sarodnick & Brau, 2011). Planen der Durchführung der Methode Welche Werkzeuge/Hilfsmittel sollen verwendet werden? Sollen weitere Methoden integriert werden, z.B. Lautes Denken, Fragebogen, Interview, Eye-Tracking, Mouse-Tracking (vgl. Durchführung)? Definition von Aufgaben, die die Teilnehmer während des Tests durchführen. Hierbei ist wichtig, dass die Testaufgaben mit den realen Aufgaben aus der Praxis übereinstimmen sollten, um die Aussagekraft der Ergebnisse sicherzustellen. Zur Bestimmung der Aufgaben kann eine Aufgabenanalyse (vgl. Kapitel 4.2.4) durchgeführt werden. Die Aufgaben sollten den Probanden während der Durchführung in schriftlicher Form zur Verfügung stehen (Sarodnick & Brau, 2011). Welche und wie viele Teilnehmer sollen einbezogen werden? Die gewählten Teilnehmer sollten die spätere Nutzergruppe repräsentieren. Zeitliche, räumliche und ggf. personelle Planung der Durchführung Rekrutieren von Probanden Vorbereiten des zu prüfenden Produktes Bereitstellen, einrichten und testen der verwendeten Werkzeuge und Hilfsmittel. Durchführen eines Vorabtests, die Hardware auf der das Produkt getestet wird zu überprüfen und zu kontrollieren, ob die veranschlagte Zeit für die Durchführung realistisch ist (Jacobsen, 2007; Sarodnick & Brau, 2011). 123 Kategorie Kriterium Usability-Test Durchführung Nachbereitung/ Auswertung Usability-Methodenkatalog Vor der Durchführung sollten den Teilnehmern genau mitgeteilt werden, was sie im Test erwartet, um Ängste und Stress abzubauen und die Schaffung einer angenehmen Testatmosphäre zu schaffen. Außerdem ist den Probanden das Ziel des Usability-Tests darzustellen und sie über die Nutzung der Ergebnisse zu informieren. (Sarodnick & Brau, 2011) Das Einverständnis der Teilnehmer für die Video- und Audioaufzeichnung ist einzuholen (Sarodnick & Brau, 2011). Die Teilnehmer haben die Möglichkeit Fragen zu stellen (Sarodnick & Brau, 2011). Überreichen der Aufwandsentschädigung. Diese sollte zwischen 25 und 60 € (je nachdem wie viel die Teilnehmer verdienen, ein Student erhält weniger als ein Arzt) liegen für eine Testsitzung von 45 bis 60 Minuten. Durch die Überreichen vor der Durchführung soll Vertrauen in den Probanden vermittelt werden und zeigen, dass die Bezahlung unabhängig von der Leistung ist. (Jacobsen, 2007) Smalltalk um die Atmosphäre aufzulockern und die Vorkenntnisse des Probanden zu erfragen (Jacobsen, 2007). Der Nutzer führt die festgelegten Arbeitsaufgaben durch (Sarodnick & Brau, 2011). Die Usability Experten beobachten den Nutzer (Sarodnick & Brau, 2011). Ggf. kann die Methode des lauten Denkens (vgl. Kapitel 4.5.2) von der Testperson angewendet werden (Sarodnick & Brau, 2011). Ggf. können die Methoden Eye-Tracking (vgl. Kapitel 4.5.3) und/oder Mouse-Tracking (vgl. Kapitel 4.5.4) verwendet werden Ggf. kann die Beobachtung durch die Erstellung von Eingabeprotokollen (Logfiles) unterstützt werden. Hierbei werden alle Interaktionen des Probanden mit dem System aufgezeichnet. So lassen sich die Handlungen der Teilnehmer und deren Reihenfolge genau nachvollziehen. Allerdings ist die Vorbereitung des Einsatzes mit großem Aufwand verbunden. (Sarodnick & Brau, 2011) Ggf. können Zeit- und Fehlerdaten aufgenommen werden. Hierbei kann unteranderem untersucht werden, wie lange Probanden für die Bearbeitung einer Aufgabe mit dem System brachen. Zu beachten ist, dass eine gleichzeitige Verwendung des Lauten Denkens nicht möglich ist. (Sarodnick & Brau, 2011) Es werden Notizen vom Moderierenden oder von einem Protokollant gemacht und so das Beobachtete festgehalten. Das Protokoll erleichtert die Auswertung der aufgezeichneten Daten. Notiert werden sollte (Jacobsen, 2007 S. 217): Konnte die Aufgabe erfolgreich abgeschlossen werden? Brauchte die Testperson Hilfe? Hatte die Testperson Probleme mit Begriffen, Funktionen oder Abbildungen? Wie lange hat die Aufgabe gedauert? Gab es technsiche Probleme? Weitere Beobachtungen wie Anmerkungen, Wünsche oder Emotionen der Teilnehmer. Der Test sollte nach Ablauf einer Vorgegeben Zeit (max. 45 Minuten) oder nach dem Bearbeiten aller Aufgaben abgebrochen bzw. abgeschlossen werden (Jacobsen, 2007). Die Testperson hat die Möglichkeit Kritik offen zu äußern und Verbesserungsvorschläge für das Produkt zu machen (Jacobsen, 2007). Ggf. Befragung im Rahmen eines Interviews (vgl. Kapitel 4.3.1) oder eines Fragebogens (vgl. Kapitel 4.3.3): Der Nutzer wird zu ausgewählten Situationen oder Schwierigkeiten befragt und seine subjektive Beurteilung des Systems erhoben. Hierzu kann auch ein Videofeedback verwendet werden, bei dem ausgewählte Videoausschnitte mit dem Probanden besprochen werden. (Nielsen, 1993; Sarodnick & Brau, 2011) Beeinflussende Faktoren wie z.B. die Vorerfahrung des Teilnehmers werden ermittelt (Sarodnick & Brau, 2011). Bedanken beim Teilnehmer und Verabschiedung Auswertung der erhobenen Daten, z.B. Video- und Audiodaten, Logfiles, Screenrecording-Daten, Daten aus der Befragung (Sarodnick & Brau, 2011) Analyse der Videoaufzeichnungen, um das Nutzerverhalten im Detail zu analysieren und verpasst oder zu schnelle Sequenzen auszuwerten. Eine ausführliche Auswertung des gesamten Videomaterials ist allerdings sehr aufwendig und sollte nicht durchgeführt werden. (Nielsen, 1993; Sarodnick & Brau, 2011) Erstellung eines Auswertungsrasters, in dem sich Probleme und Schwierigkeiten aller Testpersonen systematisch und übersichtlich zusammengeführt sind (Rautenberg et al., 1994 nach Sarodnick & Brau, 2011). Ggf. können aufgrund der aufgezeichneten Daten Zeitmessungen durchgeführt werden (Sarodnick & Brau, 2011). Erstellen eines Berichts, in dem die identifizierten Probleme aufgeführt und priorisiert sind. Es sollten auch positive Aspekte dargestellt werden. Für jedes Problem ist eine konkrete Handlungsempfehlung anzugeben (Sarodnick & Brau, 2011). Die Probleme und Schwachstellen können mit Screenshots verdeutlicht werden (Richter & Flückiger, 2010). Die Aufgaben der Probanden sind beizufügen (Richter & Flückiger, 2010). Beobachtete Probleme sowie persönliche Meinungen und Vorschläge sollten klar voneinander unterscheidbar sein (Richter & Flückiger, 2010). Bei der Erstellung des Ergebnisberichts kann sich an dem standardisierten Common Industry Format (CIF), das in der ISO/IEC 25062 festgelegt ist, orientiert werden (Sarodnick & Brau, 2011). Die gemachten Videoaufzeichnungen lassen sich den Entwicklern präsentieren, um identifizierte Probleme zu verdeutlichen (Sarodnick & Brau, 2011). Im Team sollten die Probleme besprochen und die Schwere nochmals diskutiert werden (Jacobsen, 2007). Beheben der Probleme, je nach Priorität bzw. nach dem Verhältnis von Nutzen und Aufwand (Jacobsen, 2007). Planen einer weiteren Testrunde, in der überprüft wird, ob alle gefundenen Probleme beseitigt wurden (Jacobsen, 2007). 124 Kategorie Kriterium Usability-Test 5. Praxis-Tipps Praxis-Tipps Tipps: Bei der Rekrutierung der Probanden sollte darauf geachtet werden, dass diese nach Möglichkeit das zu testende Produkt nicht schon kennen. Anderenfalls werden viele Probleme nicht auftreten bzw. würden umgangen werden (Sarodnick & Brau, 2011). Die erste Aufgabe des Tests sollte sehr einfach sein, damit der Proband mit einem Erfolgserlebnis den Test beginnt (Sarodnick & Brau, 2011). Alle weiteren Aufgaben sollen einen mittleren Schwierigkeitsgrad haben, so dass die Bearbeitung nicht trivial, aber auch nicht zu schwierig ist (Richter & Flückiger, 2010). Die Aufgabenbeschreibung für die Probanden soll so formuliert sein, dass Begriffe und Bezeichnungen, die beim zu testenden Produkt (z.B. der Website oder der Softwareanwendung) vorkommen, vermieden werden. Beispielsweise ist die neutrale Formulierung „Sie überweisen den Betrag von…“ besser als „gehen Sie im Menü auf Einzahlungen“. (Richter & Flückiger, 2010 S. 61) . Falls der Test in einem Usability-Labor durchgeführt wird, bietet es sich an, eine simulierte Nutzungsumgebung zu erzeugen, um die Umgebungsfaktoren in der Evaluation angemessen zu berücksichtigen (Sarodnick & Brau, 2011). Allgemein sollte eine angenehme Testatmosphäre geschaffen werden, um den Stress der Probanden, der durch die Situation des Arbeitens unter Beobachtung entsteht, zu verringern (Sarodnick & Brau, 2011). Finden die Tests in einem Labor mit separatem Beobachtungsraum statt, können sich die Produktentwickler dabei einen sehr guten Überblick über die Benutzung ihres Produktes verschaffen. Die Produktmanager können sich währenddessen über ihre Beobachtungen untereinander in Ruhe austauschen, ohne dass dies die Probanden mitbekommen. (Quirmbach, 2013 S. 107) Vor der Durchführung sollte den Probanden mitgeteilt werden, dass es sich bei dem zu testenden Produkt nicht um das endgültige System handelt, sondern für Weiterentwicklungen genutzt werden. Anderenfalls können falsche Erwartungen erzeugt werden und die Akzeptanz der Testpersonen gefährdet werden. (Sarodnick & Brau, 2011) Den Probanden ist ebenfalls vor der Durchführung mitzuteilen, dass das Produkt und nicht sie getestet werden (Jacobsen, 2007). Die beobachtende Person darf nicht zu früh in die Handlungen des Probanden eingreifen, falls dieser nicht weiter kommt, da hierdurch die Ergebnisse verfälscht werden können. Zu spätes Helfen kann allerdings zu Frustration beim Probanden führen. Der Ausführende sollte daher bei Bedarf mit vorsichtigen Hinweise schrittweise eingreifen. Es sollte dabei immer betont werden, dass das die Testperson alles richtig gemacht hat und die Probleme dabei helfen das Produkt zu verbessern. Bei quantitativen Messungen dürfen keine Hilfestellungen gegeben werden, da sonst die Aussagekraft der Ergebnisse nicht mehr gegeben ist. (Nielsen, 1993; Sarodnick & Brau, 2011) Dem Teilnehmer sollte bei der Verabschiedung das Gefühl gegeben werden entscheidend dazu beigetragen zu haben, das Produkt zu verbessern (Jacobsen, 2007). Der Bericht sollte möglichst kurz sein, um zu erreichen, dass ihn alle Beteiligen lesen (Jacobsen, 2007). Varianten: 6. Zweck Induktiver/deduktiver Usability-Test (Sarodnick & Brau, 2011 S. 163 f.): Ein induktiver Test dient der formativen Evaluation, wird also entwicklungsbegleitend an einem Prototyp oder einer Vorabversion durchgeführt. Ein deduktiver Usability-Test dient der summativen Evaluation und wird am fertigen Produkt durchgeführt. Es werden mehrere Alternativen miteinander verglichen, ein einzelnes System in seiner Leistungsfähigkeit beurteilt oder die erreichten Verbesserungen bei der Entwicklung kontrolliert. Remote-Usability-Test (Online-Usability-Test): Bei dieser Variante der Methode findet die Durchführung nicht im Usability-Labor, sondern z.B. bei der Testperson zu Hause statt. Der Testleiter ist räumlich getrennt vom Durchführungsort. Man unterscheide zwei Durchführungsarten, den synchronen und den asynchronen Test. (Sarodnick & Brau, 2011) Beim synchronen Remote-Usability-Test führt der Proband die Ausgaben mit dem System durch und wird zur gleichen Zeit vom Testleiter beobachtet, z.B. per Video- und Bildschirmübertragung. Der Testleiter kann so direkt durch den Test leiten und den Probanden ggf. auch befragen. Mit dieser Form des Tests kann auf einfach Weise eine räumliche Distanz zwischen den Probanden und dem Testleiter überwunden werden. Es wird kein Usability-Labor benötigt und es können auch schwer erreichbare Nutzergruppen eingebunden werden. Hinzu kommt der Vorteil, dass so Tests in der natürlichen Nutzungsumgebung, und mit der realen Hardware durchgeführt werden können. (Sarodnick & Brau, 2011) Bei der asynchronen Variante findet zusätzlich zu der räumlichen Trennung auch eine zeitliche Trennung zwischen der Durchführung der Aktionen der Probanden und der Sichtung und Auswertung der Daten durch den Testleiter statt. Die Probanden führen die Aufgaben mit dem System durch und die Bildschirminhalte werden aufgezeichnet und übermittelt. Es finden keine Videoaufzeichnungen statt. Zusätzlich zu der Durchführung der Aufgaben können die Probanden mittels Fragebogen befragt werden. Vorteile dieses Verfahrens sind, dass der Proband die Zeit für die Durchführung selbst festlegt und dass viele Probanden damit erreicht werden können. Mit einer großen Stichprobe lassen sich auch quantitative Fragestellungen beantworten. Allerdings sind keine Zwischenfragen durch den Testleiter möglich, und so kann auf unerwartete Handlungen des Teilnehmers nicht reagiert werden. Die Methode ist eher als Ergänzung zu einem Usability-Test im Labor anzusehen, als zum Ersatz. (Sarodnick & Brau, 2011) Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… folgendes zu erstellen: folgendes zu bewerten: Usability-Methodenkatalog Interaktion Benutzererfahrung Physikalisches Produkt Software Integriertes Produkt Physikalisches Produkt Software Integriertes Produkt 125 Kategorie Kriterium Usability-Test 7. Verwandte Verwandte Meund weiterfühthoden rende Methoden Mögliche voranAufgabenanalyse, Personas, Szenarien gegangene Methoden/Tätigkeite n Mögliche nachfol- gende Methoden/ Tätigkeiten Befragungsmethoden Heuristische Evaluation: Falls sich in besonders schwierigen Fällen die Relevanz von Problemen bzw. Verbesserungsvorschlägen nicht beurteilen lässt (Sarodnick & Brau, 2011). 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Auffinden von Aspekten, die die Gebrauchstauglichkeit von Webseiten, Software oder auch von physikalischer Produkte einschränken. 9. Referenzen und weiterführende Informationen Weiterführende Informationen In dem Buch „Methoden der Usability Evaluation“ von Sarodnick & Brau, (2011) sind ausführliche Informationen über Usability-Tests gegeben sowie eine beispielhafte Durchführung der Methode beschrieben. Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Zu beachtende Normen und Zertifikate Bei der Erstellung des Ergebnisberichts kann sich an dem standardisierten Common Industry Format (CIF), das in der ISO/IEC 25062 festgelegt ist, orientiert werden. Quellen CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/ Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley. Nielsen, J. (1993). Usability engineering (Updated ed.). San Francisco, Calif.: Morgan Kaufmann Publishers. Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/ Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung. X.media.press. Berlin u.a.: Springer. Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln (2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag. Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Usability-Methodenkatalog 126 4.5.2 Lautes Denken Kategorie Kriterium Lautes Denken (Thinking Aloud) 1. Bezeichnung Name Lautes Denken Synonyme Thinking Aloud, Think Aloud Testing 2. Beschreibung Kurzbeschreibung Beim „Lauten Denken“ geht es darum, dass eine Testperson bei der Interaktion mit einem System (z.B. Webseite, Software) laut denkt und dadurch ihre Gedanken, Emotionen, Absichten, Handlungen, Erwartungen und Meinungen verbalisiert. Die Äußerungen des Teilnehmers werden protokolliert. Probleme, die die Testperson bei der Interaktion hatte, werden aufgespürt. Abbildungen Ziele Analyse von Nutzererfahrungen Probleme der Nutzer bei der Interaktion mit einem System (z.B. Webseiten oder Software) aufspüren Ergebnisse/ Output Liste mit Problemen, die Nutzer bei der Verwendung eines Systems hatten Von den Teilnehmern verwendete Wörter können als Anregungen für die Benennung von Labels (z.B. Buttons, Links usw.) verwendet werden (Uselab, 2015). Vorteile Es bringt sowohl die Probleme, die ein Nutzer mit einem System hat zutage, als auch warum diese Probleme auftreten (Jordan, 1998). Mit nur fünf Teilnehmern können schon viele hilfreiche Informationen gewonnen werden. (Jordan, 1998) Günstige Methode, da kein spezielles Equipment benötigt wird (Nielsen, 2012b) Leicht zu erlernen: ein Tag Grundlagen erlernen; drei Tage „Learning-by-Doing“ (Nielsen, 2012b) Leicht anzuwenden: auch mit geringen Moderationskenntnissen können brauchbare Ergebnisse erzielt werden (Nielsen, 2012b) Flexibel anwendbar: lässt sich in jeder Phase der Produktentwicklung einsetzen (Nielsen, 2012b) Stellt einen guten „Ersten Schritt“ in das Thema Usability dar und kann zur Verwendung weiterer Maßnahmen überzeugen (Nielsen, 2012b) Nachteile/ Grenzen Anwender 3. Rahmenbedingungen & Ressourcen Teilnehmer Projektphase(n) 4. Vorgehensweise Die Doppelbelastung der Aufgabenbearbeitung und Verbalisierung kann negative Effekte auf die Aufgabenperformanz haben. Daher kann die Methode nicht bei gleichzeitiger Zeitmessung der Aufgabenbearbeitung verwendet werden. (Jordan, 1998; Sarodnick & Brau, 2011; van den Haak, Maaike, Jong, & Jan Schellens, 2003) Nur schwer bei Programmen mit Sprachsteuerung bzw. auditivem Feedback anwendbar (Nielsen, 2012b) Methoden wie der Cognitive Walkthrough oder die Heuristische Evaluation bringen signifikant mehr Auskünfte (Frøkjær & Hornbæk, 2008) Es wird eine unnatürliche Testsituation erzeugt, in der die Teilnehmer ganz besonders auf das Finden von Fehlern fokussiert sind. (Uselab, 2015) Die Ergebnisse hängen stark von der Fähigkeit der Versuchsperson, sich zu artikulieren ab (Arndt, 2006). Alle Lässt sich in allen Phasen der Produktentwicklung anwenden (Nielsen, 2012b; Uselab, 2015). Um die Hauptvorteile der Methode nutzen zu können ist es notwendig, dass zumindest ein interaktiver Prototyp vorhanden ist (Jordan, 1998). Anzahl 5 (Nielsen, 2000) Art Endnutzer Rolle Wird beobachtet Einbeziehung Physikalische Einbeziehung Anzahl 1 Rolle Beobachter, Moderator, Protokollant Erforderliche Keine, nach Einarbeitung in die Grundlagen durchführbar (Nielsen, 2012b) Kompetenzen Werkzeuge, Hilfsmittel Schreibmaterial Ggf. Aufzeichnungsgerät (z.B. Videokamera, Diktiergerät, Screencapture-Software) (Nielsen, 1994a) Ort/Umgebung Natürliche Nutzungsumgebung Simulierte Nutzungsumgebung Usability Labor Tagungsraum Schreibtisch Kosten Gering (Nielsen, 2012b) Zeitaufwand Gering Vorbereitung Usability-Methodenkatalog Ca. 1 Tag für die Durchführung mit 5 Teilnehmern (Nielsen, 2012b) Rekrutieren repräsentativer Nutzer (Nielsen, 2012b) Bei der Verwendung von technischen Aufzeichnungsgeräten (z.B. Tonbandgerät) sollte zunächst ein Probedurchlauf durchgeführt werden (Nørgaard & Hornbæk, 2006). Instruktionen für die Teilnehmer erstellen und bereitlegen (Uselab, 2015) 127 Kategorie Kriterium Lautes Denken (Thinking Aloud) Durchführung Der Teilnehmer wird begrüßt. Mit etwas Smalltalk soll eine angenehme Atmosphäre geschaffen werden (Uselab, 2015). Den Teilnehmer über das Vorhaben informieren (Ziel und Dauer der Untersuchung; ggf. Aufzeichnungsmethode erläutern und Einverständniserklärung unterschreiben lassen) (Uselab, 2015) Den Teilnehmer über die Durchführung informieren (Gedanken, Gefühle, Handlungen etc. laut äußern) und ggf. ein Video von einer vorherigen Durchführung vorführen, damit der Proband einen Eindruck vom Ablauf der Methode bekommt (Nielsen, 2012b; Uselab, 2015). Probedurchlauf mit der Bearbeitung einer Übungsaufgabe. Der Teilnehmer soll sich so an das laute Denken gewöhnen. Im Anschluss ist ihm ein kurzes Feedback zu geben (Uselab, 2015). Dem Teilnehmer die Instruktionen aushändigen. (Uselab, 2015) Ein Beispiel für das Instruktionsschreiben ist auf der Usabilityplattform der TU Berlin gegeben: http://www.uselab.tuberlin.de/wiki/images/4/46/Instriction.png Der Teilnehmer beginnt die Aufgaben zu bearbeiten und spricht seine Gedanken laut aus. Der Ausführende kann bei längeren Stillephasen zum Sprechen ermutigen (Jordan, 1998). Aufgetretene Probleme werden kategorisiert, gewichtet und bewertet (Uselab, 2015). Transkription der Notizen und ggf. der durchgeführten Aufnahmen (Uselab, 2015) Nachbereitung/ Auswertung 5. Praxis-Tipps Praxis-Tipps Tipps: Der Ausführende sollte den Teilnehmer so wenig wie möglich bei der Durchführung der Methode beeinflussen (keine zusätzlichen Informationen oder Hilfestellungen geben) (Ericsson & Simon, 1993). Es sollte für eine angenehme und freundliche Atmosphäre gesorgt werden, um den Teilnehmern Hemmungen zu nehmen (Uselab, 2015) Der Teilnehmer sollte darauf hingewiesen werden, dass nicht er, sondern das System getestet wird (Uselab, 2015). Varianten: 6. Zweck Co-discovery Method: Zwei Teilnehmer testen gleichzeitig ein System. Die Testsituation wird dadurch natürlicher, da Menschen das laute Denken gewohnt sind, wenn sie gemeinsam Probleme lösen. Es sind allerdings mehr Testpersonen und größere Räumlichkeiten notwendig. (Nielsen, 1993) Retroperspective Testing: Der Teilnehmer führt eine Tätigkeit aus, die aufgezeichnet wird, ohne diese direkt zu kommentieren. Im Nachhinein wird dem Teilnehmer die Aufnahme gezeigt und er kommentiert rückwirkend seine Gedanken. Hierdurch findet während der Tätigkeit keine Doppelbelastung statt, die Durchführung der Methode ist allerdings zeitintensiver. (Nielsen, 1993) Coaching Method: Der Teilnehmer kann während der Durchführung der Methode systembezogene Fragen stellen, die sofort beantwortet werden. Der Ausführende greift bei dieser Variante mehr in die Durchführung ein. (Nielsen, 1993) Die Methode ist mehr zu erfahren über… anwendbar, wenn es das Ziel ist… folgendes zu bewerten: Daten… Interaktion Benutzererfahrung Ideen & Konzepte Physikalisches Produkt Software Integriertes Produkt Dienstleistung Umgebung/Ort zu kommunizieren 7. Verwandte Verwandte MeEye-tracking und weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/Tätigkeite n Mögliche nachfol- Gewichtete Punktbewertung zur Auswertung der Ergebnisse (Uselab, 2015) gende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Während Probanden die Gebrauchstauglichkeit von Webseiten oder Softwareanwendungen überprüfen, z.B. im Rahmen eines Usability-Tests, kann die Methode Lautes Denken angewendet werden, um mehr über die Test-Personen zu erfahren. 9. Referenzen und weiterführende Informationen Weiterführende Informationen Umfangreiche Internetseite der TU Berlin mit Informationen zum Lauten Denken: http://www.uselab.tu-berlin.de/wiki/index.php/Lautes_Denken Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite Zu beachtende Normen und Zertifikate Usability-Methodenkatalog 128 Kategorie Kriterium Lautes Denken (Thinking Aloud) Quellen Arndt, H. (2006). Integrierte Informationsarchitektur: Die erfolgreiche Konzeption professioneller Websites. X.media.press. Berlin: Springer. Ericsson, K. A., & Simon, H. A. (1993). Protocol analysis: Verbal reports as data (Rev. ed.). Cambridge, Mass.: MIT Press. Frøkjær, E., & Hornbæk, K. (2008). Metaphors of human thinking for usability inspection and design. ACM Transactions on Computer-Human Interaction, 14(4), 1–33. doi:10.1145/1314683.1314688 Jordan, P. W. (1998). An introduction to usability. London, Bristol, Pa.: Taylor & Francis. Nielsen, J. (1993). Usability engineering (Updated ed.). San Francisco, Calif.: Morgan Kaufmann Publishers. Nielsen, J. (1994). Estimating the number of subjects needed for a thinking aloud test. Human- Computer Studies, (41), 385–397. Abgerufen von http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/DG308%20DID/nielsen-1994.pdf Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/ Nielsen, J. (2012). Thinking Aloud: The #1 Usability Tool. Abgerufen von http://www.nngroup.com/articles/thinking-aloud-the-1-usability-tool/ Nørgaard, M., & Hornbæk, K. (2006). What Do Usability Evaluators Do in Practice?: An Explorative Study of Think-Aloud Testing. ACM Symposium on Designing Interactive Systems, (DIS 2006), 209–218. Abgerufen von http://www.kasperhornbaek.dk/papers/DIS2006_UsabilityEvaluation.pdf Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite van den Haak, Maaike, Jong, M. de, & Jan Schellens, P. (2003). Retrospective vs. concurrent think-aloud protocols: Testing the usability of an online library catalogue. Behaviour & Information Technology, 22(5), 339– 351. doi:10.1080/0044929031000 Usability-Methodenkatalog 129 4.5.3 Blickbewegungsanalyse Kategorie Kriterium Blickbewegungsanalyse (Eye-Tracking) 1. Bezeichnung Name Blickbewegungsanalyse Synonyme Eye-Tracking, Gaze-Tracking, Blickbewegungsmessung 2. Beschreibung Kurzbeschreibung Probanden führen Aufgaben auf einer interaktiven Benutzeroberfläche z.B. einer Website durch. Die Blickbewegung der Probanden wird dabei mit Hilfe von technischen Hilfsmitteln erfasst und aufgezeichnet. Durch die Analyse der aufgezeichneten Daten lässt sich die Benutzeroberfläche optimieren. Die Durchführung der Methode bietet sich besonders im Rahmen eines Usability-Tests an. Abbildungen Abbildung 16: Testaufbau einer Blickbewegungsanalyse (Pernice & Nielsen, 2003) Ziele Inhaltlich und gestalterisch Optimierungsansätze für Benutzeroberflächen/Websites erhalten. Ergebnisse/ Output Objektive Rückschlüsse über weitestgehend unbewusste Wahrnehmungs-, Aufmerksamkeits- und Informationsverarbeitungsprozesse der Probanden (Quirmbach, 2013). Mittels sogenannter „Heatmaps“ oder „Opacity Maps“ kann veranschaulicht werden, welche Bereiche betrachtet wurden. Reihenfolge in der Objekte z.B. einer Website betrachtet werden und die Dauer der Betrachtung können mittels Gazeplots visualisiert werden. Vorteile Usability-Methodenkatalog Wird die Methode im Rahmen von Usability-Tests im Labor eingesetzt, ist die zusätzliche Aufnahme der Blickbewegung meist nicht teuer (Quirmbach, 2013). Liefert tiefere Kenntnisse darüber, wie Nutzer beispielsweise eine Website lesen (z.B. wo sie zuerst hinsehen) (Quirmbach, 2013) Es zeigt sich, wo sich z.B. auf Webseiten Blickbarrieren befinden, über die Benutzer nicht hinaussehen und dadurch ein Explorieren der restlichen Inhalte nicht stattfindet (Quirmbach, 2013). Lässt Rückschlüsse auf die Leserlichkeit (engl. scanability) und den Lesefluss zu (Quirmbach, 2013). Blickverläufe zeigen, ob sich Elemente an den Positionen befinden, wo der Nutzer sie vermutet, z.B. die Login-Schaltfläche (Quirmbach, 2013). Über die Auswertung der Blickbewegung lässt sich bei Konzept- und Designtests die Wirkung von alternativen Konzepten testen (Quirmbach, 2013). Die Blickintensität kann über die Blickdauer, also die Zeit, die ein Proband auf einen Bereich blickt, ermittelt werden. Zur Interpretation der Daten muss eine Nachbefragung der Probanden durchgeführt werden (Quirmbach, 2013). 130 Kategorie Kriterium Blickbewegungsanalyse (Eye-Tracking) Nachteile/ Grenzen Anwender 3. Rahmenbedingungen & Ressourcen Teilnehmer Projektphase(n) 4. Vorgehensweise Methode ist von Laien nicht anwendbar. Erst mit Erfahrung aus ca. 100 normalen Usability-Tests sollte man das Eye-Tracking nutzen (Pernice & Nielsen, 2003). Hohe Anschaffungskosten da ein spezielles Gerät und Software zur Aufzeichnung und Auswertung benötigt werden. Hohe Teilnehmeranzahl erforderlich. Methoden wie Lautes Denken oder Befragungen sind während der Durchführung des Tests nicht möglich, da der Proband dadurch in seinem natürlichen Blickverlauf gestört wird (Ross, 2009; Sarodnick & Brau, 2011). Probanden können durch die Aufzeichnung der Blickbewegung in ihrem Verhalten beeinflusst werden, da sie in einer bestimmten Position nahe dem Aufzeichnungsgerät bleiben müssen (Quirmbach, 2013; Ross, 2009; Sarodnick & Brau, 2011). Methode kann nur ergänzend zu anderen Methoden (z.B. Interviews, Fragebogen) verwendet werden, da nur so eine verlässliche Aussage über das Nutzerverhalten getroffen werden kann (Quirmbach, 2013; Sarodnick & Brau, 2011). Die Auswertung der Daten ist zeitaufwändig, da die Methode in Kombination mit Video- und Tonaufzeichnungen erfolgt. Die einzelnen Aussagen müssen mit den Daten verknüpft und richtig interpretiert werden. (Quirmbach, 2013) Umsetzung, Betrieb Eye-Tracking Studien eignen sich erst, wenn erste grafische Designs vorhanden sind. (Usability.de, 2015) Anzahl 6-50 Art (repräsentative) Endnutzer Rolle wird beobachtet Einbeziehung physikalische Einbeziehung Anzahl 1 Rolle Organisator, Beobachter, Analyst (Auswerten der Daten und Ableiten von Verbesserungen) 50 (Lesemann und Wilms, 2007, nach Sarodnick & Brau, 2011) falls man Heatmaps erstellen will: 39 Teilnehmer (Pernice & Nielsen, 2003) für eine qualitative Eye-Tracking Studie: ca. 6 Teilnehmer (Pernice & Nielsen, 2003) Erforderliche Umfassendes Wissen und Erfahrungen im Bereich Usability Testing (Pernice & Nielsen, 2003) Kompetenzen Werkzeuge, Hilfsmittel Ort/Umgebung Usability Labor Kosten hoch Hohe Anschaffungskosten von ca. 30000€ (Rakoczi, 2012) hohe Kosten durch hohen Zeitaufwand und viele benötigten Teilnehmer Zeitaufwand mittel viele Durchführungen notwendig: ca. 1,5h pro Teilnehmer (Pernice & Nielsen, 2003) hoher Analyseaufwand (Rakoczi, 2012) maximaler Zeithorizont: 1 Monat (Varga, o. J.) Vorbereitung Durchführung Nachbereitung/ Auswertung Usability-Methodenkatalog Hard- und Software zur Auszeichnung und Auswertung der Blickbewegung PC-Arbeitsplatz für die Durchführung des Tests durch den Teilnehmer Zweiter Monitor für den Ausführenden, der den Teilnehmer beobachtet, um die Blickbewegung in Echtzeit mitzuverfolgen. Teilnehmer rekrutieren Testaufgaben sind zu definieren und ggf. auszudrucken um sie den Teilnehmer .während der Durchführung zur Verfügung zu stellen. Eine Testaufgabe könnte z.B. sein, eine bestimmt Information auf einer Website zu suchen. Pilot-Studie durchführen, um die Nützlichkeit und Verständlichkeit der Aufgaben zu überprüfen und die Dauer der Durchführung zu planen. (Varga, o. J.) Eine Befragung zur Aufnahme persönlicher Daten (Älter, Geschlecht, Erfahrungen, …) ist vorzubereiten. Eine Nachbefragung ist vorzubereiten z.B. Fragebogen. Technische Hilfsmittel sind einzurichten und zu testen. So sind die Aufgaben beispielsweise schon in der Eye-Tracking-Software vorzubereiten (Pernice & Nielsen, 2003). Teilnehmer begrüßen und das Vorhaben, das Verhalten der Teilnehmer während der Durchführung sowie die technische Einrichtung erklären (Varga, o. J.). Befragung zur Aufnahme der persönlichen Daten (Varga, o. J.). Der Teilnehmer sollte eine Übungsaufgabe am Testsystem durchführen um eine angenehme Sitz- und Arbeitsposition einzunehmen (Pernice & Nielsen, 2003). Technische Hilfsmittel zur Aufzeichnung der Blickbewegung sind an den Teilnehmer anzupassen und zu kalibrieren Der Teilnehmer führt die Aufgaben durch. Zum Abschluss ist der Teilnehmer zu befragen bzw. der Fragebogen ist ihm vorzulegen (Pernice & Nielsen, 2003). Aufgezeichnet Daten werden mit Hilfe von spezieller Software ausgewertet. Es ist zu entscheiden auf welche Weise die Daten dargestellt werden sollen z.B. mittels Heatmaps (Varga, o. J.). Die Ergebnisse werden unter Einbeziehung von anderen Methoden (z.B. Interviews, Fokusgruppen, …) interpretiert (Varga, o. J.). Aus den Ergebnissen der Untersuchung sind Design-Optimierungen abzuleiten. 131 Kategorie Kriterium 5. Praxis-Tipps Praxis-Tipps Blickbewegungsanalyse (Eye-Tracking) Tipps: Zusätzlich zur Blickbewegung kann auch eine Aufzeichnung der Mausbewegung und Klicks nützlich sein (vgl. Mouse-Tracking Kapitel 4.5.4). Teilnehmer lassen sich leichter per Telefon rekrutieren als per E-Mail (Pernice & Nielsen, 2003). Das Usability-Labor sollte gut beleuchtet, aber nicht zu hell sein (Pernice & Nielsen, 2003). Die Teilnehmer sollten einen Stuhl ohne Rollen und ohne Schwenk- oder Neigefunktion erhalten (Pernice & Nielsen, 2003). Während der Durchführung sollte sich der Ausführende, der den Teilnehmer beobachtet und die Blickbewegungen auf einem 2. Monitor verfolgt, außerhalb des Blickfeldes des Teilnehmers befinden, um den Probanden nicht abzulenken (Pernice & Nielsen, 2003). Varianten: 6. Zweck Qualitative Eye-Tracking Studie: Hierbei werden keine Heatmaps betrachtet, sondern man betrachtet im Nachhinein die Blickbewegung von jedem Teilnehmer einzeln und wertet sie individuell mit den gemachten Notizen während der Durchführung des Tests aus. Der große Vorteil dieser Variante ist, dass nur 6 Teilnehmer benötigt werden. (Pernice & Nielsen, 2003, S. 51-52) Die Methode ist mehr zu erfahren über… anwendbar, wenn folgendes zu erstellen: es das Ziel ist… folgendes zu bewerten: Interaktion Physikalisches Produkt Software Integriertes Produkt Physikalisches Produkt Software Integriertes Produkt Umgebung/Ort 7. Verwandte Verwandte MeAttention-Tracking, Mausbewegungsmessung, 5-Sekunden-Test (Sarodnick & Brau, 2011) und weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/Tätigkeite n Mögliche nachfol- Interview, Fragebogen gende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete 9. Referenzen und weiterführende Informationen Weiterführende Informationen Kann zur Überprüfung der Scanability, d.h. der Leserlichkeit und des Leseflusses einer Website verwendet werden (Quirmbach, 2013). Kann zur Überprüfung der Sichtbarkeit von Elementen (z.B. Werbung) auf einer Website verwendet werden (Quirmbach, 2013). Kann verwendet werden um zu untersuchen, welche Bereiche einer Website betrachtet werden und welche nicht. Wie schnell Elemente und in welcher Reihenfolge sie wahrgenommen werden (Quirmbach, 2013; Sarodnick & Brau, 2011). Hintergrundinformationen zur Methode, die im Rahmen des Uselab-Projektes der TU-Berlin gesammelt wurden: http://www.uselab.tu-berlin.de/wiki/index.php/Aufmerksamkeitserfassung_per_Eyetracking Uselab. (2015). Usability und UX Wiki. Retrieved from http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite Artikel mit dem Fokus auf den Stärken und Schwächen der Methode sowie einer Empfehlung wann sich ein Einsatz lohnt: (englisch) http://www.uxmatters.com/mt/archives/2009/10/eyetracking-is-it-worth-it.php Ross, J. (2009). Eyetracking: Is It Worth It? Retrieved from http://www.uxmatters.com/mt/archives/2009/10/eyetracking-is-it-worth-it.php Ausführliche Informationen über die Methodik des Eyetrackings mit vielen Tipps zur Anwendung bietet der 159-seitige Report „How to Conduct Eyetracking Studies“ von Kara Pernice und Jakob Nielsen. (englisch) http://media.nngroup.com/media/reports/free/How_to_Conduct_Eyetracking_Studies.pdf Pernice, K., & Nielsen, J. (2003). How to Conduct Eyetracking Studies. Retrieved from http://www.nngroup.com/reports/how-to-conduct-eyetracking-studies/ Ausführliche Informationen zu Designempfehlungen auf Grundlage von Eyetracking bietet das Buch „Eyetracking Web Usability“ von Nielsen & Pernice, (2010). (englisch) Nielsen, J., & Pernice, K. (2010). Eyetracking web usability. Berkeley, CA: New Riders. Zu beachtende Normen und Zertifikate Usability-Methodenkatalog 132 Kategorie Kriterium Blickbewegungsanalyse (Eye-Tracking) Quellen Nielsen, J., & Pernice, K. (2010). Eyetracking web usability. Berkeley, CA: New Riders. Pernice, K., & Nielsen, J. (2003). How to Conduct Eyetracking Studies. Abgerufen von http://www.nngroup.com/reports/how-to-conduct-eyetracking-studies/ Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung. X.media.press. Berlin u.a.: Springer. Rakoczi, G. (2012). Eye Tracking in Forschung und Lehre: Möglichkeiten und Grenzen eines vielversprechenden Erkenntnismittels. Digitale Medien: Werkzeuge für exzellente Forschung und Lehre. Abgerufen von http://publik.tuwien.ac.at/files/PubDat_209599.pdf Ross, J. (2009). Eyetracking: Is It Worth It? Abgerufen von http://www.uxmatters.com/mt/archives/2009/10/eyetracking-is-it-worth-it.php Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Usability.de. (2015). Ausgewählte UX Methoden im Überblick. Zugriff am 27.04.2015. Abgerufen von http://www.usability.de/leistungen/methoden.html Varga, E. (o. J.). Eye Tracking. Zugriff am 05.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter#info-3eye-tracking Usability-Methodenkatalog 133 4.5.4 Mausbewegungsmessung Kategorie Kriterium Mausbewegungsmessung (Mouse-Tracking) 1. Bezeichnung Name Mausbewegungsmessung Synonyme Mouse-Tracking 2. Beschreibung Kurzbeschreibung Die Teilnehmer führen Aufgaben auf einer grafischen Benutzeroberfläche eines Computers aus z.B. auf einer Website. Hierbei werden die Bewegung des Mauszeigers, die durchgeführten Klicks sowie die Bewegung des Mausrades aufgezeichnet. Mehrere Studien haben gezeigt, dass eine starke Korrelation zwischen der Augenund der Mausbewegung beim Verwenden einer Website besteht (Arroyo, Selker, & Wei, 2006). Daher können die grafisch aufbereiteten Daten der Mausbewegungsmessung Rückschluss auf die Aufmerksamkeit der Anwender zulassen und zur Analyse des Nutzerverhaltens verwendet werden. Abbildungen Abbildung 17: Graphische Auswertung einer Mausbewegungsmessung (Arroyo et al., 2006) Ziele Das Verhalten der Nutzer analysieren und daraus Verbesserungen der Benutzerfreundlichkeit ableiten. Ergebnisse/ Output Graphisch dargestellte Mausbewegung z.B. mittels Headmap, Schattendarstellung oder Maustrajektorien und damit einen Indikator für die Verteilung der Aufmerksamkeit am Bildschirm (Arroyo et al., 2006; Uselab, 2015). Vorteile Nachteile/ Grenzen Projektphase(n) Usability-Methodenkatalog Lässt sich im Gegensatz zur Blickbewegungsanalyse (Eye-Tracking) leicht auch außerhalb eines UsabilityLabors durchführen. Programme zur Erfassung der Cursorbewegung lassen sich mit sehr geringem Aufwand auf einer Website installieren, ohne dass es zu Leistungsverschlechterungen z.B. längere Ladezeiten, kommt (Uselab, 2015). Die Mausbewegungsdaten von allen Besuchern einer Website können verwendet werden. Es kann so leicht eine große Menge von Daten gesammelt werden. (Arroyo et al., 2006) Die typischen Nutzer eine Website können in der natürlichen Umgebung erreicht werden (Arroyo et al., 2006). Die Nutzer werden durch den Test nicht beeinflusst. Sie sitzen am heimischen Rechner und es werden keine zusätzlichen technischen Hilfsmittel benötigt (wie z.B. bei der Blickbewegungsanalyse), die die Bewegung und das Verhalten der Teilnehmer beeinflussen könnten. Somit treten keine Verzerrungen auf und der Test ist sehr valide. (Arroyo et al., 2006; Uselab, 2015) Die Kosten und der Zeitaufwand sind gering, gerade gegenüber der Blickbewegungsanalyse, da lediglich ein kleines Programm in den Quellcode einer Website eingefügt werden muss (Uselab, 2015). Je nach Software ist auch eine Aufzeichnung der Tastatureingabe möglich (Atterer & Schmidt, 2007). Die unwissentliche Datenerhebung stellt gegenüber den Nutzern ein ethisches Problem dar (Atterer & Schmidt, 2007). Es kann nicht sicher gesagt werden, dass die Aufmerksamkeit der Nutzer mit der Mausbewegung übereinstimmt. Beim Lesen verfolgt z.B. nicht jeder Nutzer den Vorgang mit dem Mauszeiger. In einem nicht experimentellen Setting werden demographische Daten der Probanden (auf legalem Weg) nicht erfasst, was die Verwendbarkeit der gesammelten Daten (z.B. für Marktforschungszwecke) einschränken kann (Uselab, 2015). Da die Gedanken der Nutzer bei der Verwendung einer Website nicht mit eingezogen werden, besteht ein großer Interpretationsspielraum bei der Auswertung der Daten. Eine zusätzliche Verwendung von anderen Usability-Methoden wie z.B. Lautes Denken kann vorteilhaft sein. (Atterer & Schmidt, 2007) Betrieb 134 Anzahl Anwender 3. Rahmenbedingungen & Ressourcen Kriterium Teilnehmer Kategorie Mausbewegungsmessung (Mouse-Tracking) Große Stichprobe bis hin zur natürlichen Population (Uselab, 2015) Art Endnutzer Rolle Wird beobachtet Einbeziehung Anzahl 1 Rolle Organisator, Analyst Physikalische Einbeziehung möglich bei zusätzlicher Anwendung weiterer Usability-Methoden „Remote“ Erforderliche Bei der Verwendung von kommerziellen Softwaretools wie z.B. M-Pathy sind keine besonderen Vorkenntnisse Kompetenzen notwendig. Werkzeuge, Hilfsmittel Software zur Aufzeichnung und Analyse von Mausbewegungen (z.B. M-Pathy, Crazy Egg, Lucky Orange, eTracker, Inspectlet, YUNIT) (vgl. Weiterführende Literatur) (Stanitzek, 2013) Ort/Umgebung Natürliche Nutzungsumgebung Kosten Gering Die Preise der Software-Tools reichen von 0-300€/Monat (Usability-Tipps.de, o. J.) Zeitaufwand Gering Geringe Vorbereitungszeit (Uselab, 2015) Vorbereitung Durchführung Die Messung wird durchgeführt. Nachbereitung/ Auswertung Die Daten werden ausgewertet (z.B. von der Software) und ggf. Usability-Maßnahmen abgeleitet. 5. Praxis-Tipps Praxis-Tipps Die Mausbewegungsmessung kann im Labor, invasiv (Installation eines Programms auf dem Nutzer-PC) oder nicht-invasiv (ohne Installation zusätzlicher Software) erhoben werden (Uselab, 2015). 6. Zweck Die Methode ist mehr zu erfahren über… anwendbar, wenn folgendes zu erstellen: es das Ziel ist… 4. Vorgehensweise Software zur Aufzeichnung der Mausbewegung ist auszuwählen, zu beziehen und einzurichten. Die eigenen AGBs müssen angepasst werden. folgendes zu bewerten: Interaktion Software Software 7. Verwandte Verwandte MeBlickbewegungsanalyse und weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/Tätigkeite n Mögliche nachfol- Onlineumfrage (Arroyo et al., 2006) gende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Optimierung von Such- und Navigationsvorgängen in Websuchmaschinen (Uselab, 2015) 9. Referenzen und weiterführende Informationen Weiterführende Informationen Einen Überblick über mögliche Tools zur Aufzeichnung der Mausbewegung gibt Kamila Stanitzek in einem Artikel auf: http://www.dieproduktmacher.com/mouse-tracking-uebersicht-zu-einsatz-und-tools/ Stanitzek, K. (2013). Mouse Tracking - Übersicht zu Einsatz und Tools -. Abgerufen von http://www.dieproduktmacher.com/mouse-tracking-uebersicht-zu-einsatz-und-tools/ Normen & Zertif. Usability-Methodenkatalog 135 Kategorie Kriterium Mausbewegungsmessung (Mouse-Tracking) Quellen Arroyo, E., Selker, T., & Wei, W. (2006). Usability Tool for Analysis of Web Designs Using Mouse Tracks. Proceedings of CHI 2006, 484–489. Abgerufen von http://delivery.acm.org/10.1145/1130000/1125557/p484arroyo.pdf?ip=130.83.73.38&id=1125557&acc=ACTIVE%20SERVICE&key=2BA2C432AB83DA15%2E24DDBA2 ADC8180AB%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35&CFID=511751455&CFTOKEN=59509924&__ acm__=1431679515_80d06f9f128b8f5c60b189e08b5a114c Atterer, R., & Schmidt, A. (2007). Tracking the Interaction of Users with AJAX Applications for Usability Testing. Proceedings of CHI 2007. Abgerufen von http://www.academia.edu/581876/What_can_a_mouse_cursor_tell_us_more_correlation_of_eye_mouse_ movements_on_web_browsing Stanitzek, K. (2013). Mouse Tracking - Übersicht zu Einsatz und Tools -. Abgerufen von http://www.dieproduktmacher.com/mouse-tracking-uebersicht-zu-einsatz-und-tools/ Usability-Tipps. (o. J.). Mouse-Tracking & Co: Problemen auf der Mausspur… Zugriff am 16.05.2015. Abgerufen von http://www.usability-tipps.de/info/index.php/mouse-tracking-click-tracking/ Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite Usability-Methodenkatalog 136 4.5.5 A/B-Testing Kategorie Kriterium A/B-Testing 1. Bezeichnung Name A/B-Testing und Multivariantes-Testing Synonyme AB-Test, Split-Run-Test 2. Beschreibung Kurzbeschreibung Mit dem A/B-Testing bzw. dem Multivarianten-Testing können zwei oder mehrere Varianten eines Systems (z.B. eine Website) von Nutzern getestet werden. Es werden beispielsweise bei einer bestehenden Website Elemente wie Schaltflächen oder Graphiken verändert - z.B. in ihrer Größe, Farbe, Platzierung, Beschriftung - und damit eine Variante (beim A/B-Testing) oder mehrere Varianten (beim Multivarianten Testing) der Website geschaffen. Diese Varianten werden den Nutzern zugänglich gemacht und ihr Verhalten bei der Verwendung der Seite untersucht. Eine Webanalytik-Software wird zur Messung der Nutzung verwendet. Die Messungen der unterschiedlichen Varianten werden verglichen und die beste Variante umgesetzt. Abbildungen Ziele Aus der Messung des Nutzerverhaltens sollen zwei oder mehr Designalternativen verglichen werden. Ergebnisse/ Output Es wird die Designalternative ermittelt, die im jeweiligen Kontext am besten abschneidet. Vorteile A/B-Tests sind günstig. (Nielsen, 2005) Varianten können unter realen Nutzungsbedingungen getestet werden. Schwankungen der allgemeinen Internetnutzung werden berücksichtigt. (z.B. Freizeit, schönes Wetter, Events) (Quirmbach, 2013) Es liegen sehr schnell Ergebnisse vor (Quirmbach, 2013). Das tatsächliche Nutzerverhalten wird gemessen. (Die Nutzer wissen und merken nichts von dem Test.) (Nielsen, 2005; Quirmbach, 2013) Es können selbst sehr geringe Leistungsunterschiede mit statistischer Signifikanz gemessen werden (Nielsen, 2005). Widersprüche zwischen bestehenden Richtlinien und quantitativen Usability-Resultaten können aufgelöst werden (Nielsen, 2005). Mehrere Ideen können simultan getestet werden (Quirmbach, 2013). Verschiedene Hypothesen können gleichzeitig optimiert werden (Quirmbach, 2013). Der Mikrobereich einer Site kann optimiert werden (Quirmbach, 2013). Nachteile/ Grenzen Anwender 3. Rahmenbedingungen & Ressourcen Teilnehmer Projektphase(n) Die Methode kann nur bei Projekten verwendet werden, für die sich ein einziges klares Ziel definieren lässt, das zudem mit einem Computer messbar sein muss. Meist ist dies nicht der Fall, da sich viele Ziele wie z.B. die Steigerung der Markenreputation, nicht durch Nutzeraktionen auf dem Server messen lassen. (Nielsen, 2005) Kann nur mit einer komplett fertigen Designvariante durchgeführt werden (Nielsen, 2005) Eignet sich im allgemeinen nur für die Umsetzung von wenigen kleinen Designideen; Paper-Prototyping bietet die Möglichkeit innerhalb eines Tages mehrere Designideen auszuprobieren (Nielsen, 2005) Es ist detailliertes Wissen zur Umsetzung der Hypothesen in die Varianten notwendig (Quirmbach, 2013) Der Test kann nicht erfolgreich sein. Wenn die Hypothese nicht bestätigt wurde können die entstanden Kosten nicht durch einen Erfolg amortisiert werden (Quirmbach, 2013). Erst sehr spät in der Produktentwicklung, im Betrieb, anwendbar (Quirmbach, 2013) Es kann nicht ermittelt werden, warum sich die Nutzer auf der Site so verhalten haben; eine Befragung kann die Methode ergänzen (Quirmbach, 2013) Betrieb Anzahl Abhängig von der gesamten Anzahl der Nutzer sind so viele Teilnehmer notwendig wie für ein statistisch brauchbares Ergebnis benötigt werden. Art Endnutzer Rolle Wird beobachtet Einbeziehung „Remote“ Anzahl 1 Rolle Organisator Erforderliche Keine, kann von jedem angewendet werden: „A/B testing can be done by a monkey“ (Nielsen, 2012a) Kompetenzen Werkzeuge, Hilfsmittel Ort/Umgebung Natürliche Nutzungsumgebung Kosten Gering Usability-Methodenkatalog Webanalytic-Software zur detaillierten Statistik über das reale Nutzerverhalten (Quirmbach, 2013) Es können spezielle Softwarelösungen verwendet werden, welche die Varianten einer Seite automatisch den Nutzern zur Verfügung stellen und gleichzeitig den Erfolg messen, z.B. Divolution, Omiture. Alternativ können selbst programmierte Cookies gesetzt werden, die die Nutzer auf die jeweilige Seite leiten. (Quirmbach, 2013) Der Designer muss bezahlt werden (Nielsen, 2012a) 137 Kategorie Kriterium A/B-Testing Zeitaufwand Gering 4. Vorgehensweise Vorbereitung Ca. 1 bis 2 Tage für die Durchführung bei ausreichendem Website Zugriff (Nielsen, 2012a) Geschwindigkeitsbestimmender Faktor ist das Ausdenken von Design-Variationen (Nielsen, 2012a) Maximaler Zeithorizont: 1 Woche (Nielsen, 2012a) Es müssen Hypothesen aufgestellt werden auf deren Grundlage dann die Variante(n) erstellt werden. Beispiel eine Hypotese nach Quirmbach, 2013: „Ein höheres und längeres Sucheingabefeld mit größerer Schrift in 12 Pixel, farbiger Suche-Button mit der Benennung Suchen und dem Hinweis in der Sucheingabe Suchbegriff eingeben wird von unseren Nutzern besser gesehen als die aktuelle Darstellung der Suche. Dadurch steigen die Suchanfragen um 5 %, da dieses Element für unsere Nutzer sichtbarer und eindeutiger ist.“ Alternativen können im Vorfeld durch andere Methoden wie z.B. Paper-Prototyping entwickelt werden (Nielsen, 2005) Designalternativen sind zu erstellen und auf den Server zu laden (Nielsen, 2005). Art der Durchführung wählen: Variante A wird von der einen Hälfte der Nutzer, Variante B wird von der anderen Hälfte verwendet (Nielsen, 2005). Variante A wird von der Mehrheit der Nutzer verwendet, Variante B nur von einer kleinen Gruppe (Nielsen, 2005). Nutzergruppe 1 wird eine Zeit lang Variante A präsentiert, dann Variante B. Nutzergrupee 2 wird eine Zeit lang Variante B präsentiert, dann Variante A. (Split-Test) (Nielsen, 2005; Sarodnick & Brau, 2011) Software erstellen (oder fertige Lösungen nutzen), um den Besuchern der Seite die jeweilige Variante zu zeigen. Cookies können genutzt werden, um ein und demselben Besucher immer die gleiche Variante zu präsentieren. (Nielsen, 2005) Durchführung Die Nutzer verwenden die Website. Es ist zu warten, bis genug Material für eine Statistik angesammelt ist (Nielsen, 2005). Nachbereitung/ Auswertung Die Ergebnisse sind auszuwerten. Es kann sich für eine Alternative entschieden werden (Nielsen, 2005). 5. Praxis-Tipps Praxis-Tipps Ein A/B-Test hat mehr Nachteile als Vorteile. Man solle den Test nicht als erste Maßnahme einsetzen. In Kombination zu qualitativen Studien kann der A/B-Test aber eine gute Ergänzung darstellen. (Nielsen, 2005) 6. Zweck Die Methode ist mehr zu erfahren über… anwendbar, wenn folgendes zu erstellen: es das Ziel ist… folgendes zu bewerten: Interaktion Software Software 7. Verwandte Verwandte Meund weiterfühthoden rende Methoden Mögliche voranPaper-Prototyping um zunächst erfolgsversprechende Designs zu entwickeln; mit A/B-Testing kann die beste gegangene MeAlternative ermittelt werden (Nielsen, 2005) thoden/Tätigkeite n Mögliche nachfol- Befragung der Nutzer, um Gründe für ihr Verhalten auf der Site zu erfahren (Quirmbach, 2013) gende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Mehrere Designvarianten einer Website sollen miteinander verglichen werden. 9. Referenzen und weiterführende Informationen Weiterführende Informationen Auf der Seite AdPushup.com werden neun weiterführende Artikel über A/B-Testing vorgestellt und verlinkt: (englisch) http://www.adpushup.com/blog/great-articles-ab-testing/ Zu beachtende Normen und Zertifikate Quellen Nielsen, J. (2005). Putting A/B Testing in Its Place. Abgerufen von http://www.nngroup.com/articles/puttingab-testing-in-its-place/ Nielsen, J. (2012a). A/B Testing, Usability Engineering, Radical Innovation:What Pays Best? Abgerufen von http://www.nngroup.com/articles/ab-testing-usability-engineering/ Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung. X.media.press. Berlin u.a.: Springer. Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber Usability-Methodenkatalog 138 4.6 Usability-Inspektion 4.6.1 Heuristische Evaluation Kategorie 1. Bezeichnung 2. Beschreibung Kriterium Heuristische Evaluation Name Heuristische Evaluation Synonyme Experten Evaluation Kurzbeschreibung Mit der Methode Heuristische Evaluation lassen sich Usability-Probleme in Dialogsystemen (z.B. auf Webseiten) aufspüren. Mehrere Usability-Experten testen hierbei das System und notieren potentielle Probleme, die sie aufgrund ihrer Erfahrung vermuten. Sie orientieren sich hierbei an Heuristiken (Richtlinien) die erwünschte Eigenschaften eines gebrauchstauglichen Dialogsystems beschreiben. Die Ergebnisse werden im Rahmen einer Nachbesprechung diskutiert und Änderungen des Systems besprochen. Abbildungen Ziele Das Finden von Usability-Probleme in Dialogsystemen (Nielsen, 1993) Ergebnisse/ Output Liste der Usability-Probleme im Dialogsystem mit Verweisen auf die jeweilige Heuristik, die verletzt wurden (Nielsen, 1993) Vorteile Sehr kosteneffiziente Methode (Nielsen, 1992) Methode ist im Vergleich zu Nutzertests kostengünstig (Usetree, 2014c) Lässt sich bereits sehr früh im Entwicklungsprozess anwenden (Nielsen & Molich, 1990) Nachteile/ Grenzen Usability-Experten sind teuer und ggf. schwer zu finden wenn sie zusätzlich über spezielles DomänenWissen verfügen sollen (Nielsen, 1992) Usability-Experten stellen keine realen Nutzer dar. Dies führt dazu, dass nicht alle Probleme gefunden werden, die ein Nutzer haben wird. (Usetree, 2014c) Die Methode gibt keine Garantie alle Probleme aufzuspüren (Nielsen, 1992). Es werden häufig sog. falsche Positive gefunden. Darunter versteht man Usability-Probleme, die im tatsächlichen Gebrauch des Systems nicht auftreten werden, also keine wirklichen Probleme darstellen (Nielsen & Molich, 1990). Methode stellt kein Ersatz für Usability-Tests mit realen Nutzern, sondern lediglich eine Ergänzung dar (Usetree, 2014c) Projektphase(n) Anwender Teilnehmer 3. Rahmenbedingungen & Ressourcen Konzept, Umsetzung, Betrieb Kann bereits an ersten Konzepten wie Papier-Prototypen angewendet werden Anzahl 1-5 (Nielsen, 1993) Art Usability-Experten Rolle Partizipation Diskussion Einbeziehung Physikalische Einbeziehung „Remote“ Anzahl 1 Rolle Organisator, Ansprechpartner für die Probanden bei Fragen und Problemen (Nielsen, 1993) Mindestens 3 Teilnehmer werden empfohlen (Nielsen, 1993) 3 Experten finden ca. 60 Prozent aller Usability-Probleme, 5 finden ca. 75 Prozent und 10 ca. 85 Prozent (Nielsen, 1993) Erforderliche Erforderliche Kompetenzen der Teilnehmer (Usability-Experten): Kompetenzen Wissen und Erfahrung im Bereich Usability (Nielsen, 1992) Wissen über den Hintergründe der zu untersuchenden Anwendung (Domänenexpertise) ist vorteilhaft (bei komplexen Systemen notwendig (Sarodnick & Brau, 2011)) und verbessert die Fehleraufdeckung (Nielsen, 1992) Erforderliche Kompetenzen des Ausführenden: Sollte mit der Methode vertraut sein (Sarodnick & Brau, 2011) Muss Wissen und Erfahrungen mit dem technischen System haben (Sarodnick & Brau, 2011) Muss ausreichendes Wissen in der Anwendungsdomäne haben (Sarodnick & Brau, 2011) Für die Nachbesprechung ist diplomatisches Geschick hilfreich, um den unterschiedlichen Interessen der Evaluatoren und des Entwicklungsteams gerecht zu werden (Sarodnick & Brau, 2011) Werkzeuge, Hilfsmittel Schreibmaterialien (Sarodnick & Brau, 2011) Systeme auf denen der Test durchgeführt wird (Sarodnick & Brau, 2011) Ort/Umgebung Simulierte Nutzungsumgebung Tagungsraum Schreibtisch Kosten Mittel Usability-Methodenkatalog 10000-15000 € (CHeval, 2013; Nielsen, 1995c) 139 Kategorie 4. Vorgehensweise Kriterium Heuristische Evaluation Zeitaufwand Gering Vorbereitung Durchführung Maximaler Zeithorizont: ca. 4 Wochen (CHeval, 2013; Sarodnick & Brau, 2011) Die Dauer der Evaluationsdurchgänge soll maximal 3 Stunden betragen (Sarodnick & Brau, 2011) Rekrutierung von Usability-Experten Typische Nutzungs-Szenarien des Systems erstellen (z.B. mit Task Analysis) und den Usability-Experten zur Verfügung stellen. Diese Szenarien sollten typische Aufgaben, die ein Nutzer auf dem System durchführen wird, Schritt für Schritt beschreiben (Nielsen, 1993). (Dieser Arbeitsschritt kann auch von den UsabilityExperten durchgeführt werden). Es sind die Heuristiken festzulegen, die verwendet werden sollen. Es kann ein individueller Pool von Heuristiken genutzt werden. Alternativ können bewährte Heuristiken wie z.B. die zehn generellen Heuristiken nach Nielsen oder der Satz aus zwölf Heuristiken nach Sarodnick & Brau (2011), die auf der DIN EN ISO 9241-110 basieren, verwendet werden (siehe „Weiterführende Literatur“). (Schritt kann auch von den Usability-Experten durchgeführt werden). Vorevaluatives Training (Nielsen, 1993; Sarodnick & Brau, 2011): Es wird den Teilnehmern die Durchführung der Methode sowie die zu verwendenden Heuristiken dargestellt. So soll eine einheitliche Terminologie sichergestellt sein. Das zu evaluierende System wird den Usability-Experten vorgestellt. Den Evaluatoren werden typische Arbeitsaufgaben vorgelegt, die im Vorfeld ermittelt wurden. Evaluationsdurchgänge (Nielsen, 1993; Sarodnick & Brau, 2011): Jeder Experte durchsucht das System (z.B. eine Website) explorativ nach Usability-Problemen und orientiert sich ggf. an den Nutzungs-Szenarien. Sie verwenden dabei individuelle Suchstrategien. Die Evaluatoren sollen dabei nicht miteinander interagieren. Die Experten nutzen ihr Wissen und ihre Erfahrung, sowie die festgelegten Heuristiken. Gefundene Probleme werden gemäß der Heuristiken kategorisiert. Auswertung der Usability-Probleme (Nielsen, 1993; Sarodnick & Brau, 2011): Jeder Evaluator erstellt eine Liste mit Problemen. Der Ausführende fasst alle Listen zu einer Gesamtliste zusammen. (Zeitintensiver Prozess) Bewertung und Kategorisierung aller gefundener Hinweise (Nielsen, 1994 nach Sarodnick & Brau, 2011): Alle gefundenen Probleme werden in einer weiteren Sitzung von den Usability-Experten gewichtet bewertet. (Details zu dem Bewertungsverfahrens nach Nielsen sind z.B. dem Buch Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendungen von Sarodnick & Brau zu entnehmen.) Nachbereitung/ Auswertung 5. Praxis-Tipps Praxis-Tipps Zu einem weiteren Termin wird eine Nachbesprechung durchgeführt, an der die Usability-Experten, die die Heuristische Evaluation durchgeführt haben, sowie firmeninterne Entwickler und Designer teilnehmen. Es werden mögliche Änderungen des Systems diskutiert, um die gefundenen Usability-Probleme zu beseitigen. Hierzu kann ein Brainstorming angewendet werden. (Nielsen, 1993) Tipps: Während des Evaluationsdurchgangs sind die Usability-Experten darauf hinzuweisen, dass sie sich ausschließlich auf die Identifizierung von Problemen, nicht auf die Behebung selbiger konzentrieren sollen. Somit kann verhindert werden, dass die Evaluatoren nur solche Probleme hervorheben, für die sie sich eine Lösung erdenken können. (Sarodnick & Brau, 2011) Bei komplexen Systemen kann es sinnvoll sein, im Vorfeld eine Vorstrukturierung der Evaluationsbereiche je Evaluator vorzunehmen um zu verhindern, dass die Evaluatoren völlig unterschiedliche Funktionszweige bearbeiten. Bei der Nachbesprechung sollten neben den Problemen auch positive Aspekte besprochen werden, um keine ausufernden Diskussionen mit der Entwicklungsseite auszulösen. Varianten: 6. Zweck Expertenbasierte Evaluation: Hierbei orientieren sich Usability-Experten ausschließlich nach ihrer Erfahrung und verwenden keine Heuristiken. Die Methode ist folgendes zu erstellen: anwendbar, wenn es das Ziel ist… folgendes zu bewerten: Software Integriertes Produkt Ideen & Konzepte Software Integriertes Produkt 7. Verwandte Verwandte MePluralistic Usability Walkthrough, Claims Analysis, Cognitive Walkthrough, Expertenanalyse (Inspektionsmethound weiterfühthoden den) (Nielsen, 1992) rende Methoden Mögliche voranTask Analysis: Zur Analyse der Aufgaben, die ein Nutzer mit dem System durchführen wird (Nielsen, 1993). gegangene Methoden/Tätigkeite n Mögliche nachfol- Nutzertests: können verwendet werden um die Ergebnisse der Heuristischen Evaluation zu ergänzen bzw. gende Methoden/ abzusichern (Nielsen, 1995b) Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Usability-Methodenkatalog Die Gebrauchstauglichkeit einer Website kann mittels einer Heuristischen Evaluation überprüft werden. 140 Kategorie Kriterium Heuristische Evaluation 9. Referenzen und weiterführende Informationen Weiterführende Informationen Die zehn generellen Heuristiken nach Nielsen (1995a) können im Detail auf der Website des Autors nachgelesen werden: (englisch) http://www.nngroup.com/articles/ten-usability-heuristics/ Nielsen, J. (1995a). 10 Heuristics for User Interface Design. Retrieved from http://www.nngroup.com/articles/ten-usability-heuristics/ Ausführliche Informationen zur Methode inkl. Anwendungsbeispiel und –tipps sowie ein Heuristiken-Satz, bestehend aus 12 Regeln, der auf der DIN EN ISO 9241-110 basiert, kann folgendem Buch entnommen werden: Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Das Projekt UseTree des Berliner Kompetenzzentrums für Usability-Maßnahmen stellt ein Dokument mit vielen Informationen zu den Hintergründen und Gegenüberstellung unterschiedlicher Heuristiken, sowie eine Schritt für Schritt Anleitung der Methode als Best-Practice zur Verfügung: http://www.usetree.de/wp-content/uploads/2014/09/Heuristische-Evaluation.pdf Usetree. (2014). Heuristische Evaluation. Zugriff am 04.05.2015. Retrieved from http://www.usetree.de/wpcontent/uploads/2014/09/Heuristische-Evaluation.pdf Zu beachtende Normen und Zertifikate Ein möglicher Pool von Heuristiken stellt die Norm DIN EN ISO 9241-110 zur Verfügung. Quellen CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/ Nielsen, J. (1992). Finding Usability Problems Through Heuristic Evaluation. Proceedings of the ACM CHI'92 Conference, 373–380. Abgerufen von http://faculty.utpa.edu/fowler/csci6316/papers/Nielsen_1992_Finding-Usability-Problems-throughHeuristic-Evaluation_CHI.pdf Nielsen, J. (1993). Usability engineering (Updated ed.). San Francisco, Calif.: Morgan Kaufmann Publishers. Nielsen, J. (1995a). 10 Heuristics for User Interface Design. Abgerufen von http://www.nngroup.com/articles/ten-usability-heuristics/ Nielsen, J. (1995b). Characteristics of Usability Problems Found by Heuristic Evaluation. Abgerufen von http://www.nngroup.com/articles/usability-problems-found-by-heuristic-evaluation/ Nielsen, J. (1995c). How to Conduct a Heuristic Evaluation. Abgerufen von http://www.nngroup.com/articles/how-to-conduct-a-heuristic-evaluation/ Nielsen, J., & Molich, R. (1990). Heuristic evaluation of user interfaces. In J. C. Chew & J. Whiteside (Eds.), the SIGCHI conference (pp. 249–256). Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Usetree. (2014). Heuristische Evaluation. Zugriff am 04.05.2015. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Heuristische-Evaluation.pdf Usability-Methodenkatalog 141 4.6.2 Cognitive Walkthrough Kategorie Kriterium Cognitive Walkthrough 1. Bezeichnung Name Cognitive Walkthrough Synonyme 2. Beschreibung Kurzbeschreibung Beim Cognitive Walkthrough untersuchen Usability-Experten ein System (z.B. eine Website oder eine Softwareanwendung) hinsichtlich seiner Erlernbarkeit. Hierbei versetzen sich die Experten in die Rolle der Benutzer und führen Aufgaben auf dem System durch, die zukünftig durch die Benutzer intuitiv durchgeführt werden sollen. Die Aufgaben (Tasks) werden in Einzelaktionen (Actions) zerlegt und dann anhand einer Checkliste, bestehend auf 4 Fragen, analysiert. Es werden Stellen identifiziert, die bei einem Anwender zu Problemen führen könnten. (Jacobsen, 2007; Sarodnick & Brau, 2011; Wharton, Rieman, Lewis, & Polson, 1994) Abbildungen Ziele Alle Gestaltungsanteile sollen optimiert werden, die das explorative Systemerlernen (das Kennenlernen eines Systems direkt durch die Nutzung; ohne Handbuch oder Anleitungen) behindern könnten (Wharton et al., 1994). Ergebnisse/ Output Ein System (z.B. Website), das intuitiv von einem neuen unerfahrenen Nutzer bedient werden kann. Vorteile Dadurch das Nutzerprofile erstellt werden müssen ist sichergestellt, dass der Anwender der Methode die Kenntnisse der Nutzer in die Evaluation mit einbezieht (Jordan, Thomas, McClelland, & Weerdmeester, 1996). Es werden keine Nutzer zur Durchführung der Methode benötigt. Dadurch ist die Methode schnell durchführbar und führt direkt zu Erkenntnissen (Jordan et al., 1996). Nachteile/ Grenzen Anwender 3. Rahmenbedingungen & Ressourcen Teilnehmer Projektphase(n) Die Methode stützt sich auf das Urteil der Experten. Wird bei der Durchführung nicht gründlich vorgegangen, sind die Ergebnisse ungültig. Da der Fokus der Methode auf der Erlernbarkeit eines Systems liegt, bleiben andere relevante Aspekte ggf. unberücksichtigt (Wilson, 2013). Konzeption, Umsetzung, Betrieb Die Methode kann sowohl auf Papier-Prototypen des Interfaces als auch auf voll funktionsfähige Systeme angewendet werden (Wharton et al., 1994). Anzahl 1-4 (CHeval, 2013) Kann alleine oder im Team durchgeführt werden (Wharton et al., 1994) Art Usability Experten Firmeninterne Entwickler Rolle Partizipation Diskussion Einbeziehung Physikalische Einbeziehung Anzahl 1 Rolle Organisator, Moderator Erforderliche Kompetenzen Die allgemeinen Richtlinien der Ergonomie in der Gestaltung müssen bekannt sein, um die Aufgabe in die Aktionen zu zerlegen (Jordan et al., 1996). Die kognitiven Fähigkeiten, das Wissen und die Fertigkeiten der Nutzer müssen beurteilt werden können (Jordan et al., 1996). Fähigkeit zu Moderieren (Wharton et al., 1994) Werkzeuge, Hilfsmittel Schreibmaterial Ort/Umgebung Simulierte Nutzungsumgebung: um es den Teilnehmern zu erleichtern sich wie Nutzer zu verhalten und so zu denken (Weevers et al., 2013) Tagungsraum Schreibtisch Kosten Mittel bis hoch Ca. 15000-25000 € (CHeval, 2013) Zeitaufwand Hoch Wenn eine zu evaluierende Aufgabe auf unterschiedliche Weisen gelöst werden kann, kann es aufwendig sein zu ermitteln, welches der beste Lösungsweg ist. (Wilson, 2013) Maximaler Zeithorizont: 4-6 Wochen (CHeval, 2013) Usability-Methodenkatalog 142 Kategorie Kriterium Cognitive Walkthrough 4. Vorgehensweise Vorbereitung Vorbereitungsphase: Nutzerprofil erstellen: Man sollte sich darüber im Klaren sein, welche Benutzer das System verwenden sollen. Welches Vorwissen und welche Erfahrungen haben die Anwender? (Wharton et al., 1994) Zu analysierende Aufgaben festlegen: Meist können nicht alle Aufgaben getrachtet werden, die mit einem System durchgeführt werden können. Daher sollte man die bedeutsamsten Aufgaben auswählen. Typische Aufgabenszenarien lassen sich aus den Kernfunktionen des Systems ableiten. (Sarodnick & Brau, 2011; Wharton et al., 1994) Aufgaben in Aktionen zerlegen: Zunächst wird jede Aufgabe so beschrieben, wie sie ein Nutzer wahrscheinlich angehen würde, ohne die Schnittstellen des Systems zu kennen. Dann werden die Aufgaben in ideale Handlungsabfolgen, bestehend aus Einzelaktionen (z.B. „drücke die Return-Taste“ oder „bewege den Cursor zum Datei-Menü“, zerlegt. Die Einzelaktionen sollten in etwa so detailliert sein, wie eine Anleitung, mit der ein Nutzer die Aktion alleine ausführen könnte. (Wharton et al., 1994) Schnittstellen definieren: Die Schnittstellen, die der Nutzer bei den Aktionen zu Gesicht bekommt, werden detailliert beschrieben (Wharton et al., 1994). Ggf. Team für die Durchführung zusammenstellen Durchführung Analysephase: Alle Aktionen der Aufgaben werden von den Experten in der chronologischen Reihenfolge analysiert. Anhand einer von Wharton et al. dargestellten Checkliste, bestehend aus vier Fragen, werden die Aktionen untersucht (Wharton et al., 1994): 1. Wird der Nutzer versuchen, den gewünschten Effekt zu erzielen? 2. Wird der Nutzer erkennen, dass die korrekte Aktion verfügbar ist? 3. Wird der Nutzer erkennen, dass die korrekte Aktion zu dem Effekt führen wird, den er erreichen will? 4. Wird der Nutzer, wenn er die korrekte Aktion durchgeführt hat erkennen, dass er der Lösung seiner Aufgabe näher gekommen ist? Sind alle Fragen mit „ja“ zu beantworten handelt es sich um eine Erfolgsstory und es sind keine Optimierungen notwendig. Wird mindestens eine der Fragen mit „nein“ beantwortet handelt es sich bei dieser Aktion um eine Misserfolgsstory. In diesem Fall muss genau untersucht werden, welcher Grund zu dem Scheitern geführt hat. (Wharton et al., 1994) Nachbereitung/ Auswertung Optimierung der Misserfolgstorys: Die Misserfolge werden abhängig von der Frage an der sie gescheitert sind optimiert (Wharton et al., 1994): 1. Scheitern bei der ersten Frage: Die Aktion wird aus der Handlungsabfolge entfernt (z.B. automatisiert oder mit anderen Aktionen kombiniert). hinzufügen eines Hinweistextes andere Teile der Aufgabe so umgestalten, dass der Nutzer die Notwendigkeit der Aktion erkennt 2. Scheitern bei der zweiten Frage: optimieren der Bedienelemente für diese Aktion 3. Scheitern bei der dritten Frage: optimieren der Anordnung, Gestaltung und der Benennung der Auswahl- und Eingabemöglichkeiten 4. Scheitern bei der vierten Frage: optimieren des Feedbacks: die Ausgabe sollte Begriffe oder Abbildungen verwenden, die der Nutzer mit dieser Aufgabe verbindet 5. Praxis-Tipps Praxis-Tipps 6. Zweck Die Methode ist folgendes zu erstellen: anwendbar, wenn es das Ziel ist… folgendes zu bewerten: Software Integriertes Produkt Ideen & Konzepte Software Integriertes Produkt 7. Verwandte Verwandte MeHeuristische Evaluation und weiterfühthoden rende Methoden Mögliche vorangegangene Methoden/Tätigkeite n Mögliche nachfolgende Methoden/ Tätigkeiten 8. Anwendungsbeispiele Mögliche Anwendungsgebiete Usability-Methodenkatalog Eine Website soll für Benutzer intuitiv bedienbar sein. Es wird die Methode Cognitive Walkthrough angewendet um die Erlernbarkeit zu untersuchen und ggf. zu optimieren. 143 Kategorie Kriterium Cognitive Walkthrough 9. Referenzen und weiterführende Informationen Weiterführende Informationen Weitere Informationen können dem Paper von Wharton et al. (1994) „The cognitive walkthrough method“ entnommen werden: (englisch) http://www.colorado.edu/ics/sites/default/files/attached-files/93-07.pdf Wharton, C., Rieman, J., Lewis, C., & Polson, P. (1994). The cognitive walkthrough method: A practitioner's guide. Usability inspection methods, 105–140. Retrieved from http://www.colorado.edu/ics/sites/default/files/attached-files/93-07.pdf Zu beachtende Normen und Zertifikate Quellen CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/ Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley. Jordan, P. W., Thomas, B., McClelland, I. L., & Weerdmeester, B. (1996). Usability Evaluation In Industry: Taylor & Francis. Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Weevers, T., Jacobs, L., & Oestendorp, W. (2013). UCD Toolbox. Zugriff am 21.05.2015. Abgerufen von http://filter.ucdtoolbox.com/filter# Wharton, C., Rieman, J., Lewis, C., & Polson, P. (1994). The cognitive walkthrough method: A practitioner's guide. Usability inspection methods, 105–140. Abgerufen von http://www.colorado.edu/ics/sites/default/files/attached-files/93-07.pdf Wilson, C. (2013). User interface inspection methods: A user-centered design method. Usability-Methodenkatalog 144 5 Zusammenfassung und Ausblick Das Ziel der vorliegenden Arbeit war es, einen gut strukturierten Methodenkatalog für UsabilityMethoden zu entwickeln, der an die Bedürfnisse potentieller Nutzer der PUMa-Kompetenzplattform angepasst ist. Hierzu wurden zunächst neun bestehende Kriteriensammlungen analysiert und zu einem strukturierten Kriterienkatalog vereinigt. Dieser wurde mittels einer Online-Befragung von 14 potenziellen Nutzern der o.g. Plattform, bestehend aus Softwareentwicklern deutscher KMU sowie Usability-Experten, evaluiert. Die gewonnenen Erkenntnisse wurden dazu verwendet einen finalen Kriterienkatalog zu entwickeln, der als Grundlage für den Methodenkatalog diente. Zusätzlich zur Strukturierung der Kriterien innerhalb der Methodenbeschreibungen wurden die Methoden in ihrer Anordnung innerhalb des Katalogs geordnet. Hierzu wurden bestehende Kategorisierungen von Usability-Methoden untersucht und eine geeignete Anordnung definiert. Auf diese Weise konnte eine Auswahl von 23 UsabilityMethoden in einer gut strukturierten Art und Weise beschrieben werden. Es sei allerdings erwähnt, dass im Rahmen dieser Arbeit nur eine Teilmenge aller bestehenden Usability-Methoden betrachtet und beschrieben werden konnten. In Zukunft könnte der Katalog um weitere Methodenbeschreibungen ergänzt werden, um so den Nutzen des Katalogs für den Anwender zu vergrößern. Hierbei kann es nötig sein, die gewählte Art der Methodenklassifizierung um neue Kategorien zu erweitern. Die große Vielzahl an unterschiedlichen Usability-Methoden, sowie die unzähligen Varianten in der Beschreibung machen es unmöglich, eine allgemeingültige und eindeutige Methoden-Kategorisierung zu entwickeln, bei der jede Methode nur genau einer Kategorie zugeordnet ist. Die Informationen der Methodenbeschreibungen wurden gut strukturiert in Tabellen angeordnet, sodass die Möglichkeit besteht, die Methodenbeschreibungen im Layout dieser Arbeit ohne weitere Änderungen online als Download anzubieten. Alternativ lassen sich die Daten ohne größere Anpassungen auf eine Internetplattform übertragen. Das Design der Website sowie das Layout des dargestellten Methodenwissens müssten hierfür noch entwickelt werden. Der Methodenkatalog enthält zudem die nötigen Informationen um eine Filterfunktion auf einer Onlineplattform umzusetzen. Hierdurch lässt sich eine individuelle Strukturierung der beschriebenen Methoden realisieren und ein Anwender der Plattform könnte so bei der Auswahl einer passenden Methode unterstützen werden. Die Methodenbeschreibungen, die im Rahmen dieser Arbeit entwickelt wurden, konnten noch nicht praktisch angewendet und evaluiert werden. Demnach basieren sie bisher nur auf den jeweils verwiesenen Quellenangaben. Zur Verbesserung dieses Umstandes könnte im Rahmen zukünftiger Forschungstätigkeit untersucht werden, ob die angegebenen Informationen des Methodenkataloges ausreichend und verständlich genug sind, sodass Anwender ohne Usability-Expertise in der Lage sind, die Methoden anzuwenden oder zumindest eine Anwendung zu organisieren. Hierzu könnte z.B. eine Onsitebefragung, unter Nutzern des Methodenkatalogs, auf der Website der Kompetenzplattform durchgeführt werden. Ebenfalls wäre es möglich eine Gruppe von Nutzern bei der Durchführung der Methoden nach den Beschreibungen des Katalogs zu beobachten und so einen Eindruck von der Verständlichkeit und der Anwendbarkeit der zusammengefassten Informationen zu gewinnen. Mit Hilfe dieser oder vergleichbarer Maßnahmen könnte die praktische Anwendbarkeit des Methodenkatalogs überprüft werden. Nach einer zukünftigen Veröffentlichung des Methodenkatalogs auf der Web-Plattform könnte ein System etabliert werden, über das Softwareentwickler und Usability-Experten in der Lage sind, die Me- Zusammenfassung und Ausblick 145 thodenbeschreibungen zu ergänzen, und damit den praktischen Nutzen dieses Werkzeugs weiter auszubauen. Anwender der Plattform könnten ihre Erfahrungen im Umgang mit dem Methodenkatalog direkt in die Methodenbeschreibungen einfließen lassen. Besonders interessant könnte hierbei der Erfahrungsaustausch im Bereich der Kosten sowie dem Zeitaufwand sein. Ebenfalls könnten PlattformNutzer ergänzende Informationen zur Anwendung der Methoden, also zu den Kriterien Vorbereitung, Durchführung und Nachbereitung einbringen. Praxis-Tipps sowie Empfehlungen zu weiterführender Literatur könnten ebenfalls den Nutzen des Methodenkatalogs vergrößern. Generell könnte ein solches System den Erfahrungsaustausch zwischen Anwendern der Kompetenzplattform unterstützen und die Qualität des angebotenen Methodenwissens verbessern. Abschließend lässt sich zusammenfassen, dass das Ziel der Entwicklung eines gut strukturierten Methodenkatalogs erreicht werden konnte und somit der Grundstein für die Bereitstellung von systematisiertem Methodenwissen, auf der Kompetenzplattform des PUMa-Projekts, gelegt ist. Zusammenfassung und Ausblick 146 Anhang A Anforderungsliste Befragung Tabelle15:AnforderungslistezumBefragungsverfahren,derSoftwaresowiezumFragebogen Fragebogen Fragebogen-Software Befragungs-Verfahren Gliederung FF Anforderungen BF ZF W Nr. Bezeichnung Anhang FF 1 Befragung soll „aus der Ferne“ möglich sein ZF 2 FF 3 BF 4 W 5 Befragte Personen sollen ausreichend Zeit haben um überlegt auf Fragen antworten zu können Befragte Personen sollen einen visuellen Überblick über Kategorien, Kriterien und Ausprägungen haben Geringer Zeitaufwand für gesamte Durchführung aller Befragungen Kostenlos FF FF FF FF 6 7 8 9 W W W W ZF ZF BF 10 11 12 13 14 15 16 Möglichkeit Matrixfragen zu stellen Möglichkeit offene Fragen zu stellen Möglichkeit Abbildungen einzufügen Möglichkeit sich beliebig zwischen den Fragen vor und zurück zu bewegen Einfache Handhabung der Software Auswertung und Darstellung der Ergebnisse Ansprechendes Layout der fertigen Fragebogen Kostenlos Eindeutige Formulierung der Fragen Leicht verständliche Formulierung der Fragen Befragungsdauer Werte, Daten, Erläuterung Max. 60 Stunden, max 30 Tage Soll selbsterklärend sein Max. 15 min vi B Anhang Fragebogen zur Evaluation des Kriterienkatalogs vii Anhang viii Anhang ix Anhang x Anhang xi Anhang xii Anhang xiii Anhang xiv Anhang xv Anhang xvi C Begleitschreiben zur Einladung zur Befragung In diesem Anschnitt sind die Begleitschreiben (Einladungsemails) abgebildet, über die der ZugangsLink zum Fragebogen verschickt worden ist. Abhängig von der Personengruppe wurden unterschiedliche Informationen in das Schreiben aufgenommen. Abbildung 18 zeigt die E-Mail, mit der die Usability-Experten der involvierten Forschungsprojekte zur Befragung eingeladen wurden. Für die Einladung der externen Experten wurde das Anschreiben durch den Zusatz ergänzt, ihnen bei Interesse einen Kurzbericht der Befragungsergebnissen zuzuschicken. Abbildung18:BegleitschreibenfürinterneUsability‐Experten Abbildung 19 zeigt das Begleitschreiben, mit dem die deutschen, softwareentwickelten KMU angeschrieben wurden. Hier wurde im Vergleich zu den Schreiben für die Usability-Experten darauf hingewiesen, welche Zielgruppen mit der Umfrage erreicht werden sollen. Außerdem wurde betont, dass die Unterstützung der KMU durch den Methodenkatalog zu einer Steigerung der Wettbewerbsfähigkeit führen kann. Bei der Recherche der E-Mail-Adressen der Unternehmen konnten im Allgemeinen nur Adressen der Form info@(Name des Unternehmen).de ermittelt werden. Daher wurde der E-Mail zusätzlich die Bitte hinzugefügt, die Nachreicht ggf. an die richtigen Ansprechpartner im Unternehmen weiter zu leiten. Bei den Softwareentwicklern, die persönlich angeschrieben werden konnten, wurde eine Kombination der beiden hier dargestellten E-Mails verwendet. Grundlage bildete die Nachricht aus Abbildung 18. Zusätzlich wurde auf den wettbewerbsfähigkeitssteigernden Charakter hingewiesen und die Option angeboten, bei Interesse an den Befragungsergebnissen einen Kurzbericht zu versenden. Anhang xvii Abbildung19:BegleitschreibenfürsoftwareentwickelndeKMU Anhang xviii Abbildungsverzeichnis Abbildung 1: Aufbau einer Fragebogen-Seite ....................................................................................... 31 Abbildung 2: Einteilung der Projektphasen nach Jacobsen (2007)....................................................... 42 Abbildung 3: Kategorisierung von Usability-Methoden anhand von Projektphasen .............................. 58 Abbildung 4: Filterungsmöglichkeit der Methoden auf der Website der UCDtoolbox ........................... 59 Abbildung 5: Beispiele für die Darstellung von Personas ...................................................................... 64 Abbildung 6: Hierarchisch strukturierte Ergebnisse einer Aufgabenanalyse ......................................... 74 Abbildung 7: Beobachtung eines Probanden durch den Methodenanwender bei der Durchführung eines Kontextuellen Interviews ...................................................................................................... 77 Abbildung 8: Beispiel für die Anwendung des Card Sorting ................................................................. 82 Abbildung 9: Anwendung der Methode Affinity-Diagram .................................................................... 86 Abbildung 10: Anwendung der Methode Fokusgruppe ........................................................................ 93 Abbildung 11: Beispiel-Items des AttrakDiff ....................................................................................... 102 Abbildung 12: Grober Prototyp eines Geräts aus der HNO-Heilkunde aus einer sehr frühen Entwicklungsphase ...................................................................................................................... 108 Abbildung 13: Beispiel für ein Storyboard .......................................................................................... 113 Abbildung 14: Durchführung eines Usability-Test an einem Paper-Prototyp ...................................... 116 Abbildung 15: Beispiel für die Durchfühugen der Methode Wizard of Oz .......................................... 119 Abbildung 16: Testaufbau einer Blickbewegungsanalyse ................................................................... 130 Abbildung 17: Graphische Auswertung einer Mausbewegungsmessung ............................................. 134 Abbildung 18: Begleitschreiben für interne Usability-Experten .......................................................... xvii Abbildung 19: Begleitschreiben für softwareentwickelnde KMU ....................................................... xviii Anhang xix Tabellenverzeichnis Tabelle 1: Kriterienkatalog des PUMa-Projektes ..................................................................................... 9 Tabelle 2: Zusammenführung der analysierten Kriterien...................................................................... 14 Tabelle 3: Vorläufiger Kriterienkatalog, der im Rahmen der Befragung evaluiert wird ........................ 23 Tabelle 4: Ergebnisse der Befragung für die geschlossenen Fragen. ..................................................... 35 Tabelle 5: Überarbeiteter Kriterienkatalog ........................................................................................... 46 Tabelle 6: Layout des finalen Kriterienkatalogs, wie er in Kapitel 4 zur Beschreibung von UsabilityMethoden eingesetzt wird ............................................................................................................. 49 Tabelle 7: Klassifizierung in Empirische und Analytische Methoden .................................................... 52 Tabelle 8: Klassifizierung in summative und formative Methoden ....................................................... 52 Tabelle 9: Klassifizierungsmöglichkeit für Usability-Methoden nach Sarodnick & Brau (2011) ........... 54 Tabelle 10: Klassifizierung von Usability-Methoden nach Bernsen & Dybkjær (2010) ......................... 55 Tabelle 11: Klassifizierung von Usability-Methoden nach der Strukturierung auf www.usabilitybok.org ...................................................................................................................................................... 57 Tabelle 12: Klassifizierung von Usability-Methoden nach der Strukturierung auf www.usabilitynet.org ...................................................................................................................................................... 58 Tabelle 13: Zusammenfassung der Informationen des Kriteriums Zweck des Methodenkatalogs ......... 60 Tabelle 14: Finale Klassifizierung der im Rahmen dieser Arbeit gewählten Methoden ......................... 62 Tabelle 15: Anforderungsliste zum Befragungsverfahren, der Software sowie zum Fragebogen ........... vi Anhang xx Indexverzeichnis A/B-Testing ..................... 134 Affinity-Diagram ............... 85 AttrakDiff ....................... 100 Aufgabenanalyse .............. 73 Befragung .................. 88, 95 Benchmarking .................. 70 Blickbewegungsanalyse .. 128 Card Sorting ..................... 81 Click-Dummys ................. 109 Coaching Method ........... 126 Co-discovery Method ...... 126 Cognitive Walkthrough .. 139 Contextual Inquiry ............ 76 Experten Evaluation 136, 137 Eye-Tracking ................... 128 Fokusgruppe .................... 91 Fragebogen ...................... 95 Gaze-Tracking ................. 128 Heuristische Evaluation ... 136 Interview .......................... 88 IsoMetrics ......................... 97 Anhang ISONORM 9241-110-S ....... 97 Kawakita Jiro Method ...... 85 Kontextuelles Interview .... 76 Lautes Denken ................ 125 Mausbewegungsmessung ................................... 132 Mouse-Tracking .............. 132 Multivarianten-Testing .... 134 Mündliche Befragung ....... 88 Nutzungsszenarien ........... 67 Online Fokusgruppe ......... 93 Online-Befragung ........... 102 Online-Usability-Test ....... 123 Onsitebefragung ............ 104 Onsitefeedback .............. 104 Panelumfragen ............... 104 Paper-Prototyping .......... 114 Personas ........................... 63 Prototyping .................... 106 QUIS ................................. 97 Rapid Prototyping .......... 114 Remote-Usability-Test ..... 123 Retroperspective Testing 126 Schriftliche Befragung....... 95 Screenflows .................... 109 Storyboarding ................. 111 SUMI ................................. 97 SUS ................................... 97 Szenarien .......................... 67 Task Analysis ..................... 73 Task Scenarios................... 67 Themenspezifische Gruppendiskussion ........ 91 Thinking Aloud ............... 125 Umfrage ........................... 95 Usability Benchmark ......... 70 Usability-Test .................. 120 User Interface Storyboard ................................... 112 WAMMI ............................ 97 Wireframes ..................... 109 Wizard of Oz .................. 117 xxi 6 Literaturverzeichnis [About QuestionPro]. (2015). Zugriff am 22.04.2015. Abgerufen von http://www.questionpro.com/info/aboutUs.html Arndt, H. (2006). Integrierte Informationsarchitektur: Die erfolgreiche Konzeption professioneller Websites. X.media.press. Berlin: Springer. Arroyo, E., Selker, T., & Wei, W. (2006). Usability Tool for Analysis of Web Designs Using Mouse Tracks. Proceedings of CHI 2006, 484–489. Abgerufen von http://delivery.acm.org/10.1145/1130000/1125557/p484arroyo.pdf?ip=130.83.73.38&id=1125557&acc=ACTIVE%20SERVICE&key=2BA2C432AB83DA15% 2E24DDBA2ADC8180AB%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35&CFID=511751455&C FTOKEN=59509924&__acm__=1431679515_80d06f9f128b8f5c60b189e08b5a114c Atterer, R., & Schmidt, A. (2007). Tracking the Interaction of Users with AJAX Applications for Usability Testing. Proceedings of CHI 2007. Abgerufen von http://www.academia.edu/581876/What_can_a_mouse_cursor_tell_us_more_correlation_of_eye_ mouse_movements_on_web_browsing Atteslander, P. M. (1991). Methoden der empirischen Sozialforschung (6., neubearbeitete und erw. Aufl.). Sammlung Göschen: Vol. 2100. Berlin, New York: De Gruyter. Bamberg, G., Baur, F., & Krapp, M. (2011). Statistik (16. Aufl.). Oldenbourgs Lehr- und Handbücher der Wirtschafts- und Sozialwissenschaften. München: Oldenbourg. Bangor, A., Kortum, P. T., & Miller, J. T. (2008). An Empirical Evaluation of the System Usability Scale. International Journal of Human-Computer Interaction, 24(6), 574–594. doi:10.1080/10447310802205776 Beadouin-Lafon, M., & Mackay, W. E. (2003). Prototyping Tools and Techniques. The HumanComputer Interaction Handbook, 1006–1039. Abgerufen von https://www.lri.fr/~mackay/pdffiles/Prototype.chapter.pdf Berekoven, L., Eckert, W., & Ellenrieder, P. (2001). Marktforschung: Methodische Grundlagen und praktische Anwendung (9., überarb. Aufl.). Lehrbuch. Wiesbaden: Gabler. Berkowitz, B. (2015). Conducting Focus Groups. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-focus-groups/main Berkun, S. (2003). #27 - The art of usability benchmarking: Benchmark: A standard by which something can be measured or judged. Abgerufen von http://scottberkun.com/essays/27-the-art-of-usabilitybenchmarking/ Bernsen, N. O., & Dybkjær, L. (2010). Multimodal Usability. Human-computer interaction series. London: Springer London. Beschnitt, M. (2009). Standardisierte Fragebögen zur Messung der Usability/User Experience - derzeit wieder in Mode? Abgerufen von http://www.usabilityblog.de/2009/09/standardisierte-fragebogenzur-messung-der-usabilityuser-experience-derzeit-wieder-in-mode/ Bevan, N., Degler, D., & Wilson, C. (2011). Scenario of Use. Abgerufen von http://usabilitybok.org/scenario-of-use Anhang xxii Bevan, N. & Wilson, C. (2005). Rapid Prototyping. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/rapid-prototyping Bevan, N., Wilson, C., Chung, S., DeBoard, D., & Herzon, C. (2006). Wizard of Oz. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/wizard-of-oz Bevan, N., Wilson, C., & Kantner, L. (2009). Usability Benchmark. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/usability-benchmark BMWi. (2014a). Faktenblatt: PUMa – Projekt Usability in Mittelstandsanwendungen. Zugriff am 30.06.2015. Abgerufen von http://141.76.68.3/wordpress_website/wpcontent/uploads/2014/10/faktenblatt-puma.pdf BMWi. (2014b). PUMa - Projekt Usability in Mittelstandsanwendungen. Zugriff am 15.06.2015. Abgerufen von http://www.mittelstand-digital.de/DE/Foerderinitiativen/Usability/puma.html BMWi. (2014c). Usability Inside - Usabiltiy in KMU verankern durch Sensibilisieren, Informieren, Dienstleistungen und Entwicklung passgenauer Vorgehensmodelle. Abgerufen von http://www.mittelstanddigital.de/MD/Redaktion/DE/PDF/faktenblatt-usability-insidepdf,property=pdf,bereich=md,sprache=de,rwb=true.pdf BMWi. (2014d). UseTree - Das Berliner Kompetenzzentrum für Usability-Maßnahmen. Abgerufen von http://www.mittelstand-digital.de/MD/Redaktion/DE/PDF/faktenblatt-usetree,property=pdf,bereich=md,sprache=de,rwb=true.pdf BMWi. (2015a). CUBES - Community Usability betrieblicher Software kleiner und mittelständischer Unternehmen. Abgerufen von http://www.mittelstanddigital.de/DE/Foerderinitiativen/Usability/cubes.html BMWi. (2015b). Design4Xperience - Erlebniszentrierter Gestaltungprozess für kleine und mittlere Softwareunternehmen. Abgerufen von http://www.mittelstanddigital.de/DE/Foerderinitiativen/Usability/design4xperience.html BMWi. (2015c). Einfach intuitiv - Usability für den Mittelstand. Zugriff am 16.04.2015. Abgerufen von http://mittelstand-digital.de/DE/Foerderinitiativen/usability.html BMWi. (2015d). KompUEterchen4KMU - Kompetenznetzwerk Usability Engineering für Mobile Unternehmenssoftware von KMU für KMU. Abgerufen von http://www.mittelstanddigital.de/DE/Foerderinitiativen/Usability/kompueterchen4kmu.html BMWi. (2015e). Simply usable - Gebrauchstaugliche, geprüfte und gewinnbringende SoftwareEntwicklung für den Mittelstand. Abgerufen von http://www.mittelstanddigital.de/MD/Redaktion/DE/PDF/faktenblatt-simply-usablepdf,property=pdf,bereich=md,sprache=de,rwb=true.pdf Bortz, J., & Döring, N. (2002). Forschungsmethoden und Evaluation: Für Human- und Sozialwissenschaftler (3., überarb. Aufl.). Springer-Lehrbuch. Berlin [u.a.]: Springer. Brandenburg, S., Stevens, G., Schmidt, R., Denzinger, J., Burmester, M., & Döbelt, S. (2015). Usability für die Betriebliche Praxis: Skalierung und Einsatz von UUX-Methoden in kleinen und mittleren Unternehmen. Abgerufen von http://www.usetree.de/wp-content/uploads/2015/04/MuC2015_WS.pdf Brooke, J. SUS - A quick and dirty usability scale, 1996. Abgerufen von http://cui.unige.ch/isi/iclewiki/_media/ipm:test-suschapt.pdf Anhang xxiii Brown, D. M. (2011). Communicating design: Developing web site documentation for design and planning (2nd ed.). Voices that matter. Berkeley, CA: New Riders. Calabria, T. (2004). An introduction to personas and how to create them. Abgerufen von http://www.steptwo.com.au/papers/kmc_personas/ Capra, M. (2005). Factor Analysis of Card Sort Data: An Alternative to Hierarchical Cluster Analysis. Proceedings of the Human Factors and Ergonomics Society 49th Annual Meeting, 2005, 691–695. Abgerufen von http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.60.3176&rep=rep1&type=pdf Carey, J. (2011). Persona. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/persona CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.chevallab.ch/was-ist-usability/cheval-methodencheck/ Cooper, A. (1999). The Inmates are running the Asylum. Indianapolis, IN: SAMS: Macmillan Computer Publishing. Courage, C., & Baxter, K. (2005). Understanding Your Users: A Practical Guide to User Requirements: Methods, Tools, and Techniques: Morgan Kaufmann Publishers. Cronin, D. (2009). Industry trends in prototyping. Abgerufen von http://www.adobe.com/devnet/archive/fireworks/articles/cooper_prototyping.html Crystal, A., & Ellington, B. (2004). Task analysis and human-computer interaction: approaches, techniques, and levels of analysis. Proceedings of the Tenth Americas Conference on Information Systems. Abgerufen von http://www.ils.unc.edu/~acrystal/AMCIS04_crystal_ellington_final.pdf Dahlbäck, N., Jönsson, A., & Ahrenberg, L. (1993). Wizard of Oz studies — why and how. KnowledgeBased Systems, 6(4), 258–266. doi:10.1016/0950-7051(93)90017-N DAkkS. (2010). Leitfaden Usability (Verison 1.3). Abgerufen von http://www.dakks.de/sites/default/files/71_sd_2_007_leitfaden_usability_1.3_0.pdf Das Verbundvorhaben PQ4Agile. (2015). Zugriff am 04.06.2015. Abgerufen von http://www.pq4agile.de/projekt-pq4agile/ Diekmann, A. (2004). Empirische Sozialforschung: Grundlagen, Methoden, Anwendungen (11. Aufl., Orig.-Ausg). Rororo Rowohlts Enzyklopädie: Vol. 55551. Reinbek bei Hamburg: RowohltTaschenbuch-Verl. (2011). Duden online. Mannheim: Dudenverl. Abgerufen von http://dnbhh1.ad.ddb.de/NetManBin/nmwebclt.asp?CONFIGID=DUDENONLINE&DT=4&LANGUAGE=German Eichhorn, W. (2004). Online-Befragung: Methodische Grundlagen, Problemfelder, praktische Durchführung. Abgerufen von http://www2.ifkw.uni-muenchen.de/ps/we/cc/onlinebefragung-rev1.0.pdf DIN EN ISO 9241-11 (1999). Berlin: Beuth Verlag GmbH. Ericsson, K. A., & Simon, H. A. (1993). Protocol analysis: Verbal reports as data (Rev. ed.). Cambridge, Mass.: MIT Press. Europäische Kommission. (2006). Die neue KMU-Definition – Benutzerhandbuch und Mustererklärung. Abgerufen von http://ec.europa.eu/enterprise/policies/sme/files/sme_definition/sme_user_guide_de.pd Anhang xxiv Faiks, A., & Hyland, N. (2000). Gaining user insight: a case study illustrating the card sort technique. College & Research Libraries, (61(4)), 349–357. Frøkjær, E., & Hornbæk, K. (2008). Metaphors of human thinking for usability inspection and design. ACM Transactions on Computer-Human Interaction, 14(4), 1–33. doi:10.1145/1314683.1314688 Gaffney, G. (2004). Contextual Enquiry - A Primer. Abgerufen von http://www.sitepoint.com/contextual-enquiry-primer/ Georgii, H.-O. (2009). Stochastik: Einführung in die Wahrscheinlichkeitstheorie und Statistik (4., überarbeitete und erw. Aufl.). De Gruyter Lehrbuch. Berlin: Walter de Gruyter. Gläser, T. (2014). Prototyping UX: Mit Wireframes und Prototypes zum optimalen Interface. Abgerufen von http://t3n.de/magazin/wireframes-prototypes-optimalen-interface-prototyping-ux-233367/ Goodman, E., Kuniavsky, M., & Moed, A. (2012). Observing the user experience: A practitioner's guide for user research ([2nd ed]). Amsterdam: Morgan Kaufmann/Elsevier. Goodwin, K. (2008a). Getting from research to personas: harnessing the power of data. Abgerufen von http://www.cooper.com/journal/2002/11/getting_from_research_to_perso Goodwin, K. (2008b). Perfecting your personas. Abgerufen von http://www.cooper.com/journal/2001/08/perfecting_your_personas Graeb, M. (2013). CUBES. Zugriff am 30.03.2015. Abgerufen von http://www.wiwi.unisiegen.de/wirtschaftsinformatik/projekte/cubes/ Hackos, J. T., & Redish, J. (1998). User and task analysis for interface design. Wiley computer publishing. New York: Wiley. Hampton, C. & Vivela, M. (2014). Conducting Surveys. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-surveys/main Hassenzahl, M., Burmester, M., & Koller, F. (2003). AttrakDiff: Ein Fragebogen zur Messung wahrgenommener hedonischer und pragmatischer Qualität. In G. Szwillus & J. Ziegler (Eds.), Berichte des German Chapter of the ACM. Mensch & Computer 2003 (pp.187–196). Wiesbaden: Vieweg+Teubner Verlag. Hassenzahl, M., Burmester, M., & Koller, F. (2008). Der User Experience (UX) auf der Spur: Zum Einsatz von www.attrakdiff.de. Usability Professionals, 78–82. Abgerufen von http://attrakdiff.de/files/up08_ux_auf_der_spur.pdf Herzon, C., DeBoard, D., Wilson, C., & Bevan, N. (2010). Contextual Inquiry. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/contextual-inquiry Heuwing, B. (2010). Interview. Zugriff am 08.06.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/interview/ Holtzblatt, K., Wendell, J. B., & Wood, S. (2005). Rapid Contextual Design: A How-to Guide to Key Techniques for User-centered Design: Elsevier/Morgan Kaufmann. Hornsby, P. (2010). Hierarchical Task Analysis. Abgerufen von http://www.uxmatters.com/mt/archives/2010/02/hierarchical-task-analysis.php IAD. (o. J.). PUMaUsability in Mittelstandsanwendungen. Zugriff am 30.06.2015. Abgerufen von http://www.usability-netz.de/ Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley. Anhang xxv Jordan, P. W. (1998). An introduction to usability. London, Bristol, Pa.: Taylor & Francis. Jordan, P. W., Thomas, B., McClelland, I. L., & Weerdmeester, B. (1996). Usability Evaluation In Industry: Taylor & Francis. K. Holm. (1986). Die Frage. Die Befragung 1, 32–91. Killam, B., Preston, A., McHarg, S., & Wilson, C. (2009). Card Sorting. Zugriff am 05.06.15. Abgerufen von http://usabilitybok.org/card-sorting Kirakowski, J., & Corbett, M. (1993). SUMI: The Software Usability Measurement Inventory. British Journal of Educational Technology, 24(3), 210–212. doi:10.1111/j.1467-8535.1993.tb00076.x Knill, M. (2003). Interviewtechnik. Abgerufen von http://www.rhetorik.ch/Interviewtechnik/Interviewtechnik.html KompUEterchen4KMU. (2015). Zugriff am 30.03.2015. Abgerufen von http://www.kmuusability.de/index.shtml Krueger, R. A. (2002). Designing and Conducting Focus Group Interviews. University of Minnesota, St. Paul. Abgerufen von http://www.eiu.edu/~ihec/Krueger-FocusGroupInterviews.pdf KUSi. (2015). Usability & User-Experience Methoden für den Mittelstand. Zugriff am 16.05.2015. Abgerufen von http://www.usability-siegen.de/qualifizierung.html Lamantia, J. (2003). Analyzing Card Sort Results with a Spreadsheet Template. Abgerufen von http://boxesandarrows.com/analyzing-card-sort-results-with-a-spreadsheet-template/ Landay, J. A., & Myers, B. A. (1995). Just Draw It! Programming by Sketching Storyboards. Carnegie Mellon University, Human-Computer Interaction Institute Technical Report CMU-HCII-95-106 and School of Computer Science Technical Report CMU-CS-95-199. Abgerufen von http://www.cs.cmu.edu/~landay/research/publications/storyboard-tr/storyboard.pdf Landay, J. A., & Myers, B. A. (1996). Sketching Storyboards to Illustrate Interface Behaviours. In the Conference Companion of ACM Conference on Human Factors in Computing Systems: CHI '96, 193194. Abgerufen von http://www.cs.cmu.edu/~landay/research/publications/CHI96/short_storyboard.pdf Lindemann, U. (2009). Methodische Entwicklung technischer Produkte: Methoden flexibel und situationsgerecht anwenden (3., korrigierte Aufl.). VDI-Buch. Berlin, Heidelberg: Springer. Maulsby, D., Greenberg, S., & Mander, R. (1993). Prototyping an intelligent agent through Wizard of Oz. Interchi '93 Conference Proceedings, 277–284. doi:10.1145/169059.169215 Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg. McHarg, S. (2010). Paper Prototyping. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/paper-prototyping Moosbrugger, H. (2012). Testtheorie und Fragebogenkonstruktion: Mit 66 Abbildung und 41 Tabellen (2., aktual. und überarb. Aufl.). Springer-Lehrbuch. Berlin: Springer. Muller, W. (2001). Order and meaning in design. Delft University of Technology series in industrial design. Utrecht: Lemma Publishers. Nielsen, J. (1992). Finding Usability Problems Through Heuristic Evaluation. Proceedings of the ACM CHI'92 Conference, 373–380. Abgerufen von Anhang xxvi http://faculty.utpa.edu/fowler/csci6316/papers/Nielsen_1992_Finding-Usability-Problemsthrough-Heuristic-Evaluation_CHI.pdf Nielsen, J. (1993). Usability engineering (Updated ed.). San Francisco, Calif.: Morgan Kaufmann Publishers. Nielsen, J. (1994a). Estimating the number of subjects needed for a thinking aloud test. Human- Computer Studies, (41), 385–397. Abgerufen von http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/DG308%20DID/nielsen-1994.pdf Nielsen, J. (1994b). Guerrilla HCI: Using Discount Usability Engineering to Penetrate the Intimidation Barrier. Abgerufen von http://www.nngroup.com/articles/guerrilla-hci/ Nielsen, J. (1994c). Usability Testing of WWW Designs: Article by Jakob Nielsen. Abgerufen von http://www.nngroup.com/articles/usability-testing-1995-sun-microsystems-website/ Nielsen, J. (1995a). 10 Heuristics for User Interface Design. Abgerufen von http://www.nngroup.com/articles/ten-usability-heuristics/ Nielsen, J. (1995b). Characteristics of Usability Problems Found by Heuristic Evaluation. Abgerufen von http://www.nngroup.com/articles/usability-problems-found-by-heuristic-evaluation/ Nielsen, J. (1995c). How to Conduct a Heuristic Evaluation. Abgerufen von http://www.nngroup.com/articles/how-to-conduct-a-heuristic-evaluation/ Nielsen, J. (1997). The Use and Misuse of Focus Groups. Abgerufen von http://www.nngroup.com/articles/focus-groups/ Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/ Nielsen, J. (2001). First Rule of Usability? Don't Listen to Users. Abgerufen von http://www.nngroup.com/articles/first-rule-of-usability-dont-listen-to-users/ Nielsen, J. (2004). Card Sorting: How Many Users to Test. Abgerufen von http://www.nngroup.com/articles/card-sorting-how-many-users-to-test/ Nielsen, J. (2005). Putting A/B Testing in Its Place. Abgerufen von http://www.nngroup.com/articles/putting-ab-testing-in-its-place/ Nielsen, J. (2012a). A/B Testing, Usability Engineering, Radical Innovation:What Pays Best? Abgerufen von http://www.nngroup.com/articles/ab-testing-usability-engineering/ Nielsen, J. (2012b). Thinking Aloud: The #1 Usability Tool. Abgerufen von http://www.nngroup.com/articles/thinking-aloud-the-1-usability-tool/ Nielsen, J., & Molich, R. (1990). Heuristic evaluation of user interfaces. In J. C. Chew & J. Whiteside (Eds.), the SIGCHI conference (pp.249–256). Nielsen, J., & Pernice, K. (2010). Eyetracking web usability. Berkeley, CA: New Riders. Nørgaard, M., & Hornbæk, K. (2006). What Do Usability Evaluators Do in Practice?: An Explorative Study of Think-Aloud Testing. ACM Symposium on Designing Interactive Systems, (DIS 2006), 209– 218. Abgerufen von http://www.kasperhornbaek.dk/papers/DIS2006_UsabilityEvaluation.pdf Pasman, G. J. (o. J.). Paper Prototyping. Zugriff am 05.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter#info-4-paper-prototyping Anhang xxvii Pernice, K., & Nielsen, J. (2003). How to Conduct Eyetracking Studies. Abgerufen von http://www.nngroup.com/reports/how-to-conduct-eyetracking-studies/ Postert, D. (2014). Prototyping. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/06/Themenschwerpunkt_Juni_Prototyping.pdf Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte WebsiteGestaltung. X.media.press. Berlin u.a.: Springer. Rakoczi, G. (2012). Eye Tracking in Forschung und Lehre: Möglichkeiten und Grenzen eines vielversprechenden Erkenntnismittels. Digitale Medien: Werkzeuge für exzellente Forschung und Lehre. Abgerufen von http://publik.tuwien.ac.at/files/PubDat_209599.pdf Rammelt, R. & Otto, S. (o. J.). Rapid Prototyping. Zugriff am 30.05.2015. Abgerufen von http://www.berlin-usability.de/usability/methoden-zur-evaluierung/rapid-prototyping.html#c200 Redondo, M., Bravo, C., & Ortega, M. (2009). Engineering the user interface: From research to practice. London: Springer. Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln (2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag. Riek, L. (2012). Wizard of Oz Studies in HRI: A Systematic Review and New Reporting Guidelines. Journal of Human-Robot Interaction, 119–136. doi:10.5898/JHRI.1.1.Riek Ross, J. (2009). Eyetracking: Is It Worth It? Abgerufen von http://www.uxmatters.com/mt/archives/2009/10/eyetracking-is-it-worth-it.php Ross, J. (2012). Why Are Contextual Inquiries So Difficult? Abgerufen von http://www.uxmatters.com/mt/archives/2012/06/why-are-contextual-inquiries-so-difficult.php Rosson, M. B., & Carroll, J. M. (2002). Usability engineering: Scenario-based development of humancomputer interaction (1st ed.). Morgan Kaufmann series in interactive technologies. San Fancisco: Academic Press. Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber. Schmitt Hartmut, Dominik Rost, & Balthasar Weitzel. (2015). Kontextuelles Benutzerinterview durchführen. Abgerufen von http://www.pq4agile.de/PQ4WP/wp-content/uploads/2015/02/PQ4Agile-AP2.2-Kontextuelles-Benutzerinterview-durchf%C3%BChren-V.1.pdf Schnell, R., Hill, P. B., & Esser, E. (2011). Methoden der empirischen Sozialforschung (9., aktualis. Auflage). München: Oldenbourg, R. Schweibenz, W. (2007). Putting personas into practice. Workshop "Using the Personas Method for Applying Marketing and User Research Data", Jan 2007(15th BOBCATSSS symposium), 29–31. Sharon, T., Ekhteraei, S., McHarg, S., & Wilson, C. (2010). Storyboard. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/storyboard Shepherd, A. (1985). Hierarchical Task Analysis and Training Decisions. Innovations in Education & Training International, 22(2), 162–176. doi:10.1080/1355800850220209 Simply Usable. Factsheet-Personas. Zugriff am 16.05.2015. Abgerufen von http://www.simplyusable.de/wp-content/uploads/2015/02/Factsheet-Personas-simply-usable.pdf Anhang xxviii Simply Usable. (o. J.). Factsheet-Prototyping. Zugriff am 30.05.2015. Abgerufen von http://www.simply-usable.de/wp-content/uploads/2015/02/Factsheet-Prototyping-simplyusable.pdf Simply Usable. (2015). Factsheet-Benutzerbefragung. Abgerufen von http://www.simply-usable.de/wpcontent/uploads/2015/02/Factsheet-Benutzerbefragung-simply-usable.pdf Snyder, C. (2003). Paper prototyping: Fast and easy way to design and refining user interfaces. The Morgan Kaufmann series in interactive technologies. San Francisco, Calif., Oxford: Morgan Kaufmann; Elsevier Science. Springer Gabler Verlag. (o. J.). Gabler Wirtschaftslexikon, Stichwort: Ausprägung. Abgerufen von http://wirtschaftslexikon.gabler.de/Archiv/4423/auspraegung-v9.html Stanitzek, K. (2013). Mouse Tracking - Übersicht zu Einsatz und Tools -. Abgerufen von http://www.dieproduktmacher.com/mouse-tracking-uebersicht-zu-einsatz-und-tools/ Stappers, P.-J. (2012). Storyboarding. Zugriff am 01.06.15. Abgerufen von http://filter.ucdtoolbox.com/filter#info-12-storyboarding Stiller, G. (2015). Mündliche Befragung (Interview). Zugriff am 21.04.2015. Abgerufen von http://www.wirtschaftslexikon24.com/e/m%C3%BCndliche-befragunginterview/m%C3%BCndliche-befragung-interview.htm Suzuki, S. (2010). The Power of Prototyping. Abgerufen von http://www.paristechreview.com/2010/11/02/power-prototyping/ Travis, D. (2015). Benchmark usability testing. Zugriff am 12.05.2015. Abgerufen von http://www.userfocus.co.uk/consultancy/benchmarkusabilitytesting.html Usability First. (2015). Usability Methods. Zugriff am 19.05.2015. Abgerufen von http://www.usabilityfirst.com/ Usability Inside. (2015). Persona. Zugriff am 16.05.2015. Abgerufen von http://www.usabilityinside.net/wissen/massnahmen-und-methoden/methoden/persona/ Usability.de. (2015). Ausgewählte UX Methoden im Überblick. Zugriff am 27.04.2015. Abgerufen von http://www.usability.de/leistungen/methoden.html Usability.gov. (2013). How To & Tools. Zugriff am 27.04.2015. Abgerufen von http://www.usability.gov/how-to-and-tools/index.html UsabilityNet. (2003). List of methods. Zugriff am 07.05.2015. Abgerufen von http://www.usabilitynet.org/tools/list.htm UsabilityNet. (2006a). Methods table. Zugriff am 18.06.2015. Abgerufen von http://www.usabilitynet.org/tools/methods.htm UsabilityNet. (2006b). Subjective Assessment. Zugriff am 08.06.2015. Abgerufen von http://www.usabilitynet.org/tools/subjective.htm Usability-Tipps.de. (o. J.). Mouse-Tracking & Co: Problemen auf der Mausspur… Zugriff am 16.05.2015. Abgerufen von http://www.usability-tipps.de/info/index.php/mouse-tracking-click-tracking/ Usability-Toolkit. (o. J.). Usability-Methoden. Zugriff am 17.05.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/ Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite Anhang xxix User Interface Design. (2014). AttrakDiff. Zugriff am 08.05.2015. Abgerufen von http://attrakdiff.de/#nutzen USERfit. (1996a). Interviews. Zugriff am 11.05.2015. Abgerufen von http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTinterview.pdf USERfit. (1996b). Task Analysis. Zugriff am 11.05.2015. Abgerufen von http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTtask-analysis.pdf Usetree. (2014a). Aufgabenanalyse. Zugriff am 09.05.2015. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Aufgabenanalyse.pdf Usetree. (2014b). Fragebogen. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Fragebogen.pdf Usetree. (2014c). Heuristische Evaluation. Zugriff am 04.05.2015. Abgerufen von http://www.usetree.de/wp-content/uploads/2014/09/Heuristische-Evaluation.pdf Usetree. (2014d). Interview. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Interview.pdf UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von http://www.usewell.be/#/methods/ UX Apprentice. (o. J.). Storyboarding. Zugriff am 01.06.2015. Abgerufen von http://www.uxapprentice.com/strategy/ UXPA. (2012). Usability Body of Knowledge: Methods. Zugriff am 12.05.2015. Abgerufen von http://www.usabilitybok.org/methods van den Haak, Maaike, Jong, M. de, & Jan Schellens, P. (2003). Retrospective vs. concurrent thinkaloud protocols: Testing the usability of an online library catalogue. Behaviour & Information Technology, 22(5), 339–351. doi:10.1080/0044929031000 van der Lelie, C. (2006). The value of storyboards in the product design process. Personal and Ubiquitous Computing, 10(2-3), 159–162. doi:10.1007/s00779-005-0026-7 Vanatenhoven, J. V. & Wilkinson, A. W. (o. J.). Task Analysis. Zugriff am 05.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter#info-37-task-analysis Vanhoutte, A. S. J. & van Vliembergen, E. J. W. (o. J.). Contextual Inquiry. Zugriff am 04.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter Varga, E. (o. J.). Eye Tracking. Zugriff am 05.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter#info-3-eye-tracking Vermeeren, A. P. O. S. (o. J.). Attrakdiff Questionnaire. Zugriff am 05.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter#info-1-attrakdiff-questionnaire Vilela, M. (2014). Conducting Interviews. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-interviews/main Völkel, M. (2006). Webride-Usability: Das Personas-Modell. Abgerufen von http://www.webblog.net/comments/P212_0_1_0/ Weevers, T., Jacobs, L., & Oestendorp, W. (2013). UCD Toolbox. Zugriff am 21.05.2015. Abgerufen von http://filter.ucdtoolbox.com/filter# Anhang xxx Welker, M. (2005). Online-Research: Markt- und Sozialforschung mit dem Internet (1. Aufl.). Heidelberg: Dpunkt.verlag. Wharton, C., Rieman, J., Lewis, C., & Polson, P. (1994). The cognitive walkthrough method: A practitioner's guide. Usability inspection methods, 105–140. Abgerufen von http://www.colorado.edu/ics/sites/default/files/attached-files/93-07.pdf Wikipedia. (2015). Kleine und mittlere Unternehmen. Zugriff am 01.03.2015. Abgerufen von http://de.wikipedia.org/w/index.php?oldid=137915251 Wilkinson, A. W. & Vanattenhoven, J. V. (o. J.). Fucus Groups. Zugriff am 05.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter#info-32-focus-groups Wilson, C. (2006). Focus Group. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/focusgroup Wilson, C. (2010). Persona conception and gestation. User Experience Re-Mastered: Your Guide to Getting the Right Design, Wilson, C. (2013). User interface inspection methods: A user-centered design method. Anhang xxxi