Einreichung zur Usability Evaluation Challenge 2010 / 2011

Transcrição

Einreichung zur Usability Evaluation Challenge 2010 / 2011
Einreichung zur
Usability Evaluation Challenge
2010 / 2011
Studentischer Wettbewerb
der GI Fachgruppe Software-Ergonomie
Ergebnisse eines interdisziplinären Projekts zur Evaluation der Website
http://www.gi.de/gliederungen/fachbereiche/
mensch-computer-interaktion-mci.html
Wir sind eine interdisziplinäre Gruppe von Studierenden, die sich im Rahmen eines studentischen Projekts zum Thema Usability an diesem Wettbewerb beteiligt. Konkret sind wir vier
Studenten des Bachelor-Studiengangs Angewandte Informatik, drei Studenten und Studentinnen des Diplomstudiengangs Psychologie, sowie ein Student, der beide Fächer als Doppelstudium
absolviert.
Im Rahmen des Projekts haben wir sehr stark vom interdisziplinären Austausch profitiert. Die
Informatikstudenten haben ihre Expertise bei der technischen Realisierung neuer Designvorschläge, sowie der Datenerhebung eingebracht. Die Psychologiestudenten haben ihre Expertise bei der
Konzeption und Umsetzung der empirischen Usability-Studie eingebracht. Durch zahlreiche Diskussionen und unsere Zusammenarbeit konnten wir viel von den Kenntnissen der Studenten der
jeweils anderen Disziplin lernen.
Bei der Usability-Evaluation der Website http://www.gi.de/gliederungen/fachbereiche/
mensch-computer-interaktion-mci.html sind wir folgendermaßen vorgegangen: Nach einer
Einarbeitung in grundlegende Konzepte der Usability und in Methoden zur analytischen und
empirischen Evaluation haben wir uns das Ziel gesetzt, die Usability der Website sowohl in der
Desktop-Präsentation, als auch für die Nutzung auf mobilen Endgeräten zu evaluieren. Zunächst
haben wir analytisch, einen Cognitive Walkthrough durchgeführt und anhand eines Katalog von
Usability-Kriterien, verschiedene Schwachstellen der Website identifiziert. Für einige ausgewählte
Aspekte haben wir ein alternatives Design entwickelt und dieses empirisch evaluiert. Es zeigte
sich, dass bereits kleine Veränderungen signifikante Verbesserungen in der Einschätzung der
Website und der Dauer zum Aufspüren von Informationen bewirken können.
2
Inhaltsverzeichnis
1. Einleitung
1
2. Usability-Konzepte und Evaluationsmethoden
2.1. Allgemeine Usability Ziele und Kriterien . . . .
2.2. Usability Anforderungen an Websiten . . . . .
2.3. Anforderungen an mobile Anwendungen . . . .
2.4. Analytische Methoden zur Usability-Evaluation
2.5. Empirische Methoden zur Usability-Evaluation
.
.
.
.
.
2
2
3
5
6
7
.
.
.
.
.
10
10
10
14
15
17
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
20
20
20
20
21
22
22
23
23
24
24
25
30
3. Darstellung und Analyse der Website
3.1. Die Seite des Fachbereichs MCI . .
3.1.1. Heuristische Evaluation und
3.1.2. Userstories . . . . . . . . .
3.2. Alternatives Seitendesign . . . . .
3.3. Hypothesen . . . . . . . . . . . . .
. . . . . .
Cognitive
. . . . . .
. . . . . .
. . . . . .
4. Usability Studie
4.1. Untersuchungsdesign . . . . . . . . . . .
4.2. Technische Umsetzung der Zeiterfassung
4.2.1. Verwendete Geräte . . . . . . . .
4.2.2. Problemstellung Zeitmessung . .
4.2.3. Überlegungen zur Zeitmessung .
4.2.4. Umsetzung der Zeitmessung . . .
4.2.5. Vorteile und Nachteile . . . . . .
4.3. Fragebogen . . . . . . . . . . . . . . . .
4.4. Beschreibung der Stichprobe . . . . . . .
4.5. Untersuchungsablauf . . . . . . . . . . .
4.6. Ergebnisse . . . . . . . . . . . . . . . . .
4.6.1. Qualitative Ergebnisse . . . . . .
4.6.2. Quantitative Ergebnisse . . . . .
4.7. Interpretation und Bewertung . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . .
Walkthrough
. . . . . . . .
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5. Ausblick
31
Abbildungsverzeichnis
32
Tabellenverzeichnis
32
Literaturverzeichnis
33
i
Appendix
34
A. Instruktionstext-Teilnehmer
35
B. Leitfaden-Versuchsleiter
37
C. Fragebogen
39
ii
1. Einleitung
Ihre Website wird in jedem Fall auf Usability getestet.
”
Wenn Sie es nicht selbst tun, dann tun es Ihre Kunden.“
(Jakob Nielson)
Häufig erfolgt der erste Kontakt, den wir zu einer Organisation oder Person aufnehmen, über
eine Website. Entsprechend ist ein ansprechender, übersichtlicher und funktionaler Webauftritt
für Firmen, Institutionen, aber auch für private Homepages von großer Bedeutung. Dies gilt
natürlich auch für die Webpräsentation der Fachgruppen der Gesellschaft für Informatik. Gerade
die Website der Fachgruppe Mensch-Computer-Interaktion sollte die Anforderungen an gutes
Webdesign erfüllen.
Auf der Website werden die Organisationsstruktur, sowie die Aktivitäten der Fachgruppe für
Wissenschaftler, Praktiker und Studenten präsentiert. Mitglieder der Fachgruppe sollten die gesuchten Informationen schnell und zuverlässig finden und auf diese zugreifen können. Potentielle
neue Mitglieder und sporadische Besucher der Seite sollten einen guten Eindruck, sowohl von
den Aktivitäten der Fachgruppe, als auch vom Design der Seite haben, die ja das Aushängeschild
der Gruppe ist.
Da Webinhalte zunehmend auch von mobilen Endgeräten aus aufgerufen werden, sollten die
wichtigsten Informationen der Webpräsentation auch von dort aus gut auffindbar sein. Dies gilt
auch dann, wenn die Seite nicht speziell für mobile Endgeräte optimiert wurde.
In unserer Arbeit haben wir die Usability der Website der Fachgruppe Mensch-ComputerInteraktion analysiert und ausgewählte Aspekte empirisch evaluiert. Im Folgenden geben wir
zunächst einen Überblick über grundlegende Konzepte der Usability, spezielle Usability-Anforderungen an Websiten, sowie Anforderungen an mobile Anwendungen. Zudem gehen wir kurz
auf analytische und empirische Methoden zur Bewertung von Usability ein. Im nächsten Kapitel
wird die zu evaluierende Website kurz vorgestellt. Danach werden verschiedene, durch Cognitive
Walkthrough ermittelte, Usability-Defizite der Seite dargestellt. Am Ende des Kapitels werden
konkrete Hypothesen bezüglich der identifizierten Defizite, sowie alternative Designvorschläge
formuliert. Darauf aufbauend wird im vierten Kapitel die empirische Studie dargestellt. Zunächst
wird das Untersuchungsdesign, die verwendeten Seiten, die erhobenen Variablen, die technische
Umsetzung der Studie, sowie der eingesetzte Fragebogen dargestellt. Danach wird die Stichprobe,
sowie die Untersuchungsprozedur beschrieben. Es folgt eine Darstellung und Bewertung der
Ergebnisse. In einem abschließenden Kapitel wird ein allgemeines Fazit gezogen.
1
2. Usability-Konzepte und
Evaluationsmethoden
2.1. Allgemeine Usability Ziele und Kriterien
Wenn man sich die Frage stellt, was Usability bedeutet, stößt man in verschiedenen Fachzeitschriften und Fachliteratur auf diverse Definitionen. Einer der bekanntesten Usability-Forscher
Nielsen definiert Usability wie folgt: ”Usability ist ein Qualitätsmerkmal, wie einfach etwas zu
benutzen ist. Es geht genauer gesagt darum, wie schnell Menschen die Benutzung eines Gegenstandes erlenen können, wie effizient sie während seiner Benutzung sind, wie leicht sie sich diese
merken können, wie fehleranfällig der Gegenstand ist und wie er den Nutzern gefällt. Wenn die
Nutzer einen Gegenstand weder nutzen möchten, noch können, bräuchte er eigentlich gar nicht
existieren.” [NL06]
Der Begriff Usability kann auf zwei verschiedene Weisen übersetzt werden, zum einen als ”Gebrauchstauglichkeit”, zum anderen als ”Benutzerfreundlichkeit”. Die Verwendung im Sinne von
Gebrauchstauglichkeit wurde in den letzten Jahren zu Werbezwecken benutzt und für fast jedes
Softwareprodukt verwendet. Daher wird in dieser Arbeit Usability als Gebrauchstauglichkeit
verwendet, da die Definition der internationalen Norm ISO/IEC 9241-11 [iso] die zu berücksichtigenden Aspekte besser beschreibt. ”Das Ausmaß, in dem ein Produkt durch bestimmte
Benutzer in einem bestimmten Nutzungskontext genutzt werden kann, um bestimmte Ziele effektiv, effizient und zufriedenstellend zu erreichen.” [KPR04, S. 267]
Ein wichtiger Askpekt in Hinsicht auf Usability sind natürlich die Ziele die durch Usability
erreicht werden sollen und die Kriterien anhand derer diese Ziele bestimmt werden. Die Ziele
und Kriterien sind von Plattform zu Plattform unterschiedlich, überschneiden sich aber auch an
verschiedenen Stellen. Für diese Arbeit liegt das Augenmerk auf Desktop-PC’s und auf mobilen
Endgeräten (speziell mit dem Android Betriebssytem).
Shneiderman [SP05, S. 13f] beschreibt 4 verschiedene Ziele für die Anforderungsanalyse von
Nutzerschnittstellen in Bezug auf Usability:
1. Nutzerbedürfnisse ermitteln.
2. Zuverlässigkeit sicherstellen.
3. Angemessene Standardisierung, Integration, Konsitenz und Portabilität fördern.
4. Projekte innerhalb des Budgets abschließen.
Der letzte Punkt ist für den Nutzer zu vernachlässigen, da dieses Ziel nur für Firmen relevant
ist (Für Firmen geht es speziell um Abhängigkeiten von/für andere Projekte bzw. um Abgabefristen).
2
2. Usability-Konzepte und Evaluationsmethoden
Im Kontrast zu den Zielen, die Shneiderman formuliert, betrachtet NIELSON sieben unterschiedliche Faktoren. Die Faktoren geben Antworten auf die Frage, warum und an welchen
Gesichtspunkten Websitennutzer scheitern können [NL06, S.130f].
ˆ Suche: Nutzer scheitern an der implementierten Suchfunktion der Website
ˆ Findability: Informationsarchitektur, Kategorienamen, Navigation und Links
ˆ Seitendesign: Lesbarkeit, Layout, Grafiken, Amateur, Scrollen
ˆ Information: Inhalt, Produktinfo, Firmeninfo, Preise
ˆ Aufgabenunterstützung: Workflow, Datenschutz, Formulare, Vergleich, unflexibel
ˆ Ausgefallenes Design: Multimedia, Zurück-Schaltfläche, PDF/Druck, Pop-up Fenster,
Sound
ˆ Andere: Bugs, Präsenz im Web, Anzeigen, Neue Site, Metaphern
2.2. Usability Anforderungen an Websiten
Ein Vorreiter für die Umsetzung von Usability bei Nutzer-Interfaces ist, der bereits im vorherigen
Abschnitt erwähnte, Shneiderman, der die acht goldenen Regeln des Interface Designs aufgestellt hat [SP05]. Bei Websiten handelt es sich auch um eine spezielle Art von Nutzer-Interfaces,
daher können die Regeln von Shneiderman an dieser Stelle angewendet werden. Im Folgenden
werden diese kurz vorgestellt und für die Anwendung auf Websiten angepasst (nach [wik]).
1. Konsistenz: Das Interface sollte eine gewisse Einheitlichkeit“ anstreben. Links sollten
”
immer gleich formatiert sein, Überschriften der selben Hierarchiestufe sollten die gleiche
Schriftgröße haben und Menüs einheitlich strukturiert sein. Wenn diese Schritte nicht
eingehalten werden und jede Unterseite unterschiedlich gestaltet ist, erschwert es dem
Nutzer die Navigation auf der Seite. Außerdem sollten hier dieselben Fachbegriffe und
Icons verwendet werden.
2. Abkürzungen: Vor allem für Nutzer, die eine Seite häufig besuchen, sollten Abkürzungen
zur Verfügung gestellt werden. Diese können in Form eines Home-Buttons“ oder Links zu
”
den Hauptkategorien erstellt werden. Solche Shortcuts’“ ermöglichen den fortgeschrittenen
”
Nutzern schnell durch die Seite zu navigieren.
3. Rückmeldung: Wenn die Verarbeitung einer Anfrage durch das zu Grunde liegende System länger dauert als eine normale Webanfrage, sollte dies visualisiert werden. Dies kann
in Form eines Ladebalkens oder eines Pop-up Fensters geschehen.
4. Dialoge: Dieser Punkt schließt an den vorherigen an, denn wenn eine Seite eine Datenbankabfrage beinhaltet, muss dem Nutzer verdeutlicht werden, ob die Abfrage vollständig
ist und er eine neue Abfrage starten kann oder die zurückgegebenen Ergebnisse weiter
durchsuchen kann. Hierfür können Dialogboxen per AJAX oder JavaScript eingeblendet
werden.
3
2. Usability-Konzepte und Evaluationsmethoden
5. Fehlerbehandlung: Es soll für den Nutzer offensichtlich sein, ob ein aufgetretener Fehler durch Fehlbedienung selbst oder durch das System bzw. nicht verfügbare HardwareRessourcen verursacht worden ist. Zusätzlich sollten hier Lösungsmöglichkeiten für das
vorhandene Problem angeboten werden.
6. Umkehrung: Dem Nutzer muss es möglich sein, einen Schritt rückgängig zu machen. Zum
Beispiel muss der Nutzer ohne Probleme auf die vorherige Seite zurückspringen können.
In der Regel ist diese Funktionalität bereits durch den Browser gegeben, kann aber auch
zusätzlich in der Seite untergebracht werden.
7. Kontrolle: Der Nutzer sollte nie das Gefühl haben, keine Kontrolle über die Funktionalität
der Seite zu haben. Dies kann der Fall sein, wenn Werbeinhalte oder Menü-Punkte per
JavaScript oder Flash eingebunden werden. Vor allem bei mobilen Endgeräten kann es hier
zu Problemen kommen, da Pop-Ups oder Flash-Inhalte sich schlecht schließen lassen und
einen Teil der auf der Seite angebotenen Informationen verdecken.
8. Kurzzeitgedächtnis: Die Internetseite muss gut strukturiert sein, um Wege zwischen
den einzelnen Unterseiten gut darzustellen und zu vermeiden, dass sich der Nutzer mit
langen Klickfolgen durch eine schlecht durchdachte Seite navigieren muss. Die Unterpunkte
Konsistenz und Kurzzeitgedächtnis beeinflussen sich hier gegenseitig.
Zusätzlich zu den hier angesprochenen goldenen Regeln“ gibt es im Netz verschiedene Usability”
Checklisten, wie zum Beispiel unter [usa]. Diese und ähnliche Checklisten sind grundsätzlich
geeignet um die Usability einer Website zu testen. Ein Allheilmittel gibt es allerdings nicht. Für
die Untersuchung haben wir den semantischen Überbegriffs Übersichtlichkeit definiert. Dieser
setzt sich aus mehreren der oben genannten Usabilitykriterien zusammen.
ˆ Kurzzeitgedächtnis
ˆ Findability
ˆ Seitendesign
Das Nicht-Vorhandensein von Übersichtlichkeit, sei es durch Textlastigkeit (Kurzzeitgedächtnis
[wik]), komplizierte Navigationswege (Findability [NL06]) oder die Farbgebung (Seitendesign
[NL06]), kann den Nutzer überfordern und zur Folge haben, dass dieser die Seite vorzeitig verlässt.
4
2. Usability-Konzepte und Evaluationsmethoden
2.3. Anforderungen an mobile Anwendungen
Nutzer von mobilen Endgeräten sind deutlich von Desktop-Nutzern zu unterscheiden. Ihnen steht
wesentlich weniger Display zur Verfügung und sie haben andere Ansprüche, da sie die Website oft
unterwegs aufrufen. Die Übertragungsrate ist oft geringer als am Desktop und außerdem machen
Nutzer mehr Fehler bei der Eingabe, da die Eingabemöglichkeiten auf mobilen Endgeräten oft
schlechter sind, als die eines Desktop-PCs. Dies alles spricht dafür, dass es andere Usabilityanforderungen für mobile Nutzer gibt und mobile Websiten dementsprechend angepasst werden
sollten, um dem Nutzer die gewünschte Information schnell und ansprechend zu vermitteln.
Einen guten Einstieg in Usability Design von Websiten bieten die Mobile Web Best Practices“
”
[w3c] des W3C. Einige der wichtigsten Punkte werden im Folgenden erläutert. Wenn ein Nutzer
eine mobile Website aufruft, so ist er meistens auf der Suche nach kurzen Informationen, die ihm
da, wo er gerade ist, weiterhelfen. Deshalb sollten längere und ausschweifende Texte vermieden
werden und intelligente Suchverfahren angewandt werden. Mobile Websiten sollten prinzipiell
einspaltig gestaltet werden, damit der Nutzer nur nach oben und nach unten scrollen muss. Das
Navigationsmenü sollte sich, zur schnellen Benutzung, ganz oben auf der Website befinden. Da
auf mobilen Endgeräten nur ein kleines Display zur Verfügung steht, sollte das Navigationsmenü
nicht auf jeder Seite, sondern nur auf der Einstiegsseite zu sehen sein, weil der Benutzer sonst
auf jeder Seite weit nach unten scrollen muss, um die gewünschte Information zu finden. Um
schnell wieder navigieren zu können sollte sich ganz oben, sowie ganz unten auf der Seite ein
Link zur Einstiegsseite befinden. Außerdem sollte auf jeder Seite ein Zurück“-Button befinden,
”
da mobile Browser oft im Vollbildmodus laufen und es somit schwieriger ist auf die vorherige
Seite zu gelangen.
Das Design von mobilen Websiten sollte eher schlicht gehalten werden, um eine schnellere
Übertragung zu gewährleisten. Insbesondere auf größere Bilder sollte verzichtet werden. Sollte
es trotzdem notwendig sein, Bilder einzubinden, so sollten diese in für Web optimierten Formaten mit hoher Kompressionsrate gespeichert werden. Nutzereingaben sollten auf ein Minimum
reduziert werden, da die Eingabe von Text auf mobilen Endgeräten fehleranfälliger und oft
schwieriger ist. Vermieden werden können diese durch Eingabemöglichkeiten die kein Tippen
erforderlich machen, wie zum Beispiel durch Radiobuttons, Checklisten oder Auswahllisten.
5
2. Usability-Konzepte und Evaluationsmethoden
2.4. Analytische Methoden zur Usability-Evaluation
Die analytische Herangehensweise für die Evaluation von Websiten besteht aus Experten Reviews.
Hierfür gibt es verschiedene Ansätze, die durch Experten bzw. erfahrene Nutzer durchgeführt
werden. Shneiderman [SP05, S. 141f] beschreibt hier 5 verschiedene Ansätze.
1. Heuristische Evaluation: Bewerten einer Website anhand von Heuristiken, eine Möglichkeit sind die acht goldenen Regeln von Shneiderman.
2. Leitfaden Review: Firmen-Richtlinien bzw. Usability-Checklisten müssen mit der Website abgeglichen werden. Dies kann einige Tage dauern, da diese Listen mehrere hundert
Einträge enthalten können.
3. Konsistenzprüfung: Websiten müssen auf Konsistenz geprüft werden, hierbei werden
Schriftgrößen, Schriftarben und Farben verschiedener Seiten bzw. User Interfaces verglichen. Meist bietet es sich an, falls vorhanden, diese an das Corporate Design der Firma
anzupassen.
4. Cognitive Walkthrough: Um mögliche Abläufe eines Nutzers zu simulieren, wird der
Cognitive Walkthrough verwendet. Hierdurch kann getestet werden, ob Links und Labels
sinnvolle Beschriftungen haben und ob verschiedene Aufgaben lösbar oder bestimmte Informationen innerhalb einer Website zu finden sind.
5. Formale Usability Prüfung: Einer Runde von Experten wird die Website vorgestellt,
im Anschluss werden die Vor- und Nachteile diskutiert. Während dieses Prozesses sind
der/die Designer anwesend, um das Feedback direkt entgegenzunehmen und mitdiskutieren
können.
Neben den analytischen Methoden gibt es noch die Möglichkeit die Usability einer Website
empirisch zu testen. Die empirischen Methoden werden im folgenden Abschnitt betrachtet.
6
2. Usability-Konzepte und Evaluationsmethoden
2.5. Empirische Methoden zur Usability-Evaluation
Generell lassen sich die bestehenden Methoden in zwei Gruppen einteilen. Untersuchungen können anwendungsnah im Feld oder aber in einer kontrollierten Laborumgebung stattfinden. Um
diese beiden Bereiche abzudecken, bedarf es eines ganzen Spektrums von Evaluationstechniken, da die Anforderungen zwischen Feld- und Laboruntersuchungen stark variieren. So ist die
Umgebung künstlich oder natürlich, die Benutzer gehören einer spezifischen Gruppe oder einer
randomisierten Stichprobe an, es schwanken Kontrollierbarkeit und Flexibilität, sowie Stichprobengröße und vertretbare Untersuchungsdauer (vgl. [Sto06]). Beide sollen hier kurz dargestellt
werden.
Bei Felduntersuchungen versucht man die Probanden in einer möglichst authentischen Nutzungsumgebung (z.B. beim Kunden einer Software vor Ort) zu untersuchen. Ziel ist es die externe
Validität zu maximieren, also zu gewährleisten, dass möglichst alle Probleme, die auch in der
alltäglichen Anwendung anfallen würden, im Evaluationsexperiment entdeckt werden. Beim Experiment in einer natürlichen Umgebung besteht jedoch auch immer die Gefahr, dass Störfaktoren die Untersuchung so beeinflussen, dass die interne Validität darunter leidet. Eine besondere
Option, die es im Laborexperiment nicht gibt, ist die Untersuchung über einen längeren Zeitraum, wenn diese geschickt in den Arbeitsalltag integriert sind. Auch aus diesem Grund sind
Felduntersuchungen eher für die Optimierung von bereits bestehenden Anwendungen geeignet.
Laboruntersuchungen zeichnen sich in erster Linie durch ihre Kontrollierbarkeit aus, da die
Untersuchungen in Räumen durchgeführt werden, die möglichst wenig Ablenkung von der Anwendung bieten. Dabei schwankt die tatsächliche Ausgestaltung der Labore je nach Untersuchung sehr stark und reicht von präparierten Computerarbeitsplätzen (meist mit Mikrophon
und Kamera) bis hin zu mehrräumigen Labors mit semipermeablen Spiegeln. Die hier gewonnenen sauberen“ Ergebnisse sind jedoch deutlich abstrakter als die aus Felduntersuchungen. Es
”
ist nie ganz klar, ob tatsächlich valide gemessen wurde. Die hohe interne Validität wird also
mit einem Einbruch der externen bezahlt. Laborstudien kommen besonders in frühen Entwicklungsphasen zum Einsatz, da sich Feldstudien mit unfertigen Programmen nicht durchführen
lassen. Auch für die Grundlagenforschung - im Bereich der Usability namentlich besonders die
Wahrnehmungs- und Aufmerksamkeitsforschung - sind Laborstudien essenziell.
Steht die Entscheidung für einen Untersuchungsort, müssen als nächstes die Evaluationsmethoden ausgewählt werden, mit denen man sich dem Untersuchungsgegenstand annähern möchte. Stowasser unterscheidet hierbei in erster Linie formale und empirische Methoden, wobei
erstere Methoden wie das GOMS-Modell, Cognitive Walkthrough und heuristische Expertenuntersuchungen bezeichnet, wie sie im Punkt analytische Evaluationsmetoden beschrieben werden.
Die empirischen Methoden unterteilt Stowasser in subjektive und objektive. Um einen Überblick über die Methodenvielfalt zu bewerkstelligen, soll diese Einteilung hier Anwendung finden
[Sto06, S. 90].
Als subjektive Methoden bezeichnet Stowasser alle Maße, die nicht direkt abgeleitet, sondern
durch eine Befragung gewonnen werden. Der Nutzer als Versuchsperson soll sich während des
Umgangs mit dem Untersuchungsobjekt ein Urteil bilden, welches dem Versuchsleiter durch die
Befragung zugänglich wird. Die subjektiven Maße wiederum können in zwei Gruppen aufgeteilt
werden. Erstere lässt sich unter dem Begriff Befragung sammeln.
7
2. Usability-Konzepte und Evaluationsmethoden
Befragungen lassen sich mündlich1 , schriftlich oder online durchführen (vgl. [Sto06]). Wählt
man einen schriftlichen Fragebogen, muss man sich immer noch entscheiden, ob dieser zugesandt oder im Labor ausgefüllt werden soll und es gilt das passende Antwortformat (vorgegebene Antworten: konfirmatorisch, leicht auszuwerten; offene Fragen: explorativ, tiefere Antworten,
schwieriger auszuwerten) zu wählen (vgl. [Pus09]). Pusher empfiehlt dabei möglichst nah an
der Zielgruppe zu befragen, also wie in unserem Fall direkt auf der Homepage, die man untersuchen möchte [Pus09]. Befragungen lassen sich in jeder Phase der Realisierung eines Projekts
integrieren und liefern kreative Anregungen, die deutlich genauer beschreiben, in welchem Bereich etwas verbessert werden muss. Im Interview können unklare Antworten sogar direkt durch
Nachfragen geklärt werden. Gleichzeitig sollte man jedoch damit rechnen, dass die Befragten
weniger Mängel des Untersuchungsobjekts benennen oder sogar aufspüren als bei einem Experiment zu Tage träten und sie ihr tatsächliches Verhalten nicht immer korrekt einschätzen können
(vgl. [Pus09]).
Um Daten über einen längeren Zeitraum zu gewinnen, kann man die Versuchspersonen ein
Benutzertagebuch ausfüllen lassen (vgl. [Sto06]) oder sehr kurze Befragungen prominent auf der
Homepage bzw. in der Anwendung integrieren, die zu einer wiederholten Teilnahme einladen
(vgl. [Pus09]). Des Weiteren können die Teilnehmer durch Techniken wie Grupppendiskussion
oder die Co-Discovery-Methode2 angeregt werden (vgl. [Bei02]).
Ganz besonders gut eignet sich im Bereich der Software- und Internet-Usability-Evaluation
eine Online-Befragung, bei der ein webbasierter Fragebogen als Link an die Versuchspersonen
geschickt wird. Neben der Möglichkeit Bilder, Töne und Filme in den Fragebogen zu integrieren, kann sogar die Zeit gestoppt und eine Ablenkung durch andere Anwendungen auf dem PC
blockiert werden. Je nachdem in welcher Phase man eine Online-Befragung einsetzt, kann man
entweder gezielt über die vorliegenden Panel-Daten eine Stichprobe auswählen, die der späteren
Zielgruppe ähnlich sind, oder ein bereits implementiertes Produkt durch den Kunden vor Ort
bewerten lassen. In den letzten Jahren wurden zudem Techniken, wie Attention- und MouseTracking entwickelt, durch die es möglich ist, die Befragungsdaten mit objektiven Maßen zu
verbinden und dennoch von den Vorteilen einer Online-Befragung, wie der schnellen Datengewinnung, hohen Reichweite und großen Fallzahlen zu profitieren (vgl. [Sto06]; [Pus09]; [Bei02];
[GS08]).
Online-Befragungen bergen allerdings auch Nachteile, die es zu berücksichtigen oder auszugleichen gilt. So müssen z.B. Vorkehrungen getroffen werden, um eine Mehrfachteilnahme zu
verhindern. Auch die Umgebungsbedingungen während der Teilnahme sind ein Risiko, da OnlineBefragungen sowohl in einem ruhigen Büro, als auch auf einem Handy-Bildschirm in einer vollen
Straßenbahn bearbeitet werden können. Neben technischen Möglichkeiten, Nebenbeschäftigungen zu erschweren, kann eine Frage zu den Umgebungsbedingungen oder eine Aufforderung, den
Fragebogen nur an ruhigen Orten auszufüllen, die Datenqualität zumindest leicht verbessern.
Die andere große Gruppe der subjektiven empirischen Evaluationsmethoden ist die der Beobachtung. Wie oben beschrieben, kann die Beobachtung in einem Labor oder im Feld durchgeführt werden. Da dem Versuchsleiter bei der Beobachtung das Innere des Probanden verborgen bleibt, gilt es deutlich mehr zu beachten, weshalb sich in der Literatur auch deutlich
umfangreichere Informationen finden, die hier nur zum Teil behandelt werden können. Pusher
[Pus09] empfiehlt beispielsweise die Beobachtung für spätere Phasen der Entwicklung, wenn die
1
2
Hierbei kann es sich um standardisierte, halb-standardisierte oder freie Interviews handeln.
Zwei Probanden explorieren das Untersuchungsobjekt gemeinsam.
8
2. Usability-Konzepte und Evaluationsmethoden
grundlegende Gestaltung bereits feststeht, weist darauf hin, dass eine Beobachtung auch über
Traffic-Daten, also parallel zu einer Online-Erhebung, durchgeführt werden kann und betont,
dass viele Maße sich gar nicht erfragen, sondern nur beobachten lassen.
Um die Erfassung zu erleichtern, gibt es einige Methoden, die Probanden anzuregen. Immer
wieder wird in diesem Zusammenhang zum Beispiel die Methode des lauten Denkens“ genannt,
”
bei der die Versuchsperson während der Beobachtung ihre Gedanken, Assoziationen und Intentionen artikulieren (vgl. z.B. [Sto06]). Auch die Gruppendiskussion ist eine beliebte Methode, bei
der die Befragung durch die Beobachtung einer Gruppe von Teilnehmern ersetzt wird und besonders explorative Fragestellungen bedient werden können. Meinungen, Vorurteile, Einstellungen,
Fehlinformationen und Informationsdefizite werden so mit einer größeren Wahrscheinlichkeit
offenbart, als bei der Beobachtung von Einzelpersonen (vgl. [Bei02]).
Das klassische Setting bei Beobachtungsstudien in diesem Feld ist allerdings das Usability
Labor. Dort werden Studien von einer Länge von 1-1,5 Stunden durchgeführt, für die typische
Laborstudienbedingungen gelten (s.o.). Hier können sowohl Befragungs- als auch Beobachtungsmethoden eingesetzt, aber auch direkte Maße erhoben werden.
Eben diese direkten Maße bezeichnet Stowasser in Abgrenzung zu den subjektiven als objektive Methoden. Dabei wird ein direktes Maß erfasst, dass entweder selbst Kriterium von
Usability ist oder über eine Theorie mit einem solchen verbunden wird. Tullis & Albert
nennen folgende gebräuchliche zehn Maße: Erfolgreiches Abschließen von Aufgaben (mit oder
ohne die Erfassung von Teilerfolgen), Zeiterfassung, Anzahl von Fehlern (besonders nützlich
um missverständliche und fehleranfällige Programmteile aufzuspüren), Anzahl benötigter Klicks
für das Bewältigen einer Aufgabe, Lernerfolge, themenspezifische Maße, selbstberichtete Maße,
verhaltens- und psychologische Maße, kombinierte und komparative Maße, Website-Maße und
Card-Sorting Daten [Tul08, S. 48ff]. Besonders typische Maße sind die Bearbeitungszeit und die
Messung der Aufmerksamkeit via Eye- oder Mouse-Tracking (vgl. [Bei02]). Besonders in Kombination mit der anschließenden Befragung tragen Beobachtungsverfahren zu einer fruchtbaren
Untersuchung bei.
Im praktischen Einsatz von Evaluationsmethoden besteht jedoch keineswegs der Zwang sich
für eine der vier Kategorien zu entscheiden. Je nach Fragestellung gilt es eine Auswahl zu Treffen
und sich ein Set von Methoden zusammenzustellen. Insbesondere die spezifischen Schwächen der
einzelnen Methoden können so ausgeglichen oder abgemildert werden. Ein denkbares Beispiel
wäre es, den theoretisch angenommenen Zusammenhang von Bearbeitungsgeschwindigkeit und
einfacher Bedienung über ein Interview zu überprüfen. Stowasser warnt allerdings auch davor,
dass ein ungünstiger Methoden-Mix u.U. zu einer Verminderung der Validität führen kann. Ein
Mehr an Methoden ist nicht gleichbedeutend mit einem Mehr an Messqualität.
Eingespielte Kombinationen von Erhebungsmethoden findet man unter dem Begriff UsabilityTest (30 VPn) bzw. -Schnelltest (5 VPn), der sich aus einer Kombination von Beobachtungs- und
Befragungsdaten in einem Labortest zusammensetzt. Der Proband wird während der Lösung von
vorgegebenen Aufgaben vom Testleiter beobachtet und soll dabei laute denken“ . Kameras und
”
Mikrophone, z.T. auch Eye-Tracking-Gerätschaften zeichnen den Versuch für spätere Nachuntersuchungen auf. Nach dem Lösen der Aufgabe wird ein Interview durchgeführt. So verbindet
diese teure und langsame Untersuchungsmethode zwar ein breites Spektrum an Maßen, die im
Laborsetting möglich sind, muss dafür allerdings auch die Labornachteile in Kauf nehmen (vgl.
[Pus09]).
9
3. Darstellung und Analyse der Website
3.1. Die Seite des Fachbereichs MCI
Um den Gegenstand des Forschungsprojekts näher zu erläutern, soll an dieser Stelle ein kurzer
Abriss über die untersuchte Homepage stattfinden. Die Gesellschaft für Informatik untergliedert sich in mehrere Fachbereiche. Einer dieser Bereiche ist der Fachbereich Mensch-ComputerInteraktion (MCI). Die interdisziplinäre Ausrichtung des Fachbereichs impliziert eine heterogene
Zielgruppe. Diese setzt sich gleichermaßen aus Mitgliedern der Informatik und Ingenieurwissenschaften sowie aus den der Arbeitswissenschaften, der Psychologie und den Designdisziplinen
zusammen.
Eine Analyse der Seite erfolgte durch eine Mischung aus heuristischer Evaluation, Cognitive
Walkthrough und Userstories. Wie bereits angerissen worden ist, setzt sich die Menge der Nutzer
dieser Website aus den verschiedensten Disziplinien zusammen. Wir gehen davon aus, dass die
Seite der Fachgruppe insbesondere von Mitgliedern der Gesellschaft für Informatik genutzt wird.
Die Seite wäre demnach in erster Linie für Studierende, Wissenschaftler und auch Praktiker von
Interesse.
3.1.1. Heuristische Evaluation und Cognitive Walkthrough
Als erstes wurde die Website mit Hilfe einer heuristischen Evaluation analysiert. Allerdings sollten auch konkrete Nutzeraufgaben zur empirischen Überprüfung entwickelt werden, weswegen
unser Vorgehen einer Mischform aus Cognitive Walkthrough und heuristischer Evaluation entsprach. Hierbei wurde besonders auf einige bereits in Kapitel 2 erwähnten Aspekte geachtet:
ˆ Übersichtlichkeit (Findability [NL06], Kurzzeitgedächtnis [wik], Seitendesign [NL06])
ˆ Konsistenz [wik]
ˆ Kontrolle [wik]
ˆ Abkürzungen [wik]
Eine Zusammenfassung aller Aufälligkeiten befindet sich am Ende dieses Unterkapitels (Tabelle
3.1).
Die Startseite
Die Startseite der Homepage des Fachbereichs MCI http://www.gi-ev.de/gliederungen/
fachbereiche/mensch-computer-interaktion-mci.html enthält Informationen des Fachbereichs, der Fachgruppen und Arbeitskreise und Informationen allgemeiner Art (Abbildung 3.1).
10
3. Darstellung und Analyse der Website
Abbildung 3.1.: Startseite des Fachbereichs MCI
11
3. Darstellung und Analyse der Website
Auffälligkeiten Bei der ersten Seitenexploration fielen uns verschiedene Dinge auf. Das Bild
des Flyers auf der Startseite suggerierte einen Link, eine Interaktion war jedoch nicht möglich.
Zudem ließ sich die tatsächliche Gliederung der Website1 erst nach einigem Scrollen erkennen.
Die Informationen hier sind mit denen einiger, aber nicht aller Unterpunkte kongruent und
die aufgeführten Unterpunkte in der Seitenleiste sind nicht konsistent auf der gleichen Ebene
gehalten. Allgemein wirkt sie Seite wirkt sehr textlastig. Eine der gravierensten Auffälligkeiten
war der fehlende Home-Button“.
”
Beschreibung des Menüpunktes Fachbereich“
”
Der Punkt Fachbereich“ gliedert sich in die Unterpunkte Ziele und Aufgaben“, Leitungsgre”
”
”
mium“ und Organisationsstruktur“.
”
ˆ Ziele und Aufgaben: Auflistung der vom Fachbereich behandelten Themen und Aufgabenbereiche
ˆ Leitungsgremium: Darstellung der Fachbereichsleitung
ˆ Organisationstruktur: Ämter und Finanzierung des Fachbereichs und Höhe des Mitgliedsbeitrags
Auffälligkeiten In Ziele und Aufgaben“ überraschte eine unvorhergesehene Verlinkung auf eine
”
asiatische Seite2 . Der Unterpunkt Organisationsstruktur“ machte hier wiederum einen textlas”
tigen Eindruck.
Der Menüpunkt MCI Informationen“
”
Der Punkt MCI Informationen“ wird in die Unterpunkte Veranstaltungen“, Veröffentlichungen“
”
”
”
und Ehrungen und Preise“ untergliedert.
”
ˆ Veranstaltungen: Daten über anstehende und vergangene Events im Fachbereich
ˆ Veröffentlichungen: Links zu relevanten Zeitschriften und Empfehlungen
ˆ Ehrungen und Preise: Liste von Personen, welche Ehrungen oder Preise in den Bereichen
Forschung, Praxis und Design, erhalten haben
Auffälligkeiten Trotz weniger Termine wirkt der Punkt Veranstaltungen“ sehr unübersichtlich
”
und tote3 oder asiatische4 Links wirkten zudem verwirrend. Dies traf auch auf die Unterscheidung
von aktuellen und archivierten Veranstaltungen zu. Diese Trennung wirkte willkürlich und hatte
allem Anschein nach keinen tieferen Nutzen. Der Punkt Veröffentlichungen“ machte einen sehr
”
mageren Eindruck und die teils fehlenden Beschreibungen bzw. Verlinkungen reduzieren den
Informationswert der Seite zusätzlich. Irritierend wirkte der Farbwechsel im Punkt Ehrungen
”
1
Die Website ist untergliedert in die Punkte Fachbereich, MCI Informationen, Fachgruppen und Arbeitskreise
Vertretung der GI im IFIP TC 13 Human-Computer Interaction
3
D-CSCW 2000, Mensch & Computer 2001, ECSCW 2001, Mensch & Computer 2003, http://www-winfo.unisiegen.de/wulf/CT2003/,...
4
http://www.interact2003.org/
2
12
3. Darstellung und Analyse der Website
und Preise“, der weder einheitlich mit den Jahren, noch mit den Preisträgern verbunden war. Ein
einheitlicher Detailgrad bei den Ausführungen zu den Preisen wurde ebenfalls nicht umgesetzt.
Der Menüpunkt Fachgruppen“
”
Auch der Punkt Fachgruppen“ hat mehrere Unterpunkte, wobei lediglich zu den Punkten
”
Software-Ergonomie“, Computer-Supported Cooperative Work“ und Medieninformatik“ In”
”
”
formationen auf der zu untersuchenden Seite enthalten sind, wohingegen die Fachgruppen Me”
thoden und Werkzeuge zur Entwicklung interaktiver Systeme“, Adaptivität und Benutzermo”
dellierung in interaktiven Softwaresystemen“ und E-Learning“ auf andere Seiten verweisen.
”
ˆ Software-Ergonomie: Vorstellung der Fachgruppe
ˆ Computer-Supported Cooperative Work: Vorstellung der Fachgruppe
ˆ Medieninformatik: Vorstellung der Fachgruppe
ˆ Methoden und Werkzeuge zur Entwicklung interaktiver Systeme: Link
ˆ Adaptivität und Benutzermodellierung in interaktiven Softwaresystemen: Link
ˆ E-Learning: Link
Auffälligkeiten In diesem Unterpunkt findet man zum ersten Mal eine Auffächerung in der
linken Seitenleiste. Außerdem fallen Inkosistenzen auf, da einige Fachgruppen kurz beschrieben
werden, an anderer Stelle aber auf andere Seiten verwiesen wird. Zudem sind die Unterpunkte
in der Seitenleiste und der Seiteninhalt redundant.
Der Menüpunkt Arbeitskreise“
”
Der letzte Punkt Arbeitskreise“ gliedert sich in Wearable und Nomadic Computing“, Mensch”
”
”
Maschine-Interaktion in sicherheitskritischen Systemen“ und Begreifbare Interaktion in ge”
mischten Wirklichkeiten“.
ˆ Wearable und Nomadic Computing: Vorstellung des Arbeitskreises
ˆ Mensch-Maschine-Interaktion in sicherheitskritischen Systemen: Vorstellung des Arbeitskreises
ˆ Begreifbare Interaktion in gemischten Wirklichkeiten: Vorstellung des Arbeitskreises
Auffälligkeiten Hier findet man, wie im Punkt Fachgruppe“, Inkosistenzen in der Darstellung
”
der einzelnen Arbeitskreise und Redundanzen zwischen Unterpunkten in der Seitenleiste und
dem Seiteninhalt, wobei es hier eine verwirrende Abweichung eines Unterpunktes gibt (Interaktive Systeme) .
Die Bodenleiste
Als Letztes wurde noch die Bodenleiste der Seite analysiert. Hier befinden sich die üblichen Links
zu Sitemap“, “Kontakt“, Feedback“, Impressum“, Datenschutzerklärung“ und Druckversion“.
”
”
”
”
”
13
3. Darstellung und Analyse der Website
Auffälligkeiten Aufgrund der bereits erwähnten Textlastigkeit, wäre hier anzumerken, dass auf
den meisten Seiten viel Scrollen nötig war. Dies erschwert das Finden des Kontaktbuttons und
somit die Möglichkeit mit den Verantwortlichen in Kontakt zu treten. Zusammenfassend hier
noch einmal eine Tabelle mit allen Auffälligkeiten und den dazugehörigen Usability-Kriterien
(Tabelle 3.1).
Nr.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
Auffälligkeit
Das Bild des Flyers auf der Startseite suggerierte einen Link
Gliederung der Website nicht sofort ersichtlich
Inkongruenz der Information in der Seitenleiste zur Startseite
Unterpunkte der Seitenleiste sind nicht auf einer Ebene
Seite sehr textlastig
HomeButton fehlt
unvorhergesehen Verlinkung auf eine asiatische Seite
Unterpunkt Organisationsstruktur“ macht textlastigen Eindruck
”
der Punkt Veranstaltungen“ ist sehr unübersichtlich
”
tote Links
willkürliche Trennung aktueller und archivierter Veranstaltungen
fehlende Links und Beschreibungen bei Veröffentlichungen“
”
Irritierender Farbwechsel bei ”Preise und Ehrungen”
Kein einheitlicher Detailgrad bei den Ausführungen zu den Preisen
Einführung der Auffächerung in der linken Seitenleiste
Inkonsistenz bei Fachgruppenbeschreibung
Unterpunkte in der Seitenleiste und der Seiteninhalt sind redundant
Inkonsistenzen in der Darstellung der einzelenen Arbeitskreise
Textlastigkeit erschwert das Finden des Kontaktbuttons
Usability-Kriterium
Findability
Kurzzeitgedächtnis, Seitendesign
Konsistenz, Seitendesign
Kurzzeitgedächtnis
Kurzzeitgedächtnis
Umkehrung, Kurzzeitgedächtnis, Abkürzung
Kontrolle
Kurzzeitgedächtnis
Kurzzeitgedächtnis, Findability, Seitendesign
Kontrolle
Kurzzeitgedächtnis, Findability, Seitendesign
Findability
Kurzzeitgedächtnis, Findability, Konsistenz, Seitendesign
Konsistenz
Konsistenz, Findability
Konsistenz
Konsistenz
Konsistenz
Kurzzeitgedächtnis, Findability, Seitendesign, Abkürzung
Tabelle 3.1.: gefundene Auffälligkeiten im Überblick
Den Auffälligkeiten Nr.9, Nr.13, und Nr.19 haben wir besonderes Augenmerk geschenkt, da
die verletzten Usabilitykriterien unserer Definition der Übersichtlichkeit entsprechen.
3.1.2. Userstories
Um konkrete Anwendungsbeispiele für diese drei Auffälligkeiten zu haben, wurden Userstories
zu den betreffenden Unterseiten und zu den oben genannten Nutzergruppen entwickelt.
Studierende
Herr Heinrich möchte nachschauen, ob sein Dozent, von dem er viel Gutes gehört hat, tatsächlich
3 Ehrungen im Bereich der MCI erhalten hat und schon 2005 bei MCI Veranstaltungen aktiv
mitgewirkt hat.
Wissenschaftler
Frau Mendel ist Hochschullehrerin für Softwareentwicklung und Mitglied in der GI. Sie hat
Informationen bezüglich einer kommenden Mensch & Computer“ Tagung erhalten und möchte
”
sich nun auf der Seite genauer über diese informieren.
Praktiker
Herr Schmidt arbeitet bei einer mittelständischen Firma an der Entwicklung einer Spracherkennungssoftware und möchte der Fachgruppe beitreten. Er sucht nach den zugehörigen Informationen sowie nach Kontaktmöglichkeiten zu den zuständigen Personen.
14
3. Darstellung und Analyse der Website
Unsere Hypothesen und Messmethoden wurden aufgrund dieser drei Auffälligkeiten und der
Userstories gebildet. Auf dieser Basis wurde ein alternatives, optimiertes Seitendesign für die
betreffenden Unterseiten erstellt.
3.2. Alternatives Seitendesign
Ehrungen und Preise
Um die Übersichtlichkeit der Aufzählung zu steigern wurde die Hintergrundfarbe angepasst. So
erhielten alle Preise eines Jahres den selben Hintergrund. Zuvor wechselte dieser ohne Berücksichtigung des Inhalts zwischen Grau und Weiß. In Abbildung 3.2 ist der Unterschied zwischen
original (links) und der alternativen Darstellung (rechts) zu erkennen.
Abbildung 3.2.: Alternatives Design: Ehrungen und Preise
Hierzu wurden die HTML-Klassen der HTML-Tabelle genutzt. Dabei erhält eine graue Zeile
die Klasse tr-odd“ und eine weiße tr-even“. Die Klassen selbst wurden nicht verändert sondern
”
”
aus der Originalseite übernommen. Lediglich die Reihenfolge wurde angepasst und so das Ziel
mit möglichst geringem Aufwand erreicht.
Veranstaltungen
Wie im rechten Teil der Abbildung 3.3 dargestellt, wurden die Veranstaltungen nach Jahren
gegliedert und zusammengefasst. Weiterhin sind jeweils nur die Veranstaltungen des aktuell
ausgewählten Jahres sichtbar um die Übersichtlichkeit zu erhöhen.
15
3. Darstellung und Analyse der Website
Abbildung 3.3.: Alternatives Design: Veranstaltungen
In der technischen Umsetzung wurden die Veranstaltungen eines Jahres in einem div-Element
zusammengefasst, welches standardmäßig unsichtbar ist. Durch Anklicken eines Jahres wird das
dazugehörige div-Element sichtbar. Diese Funktion wurde durch JavaScript realisiert. Außerdem
wurden die Farben der Originalseite verwendet um das Design konstant zu halten.
Kontakt
Um die Kontaktaufnahme einfacher und schneller zu gestalten wurde der Kontakt-Link vom
unteren Seitenende in das Hauptmenü auf der linken Seite verschoben (Abbildung 3.4).
Abbildung 3.4.: Alternatives Design: Kontakt
16
3. Darstellung und Analyse der Website
3.3. Hypothesen
Im Rahmen der Untersuchung sollten drei unterschiedliche Hypothesen überprüft werden. Die
Überprüfung erfolgte durch eine empirische Studie, in deren Rahmen drei unterschiedliche Aufgaben und ein Fragebogen von den Versuchspersonen bearbeitet wurden.
Im Laufe der Seitenexploration sind verschiedene Auffälligkeiten zu Tage gekommen. Ob diese
Auswirkungen auf eine schnelle Informationssuche haben, sollte in Hypothese 1 mit Hilfe des
Alternativdesigns überprüft werden. So vermuteten wir, dass sich durch eine farbliche Zusammenfassung eines Jahres (Abbildung 3.2), die Übersichtlichkeit und somit die Bearbeitungsgeschwindigkeit steigern lässt.
Hypothese 1a: Wenn in der Rubrik Ehrungen und Preise“ jeweils alle Preisträger
”
”
eines Jahres grau hinterlegt werden, steigert das die Übersichtlichkeit.“
Eine weitere Steigerung der Übersichtlichkeit und damit der Bearbeitungsgeschwindigkeit erhofften wir uns durch eine Gliederung in Unterpunkte, wie es bei dem Menüpunkt Veranstaltungen“
”
vorgenommen wurde (Abbildung 3.3).
Hypothese 1b: Wenn in der Rubrik Veranstaltungen“ nur die Jahre aufgelistet
”
”
sind, und man mit einem Klick auf das Jahr die zugehörigen Veranstaltungen sieht,
erhöht das die Übersichtlichkeit.“
Zu erwarten wäre auch eine Steigerung der Bearbeitungsgeschwindigkeit durch Abkürzungen
[SP05]. Ein zusätzlicher Kontaktknopf (Abbildung 3.4) in der Seitenleiste erhöht die Sichtbarkeit
([NL06]) und stellt so eine Abkürzung dar.
Hypothese 1c: Wenn ein Menüpunkt Kontakt“ in der linken Seitenleiste integriert
”
”
ist, erleichtert dies eine Kontaktaufnahme.“
Diese drei Subhypothesen stellen das optimierte Design dem Originaldesign in puncto Effektivität (EN ISO 9241-11 [iso]) gegenüber.
Hypothese 1: Die Geschwindigkeit bei der Aufgabenbearbeitung ist bei der ver”
besserten Version höher, als bei der Originalversion.“
Durch die kleinen Verbesserungen der Seiten und den daraus erwarteten Vorteilen (Bearbeitungsgeschwindigkeit und Übersichtlichkeit) erhofften wir einen subjektiven Zuwachs an Professionalität.
Hypothese 2: Die Professionalität der Website wird bei der verbesserten Version
”
höher bewertet, als bei der Originalversion.“
Displaygröße und Steuerung beeinflussen Bearbeitungsgeschwindigkeit und Übersichtlichkeit.
Verbesserungen in diesen Bereichen wirken sich daher umso mehr auf Geräten aus, bei denen
diese Parameter kritisch sind. Bei einem Smartphone ist dies der Fall. Sowohl Displaygröße als
auch Steuerung sind von einem Desktop-PC verschieden.
Hypothese 3: Beim Smartphone wirkt sich die verbesserte Version der Website
”
noch stärker auf die Bearbeitungszeiten und die Bewertung der Professionalität der
Website aus.“
17
3. Darstellung und Analyse der Website
In einem früheren Stadium der Versuchsplanung war angedacht Bedienung und Displaygröße
unter Verwendung von multitouchfähigen Notebooks und eines Smartphone-Emulators getrennt
von einander zu varrieren. Aufgrund der dementsprechend höheren Anforderung an Ressourcen,
welche im Rahmen des Projekts nicht aufzubringen waren, fiel die Entscheidung entgegen dieser
Betrachtungsweise aus. Eine Konfundierung der Einflussgrößen Bedienung“ und Displaygröße“
”
”
konnte in diesem Versuchsdesign nicht verhindert werden.
Zudem sollte es als vierte Aufgabe eine Fragestellung zum Home-Button“ geben. Dies wäre
”
nach Shneiderman eine Variation des Kriteriums der Umkehrung und der Abkürzung gewesen. Da es sich bei diesen Aufgaben jedoch um ein unlösbares Problem auf der Ursprungsseite
gehandelt hätte, konnte diese Idee in der vorliegenden Studie nicht umgesetzt werden.
18
4. Usability Studie
Zur Untersuchung der aufgestellten Hypothesen galt es nun möglichst Geeignete aus der in
Punkt 2.4 und 2.5 dargestellten Methodenvielfalt auszuwählen. Dabei mussten besonders die
begrenzte Zeit und das Fehlen finanzieller Ressourcen beachtet werden. Aufgrund dieser beiden Einschränkungen war schnell klar, dass weder eine theoretische Aufbereitung wie GOMS
(aufgrund der begrenzten Zeit) noch eine expertengestützte Analyse (aufgrund der begrenzten
finanziellen Möglichkeiten) in Frage kamen.
Festgelegt auf eine empirische Annäherung, fiel eine weitere Einschränkung relativ leicht.
Da eine Felduntersuchung an einer Homepage darauf angewiesen ist, dass es eine sehr klar
umrissene Zielgruppe gibt, konnten wir uns für die weiteren Überlegungen auf ein Laborsetting
konzentrieren. Um die Gewinnung der Daten innerhalb kurzer Zeit zu erreichen, wurden also
mehrere möglichst ablenkungsarme Computerarbeitsplätze vorbereitet. Eine Kombination aus
Befragung, Beobachtung und der Erhebung der Zeiten zur Lösung von Aufgaben als direktes
Maß wurde zusammengestellt, um die Nachteile der Einzelmethoden ausgleichen.
4.1. Untersuchungsdesign
Bei unserer Untersuchung handelt es sich um ein 2 X 2 Design. Alle Faktoren wurden als
Between-Subject“-Faktoren realisiert. Bei den experimentell variierten unabhängigen Variablen
”
handelte es sich um die Version der Website (original vs. optimiert), sowie um das verwendete Endgerät (Desktop vs. Handy). Die beiden Versionen der Website werden in Kapitel 3.6
ausführlich beschrieben. Die verwendeten Endgeräte werden im nächsten Abschnitt erläutert.
Beide Variablen wurden vollständig gekreuzt, das heißt es ergaben sich vier unterschiedliche
Versuchsbedingungen. Als abhängige Variable wurde die Usability der Website betrachtet. Das
umfassende Konstrukt Usability wurde mittels unterschiedlicher Variablen operationalisiert. Bei
der ersten abhängigen Variable handelt es sich um die Bearbeitungszeit, welche die Versuchsteilnehmer bei der Bearbeitung dreier unterschiedlicher Aufgaben auf der Website benötigten.
Darüber hinaus wurden unterschiedliche subjektive Urteile der Versuchsteilnehmer bezüglich
der Website mittels eines Fragebogens erfasst. Die Website wurde dabei von den Versuchspersonen auf 7-stufigen Skalen bezüglich Übersichtlichkeit, Professionalität, Einheitlichkeit, optisch
ansprechende Gestaltung und Gefallen insgesamt beurteilt.
Messung der Hypothese 1
Um Hypothese 1 ( Die Geschwindigkeit bei der Aufgabenbearbeitung ist bei der verbesserten
”
Version höher, als bei der Originalversion.“) zu testen, wurden verbesserte Versionen einiger
Unterseiten entwickelt. Dies betraf die Rubriken Ehrungen und Preise“, Veranstaltungen“ und
”
”
die Hauptseite. In der ersten Rubrik wurde die farbliche Hinterlegung konsistent zu den Jahren
verändert, in der zweiten wurden die Informationen in Unterpunkte zusammengefasst und es
19
4. Usability Studie
wurde der Hauptseite ein Kontakt-Button“ in der linken Seitenleiste hinzugefügt. So manipuliert
”
wurden nun die folgenden drei Aufgaben auf ihre Bearbeitungsgeschwindigkeit hin untersucht.
Die Aufgaben begannen jeweils auf der Startseite.
1. Finden Sie heraus, in welchem Jahr Thomas Schildhauer mit dem Designpreis ausgezeich”
net wurde.“
2. Finden Sie heraus, wo im Jahre 2005 die Mensch-Computer Messe stattgefunden hat.“
”
3. Nehmen Sie Verbindung zur Geschäftsführung auf.“
”
Messung der Hypothese 2
Bei Hypothese 2 (Die Professionalität der Website wird bei der verbesserten Version höher
bewertet, als bei der Originalversion“) ging es uns um die subjektive Einschätzung der Professionalität der beiden Seiten. Diese wurde mittels eines Fragebogens (siehe Anhang) verglichen.
Messung der Hypothese 3
Um die Hypothese 3 ( Beim Smartphone wirkt sich die verbesserte Version der Website noch
”
stärker auf die Bearbeitungszeiten und die Bewertung der Professionalität der Website aus.“) zu
testen, wurden die Aufgaben beider Seitenversionen sowohl auf einem Desktop-PC als auch auf
einem Smartphone getestet.
4.2. Technische Umsetzung der Zeiterfassung
4.2.1. Verwendete Geräte
Für diese Studie werden zwei Arten von Geräten verwendet: Destoprechner mit installiertem
Windows XP und einem 22 Zoll TFT Bildschirm, sowie Smartphones mit Android Betriebssystem und einer Bildschirmdiagonale von 9,4 cm mit einer Auflösung von 480 x 800 Pixeln.
4.2.2. Problemstellung Zeitmessung
Für die Messung der Zeit, welche die Probanden benötigen, um die Aufgaben durchzuführen, gibt
es verschiedene Vorgaben, die erfüllt werden müssen. Die Zeitmessung muss beginnen, sobald der
Proband die Aufgaben startet. Sie soll bis zum Ende der Aufgabe laufen und muss anschließend
gespeichert werden, ehe die nächste Aufgabe gestartet wird. Zudem muss die Zeitmessung im
Millisekundenbereich erfolgen, um eindeutige Ergebnisse zu liefern, sowie jedem Proband einzeln
zugeordnet werden können. Die Ergebnisse müssen für die weitere Verarbeitung und Auswertung
gespeichert werden. Dies muss sowohl für den Desktoprechner, als auch für das Smartphone
umgesetzt werden.
4.2.3. Überlegungen zur Zeitmessung
Es ist zu beachten, dass Desktoprechner und Smartphones verschiedene Betriebssysteme nutzen.
Die erste Überlegung für die Umsetzung der Zeitmessung war es, ein externes Stoppuhrprogramm
zu verwenden. Hierbei wäre eine Stoppuhr in Java implementiert worden, welche automatisch
20
4. Usability Studie
beim Starten des Browsers und nach Beenden der Aufgabe die Zeit erfasst. Es bestand das
Problem, dass mit dieser Methode nur der Start des Browsers, jedoch nicht das Beenden der
einzelnen Aufgaben registriert werden konnte. Zudem konnte dieses Verfahren nicht auf dem
Smartphone umgesetzt werden.
Eine weitere Überlegung war die Zeit mittels Keylogger zu erfassen. Die Zeit sollte vom Start
der Aufgabe bis zur richtigen Eingabe des Probanden von einem Keylogger registriert und im
Anschluss gespeichert und ausgewertet werden. Diese Umsetzung war ebenfalls auf dem Desktoprechner möglich. Das Smartphone mit dem Android Betriebssystem besitzt jedoch keinen internen Keylogger und musste somit an einen Desktoprechner mit installiertem Android SDK
angeschlossen werden. Im Debugmodus war es möglich Logs zu erfassen. Die Nutzereingaben
wurden hierbei jedoch zu ungenau geloggt.
Zur Diskussion stand, eine der oben beschriebenen Methoden für den Desktoprechner umzusetzen und das Smartphone separat mit Kamera zu erfassen, wobei die Eingaben und Aufgaben
von Hand ausgewertet werden sollten. Da dies bei einer großen Anzahl an Probanden nicht
durchführbar war, wurde dieser Gedanke jedoch wieder verworfen. Schließlich einigten wir uns
auf die Umsetzung in HTML und JavaScript, da hierbei eine korrekte Zeiterfassung und einfache
Umsetzung erfolgt.
4.2.4. Umsetzung der Zeitmessung
Es wurde eine HTML Seite entworfen, welche als
Wizard durch die Aufgaben führt. Hierfür wurde
eine JavaScript-Stoppuhr
in die Seite implementiert.
Nach dem Seitenaufruf öffnet sich ein Fenster, welches den Probanden auffordert seine Kennung für
die Aufgaben einzugeben,
um die Messergebnisse den
Fragebögen zuordnen zu
können. Nach der Eingabe
und Bestätigung wird die
Kennung gespeichert und
die erste Aufgabenstellung
eingeblendet. Wird diese
Abbildung 4.1.: Proband - Desktop
bestätigt, öffnet sich ein
IFrame, in welchem die GISeite geladen, sowie die Stoppuhr gestartet wird. Der IFrame wird benötigt um die gespeicherten
Daten wie Kennung oder Zeitmessungen, ohne Weiterreichen im Browser oder Speichern in Cookies, zu sichern.
Der IFrame, welcher erstellt wurde, erhält eine eindeutige ID. Über diese ist er in der HTMLSeite ansprechbar. Um festzustellen, wann der Proband die Aufgabe beendet hat, wurde versteckt
an der korrekten Stelle in der GI-Seite der JavaScript-Befehl zum Schließen des IFrames und
21
4. Usability Studie
Stoppen der Uhr integriert. Somit ist die korrekte Erfassung der Zeiten beim Beenden der Aufgabe gewährleistet. Folgend wird die nächste Aufgabenstellung eingeblendet und das Prozedere
wiederholt. Wurden die Aufgaben beendet, wird eine E-Mail generiert, welche die Kennung,
die verwendete Platform und die benötigte Zeit beinhaltet. Der Proband muss diese nun an
eine vorgefertigte Adresse senden. Die E-Mails werden schließlich mittels eines Java-Programms
ausgelesen und die erfassten Zeiten für die Analyse vorbereitet.
4.2.5. Vorteile und Nachteile
Die Umsetzung mit HTML und JavaScript im Browser beinhaltet viele Vorteile. Man erhält
durch HTML und JavaScript eine kompakte und mobile Anwendung. Bei zwei externen Programmen besteht die Möglichkeit der fehlerhaften Zeiterfassung, da unterschiedliche Ladezeiten
der Programme zu Ungenauigkeiten führen, sowie das Beenden der Aufgaben nicht automatisiert erfasst werden kann. Ebenso besteht die Möglichkeit leicht weitere Zusatzfunktionen mittels
JavaScript in den Wizard zu integrieren und diesen zu erweitern. Zudem werden für die Durchführung der Tests keine Mitarbeiter benötigt, da diese automatisiert abläuft. Der größte Vorteil
bei dieser Umsetzung ist jedoch die Flexibilität der Anwendung. Die Umsetzung funktioniert sowohl auf dem Desktoprechner, als auch auf dem Smartphone, ohne Anpassungen für das jeweilige
Betriebssystem vornehmen zu müssen. Es ist jedoch auch zu beachten, dass Browser nicht, beziehungsweise nur schwer, erlauben Daten auf den Geräten abzuspeichern. Somit musste das
Mailverfahren angewendet werden, um die gewonnenen Daten zu sichern.
4.3. Fragebogen
Im Anschluss an den praktischen Teil des Experiments sollten verschiedene Informationen mithilfe eines Fragebogens erfasst werden, unter anderem demographische Daten, sowie subjektive
Ratings bezüglich der untersuchten Website. Der Fragebogen wurde als Webfragebogen implementiert. Im ersten Abschnitt des Fragebogens werden die Teilnehmer um allgemeine Angaben
zur Person gebeten. Erfasst wird dabei Geschlecht, Alter, höchste abgeschlossene Ausbildung
und momentan ausgeübter Beruf/Studiengang des Versuchsteilnehmers. Außerdem wird erfasst,
ob von der Versuchsperson im Alltag eine Sehhilfe benutzt wird, sowie um eine Selbsteinschätzung der Sehschärfe, gegebenenfalls mit Sehhilfe, gebeten. Im nächsten Abschnitt werden die
Versuchsteilnehmer gebeten anzugeben, wie viele Stunden sie an einem typischen Tag am PC
und im Internet verbringen und ob die Teilnehmer in der Vergangenheit aktiv an der Gestaltung
einer Website mitgewirkt haben. Darüber hinaus wird nach Vorerfahrungen im Umgang mit
touchfähigen Geräten (Smartphones, MP3-Player . . . ) gefragt. Im dritten Teil des Fragebogens
sollen die Versuchsteilnehmer die Website anhand von Ratingskalen bewerten. Die siebenstufigen Skalen erfassen die Dimensionen Übersichtlichkeit, Professionalität, Einheitlichkeit, optisch
ansprechende Gestaltung und Gefallen insgesamt. Im Anschluss wird um die Benennung der
leichtesten und schwersten Aufgabe aus dem experimentellen Teil des Versuchs gebeten, inklusive einer kurzen Begründung. Im letzten Teil des Fragebogens, wurden die Versuchsteilnehmer
gebeten Verbesserungsvorschläge bezüglich der Website zu machen und zwar anhand der Kategorien Gestaltung des Layouts, Effizienz bei der Benutzung, sowie einer Kategorie Sonstiges. Auf
freiwilliger Basis können die Versuchsteilnehmer nun abschließend ihre Emailadresse angeben,
22
4. Usability Studie
um über die Ergebnisse des Experiments informiert zu werden. Die Beantwortung des gesamten
Fragebogens nimmt etwa 5-10 Minuten in Anspruch.
4.4. Beschreibung der Stichprobe
An der Studie nahmen insgesamt 60 Personen, größtenteils Studierende der eigenen Universität,
teil. Es handelte sich um 25 Männer und 35 Frauen im Alter von 19 bis 36 Jahren (M= 24.5,
SD = 3.4). Alle Versuchsteilnehmer nahmen freiwillig an der Untersuchung teil. Psychologiestudierende erhielten für die Teilnahme an dem Versuch 0.5 Versuchspersonenstunden gutgeschrieben.
4.5. Untersuchungsablauf
Jeder Proband wurde einzeln getestet. Zunächst erhielten die Teilnehmer eine kurze
mündliche Erläuterung, in der ihnen mitgeteilt wurde, dass es sich um eine Studie der
Usability einer Website handelt. Danach wurden sie gebeten, die Versuchsanleitung (siehe
Appendix) durchzulesen. Android-Probanden
erhielten außerdem eine kurze Demonstration
der Gestenkontrolle eines Smartphonebrowsers (Multitouch-Zoom, Scrollen durch Wischen des Fingersüber den Display, sowie kli”
cken“ von Inhalten) an einer Beispielwebsite. Vor dem Beginn der eigentlichen Untersuchung konnte sich die Probanden mit der
Website vertraut machen, indem sie eine Beispielaufgabe Finden Sie das Mitteilungsblatt,
”
Ergonomie und Informatik“ bearbeiteten. Danach sollten sie die Testaufgaben (siehe Abschnitt 4.1) bearbeiten. Durch das Klicken auf
die Lösung einer Aufgabe wurde die jeweils
Abbildung 4.2.: Proband - Android
nächste Aufgabenstellung aufgerufen (siehe
Abschnitt 4.2.4). Nach der Lösung der dritten
Aufgabe füllten alle Probanden einen Fragebogen zur Beurteilung der Website(siehe Abschnitt
4.3, Appendix) an einem Desktop-PC aus. Jeder Proband bekam außerdem einen Versuchspersonencode, mit denen es möglich war, seine Bearbeitungszeiten und Fragebogendaten eindeutig
einander zuzuordnen.
23
4. Usability Studie
4.6. Ergebnisse
4.6.1. Qualitative Ergebnisse
Versuchsleiterprotokolle
Während der Durchführung der Studie haben wir als Versuchsleiter verschiedene Beobachtungen über die von den Probanden verwendeten Suchstrategien gemacht. Android-Probanden verwendeten mehr Suchmechanismen als Desktop-Nutzer, um die fehlende Übersichtlichkeit eines
kleinen Smartphone-Bildschirms zu kompensieren. Die Mühe- und Zeitkosten für das Zoomen
und Scrollen an einem Smartphone sind größer, als an einem Desktop-PC. Teilweise muss um ein
Vielfaches öfter gezoomt und gescrollt werden, als bei der gleichen Aufgabe am Desktop. Die Probanden versuchten daher, das Gesuchte einer Oberkategorie zuzuordnen, um dann nach dieser
auf der Website zu suchen, anstelle sich den gesamten Inhalt der Seite durchzulesen. So wurde bei den Android-Probanden trotz mündlicher Erläuterung, die Lösung einer Aufgabe müsse
nicht wie ein als Link gekennzeichneter Text aussehen, bei der Beispielaufgabe nach einem PDFDokument oder einem Link, anstelle nach dem reinen Text Mitteilungsblatt, Ergonomie und
”
Informatik“, gesucht. Manche Probanden klickten sogar auf Dokumente oder Links mit ähnlichen Namen, da diese für sie zu der gleichen Lösungskategorie gehörten. Die Desktop-Probanden
fanden hingegen die Lösung der Aufgabe schneller und mit weniger Fehlklicks.
Nutzermeinugen
Als qualitative Auswertung haben wir auch die Nutzer gefragt, was sie in den Bereichen Gestaltung und Effizienz ändern würden. So wurde bei beiden Versionstypen die farbliche Gestaltung
bemängelt und nach mehr Veranschaulichungen verlangt. Die Seiten wurden mehrfach als ste”
ril“, bieder“ , altmodisch“ oder langweilig“ empfunden. In der optimierten Seitenversion wurde
”
”
”
sehr häufig der Wunsch geäußert, den Menüpunkt Ehrungen und Preise“ (Aufgabe 1) genauso
”
zu untergliedern, wie es bei Veranstaltungen“ (Aufgabe 2) der Fall gewesen war.
”
In puncto Effizienz fiel die Textlastigkeit auch den Nutzern auf und wurde häufig bemängelt.
Die optimierte Seite wurde häufig als logisch“ und professionell“ bezeichnet, wobei diese Be”
”
zeichnungen auch zweimal bei der Originalversion verwendet wurden. Eine Untergliederung in
übersichtlichere Kategorien wäre ebenso wünschenswert gewesen, wie ein Navigationspfad um
den aktuellen Aufenthaltsort auf der Seite besser bestimmen zu können. Abschließend noch die
Positionen einiger Nutzer über die Lage des Kontaktbuttons, wobei sich hier die Standpunkte
Gewohnheit und Effizienz gegenübertreten. Einige Nutzer waren der Meinung, dass man den
Kontaktbutton immer in der Bodenleiste erwarten würde, da dies so üblich sei, wohingegen eine
andere Position lautete:
Der Kontakt“-Button war am unteren Rand der Seite platziert, was meiner Meinung nach
”
”
ungünstig ist, da man zunächst auf die Leiste auf der linken Seite der Startseite schaut [...].“
24
4. Usability Studie
4.6.2. Quantitative Ergebnisse
Auswertung der Ratingskalen
Da die Ergebnisse der Ratingskalen nur ordinal vorlagen, mussten die Daten mit einem nichtparametrischen Test ausgewertet werden. Verwendet wurde der Mann-Whitney-U-Test. Die Mediane
geben hierbei die Richtung der Effekte an, während das Ergebnis des U-Tests anzeigt, ob der
Unterschied signifikant ist.
ˆ Ergebnisse Gesamtstichprobe:
Übersichtlich
Professionell
Einheitlich
Ansprechend
Gesamteindruck
Summe mit Gesamt.
Summe ohne Gesamt.
Original (N = 30)
Optimiert (N=30)
U-Test (einseitig)
3
3,5
4
3
3
16,5
13
4
4
4
3
3,5
19
15
0.008*
0.031*
0.087+
0.291
0.145
0.061+
0.044*
Tabelle 4.1.: Ergebnisse Gesamtstichprobe
Die Bewertung der Übersichtlichkeit und der Professionalität fielen über die gesamte Stichprobe bei der optimierten Variante signifikant höher aus. Unter den weiteren Rating-Skalen
fällt lediglich noch die Einschätzung der einheitlichen Gestaltung auf, die über die Gesamtstichprobe tendenziell höher eingestuft wird. Nimmt man die Summe aller Ratingskalen,
findet man ohne die sehr allgemeine Frage nach dem Gesamteindruck ebenfalls einen signifikanten Unterschied; nimmt man diese Variable hinzu, entschwindet der Effekt in den
Bereich des Tendenziellen.
ˆ Ergebnisse Desktop:
Übersichtlich
Professionell
Einheitlich
Ansprechend
Gesamteindruck
Summe mit Gesamt.
Summe ohne Gesamt.
Original (N = 15)
Optimiert (N=16)
U-Test (einseitig)
3
4
4
2
4
17
13
4
4
4
3
4
19,5
15,5
0.034*
0.046*
0.436
0.065+
0.208
0.102
0.088+
Tabelle 4.2.: Ergebnisse Desktop
25
4. Usability Studie
ˆ Ergebnisse Android:
Übersichtlich
Professionell
Einheitlich
Ansprechend
Gesamteindruck
Summe mit Gesamt.
Summe ohne Gesamt.
Original (N = 15)
Optimiert (N=14)
U-Test (einseitig)
2
3
3
3
3
15
2
4
4
4
2(!)
3
18,5
14,5
0.079+
0.206
0.041*
0.015*
0.260
0.261
0.221
Tabelle 4.3.: Ergebnisse Android
Betrachtet man die Medien einzeln, findet man die Befunde aus der Gesamtstichprobe auf
dem Desktop bestätigt. Auf den mobilen Geräten findet sich ein tendenzieller Unterschied
hinsichtlich der Bewertung der Übersichtlichkeit. Diametral gehen die Ergebnisse für die
Bewertung der optisch ansprechenden Gestaltung auseinander. Während sich innerhalb
der Teilstichprobe Desktop“ eine mit der Optimierung tendenziell steigende Bewertung
”
findet, sinkt die Bewertung auf den Mobiltelefonen sogar signifikant ab. Der in der Gesamtstichprobe nur als tendenziell gefundene Vorsprung der optimierten Version hinsichtlich der
Bewertung als einheitlich, tritt in der Android-Variante signifikant zu Tage.
Auswertung der Zeitmessungen
Die Ergebnisse der Zeitmessung liegen metrisch skaliert vor, weshalb zum Vergleich der Mittelwerte (Abbildung 4.3) ein T-Test herangezogen werden konnte.
ˆ Ergebnisse Gesamtstichprobe (N=60 bzw. 59, 30 vs. 30 bzw. 29)1 :
Aufgabe 1
Aufgabe 2
Aufgabe 3
µ1
µ2
T
df
Sig.
115,816
50,485
73,178
74,470
20,420
29,847
2,270
3,187
3,470
58
35,257
50,597
0,027*
0,003**
0,001***
Tabelle 4.4.: Zeitmessungen - Ergebnisse Gesamtstichprobe
1
Bei einer Versuchsperson kam es bei der Zeitmessung bei Aufgabe 3 zu einem technischen Fehler.
26
4. Usability Studie
ˆ Ergebnisse Desktop (N=31, 15 vs. 16):
Aufgabe 1
Aufgabe 2
Aufgabe 3
µ1
µ2
T
df
Sig.
78,364
21,047
44,427
43,908
11,468
9,513
3,919
2,323
3,079
19,904
29
16,153
0,001***
0,034*
0,007**
Tabelle 4.5.: Zeitmessungen - Ergebnisse Desktop
ˆ Ergebnisse Android (N=29 bzw. 28, 15 vs. 14 bzw. 13 vgl. Fußnote 1):
Aufgabe 1
Aufgabe 2
Aufgabe 3
µ1
µ2
T
df
Sig.
153,268
79,923
101,929
118,465
32,535
54,874
1,338
3,432
2,465
27
16,930
26
0,192
0,003**
0,021*
Tabelle 4.6.: Zeitmessungen - Ergebnisse Android
Sowohl in der Gesamtstichprobe als auch in der Desktopstichprobe fand sich über alle Aufgaben
hinweg eine signifikante Steigerung der Lösungsgeschwindigkeit. In der Teilstichprobe zeigte sich
dieses Ergebnis für die Aufgaben 2 und 3. Die Suche nach dem Auszeichnungsjahr von Thomas
Schildhauer wurde in beiden Designs in einer vergleichbaren Geschwindigkeit gelöst.
Schließlich untersuchten wir in einer Varianzanalyse den Einfluss von Endgerät und Design und
die Stärke der Wechselwirkung der beiden Faktoren in Bezug auf die Lösungsgeschwindigkeit.
27
4. Usability Studie
ˆ Ergebnisse ANOVA:
Sig.
part. Eta2
Aufgabe 1
Aufgabe 2
Aufgabe 3
0,000***
0,000***
0,000***
0,359°°°
0,354°°°
0,294°°
Aufgabe 1
Aufgabe 2
Aufgabe 3
0,012*
0,000***
0,157
0,108°
0,218°°
0,209°°
Aufgabe 1
Aufgabe 2
Aufgabe 3
0,990
0,011*
0,602
0,000
0,109°
0,006
Endgerät
Design
Endgerät * Design
Tabelle 4.7.: Zeitmessungen - Ergebnisse ANOVA
Wie man an den Werten sehen kann, hatte das Endgerät einen sowohl höchstsignifikanten,
als auch starken Effekt auf die Bearbeitungszeit aller Aufgaben (bei Aufgabe 3 im Grenzbereich
zwischen mittlerer und hoher Effektstärke). Auch für das Design konnten nennenswerte Effektstärken nachgewiesen werden, wobei der Effekt auf Aufgabe 3 nicht signifikant ist. Aufgabe
1 weist einen, wenn auch kleinen, so doch signifikanten Effekt auf, während der höchstsignifikante Effekt des Designs auf die Lösungsgeschwindigkeit von Aufgabe 2 im mittleren Bereich
angesiedelt ist.
2
°°°hohe, °°
mittlere,° kleine Effektstärke
28
4. Usability Studie
Abbildung 4.3.: Vergleich der Mittelwerte der Bearbeitungszeiten
Einflüsse von weiteren erhobenen Faktoren und Einschränkungen für Teilgruppen
Neben den unmittelbar zur Hypothesenprüfung notwendigen wurden noch weitere Faktoren
erhoben. Bei einer Überprüfung der Varianzaufklärung konnte ein Einfluss von SmartphoneErfahrung, dem Tragen einer Brille und der täglichen Internetnutzungsdauer festgestellt werden.
Aufgrund der geringen Stichprobengröße waren detaillierte und methodisch vertretbare Analysen der Teilstichproben jedoch fast nicht möglich. Wo zumindest Tendenzen ermittelt werden
konnten, stellten die Einflussfaktoren aufgrund der zufälligen Verteilung der Probanden über die
4 Versuchsbedingungen die Ergebnisse der Studie jedoch nicht in Frage. Geschlecht, Sehkraft, Alter, tägliche PC-Nutzungsdauer und Erfahrungen der Teilnehmer im Bereich Webdesign hatten
keinen relevanten Einfluss auf das Abschneiden der Teilnehmer in unserer Untersuchung.
29
4. Usability Studie
4.7. Interpretation und Bewertung
Im Folgenden sollen die gewonnenen Ergebnisse herangezogen werden, um die in Punkt 3.3
beschriebenen Hypothesen zuüberprüfen.
Hypothese 1a: Wenn in der Rubrik Ehrungen und Preise“ jeweils alle Preisträger
”
”
eines Jahres grau hinterlegt werden, steigert das die Übersichtlichkeit.“
Hypothese 1b: Wenn in der Rubrik Veranstaltungen“ nur die Jahre aufgelistet
”
”
sind, und man mit einem Klick auf das Jahr die zugehörigen Veranstaltungen sieht,
erhöht das die Übersichtlichkeit.“
Hypothese 1c: Wenn ein Menüpunkt Kontakt“ in der linken Seitenleiste integriert
”
”
ist, erleichtert dies eine Kontaktaufnahme.“
Die erste Hypothese lautet zusammengefasst:
Hypothese 1: Die Geschwindigkeit bei der Aufgabenbearbeitung ist bei der ver”
besserten Version höher, als bei der Originalversion.“
Die gewonnenen Daten bestätigen Hypothese 1. In der Gesamtstichprobe zeigen sich signifikante
Unterschiede in den Mittelwerten aller drei Aufgaben, wobei in allen drei Fällen die Probanden,
die mit der optimierten Version der Website gearbeitet haben, die Aufgaben in kürzerer Zeit
gelöst haben. Die Varianzanalyse zeigt zudem, dass die Kontrolle des Endgerätes bei Aufgabe
1 und 2 einen bedeutsamen Anteil der Varianz aufklärt, sowie einen in dieser Stichprobe nicht
signifikanten Aufklärungsanteil auch bei Aufgabe 3 vermuten lässt.
Hypothese 2: Die Professionalität der Website wird bei der verbesserten Version
”
höher bewertet, als bei der Originalversion.“
Hypothese 2 kann anhand der vorliegenden Ergebnisse ebenfalls als bestätigt angesehen werden.
Die Professionalität wurde in der optimierten Version durch die Versuchspersonen signifikant
besser bewertet.
Hypothese 3: Beim Smartphone wirkt sich die verbesserte Version der Website
”
noch stärker auf die Bearbeitungszeiten und die Bewertung der Professionalität der
Website aus.“
Überraschenderweise blieben die Belege für Hypothese 3 aus. Während sich beim Betrachten der
Ergebnisse der Ratingskalen sowohl in der Gesamtstichprobe, als auch in der am Desktop durchgeführten Teilstichprobe signifikante Zuwächse feststellen lassen, ist der Zuwachs am Median
bemessen in der Android-Stichprobe zwar größer, jedoch nicht signifikant. Betrachtet man die
Lösungszeiten für die Aufgabenbearbeitung, zeigen sich tatsächlich enorme Geschwindigkeitszuwächse, diese finden sich aber ebenso stark in der Desktop-Stichprobe. Die in Aufgabe 1 signifikant ausfallende Differenz, blieb auf dem Mobiltelefon im nichtsignifikanten Bereich. Einzig bei
Aufgabe 2 ließe sich ein leichter Vorsprung für das Android-basierte Versuchsdesign vermuten,
da die gefundenen Unterschiede dort etwas größer ausfallen (59,3% Geschwindigkeitszuwachs im
Vergleich zu 45,5% in der Desktopvariante) und sie auch ein höheres Signifikanzniveau erreichen
(0,003 im Vergleich zu 0,034).
30
5. Ausblick
Basierend auf einer Analyse der Seiten der Fachgruppe MCI haben wir für drei ausgewählte Aspekte alternative Gestaltungsvorschläge entwickelt. Die neu gestalteten Seiten sollten die
Übersichtlichkeit erhöhen, Abkürzungen erlauben und die Sichtbarkeit relevanter Information
erhöhen.
Mit unserer empirischen Studie konnten wir exemplarisch zeigen, dass bereits die vorgenommenen minimalen Änderungen im Design der Seiten der Fachgruppe zu signifikant schnelleren
Bearbeitungszeiten bei verschiedenen Suchaufgaben führen können. Dieser Effekt zeigt sich sowohl für die Interaktion am Desktop, als auch – noch deutlicher – für die Interaktion mit einem
Smartphone. Gleichzeitig wurden die neu gestalteten Seiten als professioneller wahrgenommen.
Allerdings scheint es uns nicht unbedingt sinnvoll, das Design der Seiten der Fachgruppe
isoliert von den Seiten der GI und der übrigen Fachgruppen zu optimieren. Damit alle Fachgruppen sich auf vergleichbare Art präsentieren können, wäre es unserer Meinung nach besser,
auf ein übergreifendes Content Management System umzusteigen. Damit wäre die Konsistenz
der Webauftritte gewährleistet.
31
Abbildungsverzeichnis
3.1.
3.2.
3.3.
3.4.
Startseite des Fachbereichs MCI . . . . .
Alternatives Design: Ehrungen und Preise
Alternatives Design: Veranstaltungen . . .
Alternatives Design: Kontakt . . . . . . .
.
.
.
.
11
15
16
16
4.1. Proband - Desktop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Proband - Android . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3. Vergleich der Mittelwerte der Bearbeitungszeiten . . . . . . . . . . . . . . . . . .
21
23
29
32
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Tabellenverzeichnis
3.1. gefundene Auffälligkeiten im Überblick . . . . . . . . . . . . . . . . . . . . . . . .
14
4.1.
4.2.
4.3.
4.4.
4.5.
4.6.
4.7.
25
25
26
26
27
27
28
Ergebnisse Gesamtstichprobe . . . . . . . . .
Ergebnisse Desktop . . . . . . . . . . . . . . .
Ergebnisse Android . . . . . . . . . . . . . . .
Zeitmessungen - Ergebnisse Gesamtstichprobe
Zeitmessungen - Ergebnisse Desktop . . . . .
Zeitmessungen - Ergebnisse Android . . . . .
Zeitmessungen - Ergebnisse ANOVA . . . . .
33
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Literaturverzeichnis
[Bei02]
Beier, Markus: Usability. Nutzerfreundliches Web-Design. Springer (X.media.press),
2002
[GS08]
Göritz, Anja ; Stieger, Stefan: The high-hurdle technique put to the test: Failure
to find evidence that increasing loading times enhances data quality in Web-based
studies. In: Behavior Research Methods 40 (2008), S. 322–327
[iso]
http://de.wikipedia.org/wiki/ISO_9241
[KPR04] Kappel, Gerti ; Pröll, Birgit ; Reich, Siegfried: Web Engineering - Systematische
Entwicklung von Web-Anwendungen. 1. Auflage. Heidelberg : dpunkt.verlag GmbH,
2004
[NL06]
Nielson, Jakob ; Loranger, Hoa: Web Usability. Addiso, 2006
[Pus09]
Puscher, Frank: Web-Usability. Strategien, Werkzeuge und Tipps für mehr Benutzerfreundlichkeit. Bd. 1. Aufl. Heidelberg : dpunkt-Verl., 2009
[SP05]
Shneiderman, Ben ; Plaisant, Catherine: Designing the user interface. Pearson
Education, 2005
[Sto06]
Stowasser, Sascha: Methodische Grundlagen der softwareergonomischen Evaluationsforschung / Universität Karlsruhe. 2006. – Forschungsbericht
[Tul08]
Tullis, Bill Tom; A. Tom; Albert: Measuring the user experience. Collecting, analyzing, and presenting usability metrics. Amsterdam : Elsevier/Morgan Kaufmann,
2008
[usa]
http://www.usereffect.com/topic/25-point-website-usability-checklist
[w3c]
http://www.w3.org/TR/2008/REC-mobile-bp-20080729
[wik]
http://wiki.infowiss.net/Interface_Design
34
A. Instruktionstext-Teilnehmer
35
A. Instruktionstext-Teilnehmer
Liebe Teilnehmerin, lieber Teilnehmer,
im Rahmen der Veranstaltung „Mensch-Computer-Interaktion: Usability-Studie“ beschäftigen wir uns mit der Frage
der Benutzerfreundlichkeit von Programmen, Geräten und Websites. Aus diesem Grund möchten wir Sie bitten, an
einem kleinen Experiment teilzunehmen. Die Teilnahme dauert in etwa 10 - 15 Minuten.
Ziel dieser Untersuchung ist es, eine Website zu beurteilen und konkrete Verbesserungsvorschläge zu entwickeln.
Zu diesem Zwecke möchten wir Sie bitten, zunächst drei kleine Aufgaben auf dieser Website zu erledigen. Für die
Aufgabenbearbeitung benötigen Sie keine besonderen Computer-Kenntnisse. Anschließend werden wir Sie bitten,
die Website auf einem Fragebogen bezüglich verschiedener Kriterien zu bewerten.
Ihre Rechte:
Sämtliche ihre Person betreffenden Daten werden getrennt von den erhobenen Daten aufbewahrt, sodass lhre
Anonymität gewahrt bleibt. Sie können die Untersuchung jederzeit, auch ohne Angabe von Gründen, von sich aus
abbrechen. Gerne werden Sie nach Ende der Studie über die Ergebnisse der Untersuchung informiert. Bei Fragen
und Unklarheiten wenden Sie sich bitte jederzeit an den Versuchsleiter.
Ablauf:
1.
Zunächst bilden Sie bitte Ihren persönlichen Versuchspersonencode, der zur anonymisierten
Weiterverarbeitung der Daten dient. Er setzt sich folgendermaßen zusammen:
Anfangsbuchstabe
Ihres Geburtsorts
2.
Letzter Buchstabe
Ihres eigenen
Vornamens
Anfangsbuchstabe
des Vornamens der
Mutter
Endbuchstabe des
Vornamens der
Mutter
Das eigentliche Experiment beginnt mit einer Beispielaufgabe. Nach dieser Beispielaufgabe werden
sie gebeten, nacheinander drei unterschiedliche Aufgaben zu bearbeiten. Bitte beachten Sie bei der
Aufgabenbearbeitung folgende Punkte:
 Bitte versuchen Sie, die Aufgaben in möglichst kurzer Zeit abzuschließen. Die Messung der
Bearbeitungszeit beginnt, wenn Sie das Fenster mit der Aufgabenstellung gelesen haben und dies mit
einem Mausklick auf den OK-Button bestätigen. Die Zeitmessung endet, wenn sie mit der Maus auf die
richtige Antwort klicken.
 Benutzen Sie bei der Bearbeitung der Aufgaben bitte NUR die Maus. Die Browser-Suchfunktion steht Ihnen
bei der Aufgabenbearbeitung NICHT zur Verfügung.
 Sollten Sie während der Bearbeitung die Aufgabenstellung vergessen haben, fragen Sie einfach den
Versuchsleiter. Er/Sie wird Ihnen gerne weiterhelfen.
 Nach der Bearbeitung der Aufgaben erscheint ein E-Mail-Fenster mit allen Messwerten. Diese E-Mail wird
der Versuchsleiter absenden.
3.
Anschließend bewerten Sie bitte die Website anhand unseres Online-Fragebogens.
Vielen Dank für Ihre Teilnahme!
36
B. Leitfaden-Versuchsleiter
37
B. Leitfaden-Versuchsleiter
Leitfaden
1) Versuchspersonenrekruitierung
 Psychologiestudenten erhalten für die Teilnahme 0.5 Versuchspersonenstunden. Die
Stunden werden online im VPMS gutgeschrieben (falls Studenten dort Mitglied sind, wenn
nicht, bitte extra notieren!). Die Stunden können nach frühestens 2 Wochen im Sekretariat
bei Frau Musterfrau (anonymisiert) (Allgemeine Psychologie) abgeholt werden.
 Vorabinformation für Versuchspersonen (z.B. für Email): „Im Rahmen der Veranstaltung
„Mensch-Computer-Interaktion: Usability-Studie“ beschäftigen wir uns mit der Frage der
Benutzerfreundlichkeit von Programmen, Geräten und Websites. Aus diesem Grund möchten
wir Sie bitten, an einem kleinen Experiment teilzunehmen. Ziel dieser Untersuchung ist es,
eine Website zu beurteilen und konkrete Verbesserungsvorschläge für diese Website zu
entwickeln. Die Teilnahme dauert in etwa 10 - 15 Minuten.“
 Mögliche Räume:
o
Musterraum (anonymisiert)
o
Musterraum (anonymisiert)
2) Vorbereitung (ca. 10 – 15 Minuten vor Eintreffen der Versuchsperson)
 PC auswählen (möglichst „ruhiges Eck“)
 Funktionsfähigkeit der Maus überprüfen
 ZIP-Ordner auf Desktop speichern und entpacken
 „Originalversion“ und „verbesserte Version“ auf Funktion überprüfen
 Fenster für den Fragebogen öffnen
 Fenster mit korrekter Version öffnen („Originalversion“ versus „verbesserte Version“)
 Instruktion und Stift bereitlegen
3) Durchführung
 Teilnehmer begrüßen und für Teilnahme danken
 Teilnehmer bitten, die Instruktion zu lesen und Versuchspersonencode einzutragen
 Falls nötig bei Beispielaufgabe helfen
 Versuchsdurchlauf beobachten, Besonderheiten notieren
 Email absenden
 Fenster mit Fragebogen öffnen; auf Nachfrage erklären, dass Website aufgrund „Ersten
Eindrucks“ bewertet werden soll und wir kein fundiertes „Globalurteil“ erwarten
 Teilnehmer danken und verabschieden
4) Nachbereitung
 Auf Instruktion Datum und verwendete Version („Originalversion“ versus „verbesserte
Version“) eintragen
 Instruktion zusammen abheften mit eventuellen Notizen zu Besonderheiten bei
Untersuchungsablauf
 Information an Kommilitonen, wie viele Personen bereits unter welcher Bedingung getestet
wurden
38
C. Fragebogen
39
C. Fragebogen
40
C. Fragebogen
41
C. Fragebogen
42
C. Fragebogen
43
C. Fragebogen
44