User Interfaces 2 - auf ThomasKaelin.ch
Transcrição
User Interfaces 2 - auf ThomasKaelin.ch
User Interfaces 2 User Interfaces 2 Zusammenfassung v1.0 Kälin Thomas, Abteilung I HS 07 Kälin Thomas, Abt I 1/39 17.12.2007 User Interfaces 2 1. USABILITY - DEFINITION ............................................................................................................... 6 1.1. Unterstützung der Bedienbarkeit ....................................................................................... 6 1.1.1. Erlernbarkeit (Learnability) ................................................................................................. 6 1.1.2. Flexibilität (Flexibility)......................................................................................................... 6 1.1.3. Widerstandsfähigkeit (Robustness)...................................................................................... 6 2. HCI – HUMAN.............................................................................................................................. 7 2.1. Informationsquellen ........................................................................................................... 7 2.1.1. Sehen................................................................................................................................ 7 2.1.2. Hören................................................................................................................................ 7 2.1.3. Fühlen............................................................................................................................... 7 2.1.4. Reaktionszeit ..................................................................................................................... 7 2.1.5. Fitts’ Law........................................................................................................................... 7 2.2. Speichern – Gehirn ............................................................................................................. 7 2.2.1. Sensor Speicher ................................................................................................................. 7 2.2.2. Kurzzeitgedächtnis / Working Memory ................................................................................. 7 2.2.3. Langzeitgedächtnis / Long Term Memory............................................................................. 8 2.3. Verarbeiten ......................................................................................................................... 8 2.3.1. Deklaratives und prozuderales Wissen ................................................................................. 8 2.3.2. Der menschliche Prozessor ................................................................................................. 8 2.3.3. Lernen von Prozeduren / Power Law of Practice................................................................... 9 2.4. Denken................................................................................................................................ 9 2.4.1. Schlussfolgerndes Entscheiden (Deductive).......................................................................... 9 2.4.2. Induktives Entscheiden (Inductive) ..................................................................................... 9 2.4.3. Erschliessendes Entscheiden (Abductive) ............................................................................. 9 2.5. Probleme lösen ................................................................................................................... 9 2.5.1. Wie werden Probleme gelöst? ............................................................................................. 9 2.5.2. Functional Fixedness ........................................................................................................ 10 2.6. Emotionen & Unterschiede ............................................................................................... 10 2.6.1. Emotionen ....................................................................................................................... 10 2.6.2. Unterschiede.................................................................................................................... 10 3. HCI – COMPUTER ....................................................................................................................... 11 3.1. Eingabe ............................................................................................................................. 11 3.1.1. Tastatur .......................................................................................................................... 11 3.1.2. Handschrifterkennung ...................................................................................................... 11 3.1.3. Spracherkennung ............................................................................................................. 11 3.1.4. Positionierung .................................................................................................................. 11 3.1.5. Papier ............................................................................................................................. 11 3.2. Ausgabe ............................................................................................................................ 11 3.2.1. Bildschirme ...................................................................................................................... 11 3.2.2. Digitales Papier ................................................................................................................ 11 3.2.3. 3D Displays / Simulatoren / Virtual Reality ......................................................................... 11 4. HCI – INTERACTION ................................................................................................................... 12 4.1. Normans Interaction Model.............................................................................................. 12 4.1.1. Slip vs Mistake ................................................................................................................. 12 4.2. Abowd and Beale .............................................................................................................. 12 5. KOGNITIVE MODELLE................................................................................................................... 13 5.1. Goal and task hierarchies ................................................................................................. 13 5.1.1. GOMS – Goals Operators Methods Selection ...................................................................... 13 5.1.2. CCT – Cognitive Complexity Theory................................................................................... 13 5.2. Linguistic models .............................................................................................................. 13 5.2.1. BNF – Backus Naur Form .................................................................................................. 13 5.2.2. TAG – Task Action Grammar............................................................................................. 14 5.3. Physical and Device Models.............................................................................................. 14 5.3.1. KLM – Keystroke Level Model............................................................................................ 14 6. BEOBACHTEN VON BENUTZERN ......................................................................................................15 6.1. Allgemeines ...................................................................................................................... 15 Kälin Thomas, Abt I 2/39 17.12.2007 User Interfaces 2 6.1.1. Wie Benutzer finden? ....................................................................................................... 15 6.1.2. Hinweise für das Befragungs-Team ................................................................................... 15 6.1.3. Informationen festhalten .................................................................................................. 15 6.1.4. Nachbesprechung ............................................................................................................ 15 6.2. Structured Observations................................................................................................... 15 6.2.1. Was und Warum?............................................................................................................. 15 6.2.2. Übersicht ......................................................................................................................... 15 6.2.3. Einschränkungen von „Self Reports“.................................................................................. 15 6.2.4. Kombination .................................................................................................................... 15 6.2.5. Naturalistic Observation.................................................................................................... 16 6.2.6. Contextual Inquiry ........................................................................................................... 16 6.2.7. Contextual Interview ........................................................................................................ 16 6.2.8. Artifact Walkthrough ........................................................................................................ 16 6.2.9. Naturalistic Usability Evaluation......................................................................................... 16 6.3. Rollenspiele ...................................................................................................................... 16 7. USAGE-CENTERED DESIGN ........................................................................................................... 17 7.1. Allgemeines ...................................................................................................................... 17 7.1.1. Ziel ................................................................................................................................. 17 7.1.2. Übliche Wege................................................................................................................... 17 7.2. Element 1 – Pragmatic Design Guidelines........................................................................ 17 7.2.1. Usability Rules ................................................................................................................. 17 7.2.2. UI Design Prinzipien ......................................................................................................... 17 7.3. Element 2 – Model Driven Design Process ....................................................................... 17 7.3.1. Überblick ......................................................................................................................... 17 7.3.2. Role Model ...................................................................................................................... 18 7.3.3. Task Model ...................................................................................................................... 19 7.3.4. Content Model ................................................................................................................. 20 7.3.5. Operation Model .............................................................................................................. 22 7.3.6. Implementation Model...................................................................................................... 22 7.4. Element 3 – Organized Development Activities ............................................................... 22 7.5. Element 4 – Iterative Improvement................................................................................. 23 7.6. Element 5 – Measure of Quality ....................................................................................... 23 8. GOAL DIRECTED DESIGN (GDD) ................................................................................................... 24 8.1. Allgemeines ...................................................................................................................... 24 8.1.1. Einleitung ........................................................................................................................ 24 8.1.2. GDD im SE-Prozess .......................................................................................................... 24 8.1.3. Begriffe ........................................................................................................................... 24 8.1.4. Wer macht GDD? ............................................................................................................. 24 8.1.5. Team-Struktur ................................................................................................................. 24 8.2. Überblick über einzelne Phasen ....................................................................................... 24 8.2.1. Research ......................................................................................................................... 24 8.2.2. Modelling......................................................................................................................... 24 8.2.3. Requirements .................................................................................................................. 24 8.2.4. Framework ...................................................................................................................... 25 8.2.5. Refinement ...................................................................................................................... 25 8.2.6. Implementierung ............................................................................................................. 25 8.3. Phase 1: Research ............................................................................................................ 25 8.3.1. Grundlegendes................................................................................................................. 25 8.3.2. Untersuchungsobjekte ...................................................................................................... 25 8.3.3. Methoden ........................................................................................................................ 25 8.4. Phase 2: Modelling ........................................................................................................... 25 8.4.1. Grundlegendes................................................................................................................. 25 8.4.2. Warum Personas? ............................................................................................................ 26 8.4.3. Personas ......................................................................................................................... 26 8.4.4. Benutzer Rollen................................................................................................................ 26 8.4.5. Ziele................................................................................................................................ 26 8.4.6. Konstruktion von Personas................................................................................................ 26 8.4.7. Persona Typen ................................................................................................................. 27 Kälin Thomas, Abt I 3/39 17.12.2007 User Interfaces 2 8.4.8. Andere Modelle ................................................................................................................ 27 8.5. Phase 3: Requirements..................................................................................................... 27 8.5.1. Grundlegendes................................................................................................................. 27 8.5.2. Context Scenario.............................................................................................................. 27 8.5.3. Unterschiede zwischen Context Scenario und Use Cases..................................................... 27 8.5.4. Vorgehen......................................................................................................................... 27 8.6. Phase 4: Framework ......................................................................................................... 28 8.6.1. Grundlegendes................................................................................................................. 28 8.6.2. Vorgehen......................................................................................................................... 28 8.7. Phase 5: Refinement ........................................................................................................ 28 8.7.1. Grundlegendes................................................................................................................. 28 8.7.2. Vorgehen......................................................................................................................... 28 8.8. GDD-Überblick .................................................................................................................. 29 9. LOW-FIDELITY PROTOTYPING ....................................................................................................... 30 9.1. Warum Prototypen ........................................................................................................... 30 9.2. Warum Low-Fidelity? ....................................................................................................... 30 9.3. Paper Prototyping............................................................................................................. 30 9.4. SILK .................................................................................................................................. 30 10. USER INTERFACE TESTS ............................................................................................................... 31 10.1. Labor- und Feldtests......................................................................................................... 31 10.2. Typen von UI Tests ........................................................................................................... 31 10.2.1. Cognitive Walkthrough ..................................................................................................... 31 10.2.2. Heuristic Evaluation.......................................................................................................... 31 10.2.3. Experimental Evaluation ................................................................................................... 31 10.2.4. Query Techniques ............................................................................................................ 31 10.2.5. Eye Tracking.................................................................................................................... 32 10.2.6. Observation ..................................................................................................................... 32 10.3. Usability Tests .................................................................................................................. 32 10.3.1. Einleitung ........................................................................................................................ 32 10.3.2. Usability Labor ................................................................................................................. 32 10.3.3. Usability Test Light........................................................................................................... 32 10.3.4. Aufgaben der Personen .................................................................................................... 32 10.3.5. Vorbereitung und Durchführung........................................................................................ 32 10.3.6. Auswertung ..................................................................................................................... 32 11. UI DESIGN IM WEB..................................................................................................................... 33 11.1. Posture für SW-Anwendungen ......................................................................................... 33 11.1.1. Sovereign Posture ............................................................................................................ 33 11.1.2. Transient Posture ............................................................................................................. 33 11.1.3. Daemonic Posture ............................................................................................................ 33 11.1.4. Auxiliary Posture .............................................................................................................. 33 11.2. Begriffe ............................................................................................................................. 33 11.2.1. Website ........................................................................................................................... 33 11.2.2. Webapplication ................................................................................................................ 33 11.3. Web vs GUI ....................................................................................................................... 33 11.4. Facts of Life (Krug) ........................................................................................................... 33 11.4.1. We don’t read pages, we scan them.................................................................................. 33 11.4.2. We don’t make optimal choices, we satisfice...................................................................... 34 11.4.3. We don’t figure out how things work. We muddle through.................................................. 34 11.5. Kommunikation ................................................................................................................ 34 11.6. Motiviation / Demotivation .............................................................................................. 34 11.7. User-Typen ....................................................................................................................... 34 11.8. Gestaltungsaspekte fürs Web .......................................................................................... 35 11.8.1. Prinzipien......................................................................................................................... 35 11.8.2. Sprache ........................................................................................................................... 35 11.8.3. Bilder .............................................................................................................................. 35 11.8.4. Wahrnehmung ................................................................................................................. 36 11.8.5. Navigation und Orientierung ............................................................................................. 36 11.8.6. Home Page...................................................................................................................... 37 Kälin Thomas, Abt I 4/39 17.12.2007 User Interfaces 2 12. USER INTERFACE VIELFALT ........................................................................................................... 38 12.1. Gadgets............................................................................................................................. 38 12.1.1. Scrollbar .......................................................................................................................... 38 12.1.2. Spin-Buttons / Slide-Spinner ............................................................................................. 38 12.1.3. Message Box.................................................................................................................... 38 12.1.4. Exctraction Controls ......................................................................................................... 38 12.1.5. Fisheye Menu................................................................................................................... 38 12.1.6. Flow Menu....................................................................................................................... 38 12.2. Filesystem......................................................................................................................... 38 12.2.1. Files & Save..................................................................................................................... 38 12.2.2. Andere Strukturen............................................................................................................ 38 12.3. Suchen .............................................................................................................................. 39 12.3.1. Typische Suchemaske ...................................................................................................... 39 12.3.2. Inkrementelles Suchen ..................................................................................................... 39 12.3.3. Sonderzeichen ................................................................................................................. 39 12.3.4. Suchen nach Multimedia ................................................................................................... 39 12.3.5. Filter- und Such-Interfaces ............................................................................................... 39 12.4. Visualisieren ..................................................................................................................... 39 12.5. Zoomable Interfaces ........................................................................................................ 39 12.5.1. Beschreibung ................................................................................................................... 39 12.5.2. Anwendung ..................................................................................................................... 39 12.6. Neuartige Anwendungen.................................................................................................. 39 12.7. Augmented Reality, Tangible UI’s .................................................................................... 39 12.7.1. Virtual Reality .................................................................................................................. 39 12.7.2. Augmented Reality ........................................................................................................... 39 12.7.3. Tangible User Interface .................................................................................................... 39 Kälin Thomas, Abt I 5/39 17.12.2007 User Interfaces 2 1. USABILITY - DEFINITION Usability (Bedienbarkeit) wird definiert als die Eigenschaft, dem User mit Effektivität, Effizienz und Befriedung eine auszuführende Aktion zu ermöglichen. Die EFFEKTIVITÄT beschreibt dabei, wie umfassend der Benutzer sein Ziel erreicht. EFFIZIENZ umfasst die aufgewendeten Ressourcen (Zeit, …) in Relation zum zu erreichenden Ziel. BEFRIEDUNG misst die positiven Gefühle und die Zufriedenheit des Benutzers. 1.1. Unterstützung der Bedienbarkeit 1.1.1. Erlernbarkeit (Learnability) VORHERSAGBARKEIT (PREDICTABILITY): Der Benutzer muss wissen, welche zukünftigen Effekte die aktuelle Aktion bewirkt. SYNTHETISIERBARKEIT (SYNTHESIZABILIITY): Vergangene Aktionen müssen einen erkennbaren, verständlichen Effekt haben. Diese müssen mit unserem mentalen Modell in Einklang gebracht werden können. VERTRAUTHEIT (FAMILIARITY): In welchem Grad kann der Benutzer bereits Bekanntes wieder verwenden? Kann ich daraus schliessen, welche Aktion möglich ist? VERALLGEMEINERBARKEIT (GENERALIZABILITY): Bekanntes Vorgehen kann andernorts verallgemeinert wieder verwendet werden. KONSISTENZ (CONSISTENCY): Aktionen sollten durch die ganze Applikation hindurch identisch ausgeführt werden müssen. Beispiel: jegliche Beschriftungen gleich halten. 1.1.2. Flexibilität (Flexibility) DIALOGE / FREIHEIT: Keine Zwangsvorgaben von Dialogboxen durch das System. Nicht das System soll Dialoge starten, sondern der Benutzer. PARALLELITÄT (MULTITHREADING): Der Benutzer kann mehrer Aktionen parallel innerhalb der Anwendung ausführen. ERSETZBARKEIT (SUBSTITUTIVITY): Eine Methode ein Ziel zu erreichen kann über verschiedene Arten umgesetzt werden. Beispiel: Maus, Keyboard-Shortcuts, Symbolleiste. Auch verschiedene Möglichkeiten der Eingabe („8 oder 5 + 3“). ANPASSBARKEIT (CUSTOMIZABILITY): Das User Interface kann entweder durch den Benutzer oder durch das System angepasst werden. Gutes Beispiel durch Anpassung durch das System sind Wiederherstellung von Tabs bei einem Browser-Absturz. 1.1.3. Widerstandsfähigkeit (Robustness) BEOBACHTBARKEIT (OBSERVABILITY): Der Benutzer kann jederzeit den aktuellen Status der Applikation erkennen. Welche Aktionen sind erlaubt? Was sind Standard-Werte? WIEDERHERSTELLBARKEIT (RECOVERABILITY): Falsche Aktionen können zurückgesetzt werden. Typisches Beispiel sind Undo-Funktionen. ANTWORTVERHALTEN (RESPONSIVENESS): In welcher Zeit reagiert die Applikation auf meine Eingaben? Dieselbe Aktion sollte immer auch dieselbe Zeitdauer benötigen. AUFTRAGSERFÜLLUNG (TASK CONFORMANCE): Wie genau / schnell erfüllt die Anwendung meine Aufgabe? Kälin Thomas, Abt I 6/39 17.12.2007 User Interfaces 2 2. HCI – HUMAN 2.1. Informationsquellen 2.1.1. Sehen Wir besitzen ein zweistufiges Sehen: die physische Verarbeitung durch Auge und die Verarbeitung, bzw. Interpretation durch das Gehirn. Das Auge bemerkt blinkende Elemente im Sichtbereich, der Blick wird unwillkürlich auf diese Elemente gerichtet. Beim INTERPRETIEREN spielen die Grösse und Tiefe, die Helligkeit und die Farbe des Objekts eine Rolle. All diese Elemente beeinflussen die Interpretierung der Umwelt. Das Gehirn kompensiert ausserdem Bewegungen und Farbwechsel. Optische Täuschen haben als Ursache eine „Überkompensierung“ durch das Gehirn. Das Lesen ist eine Spezialform des Sehens. Unser Blick „springt“ dabei durch den Text. Ausserdem ist die Wortgrösse wichtig für das Erkennen von Wörtern. Darum ist es schlecht, alles nur in Grossbuchstaben zu schreiben. 2.1.2. Hören Menschen hören im Bereich von 20HZ – 18kHz. Tiefe Töne können dabei wegen der geringen Wellenlänge schlecht oder gar nicht geortet werden. Ausserdem kann unser Hörsystem Hintergrundgeräusche wegfiltern („Party Phänomen“). 2.1.3. Fühlen Die Haut besitzt verschiedene Nervenzellen (Wärme, Schmerz, Druck). Nicht jede von diesen Zellen hat dieselbe Reaktionszeit. 2.1.4. Reaktionszeit Die Zeit um auf einen Stimulus (Sehen, Hören, Fühlen) zu reagieren setzt sich wie folgt zusammen: Aktionszeit = Reaktionszeit + Bewegungszeit Die Reaktionszeit ist dabei abhängig vom Stimulus. Hören (~150ms) ist schneller als Sehen (~200ms), Sehen schneller als Schmerzempfinden (~700ms). 2.1.5. Fitts’ Law Fitts’ Law beschreibt die Zeit, welche benötigt wird, um eine Aktion auf dem Bildschirm auszuführen. Grob kann gesagt werden, dass Objekte so gross und Distanzen so klein als möglich sein sollten. Bei sehr grossen Distanzen nimmt die Zeit weniger als linear zu. Das bedeutet also, dass im Falle von grossen zurückgelegten Distanzen ein zusätzliches Stück weg keinen grossen Einfluss mehr hat. Bei der Grösse der Objekte ist dies anders. Es gibt eine Grenze für die Objektgrösse, ab welche die Aktionszeit stark anwächst. Fazit: Die Maus eignet sich für grosse Distanzen, ist allerdings problematisch bei kleinen Zielen. Die Tastatur eignet sich besser, wenn wenige Tasten gedrückt werden müssen. 2.2. Speichern – Gehirn Wir haben ein 3-stufiges „Speichersystem“. Informationen werden durch Aufmerksamkeit aus dem Sensor Speicher in das Kurzzeitgedächtnis transferiert. Von dort wird es durch Üben in das Langzeitgedächtnis überführt. 2.2.1. Sensor Speicher Die Sinne des Menschen haben einen sehr kurzen Speicher, welcher kontinuierlich überschrieben wird. Mit Hilfe dieses kann beispielsweise aus einer grossen Zahl von Punkten eine Linie erkannt werden. 2.2.2. Kurzzeitgedächtnis / Working Memory Kurzzeitig benötigte Daten werden hier abgelegt. Es kann ziemlich schnell abgerufen werden, innert ~70ms. Es können allerdings nur etwa 7 +/- 2 Elemente gemerkt werden. Kälin Thomas, Abt I 7/39 17.12.2007 User Interfaces 2 2.2.3. Langzeitgedächtnis / Long Term Memory Im Langzeitgedächtnis wird jegliches Wissen abgelegt. Es bietet einen riesigen Platz für Informationen. Hier wird zwischen zwei Typen unterschieden: Episodisches (Erinnerung an eine Reihe von Events) und semantisches (Fakten, Fähigkeiten) Wissen. Jegliches semantisches Wissen entwickelt sich immer aus dem episodischen Wissen. Ds LTM ist wie ein Netzwerk aus verknüpften Knoten aufgebaut. Zum Aufbau der einzelnen Knoten gibt es verschiedene Ansätze: Frames Rules Scripts < SPEICHERN : Grundsätzlich gilt: je mehr das man eine Sache übt, desto mehr davon bleibt auch übrig. Zusätzlich bringt es mehr, auf verschiedene Tage verteilt zu lernen, als alles an einem Stück lernen zu wollen. Und schlussendlich ist es sehr sinnvoll, neues Wissen mit bekanntem in Kombination zu bringen. VERGESSEN: Einige Informationen Zerfallen einfach, andere werden bewusst durch neue Informationen überschrieben. Auch können Emotionen das Ausblenden von Informationen verursachen, beispielsweise bei einem Trauma oder Schock. ABRUFEN: Wir unterscheiden zwischen unbewusstem „Erkennen“ und einem bewussten „Abrufen“. 2.3. Verarbeiten Nun kombinieren wir die vorherigen Dinge und kommen zu einem Modell des menschlichen Prozessors. 2.3.1. Deklaratives und prozuderales Wissen DEKLARATIVES WISSEN beinhaltet das Wissen von Fakten und Daten. Es wird vielseitig verwendet. Beim PROZEDURAL WISSEN geht es hingegen um das Wissen zu bestimmten Aktion, wie also reagiert werden muss. Dieses wissen baut auf den LTM-Rules auf. 2.3.2. Der menschliche Prozessor Nachfolgendes Modell soll den Ablauf im menschlichen Körper vereinfacht darstellen. Ein Stimulus taucht auf und wird von den Sinnen wahrgenommen (Dauer: ~100ms). Danach entscheidet der kognitive Prozessor, was zu tun ist und legt die zu tätigende Aktion im WM ab (Dauer: ~70ms). Anschliessend muss der Motor Processor noch die zu tätigende Aktion auslösen, auch dies dauert nochmals ~70ms. Kälin Thomas, Abt I 8/39 17.12.2007 User Interfaces 2 2.3.3. Lernen von Prozeduren / Power Law of Practice Die IF-THEN-Patterns werden zuerst durch das Lösen von Problem angeeignet. Durch Übung entwickelt sich daraus eine Fähigkeit, welche sich durch noch mehr Übung in der höchsten Stufe zum Automatismus entwickeln kann. In diesem Bereicht gilt auch das POWER LAW OF PRACTICE. Dieses sagt aus, dass zu Beginn der Lernphase die benötigte Zeit noch stark abnimmt. Nach ~100 Wiederholung flacht dies dann ab, die Zeitersparnis wird immer geringer. 2.4. Denken 2.4.1. Schlussfolgerndes Entscheiden (Deductive) Aus bereits gemachten Erfahrungen wird eine logische Schlussfolgerungen müssen nicht zwingend richtig sein!s 2.4.2. Schlussfolgerung gezogen. Diese Induktives Entscheiden (Inductive) Von gemachten Erfahrungen wird eine Allgemeinerung abgeleitet. Beispiel: Alle gesehen Elefanten haben einen Rüssel, so gehen wir davon aus, dass jeder Elefant einen Rüssel hat. Bei diesen Entscheidungen können wir immer nur beweisen, dass Sie falsch sind, jedoch nie, dass sie wahr sind! 2.4.3. Erschliessendes Entscheiden (Abductive) Hier wird von einem Ereignis auf die Ursache geschlossen. Kann jedoch auch zu falschen Entscheiden führen. Beispiel für falschen Entscheid: „Sam fährt immer schnell, wenn er betrunken ist. Wenn er schnell fährt, ist er betrunken.“ 2.5. Probleme lösen 2.5.1. Wie werden Probleme gelöst? Üblicherweise wird das Problem in kleinere Teilprobleme aufgespaltet und sich anschliessend das Wissen zu jedem Teilproblem angeeignet. Auch werden Analogien zu bereits gekanntem gezogen. Ausserdem gibt es keine „Aufwärmphase“, die Lösung stellt sich also nicht schrittweise ein, sondern wie ein Blitz: Sie ist einfach da! Kälin Thomas, Abt I 9/39 17.12.2007 User Interfaces 2 2.5.2. Functional Fixedness Ein grosses Problem beim Lösen ist, dass sich der Mensch meist in seinem Denken einschränkt. Es wird die erst beste Idee verwendet und gar nicht erst nach weiteren Möglichkeiten gesucht. Beispiele hierfür: 9 Punkte verbinden, 2 Seile Problem, … 2.6. Emotionen & Unterschiede 2.6.1. Emotionen Zu dem gesagtem soll hier noch angemerkt werden, dass die Emotionen einen entscheidenden Einfluss auf die Ausführung (Problemlösung) eines Menschen hat. Unter Stress sind auch einfachste Aufgaben bedeutend schwerer. Wir lernen also daraus, dass wir mit unserem UI bei den Benutzern möglichst positive Gefühle erzeugen sollten. 2.6.2. Unterschiede Natürlich ist auch jeder Mensch unterschiedlich. Es gibt langfristige (Geschlecht, Intelligenz, Wissen, …) und kurzfristige (Müdigkeit, Stress) Einflussfaktoren. Auch können diese im Laufe der Zeit ändern, beispielsweise durch Alterung. Kälin Thomas, Abt I 10/39 17.12.2007 User Interfaces 2 3. HCI – COMPUTER 3.1. Eingabe 3.1.1. Tastatur Erlaubt sehr schnelle Texteingaben. Das Tastaturschema QWERTY ist historisch bedingt (Zeichenköpfe bei Schreibmaschinen). DVORAK erlaubt schnelleres Tippen und weniger Ermüdung. Weiter gibt es verschiedene Abarten wie einhändig bedienbare Tastaturen und solche Varianten mit nur 5 Tasten, bei denen Zeichen durch Kombination von mehreren Tasten erzeugt werden. Auch der Zahlenblock der Tastatur / Taschenrechner oder die Zahlenfelder eines Mobiltelefons zählen zu Tastaturen. 3.1.2. Handschrifterkennung Sehr gebräuchliche Interaktion, jedoch bedeutend langsamer als ein geübter Tastaturschreiber. Weiter kämpfen die bei der Handschrifterkennung eingesetzten Programme mit technischen Problemen. 3.1.3. Spracherkennung Immer weiter verbreitet. Über Analyse der Stimme werden Befehle ausgeführt. Problem: System müssen oft zuerst „trainiert“ werden, um gute Resultate zu erzielen. Auch ist das erkennbare Vokabular meist sehr eingeschränkt. 3.1.4. Positionierung Weitgehend bekannt sind Maus, Trackball und Touchpad. Es ist jedoch auch eine Positionierung über Augenbewegung denkbar. Ferner gibt es die Gruppe der diskreten Positionierungsgeräte. Hierzu zählen beispielsweise Fernbedienungen (Up, Down) und Mini Joysticks (Up, Down, Left, Right), welche zur Navigation durch Auswahllisten eingesetzt werden. 3.1.5. Papier Auch Papier kann ein Eingabegerät sein, indem die darauf gedruckten Daten mittels Scanner und OCR in Text umgewandelt werden. 3.2. Ausgabe 3.2.1. Bildschirme Früher meist CRT, heute hauptsächlich LCD eingesetzt. Grössere Bildschirme bieten Projektoren und Plasma-Screens. 3.2.2. Digitales Papier Eine sehr dünne Schicht enthält kleine Kugeln. Soll ein Bildpunkt nun schwarz anzeigen, so dreht sich diese Kugel entsprechend. Auch sind mehrere Farbabstufungen möglich, dazu befindet sich im Blatt eine Art Röhre mit Kugel. Je weiter oben die Kugel in der Röhre ist, desto dunkler der Farbton. 3.2.3. 3D Displays / Simulatoren / Virtual Reality Zum Bewegen im dreidimensionalen Raum eignen sich Data Gloves und spezielle 3D-Mäuse. Diese können über mehr als nur zwei Achsen bewegt werden. Zur Ergänzung des „Erlebnis“ werden mittlerweile oft hydraulische Systeme und Gerüche eingesetzt. 3D Displays werden üblicherweise in Kombination mit Spezialbrillen eingesetzt, welche abwechslungsweise jeweils ein Bild ausblenden (natürlich so schnell, dass dies für den Menschen nicht erkennbar ist). Dadurch wird ein Raumgefühl erzeugt. Kälin Thomas, Abt I 11/39 17.12.2007 User Interfaces 2 4. HCI – INTERACTION 4.1. Normans Interaction Model Kennen wir aus UInt1 im Zusammenhang mit dem GULF OF EXECUTION (sieht man, was man machen kann) und dem GULF OF EVALUATION (sieht man, was passiert ist). Es geht um folgende sieben Schritte: User etablishes the goal Formulates intention Specifies actions at interface Executes action Perceives system state Interprets system state Evaluates system state with respect to goal. 4.1.1. Slip vs Mistake SLIP: Fehlleistung, Aktion richtig gedacht aber falsch ausgeführt. Reduzierung von Slips erfordert ein besseres UI-Design. MISTAKE: Fehlentscheidung, falsches mentales Modell. Erfordert ein besseres Verständnis des Systems. 4.2. Abowd and Beale Beim System von A&B gibt es 4 Teile: User, Input, System, Output. Jedes dieser Systeme hat seine eigene Sprache. Interaktion beschreibt dabei den Übersetzungsvorgang zwischen diesen Sprachen. Absicht des Benutzers => Übersetzung in die Aktion beim UI => Übersetzung in die Systemfunktion => Darstellung auf Ausgabegerät => Aufnahme durch den Benutzer Kälin Thomas, Abt I 12/39 17.12.2007 User Interfaces 2 5. KOGNITIVE MODELLE 5.1. Goal and task hierarchies Hierbei geht es um das Formulieren von Zielen und Aufgaben. Meist werden aus den Zielen einfachere Sub-Ziele gebildet. Ein gängiges Problem sind die Abstufungen: Wo fängt man an, wie stark teilt man einzelne Aufgaben auf? 5.1.1. GOMS – Goals Operators Methods Selection Goms wird für die Vorhersagen des Benutzerverhaltens verwendet. Es erlaubt auf sehr tiefem Niveau eine Abschätzung von Performance und Zeiten. Je tiefer der „Baum“, desto komplexer und aufwendiger ist das Problem. //Beispiel 1 GOAL: CLOSE-WINDOW . [select GOAL: USE-MENU-METHOD . MOVE-MOUSE-TO-FILE-MENU . PULL-DOWN-FILE-MENU . CLICK-OVER-CLOSE-OPTION GOAL: USE-CTRL-W-METHOD . PRESS-CONTROL-W-KEYS] //Beispiel 2 GOAL: PHOTOCOPY-PAPER . GOAL: LOCATE-ARTICLE . GOAL: PHOTOCOPY-PAGE repeat until no more pages . . GOAL: ORIENT-PAGE . . . OPEN-COVER . . . SELCT-PAGE . . . POSTION-PAGE . . . CLOSE-COVER . . GOAL: PRESS-COPY-BUTTON . . GOAL: VERIFY-COPY . . . LOCATE-OUT-TRAY . . . EXAMINE-COPY . GOAL: COLLECT-COPY . . LOCATE-OUT-TRAY . . REMOVE-COPY (outer goal satisfied!) . GOAL: RETRIEVE-JOURNAL . . OPEN-COVER . . REMOVE-JOURNAL . . CLOSE-COVER 5.1.2. CCT – Cognitive Complexity Theory Besteht aus „user production rules“ und „device description“. Gemäss LM jedoch nicht weiter relevant. 5.2. Linguistic models Diese Modelle werden zum Beschreiben und Übersetzen von Aufgaben in Input verwendet. Übliche Modelle sind Sprachen und Grammatiken. Problematisch ist, dass alle Modelle für KonsolenAnwendungen entwickelt wurden. Somit für GUI’s nicht optimal einsetzbar. 5.2.1. BNF – Backus Naur Form Kennen wir aus Mathematik 2. Besteht aus Terminalen (C CLICK MOUSE) und Nicht-Terminalen (D Draw Line). Wird auf sehr tiefem Niveau zur Messung der Komplexität einer Aufgabe verwendet. Je schwieriger die Aufgabe, desto komplexer die Regeln. draw line ::= select line + choose points + last point select line ::= pos mouse + CLICK MOUSE choose points ::= choose one | choose one choose points choose one ::= pos mouse + CLICK MOUSE last point ::= pos mouse + DBL CLICK MOUSE pos mouse ::= NULL | MOVE MOUSE + pos mouse Kälin Thomas, Abt I 13/39 17.12.2007 User Interfaces 2 5.2.2. TAG – Task Action Grammar Ist eine Erweiterung der BNF, welche auch auf die Konsistenz von Regeln Rücksicht nimmt. Wird auf sehr tiefem Niveau zur Messung der Komplexität eines Interfaces eingesetzt. file-op[Op] ::= command[Op] + filename + filename | command[Op] + filenames + directory command[Op = copy] ::= cp command[Op = move] ::= mv command[Op = link] ::= ln 5.3. Physical and Device Models 5.3.1. KLM – Keystroke Level Model Ist eine Ableitung von GOMS. Über einzelne Operatoren können verschiedene Alternativen zur Ausführung von Aktionen verglichen werden. Dabei ist jedem Operator eine bestimmte Zeit zugewiesen. K B P H D M R Kälin Thomas, Abt I Press Key Maustaste drücken / loslassen Mit Maus zeigen (Fitts’ Law) Home (Hand > Keyboard | Maus) Drawing Auf Aufgabe vorbereiten Antwortzeit des Systems ~0.28s ~0.10s ~1.10s ~0.40s ~1.35s - 14/39 17.12.2007 User Interfaces 2 6. BEOBACHTEN VON BENUTZERN 6.1. Allgemeines 6.1.1. Wie Benutzer finden? Um Benutzer für die Beobachtungen zu finden ist es das beste, direkt bei einer Abteilung einer Unternehmung der Zielgruppe anzufragen. Die Namen der Firmen können über Marktforschungsfirmen oder das Internet ermittelt werden. Oft helfen auch Tipps aus dem persönlichen Umfeld. 6.1.2. Hinweise für das Befragungs-Team Fragen sollten immer so offen wie möglich gestaltet sein, damit der Benutzer nicht in seiner Wahrnehmung und Meinungsfreiheit eingeschränkt wird. Auch sollte man stets höflich bleiben und eine dem Benutzer angemessene Sprache verwenden. 6.1.3. Informationen festhalten Die wichtigsten Unterlagen sind schriftliche Notizen, welche direkt während der Beobachtungsphase festgehalten werden. Video- und Audioaufzeichnungen eignen sich nur bedingt, da unter Umständen nicht alles ersichtlich oder bemerkbar ist. Empfehlenswert ist ausserdem das Vorgehen, dass eine Person Fragen stellt, falls erlaubt, die anderen konzentrieren sich nur auf das Beobachten. 6.1.4. Nachbesprechung Die Nachbesprechung im Team sollte so schnell als möglich erfolgen, da so noch viele Informationen und Erinnerungen aktuell sind. Auch sollten die Erfahrungen abwechslungsweise genannt werden, damit das Beobachtungsteam direkt auf Aussagen eingehen kann. 6.2. Structured Observations 6.2.1. Was und Warum? Hierbei handelt es sich um Methoden um qualitative Erkenntnisse zu erlangen. Anders als bei den quantitativen Umfragen werden hier nur wenige Personen, dafür allerdings sehr aussagekräftige, beobachtet. Die Informationen werden direkt vor Ort (Arbeitsumfeld) erfasst und dienen dem UIDesigner als Grundlage für die Gestaltung. Die Beobachtungen sollten sehr früh erfolgen, damit das UI-Design sich in die passende Richtung bewegt. Auch kann früh auf spezielle Bedürfnisse eingegangen werden. 6.2.2. Übersicht 6.2.3. Einschränkungen von „Self Reports“ Bei Self-Reports handelt es sich um die Ansichten und Aussagen eines Benutzers, welche beispielsweise bei einer Befragung erfasst wird. Oft wird jedoch durch die Zielperson selbstverständliches und unbewusstes vollständig ausgelassen. Andererseits werden manchmal auch Dinge hinzugefügt, welche sie in der Realität gar nicht macht, beispielsweise Sicherheitsvorschriften, die ignoriert werden. 6.2.4. Kombination In der Realität wird oft eine Kombination aus obigen Methoden eingesetzt. Beispiel: Zuerst eine „Naturalistic Observation“ und anschliessend ein „Contextual Interview“. Kälin Thomas, Abt I 15/39 17.12.2007 User Interfaces 2 6.2.5. Naturalistic Observation Das Team beschränkt sich hierbei nur auf das Beobachten der Zielperson. Es werden keine Fragen gestellt und der Benutzer in seiner Arbeitstätigkeit nicht unterbrochen. Zu Beginn sollte die Person vollständig über das Ziel und die Absichten informiert werden. Bei Filmkameras ist die Zustimmung unbedingt einzuholen. Schwierig an dieser Methode ist, dass oft nicht alle Tätigkeiten für die Beobachter verständlich sind. Somit müssen Annahmen getroffen werden. Auch ist nicht immer das benötigte Fachwissen über ein Arbeitsumfeld vorhanden. 6.2.6. Contextual Inquiry Auch hier beobachten wir den Benutzer, allerdings sind Zwischenfragen zur Informationssammlung erlaubt. Dabei müssen darauf achten, dass wir dem Benutzer nicht ein Arbeitsschema aufdrängen wollen („Lehrperson“). 6.2.7. Contextual Interview Hier wird am Arbeitsort eine Befragung des Benutzers durchgeführt. Er wird allerdings nicht bei der Arbeit beobachtet. 6.2.8. Artifact Walkthrough Auch hierbei handelt es sich um eine Befragung des Benutzers, allerdings bringt dieser Elemente aus seinem Arbeitsumfeld (Bücher, Geräte, Produkte, …) mit. Zu diesen soll er erklären, was er damit macht und wie er es benutzt. Vorteil dieser Arbeitsobjekte ist es ausserdem, dass sich die Zielperson an Dinge erinnern kann, welche sie sonst vergessen könnte. 6.2.9. Naturalistic Usability Evaluation Es wird mit einem Prototyp einer Anwendung direkt im Arbeitsumfeld eine Bedienbarkeitsanalyse durchgeführt. Vorteil: Wirkliche Zielpersonen testen das Produkt mit realen Aufgaben. 6.3. Rollenspiele In diesem Ansatz wird so etwas wie ein Schauspiel veranstaltet. Dabei sollen die zu untersuchenden Benutzer eine Tätigkeit durchspielen, welche sie ohne oder mit Hilfsmitteln erledigen würden. Dabei sollen die Beobachter keine Inputs geben, sondern wirklich nur beobachten. Die Zielpersonen selber sollen sich neue Ideen erarbeiten! Kälin Thomas, Abt I 16/39 17.12.2007 User Interfaces 2 7. USAGE-CENTERED DESIGN 7.1. Allgemeines Beim Usage-Centered Design handelt es sich um eine Vorgehensweise bei der Softwareentwicklung, welche als Ergänzung zu anderen Methoden (RUP) verwendet werden kann. 7.1.1. Ziel Gut bedienbare Software, da für den Endkunden das UI die Software ist. Ausserdem kann mit einem guten GUI Geld gespart (Betreuung, erhöhte Produktivität) und verdient (Verkauf) werden. 7.1.2. 7.2. Element 1 – Pragmatic Design Guidelines 7.2.1. Übliche Wege TESTEN: Qualität nicht ertestbar, braucht lauffähiges System STYLE-GUIDES: Werden oft nicht beachtet, lösen nur einen kleinen Teil aller Fragen RAPID PROTOTYPING: Kein Ersatz für Analyse und Design PEER REVIEWS: Arten oft in langen Debatten aus, Entwickler haben meist persönliche Vorlieben EXPERTEN: Eigentlich sehr gute Lösung, allerdings teuer Usability Rules ACCESS: Benutzbar ohne Hilfe für Kenner der PD. EFFICACY: System soll für erfahrene Benutzer effizient sein. Bei neuen Benutzern Einarbeitungszeit! PROGRESSION: System soll den Lernfortschritt mit geeigneten Mitteln unterstützen. SUPPORT: Den Benutzern bei der Erfüllung seiner Ziele unterstützen. CONTEXT: Software soll in echtem Umfeld einsetzbar sein. 7.2.2. UI Design Prinzipien Grundlegende Prinzipien: Klare Struktur, möglichst einfach, Rückmeldungen an den Benutzer, Fehlertoleranz erlauben, … 7.3. benötigtes sichtbar zeigen, Element 2 – Model Driven Design Process 7.3.1. Kälin Thomas, Abt I Überblick 17/39 17.12.2007 User Interfaces 2 7.3.2. Role Model Das Role Modell besteht aus USER ROLE und einer User ROLE MAP. Dabei geht es zuerst einmal darum, verschiedene Benutzer zu finden. Hierzu einige Beispiele von Benutzern, welche als Datengrundlage verwendet werden können. Diese sind dabei nach absteigender Priorität geordnet. REAL USER: Echte Endbenutzer. Optimale Lösung und unerlässliche Informationsquelle. ERSATZ USER: Kunden (nicht Benutzer, wissen oft nicht was wirklich benötigt wird), Manager (haben Potential um Verkaufsentscheide zu fällen). USER SURROGATES: Domain Experts (kennen das ganze Fachgebiet, haben somit einen Überblick über alles), Trainers (Ausbilder, wissen meist genau, wodurch Probleme entstehen) und Supervisor (Überwachen die Benutzer, kennen die Abläufe). INFORMANTEN: Marketing (gefährlich: verstehen nicht die Kundenbedürfnisse sondern den Markt), Verkauf (Auch falsche Prioritäten) und technische Dienste (wissen nicht viel über die Problem Domain, kennen allerdings auftretende Probleme). INDIREKTE QUELLEN: Handbücher (hauptsächlich für Prozesse und Abläufe, stimmen meist allerdings nicht mit der Realität überein). Da wir nun die verschiedenen Informationsquellen behandelt haben, geht es nun dazu, aus den einzelnen Personen Benutzerrollen zu abstrahieren: die USER ROLE. Zuerst wird abstrahiert, dann sortiert und arrangiert, bis man sich schlussendlich auf die wichtigsten Rollen fokussiert. Real User => Candidate Roles => User Role => Focal User Role Die so gefunden Benutzer Rollen werden nun in einer ROLE MAP grafisch dargestellt. Weiter gibt es noch eine Strukturierte Art, solche Rollen zu erfassen. Dies Betracht auf das Taskmodell. Wichtige dabei erfasste Punkte sind: Erfahrungsniveau, Benutzungsarten, bearbeitete Informationen, Wichtigkeit besondere Funktionen, Risiken, Einschränkungen bei physikalischen Geräten durch die Umgebung. Kälin Thomas, Abt I 18/39 kann hilfreich sein in Ausüber der Rolle, der Usability-Aspekte, und Einschränkungen 17.12.2007 User Interfaces 2 7.3.3. Task Model Das Task Model besteht aus ESSENTIAL USE CASES und einer USE CASE MAP. Das Ziel von den Use Cases ist es, in der Sprache des Fachbereiches vereinfacht und von der Technologie lostgelöst die üblichen Abläufe zu formulieren. Dabei muss darauf geachtet werden, dass die Absicht (und nicht die Aktion) sowie die Verantwortung (und nicht Reaktion) aufgezeigt werden. Nachfolgendes Beispiel behandelt dabei den Fall „Geldbezug an einem Bankomat“: Use Case: gettingCash User Intention Identify Self System Responsibility Verify Identity Offer Choices Choose Dispense Cash Take Cash Obige Darstellung ist die meist verwendete Variante. Es gibt allerdings noch eine weitere, weitaus detaillierte Variante. In dieser kommen mehr Faktoren ins Spiel: Das ist am ehesten mit den Fully Dressed Use Cases von Larman zu vergleichen. Die im Ablauf zusätzlich verwendeten Elemente (optionally, in any order, …) kennen wir auch bereits von UI1. Natürlich können auch, wie bei Software Engineering 1 gelernt, die Use Cases grafisch dargestellt werden. Dies ist die so genannte USE CASE MAP. Nachfolgend noch Beispiele dazu: Kälin Thomas, Abt I 19/39 17.12.2007 User Interfaces 2 7.3.4. Content Model Der Teil besteht aus dem CONTENT MODEL und der NAVIGATION MAP. Im ersten Unterpunkt werden die vorgängig erstellten Use Cases auf benötigte Tools (=Werkzeuge) und Materials (=Daten) untersucht. Ziel dabei ist es, die für eine bestimmte Aufgabe benötigten Werkzeuge und Daten zu ermitteln. Üblicherweise werden jegliche gefundenen Elemente anschliessend auf Post-It notiert und in den so genannten Interaction Context geklebt. Als Resultat aus des Content Models entsteht ein abstrakter Prototyp, welcher noch an keine konkrete Implementierung gebunden ist. Obiges Beispiel zeigt eine unvollständige Liste von Zuweisungen aus dem Use Case auf das zugehörige Content Model. Obige Darstellung verwendet die Tools & Materials-Notation. In dieser haben die Symbole eine besondere Bedeutung. Nachfolgende eine Auflistung der verschiedenen Möglichkeiten: Kälin Thomas, Abt I 20/39 17.12.2007 User Interfaces 2 Weiter ist hier noch zu erwähnen, dass die Namenswahl sich systematisch zusammensetzen sollte: Name = Name des Inhalts (+ Holder / Container / …) Name = Name der Aktion (+ Do / Start / …) Das zweite Element des Content Models ist die NAVIGATION MAP. Diese stellt den Zusammenhang, beziehungsweise den Weg, zwischen den einzelnen Interaction Contexts grafisch dar. Je nach Anzahl der gleichzeitig dargestellten Views handelt es sich entweder um einen Behavioral View oder eine komplette architektonische Sicht. Ferner kann sie zum Auffinden von Problem und zur Überprüfung der Komplexität eingesetzt werden. Obiges Bild zeigt eine Übersicht über die einzelnen Elemente der Navigation Map. Zur Beschriftung der „Actions“ wird weiter folgende Namenskonvention empfehlen: Menu: Button: Icon, Tool: Kälin Thomas, Abt I Datei | Öffnen | … [Schliessen] <Fett> 21/39 17.12.2007 User Interfaces 2 Auch hier soll ein Beispiel natürlich nicht fehlen. Dieses ist einer alten Windows-Version entnommen und demonstriert das Problem, dass ähnliche Einstellungen (Netzwerk) auf mehrere Subviews verteilt sind. 7.3.5. Operation Model Das Operational Model wird nicht detaillierter behandelt. Es enthält physikalische Aspekte und Geschäftsregeln. Auch Risikofaktoren können erwähnt werden. Ist vergleichbar mit den Business Rules von RUP. 7.3.6. Implementation Model Beim Implementation Model schlussendlich geht es um die Konkretisierung der abstrakten Modelle. Es werden also zu der abstrakten Beschreibungen passende reale GUI-Elemente ermittelt. Natürlich geschieht dies unter Beachtung der allgemeinen Regeln für die visuelle Gestaltung. 7.4. Element 3 – Organized Development Activities Kälin Thomas, Abt I 22/39 17.12.2007 User Interfaces 2 COLLABORATIVE REQUIREMENTS DIALOG: Requirements beim Kunden und den Benutzern holen, meist durch Dialog erreicht. TASK MODELLING: Kernaktivität beim UCD. Klares und umfassendes Bild des Arbeitsumfeldes erlangen. Entspricht den Modellen Role Model und Task Model. DOMAIN MODELLING: Entwurf eines konzeptuellen Modells (Domain Modell). Für RUP zentrales Element, bei UCD allerdings nur Nebenaktivität. INTERFACE CONTENT MODELING: Entspricht dem Modell Content Model. Dabei wird ein abstraktes Modell in einer speziellen Notation entworfen. IMPLEMENTATION MODELING: Entspricht dem Modell Visual Design, also der endgültigen Implementierung nach allen Entwürfen. USABILITY INSPECTION: Benutzbarkeit des Entwurfs auf Basis Visual Design überprüfen. OPERATIONAL CONTEXTUALIZATION: Läuft parallel zu den anderen Aktivitäten. Es sollen spezielle Gegebenheiten (Beleuchtung, Lärm, …) und Anforderungen (Behinderungen, …) erfasst werden. STANDARD AND STYLE DEFINITION: Läuft parallel zu den anderen Aktivitäten. Erstellen von StyleGuides und Standards. OBJECT STRUCTURE DESIGN: Auch eine Kernaktivität des normalen Software Engineering, wobei ein Design Modell erstellt wird. Für UCD allerdings nebensächlich. CONCENTRIC CONSTRUCTION: iterative Implementierung nach Use Cases, für SE zentral, für UCD nebensächlich. ARCHITECTURAL ITERATION: Architektur iterativ verbessern und weiterentwickelnt. Für UCD nebensächlich. USABILITY INSPECTION: Bewertung der Bedienbarkeit auf Basis der schlussendlichen Implementierung. HELP SYSTEM AND DOCUMENTATION: läuft parallel, Hilfe und Benutzungshandbuch entwerfen. 7.5. Element 4 – Iterative Improvement Iteratives Vorgehen. Kennen wir vom RUP. 7.6. Element 5 – Measure of Quality Metriken zur Messung der UI-Qualität. Kälin Thomas, Abt I 23/39 17.12.2007 User Interfaces 2 8. GOAL DIRECTED DESIGN (GDD) 8.1. Allgemeines 8.1.1. Einleitung GDD behandelt Teile des SE-Prozesses, orientiert sich allerdings hauptsächlich an den Benutzern und deren Zielen. Es kann als Ergänzung zu anderen SE-Methoden eingesetzt werden. 8.1.2. GDD im SE-Prozess 8.1.3. Begriffe GOAL: Was ist der Antreiber für die Aktionen, welche eine Person durchführt. GDD konzentriert sich hauptsächlich auf diese Ziele. Erreicht werden soll dadurch, dass eventuell neue Tasks entstehen und ausgearbeitet werden. TASK: Eine Tätigkeit, welche eine Person durchführt, um ein Ziel (=Goal) zu erreichen. 8.1.4. Wer macht GDD? GDD wird von so genannten INTERACTION-DESIGNERN umgesetzt. Ihr Ziel ist es, dass Verhalten des Produktes zu analysieren. Es handelt sich somit um den ersten Schritt in der Softwareentwicklung, worauf weitere Arbeiten (Visuelles Design, UI-Design) aufbauen können. Es ist zu beachten, dass Benutzer und Entwickler nicht als Designer eingesetzt werden, da diese auf Grund Ihrer Vorkenntnisse kein unabhängiges Bild des Problembereichs besitzen. 8.1.5. Team-Struktur Üblicherweise wird bei GDD in zweier Teams gearbeitet, welche aus dem Interaction Designer und dem Design Communicator bestehen. - 8.2. Interaction Designer Liefert kreative Ideen Entwirft Konzepte - Design Communicator Hält Ideen ausführlicher fest Dokumentiert sauber Klärt Detailfragen ab Überblick über einzelne Phasen 8.2.1. Research Es werden Feldstudien (Interviews mit Benutzern und Auftraggeber, Beobachtungen, Literator, Technologien, bestehende Produkte) durchgeführt. Daraus entstehen BENUTZUNGSMUSTER und BENUTZUNGSZIELE. 8.2.2. Modelling Es werden die Arbeitsabläufe analysiert, daraus die Benutzer und die Domain modelliert. Das Ergebnis sind DOMAINMODELLE und PERSONAS. 8.2.3. Requirements Hier werden die benötigten Funktionen und Bedürfnisse ermittelt. Fokussiert wird dabei auf die Ziele und Bedürfnisse der Benutzer, nicht auf die einzelnen Aufgaben. In diesem Schritt entsteht CONTEXT SZENARIOS, welche für das Management als erste Entscheidungsgrundlage dienen. Kälin Thomas, Abt I 24/39 17.12.2007 User Interfaces 2 8.2.4. Framework In dieser Phase werden Datenobjekte und Attribute entworfen, weiter der Grundaufbau der einzelnen Views skizziert. Hier sind natürlich die grundlegenden Entwurfsregeln (Usability, …) zu befolgen. Als Ergebnis entsteht eine INTERACTION FRAMEWORK DEFINITION. 8.2.5. Refinement Die vorher skizzenhaft ausgearbeiteten Entwürfe werden hier detaillierter ausgearbeitet. Erstmals wird auch auf Feedback von Entwicklern zurückgegriffen, welche die Machbarkeit beurteilen sollen. Hier entsteht eine Form and BEHAVIOUR SPECIFICATION, welche das GUI Pixel genau vorschreibt. Dies ist das zweite entscheidungskritische Dokument. 8.2.6. Implementierung Ist auf obiger Grafik nicht mehr drin. Es geht hier darum, dass die Interaction Designer auch nach Ihrer Arbeit den Entwicklern bei Fragen zur Seite stehen sollen. 8.3. Phase 1: Research 8.3.1. Grundlegendes Es geht um das Erforschen der Domain und Benutzer. Es werden nur qualitative (was, wie, warum) und keine quantitativen Erfassungen durchgeführt . Die hier erzielten Resultate dienen als Grundlage und zur Rechtfertigung gegenüber Auftraggebern. Ausserdem wird ein gemeinsames Verständnis des Zielbereiches etabliert. 8.3.2. Untersuchungsobjekte Existierende Produkte (Funktionen, Bedienung, …) Potentielle Benutzer Umfeld (technisch und geschäftlich) Vokabular 8.3.3. Methoden STAKEHOLDER INTERVIEWS: Befragung von Schlüsselpersonen in der Organisation. Bevorzugt aus verschiedenen Abteilungen. Sollte vor der Benutzerbefragung durchgeführt werden. Es soll herausgefunden werden, was das Management sich vorstellt, wie viel es kosten soll, in welcher Zeit es entstehen soll. SUBJECT MATTER EXPERT (SME) INTERVIEWS: Befragungen von Domainexperten. Zu beachten ist, dass SME ein gutes Fachwissen besitzen, jedoch keine Interaction Designer sind! CUSTOMER INTERVIEWS: Befragung der Kunden, was wird sich von der neuen Lösung erhofft? Was war an der alten schlecht? USER INTERVIEWS: Aktuelle und zukünftige Benutzer nach Ihren Problemen fragen. Wie und warum wird die Anwendung eingesetzt? Die Ziele des Benutzers müssen klar herauskristallisiert werden. USER OBSERVATION: Den Benutzern ist ihr eigenes Verhalten nur teilweise bewusst. Deshalb besser beobachten als nur auf Interviews zu verlassen. LITERATURE REVIEW: Erarbeiten von Domain-Kenntnissen, Analyse des Markts und bestehender Technologien, aktuelle Meldungen zum Fachbereich. PRODUCT AUDITS: Produkte der Konkurrenz analysieren. CONTEXTUAL INQUIRY / ETHNOGRAPHIC INTERVIEWS: Kennen wir bereits von „Beobachten von Benutzern“. Der Designer beobachtet die Zielperson in Ihrem realen Arbeitsumfeld bei den getätigten Arbeiten, stellt zwischendurch klärende Fragen. Es ist ferner wichtig, eine geeignete Zahl an Personen zu beobachten, da je nach Alter / Land / Firmengrösse völlig andere Arbeitsmuster möglich sind. Ein grober Ansatz sagt, dass pro Benutzerrolle mindestens 4 Personen befragt werden sollen. In den Befragungen selber soll man sich primär darauf konzentrieren, die Ziele des Benutzers zu erfahren, nicht wie er diese umsetzt. 8.4. Phase 2: Modelling 8.4.1. Grundlegendes Hier geht es um das abstrahieren von Benutzern und deren Ziele. Daraus entsteht die wichtigste Grundlage: eine präzises Modell des Benutzers und seinen Zielen. Kälin Thomas, Abt I 25/39 17.12.2007 User Interfaces 2 8.4.2. Warum Personas? Ausgehend von den vorgängig gesammelten Informationen werden nun Verhaltensmuster der realen Benutzer analysiert und in Modelle (Personas) umgesetzt. gemeinsame Personas sind darum wichtig, da ein UI-Entwurf für bestimmte Benutzer mit speziellen Bedürfnissen designed wird. Ein UI mit breiter und möglichst vielfältiger Funktionalität führt zu einem komplexeren und schwer benutzbaren UI für alle. Weiter wird durch die Formulierung von Personas erreicht, dass jeder Entwickler dasselbe Modell in seinem Kopf hat. Weiter wird vermieden, dass die Designer das UI für sich entwerfen, da genau festgelegt ist, welche Bedürfnisse und Ziele vorliegen. 8.4.3. Personas Wie bereits erwähnt wurde repräsentieren Personas eine Klasse von Benutzern, beziehungsweise ein bestimmtes Benutzungsmuster. Zur besseren Unterstützung der Designer kann den Personas sogar ein Passfoto mit Lebenslauf zugewiesen werden. Zu beachten ist, dass schlussendlich nicht nur eine Durschnitts-Persona entsteht. Für eine Aufgabe entsteht eine ganze Sammlung von Personas. Wichtig ist dabei immer, dass jede Persona eine Motivation in Form von Zielen besitzt. 8.4.4. Benutzer Rollen Als Abgrenzung zu den Benutzerrollen kann gesagt werden, dass sich diese auf die auszuführenden Aufgaben konzentrieren, nicht auf die Ziele der einzelnen Personen. Ausserdem handelt es sich um Gruppen, nicht Personas. 8.4.5. Ziele LIFE GOALS (LEBENSZIELE): tiefe Ziele, innere Motivation. („Sei der beste!“) EXPERIENCE GOALS (ERFAHRUNGSZIELE): Gefühle bei der Benutzung des Produktes („glücklich“) END GOALS (ERGEBNISZIELE): konkrete Ergebnisse aus der Produktbenutzung („Auftrag abwickeln“). Es müssen die End und Expierence Goals befriedigt werden, da sich andernfalls der Benutzer schlecht fühlt oder eine Anwendung ohne sinnvollen Nutzen entsteht. 8.4.6. Konstruktion von Personas IDENTIFY BEHAVIORAL VARIABLES: Es müssen Unterscheidungsmerkmale für die Klassifizierung einzelner Gruppen ausgearbeitet werden. Dazu können noch einige demografische Variablen hinzugefügt werden, insgesamt sollten etwa 20-30 Merkmale gefunden werden. MAP SUBJECTS TO BEHAVIORAL VARIABLES: Jetzt müssen die einzelnen befragten Personen für jedes der vorgängig gefunden Merkmale klassifiziert werden. Ein Beispiel hierzu findet sich weiter unten. IDENTIFY SIGNIFICANT BEHAVIOR PATTERNS: Nun wird probiert aus den vorgängig Positionierten Gruppen gemeinsame Elemente zu Bilden. Diesen Mustern werden Namen gegeben. Kälin Thomas, Abt I 26/39 17.12.2007 User Interfaces 2 LIST CHARACTERISTICS AND RELEVANT GOALS: Für die wichtigsten Muster werden jetzt ausführlichere Informationen zusammengetragen. Es sollten der übliche Tagesablauf und die gemeinsamen Ziele klar herausgefiltert werden. Wichtig ist hierbei, dass Ziele herausgefunden werden, da diese das wichtigste Element von GDD darstellt. CHECK FOR COMPLETENESS: Hier wird noch mal überprüft, ob die zusammengetragenen Muster wirklich komplett sind und ob es Überschneidungen gibt. DEVELOP NARRATIVE: Im letzten Schritt wird nun noch ein ausführlicher Text zu den einzelnen Mustern geschrieben. Es entsteht somit Personas. Einzelne Stichworte genügen hierbei nicht, es sollten wirklich vorstellbare Personen entstehen. Dazu können auch persönliche Details hinzugefügt werden. 8.4.7. Persona Typen PRIMARY: Für diese Persona wird das UI entworfen. Pro primäre Persona entsteht ein UI. SECONDARY: Wird durch das Interface der primären Persona befriedigt. Eventuell eine Erweiterung um 1-2 Bedürfnisse möglich. SUPPLEMENTAL: Ergänzende Persona, werden durch primäre UI befriedigt. CUSTOMER: Wird wie Sekundär behandelt. SERVED: Keine Benutzer, sind jedoch von der Benutzung des Produktes betroffen. Sollten wie sekundäre behandelt werden. NEGATIVE: Keine Benutzer, dienen zur Abgrenzung. Für diese wird nicht designed. 8.4.8. Andere Modelle WORKFLOWS: Arbeitsablauf beachten, verwendete Informationsquellen, Resultate der Arbeiten. Denkbar sind auch Abläufe zwischen mehreren Personen. Können in Aktivitätsdiagrammen aufgezeichnet werden. ARTIFACT MODEL: Sind verwendete Materialien es wert, in der Anwendung abgebildet zu werden? CULTURAL MODEL: Jede Kultur hat Ihre Unterschiede. Diese sollten in die Personas eingehen. PHYSICAL MODEL: Das physikalische Umfeld hat auch Einfluss auf die Benutzung der Applikation. 8.5. Phase 3: Requirements 8.5.1. Grundlegendes Bei dieser Phase geht es darum, die Anforderungen aufzunehmen. Dabei geht es um die benötigten Funktionen, Daten, allfällige Probleme und Randbedingungen. Anders als bei Use Cases wird hier allerdings nicht detailliert auf diese eingegangen, sondern auf nur auf einem hohen Level festgehalten. Das Ziel ist es, dass auch die Entscheidungsträger des Projekts den Text verstehen können. 8.5.2. Context Scenario Ein Context Scencario (=CS) ist eine erzählende Beschreibung von Personas. Es wird darin darauf eingegangen, wie diese ihre Ziele erreichen. Anders als bei Use Cases (=UC) wird bei CS allerdings nicht so stark ins Detail gegangen. Im Vordergrund liegen mehr die Aktionen und Ziele der Personas, weniger eine detaillierte Spezifizierung der einzelnen Tätigkeiten. 8.5.3. Unterschiede zwischen Context Scenario und Use Cases CS erzählt viel ausführlicher, eventuell einen ganzen Tagesablauf. UC enthält nur die wirklich für das System wichtigen Elemente. Bei CS steht die Person und Ihre Ziele im Vordergrund, bei UC die einzelnen Tätigkeiten und Reaktionen des Systems. 8.5.4. Vorgehen CREATING PROBLEM AND VISION STATEMENTS: Wo liegt das Problem? Was ist das Ziel? BRAINSTORMING: Bestehende Ideen werden festgehalten um den Kopf für unkonventionelle Lösungen frei zu bekommen. IDENTIFYING PERSONA EXPECTATIONS: Was erwarten die unterschiedlichen Persona? Was sind Ihre Ziele? Funktionale Anforderungen? Anforderungen an Daten? CONSTRUCTING CONTEXT SCENARIOS: Pro primärer Persona wird nun ein CS erstellt. Üblichweise wird ein optimaler Tagesablauf im realen Umfeld beschrieben. IDENTIFYING NEEDS: In den entstandenen CS werden die konkreten Bedürfnisse gesucht. Kälin Thomas, Abt I 27/39 17.12.2007 User Interfaces 2 8.6. Phase 4: Framework 8.6.1. Grundlegendes In diesem Schritt wird das UI entworfen. Dazu werden benötigte Elemente ermittelt und die räumliche, bzw. zeitliche Anordnung dieser bestimmt. 8.6.2. Vorgehen DEFINING FORM FACTOR AND INPUT METHODS: Worauf soll die Anwendung laufen? Was sind die Eingabe- und Ausgabegeräte? DEFINING VIEWS: Welche primären Screens werden zur Erfüllung der End-Goals benötigt? DEFINING FUNCTIONAL AND DATA ELEMENTS: Welche Funktionen und Daten müssen dargestellt werden? DETERMINING FUNCTIONAL GROUPINGS AND HIERARCHY: Gruppierung der Elemente, grundlegende Positionen (Beispiel: Navigation immer links) festlegen. SKETCHING THE INTERACTION FRAMEWORK: Grober Entwurf des Aufbaus. Das Interaction Framework ist eines der Artefakte von GDD. CONSTRUCTING KEY PATH SCENARIOS: Skizzierung des Hauptablauf durch das GUI. 8.7. Phase 5: Refinement 8.7.1. Grundlegendes Die in der letzten Phase erstellten Entwürfe werden nun detaillierter ausgearbeitet. Die Modelle werden ausserdem genauer beschrieben. 8.7.2. Vorgehen DRAFTING THE LOOK AND FEEL: Visuelles Design festlegen. Das könnten zum Beispiel die Schriftart, Schriftfarbe, Abstände und ähnliches beinhalten. CONSTRUCTING VALIDATION SCENARIOS: Die Screens und Views für die weniger wichtigen Ziele werden entworfen. Hierbei handelt es sich um Erweiterung von bestehenden Abläufen und oft auch Grenzfallabdeckungen. FINALIZING THE DESIGN: Aus all dem wird nun ein endgültiger GUI-Entwurf erstellt, eventuell sogar mit Prototyp. Kälin Thomas, Abt I 28/39 17.12.2007 User Interfaces 2 8.8. GDD-Überblick Kälin Thomas, Abt I 29/39 17.12.2007 User Interfaces 2 9. LOW-FIDELITY PROTOTYPING 9.1. Warum Prototypen Prototypen werden dazu eingesetzt, ein frühes Feedback zu unserem Design zu erhalten. Ausserdem können mit ihrer Hilfe verschiedene Lösungsansätze miteinander verglichen und Anforderungen auf Richtigkeit geprüft werden. 9.2. Warum Low-Fidelity? Der Ausdruck „Low-Fidelity“ sagt aus, dass es sich hierbei um Prototypen auf sehr tiefem Niveau handelt, also um Skizzen ohne grosse Details. Übliche Methoden (Visio, GUI-Bilder) benötigen sehr viel Zeit. Mittels Prototypen auf tiefem Niveau kann sehr viel Zeit eingespart werden, ausserdem sind keine teuren Anschaffungen nötig. Da bei dieser Idee keine reale Implementierung existiert, muss einer der Designer dabei natürlich immer den Computer „spielen“, bzw. die Reaktionen des Computers der Testperson erläutern. Als Nachteil muss erwähnt werden, dass das Umsetzen von Low-Fidelity Prototypen in ein elektronisches Format nicht automatisiert werden kann. Auch das Archivieren von Entwürfen in Papierform ist aufwendiger (Scannen, …). 9.3. Paper Prototyping Hier wird mit üblichen Bastelutensilien (Papier, Stifte, Post-It, Schere, Leim) ein UI entworfen, welche anschliessend mit einer Testperson durchgespielt wird. Aktionen des Systems werden dabei vom Designer vorgenommen. Ein weiterer Vorteil hierbei ist, dass die Designer in Ihren Ideen nicht durch ein Design-Tool eingeschränkt sind. Ferner wird die Ideensammlung angeregt. 9.4. SILK Zu erwähnen bleibt hier noch SILK. Hierbei handelt es sich um eine Software, mit welcher UI-Skizzen gezeichnet werden können. Die SW erkennt anschliessend anhand der gezeichneten Formen die Funktion, bzw. Bedeutung des jeweiligen Element. Darauf hin kann in einen Testmodus geschaltet werden, in welchem das GUI direkt am Computer getestet werden kann. Kälin Thomas, Abt I 30/39 17.12.2007 User Interfaces 2 10. USER INTERFACE TESTS 10.1. Labor- und Feldtests Der grosse Vorteil von Feldtests ist, dass diese im natürlichen Arbeitsumfeld stattfinden und somit auch über längere Zeit problemlos durchgeführt werden können. Allerdings muss man dabei auch die entstehenden Störeinflüsse (Lärm, Unterbrechung) in Kauf nehmen. Üblicherweise werden Feldtests dann eingesetzt, wenn das Arbeitsumfeld wichtig ist. Im Labor hingegen kann auf ein spezialisiertes Equipment und eine ruhige Atmosphäre zurück gegriffen werden. Allerdings fehlt somit natürlich das reale Umfeld. Für gewöhnlich werden Labortests dann eingesetzt, wenn das reale Umfeld zu gefährlich ist oder der Benutzer „beeinflusst“ werden soll. 10.2. Typen von UI Tests 10.2.1. Cognitive Walkthrough Beim Cognitive Walkthrough wird die Erlernbarkeit der Anwendung durch einen Experten überprüft. Der Experte geht dabei ein Entwurf / Konzept Schritt für Schritt durch und überprüft es auf potentielle Probleme. Benötigt werden dafür eine Spezifikation oder ein Prototyp mit den zugehörigen Aufgaben. 10.2.2. Heuristic Evaluation Bei diesem Test wird ein Design auf Basis von 10 Usability Kriterien überprüft. Das Hauptziel ist es dabei, grundlegende Design-Probleme zu erkennen und beheben. 10.2.3. Experimental Evaluation Hier wird im Labor eine konkrete Implementierung mit Testgruppen überprüft. Dabei werden oft verschiedene Varianten miteinander verglichen. Es steht offen, ob eine Testgruppe immer alle Varianten überprüft oder nur jeweils eine einzelne. Die Beobachter legen sich für die Durchführung messbare Testkriterien fest, welche anschliessend statistisch ausgewertet werden. 10.2.4. Query Techniques Hier wird zwischen Interviews und Fragebögen unterschieden. Vorteil der Interviews ist es, dass auf spezielle Antworten genauer eingegangen werden kann. Dafür benötigen sie sehr viel Zeit. Bei Fragenbögen hingegen ist es umgekehrt: es kann schnell eine grosse Zielgruppe erreicht werden, allerdings kann bei unklaren Antworten nicht detaillierter darauf eingegangen werden. Kälin Thomas, Abt I 31/39 17.12.2007 User Interfaces 2 10.2.5. Eye Tracking Hier wird über eine spezielle Hardware die Augenbewegungen der Testperson verfolgt. Je mehr Augenbewegungen bei der Bedienung der Anwendung nötig sind, desto komplexer ist diese auch. Wird oft für Websites verwendet, damit man herausfindet, wohin die Benutzer als erstes schauen. 10.2.6. Observation Ein sehr grosse Kategorie, in welcher viel möglich ist. Detaillierter auf diesen Punkt wird bei den „Usability Tests“ eingegangen. Gemeinsamkeiten aller Lösungen: Es wird meist eine konkrete Implementierung durch eine Testperson verwendet, die Beobachter schauen bei der Verwendung zu. 10.3. Usability Tests 10.3.1. Einleitung Bei Usability Tests wird eine Anwendung (oder ein Gerät) auf ihre Bedienbarkeit geprüft. Dazu wird mit Versuchspersonen unter Beobachtung im Testlabor ein Test durchgeführt. Das grösste Problem bei UT sind, dass ein funktionsfähiges System benötigt wird. Daher sind sie meist erst gegen Ende der Programmierung durchführbar, anschliessende Änderungen werden somit sehr teuer bzw. sind gar nicht mehr möglich. Allerdings können gut alte Produkte oder Konkurrenzprodukte vor einer Neuprogrammierung getestet werden. 10.3.2. Usability Labor Üblicherweise wird der Test in einem Labor durchgeführt. Dabei existiert ein Test- und ein Auswertungsraum. 10.3.3. Usability Test Light Da in der Realität nicht immer ein voll ausgestattetes Labor verfügbar ist kann der Test auch in einer abgespeckten Form durchgeführt werden. Dabei arbeitet die Testperson an einem Computer und wird dabei durch den Facilitator durch die Aufgabe geführt. Über eine Kamera werden die Aktionen aufgezeichnet und in einem separaten Raum durch Beobachter / Entwickler mitverfolgt. 10.3.4. Aufgaben der Personen Testperson: Führt den Test durch. Facilitator: Einzige Ansprechperson für Testperson. Sollte den Test mindestens einmal vorher selber gemacht haben und sich in die Testperson einfühlen können. Allerdings sollten die Testpersonen nicht in ihrer Tätigkeit gelenkt werden. Beobachter: Hat keinen direkten Kontakt zur Testperson. Konzentriert sich darauf, die Beobachtungen zu dokumentieren. Auch die Entwickler befinden sich im „Beobachtungsposten“. 10.3.5. Vorbereitung und Durchführung Begrüssen, Labor und Test erklären. Klar machen, dass die Software und nicht die Person getestet wird, anschliessend die Aufgaben und den Ablauf („Lautes Denken erwünscht!“) erklären. Anschliessend den Test durchführen, dabei mit Kamera aufzeichnen 10.3.6. Auswertung Das Video anschauen und die einzelnen Beobachtungen untereinander diskutieren. Auch Fragebögen sind möglich. Das ganze wird anschliessend in einem Bericht festgehalten. Kälin Thomas, Abt I 32/39 17.12.2007 User Interfaces 2 11. UI DESIGN IM WEB 11.1. Posture für SW-Anwendungen 11.1.1. Sovereign Posture Die Applikation beherrscht den Desktop und wird vom Benutzer lange Zeit mit hoher Aufmerksamkeit bedient. Beispiele: Word, Excel. 11.1.2. Transient Posture Hierzu gehören kleine Applikationen und Fenster, welche nur kurz am Rande verwendet werden. Danach werden sie gleich wieder geschlossen. Beispiele: Lautstärkeregelung, Taschenrechner. 11.1.3. Daemonic Posture Anwendungen dieser Kategorie laufen unsichtbar im Hintergrund und sind meist nur als Icon in der Status-Bar ersichtlich. Beispiel: Druckvorgang. 11.1.4. Auxiliary Posture Diese Gruppe wird innerhalb einer sovereign als Hilfsfenster verwendet. Beispiel: Hilfe im Internet Explorer. 11.2. Begriffe 11.2.1. Website Eine Website bietet dem Benutzer hauptsächlich Informationen an. Von der Darstellung her handelt es sich dabei um ein sovereign Posture (bildschirmfüllend), vom Verhalten allerdings um ein transient Posture (nur kurze Benutzung, Klick auf einen Link). 11.2.2. Webapplication Webapplikationen haben die Eigenschaft, dass diese transaktional verwendet werden. Es werden Ansichten dynamisch aus einer Datenbank generiert, das Verhalten ist wichtiger als der Inhalt. Hier kann man zwischen drei Kategorien unterscheiden. Die erste Kategorie sind APPLETS, also nur sehr kleine Anwendungen und fallen somit in die Kategorie transient Posture. Dann gibt es ECOMMERCE-Anwendungen, welche nur die Aktivität transient anbieten (Kauf). Und die letzte Gruppe sind SOVEREIGN ANWENDUNGEN, welche sich wie SW-Anwendungen verhalten, beispielsweise ein Webmail. 11.3. Web vs GUI Eine GUI-Anwendung wird üblicherweise gekauft und installiert, anschliessend für einen bestimmten Zweck eingesetzt. Daher sind die Benutzer auch bereit, Zeit in das Erlernen der Applikation zu investieren. Bei Web-Anwendungen ist das anders. Hier wollen die Benutzer Informationen gratis erhalten, möglichst ohne Zeitverlust. Das heisst für uns also, dass die Webseiten auch ohne Nachdenken klar verständlich sein müssen. („Don’t make me think!“) 11.4. Facts of Life (Krug) 11.4.1. We don’t read pages, we scan them. Kälin Thomas, Abt I 33/39 17.12.2007 User Interfaces 2 Benutzer sind üblicherweise nicht bereit komplette Texte zu lesen. Deshalb sollten wir in erster Linie Akzente setzen (Titel, Schlüsselwörter, Bilder) um den scannenden Surfer zu einem lesenden Surfer zu machen. Die relevanten Inhalte müssen klar ersichtlich sein, lange Texte sollten durch Hervorhebungen und Zusammenfassungen zum skimmen einladen. 11.4.2. We don’t make optimal choices, we satisfice. Benutzer betrachten nicht erst alle Optionen und wählen anschliessend die beste. Benutzer gehen durch die Liste und wählen die erste Möglichkeit, welche vernünftig erscheint und zufrieden stellend ist. Möglicher Grund: Es gibt keine Bestrafung für falsche Selektionen, wir haben keine Zeit für eine ausführliche Analyse. 11.4.3. We don’t figure out how things work. We muddle through. Kennen wir alle: wer liest beim Kauf eines neuen Gerätes schon die komplette Bedienungsanleitung durch? Lieber gleich ausprobieren und sich irgendwie „durchwursteln“. Dasselbe gilt für die Bedienung einer Website. 11.5. Kommunikation Eine Website ist auch eine Art der Kommunikation. Sie kann dabei als indirekt, unpersönlich, unfokussiert, unsymmetrisch, unverbindlich, selbstbezogen und humorlos charakterisiert werden. Wie wir ausserdem seit KomIng wissen: wer kommuniziert definiert die Beziehung. Wir müssen beim Benutzer deshalb positive Gefühle erzeugen. Dies kann durch Verständlichkeit der Inhalte und nonverbale Kommunikation (Schrift, Look & Feel, Sprachwahl) unterstützt werden. 11.6. Motiviation / Demotivation MOTIVIEREND: Erotik, Auktionen, Communities, Service, Spiele DEMOTIVIEREND: Blabla, Werbung, Flash-Intros, Wartezeiten 11.7. User-Typen SCHNUPPERER: orientiert sich an Offline-Marken, wechselt schnell von Seite zu Seite. Sehr viele verschiedene Themengebiete. CONVENIENCE: hat lange Erfahrung im Netz, sucht nach Nützlichem. Verbringt wenig Zeit auf einer Website und besucht auch weniger als der Durchschnitt. KONTAKTER: Neu im Web, besucht wenige Seiten. Oft nur Maildienste, 61% Frauen. ROUTINIERS: Sucht schnell und gezielt, verbringt wenig Zeit online. Liest hauptsächlich News und Information, diese dafür länger als der Durchschnitt. SURFER: Nutzt ein sehr breites Angebot, gehen jeden Trend mit. 88% Männer. SCHNÄPPCHENJÄGER: Stöbert und kauft, hauptsächlich bei Auktionen anzutreffen. ENTERTAINMENT: Surfen zur Unterhaltung, oft für Hobbies oder Spiele. Sind lange im Netz und verbringen durchschnittlich doppelt so viel Zeit auf einer Website als normale Benutzer. Kälin Thomas, Abt I 34/39 17.12.2007 User Interfaces 2 11.8. Gestaltungsaspekte fürs Web 11.8.1. Prinzipien Bei ENTSCHEIDUNGEN kommt es zu einer Handlungstendenz durch höheren Nutzen, geringere Nähe oder geringere Kosten. Deshalb sollte man die Alternativen in einem überschaubaren Rahmen halten, Attraktivität der Ziele verdeutlichen und die Distanz zu den wichtigen Elementen minimieren. Andernfalls droht die Gefahr durch Ablenkung durch weniger nützliches. Für HANDLUNGEN ist entscheidend, wie viel Aufwand zur Erreichung eines Zieles betrieben werden muss. So kann man als Beispiel sagen, dass durch jeden Klick vom Start zum Ziel 20% der Benutzer verloren gehen. Daraus folgt, dass Handlungen strukturiert und möglichst einfach /schnell durchgeführt werden sollten. Auch eine Rückmeldung nach jedem Teilschritt bringt Vorteile. 11.8.2. Sprache Die Sprache sagt viel über die Beziehung zwischen Autor und Leser aus. Eine DIALOG-ÄHNLICHE („Wir begrüssen Sie“) ist dabei einer BESCHREIBENDEN („Die Firma X begrüsst Ihre Kunden“) Schreibweise vorzuziehen. Ein anderer Aspekt ist die Unterscheidung zwischen DEONTATION (Bedeutung des Begriffes, bewusst wahrgenommen) und KONNOTATION (Gedankenverbindung, unbewusst wahrgenommen). Gerade die Konnotation hat für jeden Leser eine unterschiedliche emotionale Bedeutung. So sollte man bei wichtigen immer überlegen, was für Gefühle (einladen / abschreckend, interessant / langweilig, …) beim Leser erzeugt werden könnten. Nachfolgend ein Beispiel dazu: Als letztes Thema zu „Sprache“ soll hier noch die NAVIGATIONSMÖGLICHKEIT dieser erläutert werden. Falls diese für die Navigation eingesetzt werden soll, so muss diese eindeutig, überschneidungsfrei und vertraut sein. Es ist jedoch trotz allem schwierig, gute Menüs zu realisieren, da die Kommunikationsfähigkeiten stark begrenzt sind. Aus diesem Grund ist Moderation zu empfehlen. Dabei handelt es sich um an die Nutzer gerichtete kurze Textpassagen, welche bei Navigationsentscheidungen hilft. 11.8.3. Bilder Bilder brauchen ausreichend FLÄCHE, um zu wirken. Darum ist es besser, weniger Bilder zu verwenden, diese dafür grösser zu machen. Auch muss man ständig beachten, dass bei der Verwendung von Bildern die Ladezeiten stark ansteigen können. Aus diesen gründen sollten diese sehr sorgfältig gewählt werden. Es ist zwar grundsätzlich möglich, eine Seite ganz ohne Bilder zu gestalteten (was umgekehrt nicht klapp!), allerdings sind diese für die Ästhetik einer Seite wichtig. Falls man Bilder als NAVIGATION verwenden will, so müssen diese immer mit einem Text versehen werden. Nur so werden diese auch wirklich richtig verstanden. Es gibt allerdings auch einige, wenige Ausnahmen (Haus, Lupe, Drucker). Kälin Thomas, Abt I 35/39 17.12.2007 User Interfaces 2 Ähnliches gilt auch für normale Bilder. Diese sollten immer mit einer BILDUNTERSCHRIFT versehen, da diese die Aussage des Bildes beeinflusst. Andernfalls werden diese wohlmöglich falsch verstanden und interpretiert. Ein anderes hier noch zu erwähnendes Thema sind Key Visuals. Bei diesen Schlüsselbilder handelt es sich um Symbole, welche bestimmten Inhaltsbereichen zugeordnet werden. So sind zum Beispiel alle Seiten zum Thema „Finanzen“ mit einer Geldnote markiert. 11.8.4. Wahrnehmung Wir haben zwei getrennte Varianten der visuellen Verarbeitung, die zentrale und periphere Wahrnehmung. Diese werden wie folgt charakterisiert: Wenn wir obige Tabelle analysieren, so können wir daraus ableiten, dass ANIMATIONEN die periphere Wahrnehmung aktiviert. Dadurch wird der Seitenbesucher jedoch in seinem Denkvorgang gestört und vom wesentlichen abgelenkt. Animationen sollten darum nur dann eingesetzt werden, wenn diese auch wirklich verwendet werden sollen (Wetterkarte, Bewegungsablauf). Auch FLASH-INTROS lenken nur unnötig vom wesentlichen Inhalt ab und werden deshalb meist übersprungen. Um die AUFMERKSAMKEIT eines Benutzers zu gewinnen können Grösse, Kontrast, Farbe, Position und Reihenfolge eingesetzt werden. Ziel: Auf allen Seiten den Benutzer lenken und auf Wichtiges hinweisen. Dasselbe Ziel verfolgen die EYE-CATCHER, welche auf der Startseite eingesetzt werden. Nachfolgend die üblichen Mittel: BEWEGUNG: höchste Wirksamkeit, stören allerdings schnell. Vorsichtig einsetzen. FARBEN: Besonders rot wirkt, Buntheit ist störend. AUGEN: Erzeugt eine Alarmwirkung beim Benutzer. GESICHTER & MIMIK: Unser Gehirn ist auf Gesichter spezialisiert (Kommunikation). EROTISCHE SIGNALE: Hoher Reiz, jedoch kaum in seriösem Umfeld einsetzbar. 11.8.5. Navigation und Orientierung Beim Suchen wird zwischen zwei User-Typen unterschieden: dem LINK-DOMINANTEN und dem SUCHBOX-DOMINANTEN. Der erste klickt sich dabei lieber durch Hierarchien, der zweite verwendet ein Suchfeld. Beim Browsen (Link-Dominanter Typ) existiert allerdings das Problem, dass man meist keinen Überblick über die Grösse einer Website hat. Auch der Orientierungssinn ist ohne Hilfsmittel nicht zu gebrauchen. Hauptziel einer Navigation muss es deshalb sein, dem Besucher mitzuteilen wo er ist (Orientierung) und ihn bei seiner Suche nach der gewünschten Information zu unterstützen. Bei einer PERSISTENTEN NAVIGATION ist diese auf jeder Seite immer an demselben Ort vorhanden. Ein Logo sollte dabei mitteilen, auf welcher Seite man sich gerade befindet. Die Kategorien sollten in Sektionen (Hauptgruppen) und Untersektionen (Untergruppen der aktuellen Hauptgruppe) gegliedert Kälin Thomas, Abt I 36/39 17.12.2007 User Interfaces 2 werden. Auch Utilities (Links zu wichtigen Elementen: Home, Kontakt, …) dürfen nicht fehlen. Nachfolgend die Website von Amazon als gutes Beispiel: Logo (ID), Hauptgruppe und Untersektionen sowie Utilities sind vorhanden. Einzig die Suchbox kann bemängelt werden. Besser wäre eine einfacheres Inputfeld mit einem „Suchen“-Button. Eine weitere Navigationshilfe sind BROTKRUMEN. Diese befinden sich jeweils ganz oben auf einer Website und zeigen, in welcher Kategorie man sich gerade befindet. Der letzte Eintrag sollte dabei immer fett formatiert sein. Sie sind hier: Home > Arts > Visual Arts > Phototgraphy 11.8.6. Home Page Die Gestaltung der Home Seite ist ein komplexes Problem. Es gilt viele Dinge auf sehr wenig Platz unterzubringen. Hier einige Beispiele: Aufgabe, Hierarchie, Suchfunktion, Shortcuts. Unverzichtbares Hauptziel ist es jedoch auf jeden Fall, dem Besucher das BIG PICTURE zu übermitteln: Was ist das? Was gibt es? Was kann ich tun? Eine (und auch die beste) Möglichkeit dazu sind TAGLINES. Dabei handelt es sich um kurze Slogans, welche neben der Seiten-ID (Logo) stehen. Sie sollten klar, informativ und clever gewählt werden. Taglines sollten immer verwendet werden, ausser es handelt sich um sehr grosse Firmen wie eBay. Eine andere Möglichkeit sind WELCOME BLURBS. Dabei handelt es sich um einen Willkommenstext, welcher dem Benutzer mitteilt, was er auf der Seite erwarten kann. Auf der Startseite kann ausserdem ausnahmsweise auch eine andere NAVIGATION verwendet werden – sofern diese nicht allzu anders ist. Denkbar ist eine ausführlichere Version, beispielsweise mit beschreibendem Text. Um Platz zu sparen werden oft Rollovers oder Pulldowns verwendet. Nachteil: diese sind schwerer lesbar und müssen zuerst gefunden werden. Weitere vermeidenswerte Inhalte für die Startseite: Zu viel Promotion, zu viel Cross-Promotion (Werbepartner, zu viel und zu klein) und die Gier nach User-Daten (Registrierung vor Angebot nötig). Kälin Thomas, Abt I 37/39 17.12.2007 User Interfaces 2 12. USER INTERFACE VIELFALT 12.1. Gadgets 12.1.1. Scrollbar Problem: Wenn zuviel gescrollt muss für die Korrektur ein langer Weg zurückgelegt werden. Weiterentwicklung: An beiden Enden „Doppelpfeile“, verkürzt Weg. Ausserdem benötigt die Bar viel Platz für wenig Funktionalität. Zur Verbesserung werden beim Scrollen oft Titel angezeigt oder Lesezeichen ermöglicht. 12.1.2. Spin-Buttons / Slide-Spinner Kennen wir von Eingabefeldern. Diese sind oft mit kleinen Pfeilen zum Ändern der Werte im Feld ergänzt. Ein Slide-Spinner ist eine Weiterentwicklung, wobei bei langem drücken des Spin-Buttons ein Slider angezeigt wird, um schneller die Werte zu verändern. 12.1.3. Message Box Problem: modaler Dialog, stoppt laufende Aktivität und verdeckt die Arbeitsfläche. Zeitverlust beim Arbeiten, eventuell sogar Verlust von Informationen im STM. Alternative: Transparente Boxen, welche bei Click oder Tastendruck verschwinden. 12.1.4. Exctraction Controls Kennt man von Outlook 2003. Dort wird beim Eintippen einer Adresse automatisch die jeweiligen Feldinformationen richtig auf die Kontaktinformationen zugeteilt. Auch Datumsfelder erkennen oft intelligent verschieden Datumsformate. 12.1.5. Fisheye Menu Kennt jeder Mac-User: Beim näher kommen mit dem Mauszeiger vergrössern sich einzelne Objekte. Weiter entfernte Objekte werden nur sehr klein angezeigt. So können lange Listen (Schriften, Namen, …) kompakter anzeigen. 12.1.6. Flow Menu Bekannt aus Videospielen. Ein Menu ist konzentrisch um den Mauszeiger arrangiert, durch Auswählen der Buttons auf dem Kreis erscheinen andere Menus. Vorteil: Kein weites „scrollen“ nötig, alles direkt beim Zeiger ausführbar. 12.2. Filesystem 12.2.1. Files & Save Das Implementierungsmodell (HD -> RAM -> HD) erzeugt beim Programmierer den Eindruck, dass Daten „gespeichert“ werden. Für den Benutzer ohne Vorkenntnisse ist dies jedoch absolut unverständlich, will er doch beim Ändern eines Textes, dass seine Anpassungen übernommen werden, speichern bedeutet ihm nichts! Ein weiteres Beispiel ist die „Save as…“-Option. Man könnte fälschlicherweise annehmen, dass dabei eine Kopie gespeichert wird. Allerdings wird mit der Datei fortgefahren, die gerade gespeichert wurde, also dem neuen Namen. Idee zur Reduzierung des Problems ist eine Umgestaltung des „Datei“-Menus. Dabei sollen aussagekräftigere Beschriftungen gewählt werden („Save as…“ => „Rename“), welche besser mit dem mentalen Modell der Zielperson übereinstimmen. 12.2.2. Andere Strukturen Es gibt verschiedene Ansätze, welche probieren, eine Dateisystem ohne Dateien oder Dateinamen zu realisieren. Die Struktur wird dabei vom System selber erstellt und ist für den Enduser nicht ersichtlich. Dies ist für Power-User allerdings eine riesige Umgewöhnung! Beispiel: Jedes Dokument trägt einen Titel, über die Volltextsuche kann dann nach dem benötigten Dokument gesucht werden. Kälin Thomas, Abt I 38/39 17.12.2007 User Interfaces 2 12.3. Suchen 12.3.1. Typische Suchemaske Eine typische Suchmaske besitzt ein Eingabefeld und einen Button. Erst beim Click auf diesen Button wird gesucht, was eventuell sehr lange dauern kann. 12.3.2. Inkrementelles Suchen Hierbei haben wir auch ein Eingabefeld, allerdings beginnt die Suche bereits nach dem 1. Buchstaben und wir bei jeder weiteren Eingabe verfeinert. Hier ist somit kein Button mehr nötig, was die Suche beschleunigt. 12.3.3. Sonderzeichen Können mittels zusätzlichem Menu oder Kürzel eingegeben werden. Einige Zeichen („Eingabetaste“) könnten auch so erkannt und in einen Zeichencode umgesetzt werden. 12.3.4. Suchen nach Multimedia Viele Multimedia-Daten können nicht einfach so erfasst werden. Darum ist für eine sinnvolle Erfassung ein „Tagging“ mit Beschreibung zu den Multimedia-Dateien dringend nötig. 12.3.5. Filter- und Such-Interfaces Hierbei wird für die Suche ein Filtersystem eingesetzt. Über Aktivierung bestimmter Parameter (Alter, Geschlecht, …) werden die Suchergebnisse immer mehr eingegrenzt. 12.4. Visualisieren Zu diesem Punkt gibt es nicht viel zu sagen. Die Unterlagen bestehen hauptsächlich darin, dass Videos von besonderen Visualisierungen („Alice im Wunderland“) gezeigt wurden. 12.5. Zoomable Interfaces 12.5.1. Beschreibung ZOI zeichnen sich dadurch aus, dass die Navigation durch Zoom-In und Zoom-Out Aktionen durchgeführt wird. Bei einem Zoom-In werden dabei mehr Details sichtbar, bei einem Zoom-Out wird der sichtbare Ausschnitt grösser, allerdings gehen Details verloren. 12.5.2. Anwendung Wird hauptsächlich für navigationslastige Anwendungen (Dateisysteme, Informationssysteme) eingesetzt. Hauptziel: grober Überblick gewinnen, anschliessend Details von bestimmten Elementen anschauen. 12.6. Neuartige Anwendungen In diesem Kapitel werden Anwendungen vorgestellt, welche die üblichen Lösungen überarbeiten und neue Interaktionskonzepte einbringen. Meist geht es darum, die Probleme und Schwierigkeiten mit bestehenden Lösungen zu entfernen. 12.7. Augmented Reality, Tangible UI’s 12.7.1. Virtual Reality Bei der VR wird vom Computer eine komplette Welt generiert und simuliert. Wird hauptsächlich dann eingesetzt, wenn die reale Welt zu teuer oder gefährlich wäre. Ein anderer Einsatzbereich sind natürlich die Videospiele. 12.7.2. Augmented Reality Hier wird die reale mit der virtuellen Welt kombiniert. Dies bedeutet, dass über die reale Welt simulierte Bilder gelegt werden. 12.7.3. Tangible User Interface Bei einem TUI interagiert der Benutzer mit einem physikalischen Objekt. Die durchgeführten Aktionen werden anschliessend vom Computer berechnet und auf das virtuelle Objekt umgewandelt. Vorteil dieser Variante: Der Benutzer ist sie gewöhnt, mit physikalischen Objekten zu interagieren. Kälin Thomas, Abt I 39/39 17.12.2007