• Klassifizierung von Gesten für HCI

    Seit über einem Monat gab es auf unserem Blog keinen neuen Eintrag mehr. Das lag daran, dass wir intenstiv an unserer Bachelorarbeit gearbeitet haben, die nun abgeschlossen ist. In nächster Zeit wollen wir nach und nach ein paar ausgewählte Teile unserer Arbeit veröffentlichen. Los geht es mit ein paar wichtigen Grundlagen zum Interface- und Interaktiondesign für Touchscreens.

    Klassifizierung von Gesten

    Gesten sind ein bedeutender Aspekt bei der Interaktionsgestaltung für Multitouch-Systeme. Für den HCI-Bereich entwickelten Pavlovic, Sharma und Huang (1997, S. 5-7) eine Klassifizierung von Gesten auf Basis der Arbeit von Quek. Nach diesem Modell werden Hand- und Armbewegungen in unbeabsichtigte Bewegungen sowie (beabsichtigte) Gesten unterteilt. Eine Unterscheidung im Bereich der Gesten trennt manipulative und kommunikative Gesten voneinander. Weitere Überlegungen von Pavlovic et al. beziehen sich auf den kommunikativen Aspekt von Gesten. Für das Interaktionsdesign im Hinblick auf Multitouch-Bildschirme sind diese jedoch weniger wichtig.

    Klassifizierung von Gesten für HCI nach Pavlovic et al.

    Klassifizierung von Gesten für HCI nach Pavlovic et al.

    Rahimi und Vogt (2008, S. 48-50) erweitern daher obiges Modell um drei Kategorien zur Manipulation von Objekten: Bewegungsverfolgung, kontinuierliche Gesten und symbolisch-manipulative Gesten. Gesten in der Kategorie Bewegungsverfolgung sind entsprechenden Gesten in der realen Welt sehr nahe. Die Bewegungsverfolgung zeichnet sich durch direkten Einfluss auf Position und Ausrichtung eines Objektes sowie durch unmittelbares Feedback aus. Rahimi und Vogt nennen Verschieben und Rotieren als Beispiele hierfür. Kontinuierliche Gesten haben keine direkte Entsprechung in der realen Welt, lassen sich aber von dort ableiten. Das Vergrößern und Verkleinern eines Bildes mit zwei Fingern gehört in diese Kategorie. Symbolisch-manipulative Gesten dagegen sind abstrakt und mit einem gewissen Lernaufwand verbunden. Sie haben keine Entsprechung in der physikalischen Welt, bieten aber zahlreiche Möglichkeiten für die Interaktion mit einem Multitouch-System. Der sogenannte „Flip“ (dt. umblättern, umdrehen, schnipsen) ist ein Beispiel für eine solche Geste. Dabei wird mit einem Finger z.B. über ein CD-Cover gestrichen, damit dieses sich dreht und die CD-Titel auf der Rückseite anzeigt.

    Im Jahr 2010 präsentierten Le Hong und Biesterfeldt eine Studie zur Untersuchung kultureller Unterschiede und Gemeinsamkeiten bei der gestenbasierten Bedienung von Multitouch-Oberflächen (Biesterfeld & Le Hong, 2010). Teil dieser Studie ist eine Sammlung empfohlener Gesten. Interessant sind dabei zwei Gesten, die nicht in die oben genannten Kategorien passen. So empfehlen Le Hong und Biesterfeld das Zeichnen des Buchstabens X auf ein Objekt, um dieses zu löschen sowie das Zeichnen eines Fragezeichens, um das Hilfemenü aufzurufen (2010, S. 44-45).

    Erweiterte Klassifizierung von Gesten für HCI

    Erweiterte Klassifizierung von Gesten für HCI

    Um dieser neuen Gestenkategorie gerecht zu werden, soll im Rahmen dieser Arbeit ein Vorschlag für ein neues Modell zur Klassifizierung von Gesten gemacht werden. Die neue Klasssifizierung  erweitert die Kategorie der manipulativen Gesten und wird in der obigen Abbildung dargestellt.
    Die erste Unterscheidung trennt in „Direkt“ und „Indirekt/Symbolisch“.

    Direkte Gesten zeichnen sich durch direkte Auswirkung auf ein Objekt (Position, Größe, Ausrichtung, Ansicht etc.) sowie unmittelbares Feedback aus. Sie sind Gesten in der realen Welt sehr ähnlich oder können von dort abgeleitet werden. Indirekte/symbolische Gesten dagegen sind abstrakt und haben keine unmittelbaren Auswirkungen auf ein Objekt. Das Objekt wird erst dann manipuliert (z.B. gelöscht) wenn die Geste komplett ausgeführt wurde. Diese Tätigkeit ist mit Schreiben oder Zeichnen in der physikalischen Welt vergleichbar. Das Zeichnen des Buchstabens X auf ein Objekt, um dieses zu löschen, gehört in die Kategorie der indirekten/symbolischen Gesten. Diese Art von Gesten ist sehr abstrakt und erfordert ein ausgeprägtes Vorwissen. Außerdem hängen symbolische Gesten, ähnlich wie kommunikative Gesten, vom Kulturkreis des Nutzers ab (Le Hong & Biesterfeldt, 2010, S. 34).
    Die Kategorie der direkten Gesten gliedert sich in „Physikalisch“ und „Abstrakt“. Physikalische Gesten sind alle Gesten, die eine direkte Entsprechung in der realen Welt haben. Dieser Bereich deckt sich mit der Kategorie Bewegungsverfolgung von Rahimi und Vogt. Ein Beispiel hierfür ist das Verschieben eines Elementes auf dem Bildschirm. Von den physikalischen Gesten werden abstrakte Gesten unterschieden. Hier sind alle Gesten enthalten, die aus der realen Welt abgeleitet sind. Abstrakte Gesten können durch mentale Modelle und Metaphern unterstützt werden, müssen aber dennoch gelernt werden. Die kontinuierlichen und symbolisch-manipulativen Gesten, wie sie Rahimi und Vogt definieren, gehören beide in diese Kategorie. Ein Beispiel für eine solche abstrakte Geste ist das Auseinanderbewegen von zwei Fingern, z.B. auf einem Bild, um dieses zu Vergrößern (sog. Pinch-to-Zoom).

    Verwendung von Gesten

    Etablierte Gesten für die Interaktion mit Multitouch-Systemen

    Etablierte Gesten für die Interaktion mit Multitouch-Systemen

    Bei der Entwicklung einer Multitouch-Anwendung muss darauf geachtet werden, dass die verwendeten Gesten möglichst intuitiv und einfach auszuführen sind. Obwohl es noch keine Richtlinien zur Interaktion mit Multitouch-Systemen gibt, haben sich inzwischen trotzdem einige Interaktionsmuster etabliert. Dazu gehören z.B. die Gesten für das Aktivieren, Bewegen, Rotieren und Skalieren von Objekten, wie sie in obiger Abbildung zu sehen sind (Rahn & Ziegler, 2009, S. 46). Im Rahmen der bereits erwähnten Studie empfehlen Le Hong und Biesterfeld (2010, S. 40-47) außerdem Gesten für verschiedene Aktionen, wie z.B. „Weiter“, „Annehmen/Bestätigen“ oder „Rückgängig machen“. Dabei betonen sie aber die Vorläufigkeit ihrer Empfehlungen und planen eine weitere Studie, um ihre Gesten-Sammlung zu überprüfen.

    Ressourcen:

    • Rahn, K. & Ziegler, V. (2009). Touch & Find – Konzept und Gestaltung einer Multitouch-Anwendung zur
      visuellen Unterstützung bei der Informationssuche. Unveröffentliche Bachelor-Thesis, Hochschule der
      Medien, Stuttgart. Die Bachelorarbeit wurde ebenfalls in einem Blog dokumentiert.
    • Rahimi, M. & Vogt, M. (2008). Gestenbasierte Computerinteraktion auf Basis
      von Multitouch-Technologie. Unveröffentliche Bachelorarbeit, Hochschule für Angewandte Wissenschaften Hamburg. Zugriff unter http://users.informatik.haw-hamburg.de/~ubicomp/arbeiten/bachelor/rahimi_vogt.pdf
    • Pavlovic, V., Sharma, R., Hunag, T. (1997). Visual Interpretation of Hand Gestures for Human-Computer Interaction: A Review. IEEE, Vol. 19, No. 7. Zugriff unter http://www.cs.rutgers.edu/~vladimir/pub/pavlovic97pami.pdf

    Schlagwörter: , , ,

Dieser Artikel hat noch keine Kommentare.


Sag und deine Meinung!