2:00pm - 2:30pmAuditory Display for Improving Free-hand Gesture Interaction
David Black1,2,3, Bastian Ganze4, Julian Hettig4, Christian Hansen4
1University of Bremen, Bremen, Germany; 2Fraunhofer MEVIS, Bremen, Germany; 3Jacobs University, Bremen, Germany; 4Otto von Guericke University, Magdeburg, Germany
Free-hand gesture recognition technologies allow touchless interaction with a range of applications. However, touchless interaction concepts usually only provide primary, visual feedback on a screen. The lack of secondary tactile feedback, such as that of pressing a key or clicking a mouse, in interaction with free-hand gestures is one reason that such techniques have not been adopted as a standard means of input. This work explores the use of auditory display to improve free-hand gestures. Gestures using a Leap motion controller were augmented with auditory icons and continuous, model-based sonification. Three concepts were generated and evaluated using a sphere-selection task and a video frame selection task. The user experience of the participants was evaluated using NASA TLX and QUESI questionnaires. Results show that the combination of auditory and visual display outperform both purely auditory and purely visual displays in terms of subjective workload and performance measures.
2:30pm - 3:00pmGestaltung und Evaluation einer natürlichen Flugrobotersteuerung
Roman Herrmann, Ludger Schmidt
Universität Kassel, Fachgebiet Mensch-Maschine-Systemtechnik
In diesem Beitrag wird ein neues Bedien- und Anzeigekonzept für die Steuerung eines Flugroboters vorgestellt, welches die Microsoft HoloLens Datenbrille und das Thalmic Myo Armband verwendet. Mit diesen wurde eine Augmented-Reality-Text- und Audioausgabe, eine vibrotaktile Rückmeldung sowie eine Sprach- und Gesteneingabe implementiert. Das neue multimodale Interaktionskonzept wurde schließlich in einer Nutzerstudie mit 30 Probanden evaluiert und in diesem Kontext mit einer traditionellen Remote Control verglichen.
3:00pm - 3:30pmVibrotaktile Wahrnehmung bei der Verwendung von Handschuhen
Martin Seeger, Tobias Stein, Ludger Schmidt
Fachgebiet Mensch-Maschine-Systemtechnik, Universität Kassel
Touchscreens werden zunehmend im industriellen Arbeitsumfeld bei Tätigkeiten eingesetzt, bei denen Handschuhe getragen werden, wodurch die Interaktion mit einem Touchscreen eingeschränkt wird. Um eine vibrotaktile Rückmeldung von Touchscreens beim Tragen von Handschuhen einzusetzen, wurde in einem ersten Schritt mit 47 Versuchsteilnehmern und 8265 Einzelmessungen die vibrotaktile Wahrnehmungsschwelle auf einem Touchscreen in Abhängigkeit der Frequenz, Stimulusdauer und Handschuhstärke ermittelt. Die Ergebnisse zeigen eine Frequenzabhängigkeit der Wahrnehmungsschwelle im Bereich von 50 bis 250 Hz sowie die Abnahme bei zunehmender Stimulusdauer. Weiterhin zeigt sich, dass für die Gestaltung einer vibrotaktilen Rückmeldung die Handschuhstärke nicht explizit berücksichtigt werden muss, da mit zunehmender Handschuhstärke die Kraft auf die Oberfläche zunimmt und keine Veränderung der Wahrnehmungsschwelle beobachtet werden konnte.
|