Conference Agenda

Overview and details of the sessions of this conference. Please select a date or location to show only sessions at that day or location. Please select a single session for detailed view (with abstracts and downloads if available).

 
Session Overview
Session
MCI-SE05: Interaktion mit allen Sinnen
Time:
Tuesday, 12/Sep/2017:
2:00pm - 3:30pm

Session Chair: Bastian Pfleging
Location: H4
200 seats (fixed)

Presentations
2:00pm - 2:30pm

Auditory Display for Improving Free-hand Gesture Interaction

David Black1,2,3, Bastian Ganze4, Julian Hettig4, Christian Hansen4

1University of Bremen, Bremen, Germany; 2Fraunhofer MEVIS, Bremen, Germany; 3Jacobs University, Bremen, Germany; 4Otto von Guericke University, Magdeburg, Germany

Free-hand gesture recognition technologies allow touchless interaction with a range of applications. However, touchless interaction concepts usually only provide primary, visual feedback on a screen. The lack of secondary tactile feedback, such as that of pressing a key or clicking a mouse, in interaction with free-hand gestures is one reason that such techniques have not been adopted as a standard means of input. This work explores the use of auditory display to improve free-hand gestures. Gestures using a Leap motion controller were augmented with auditory icons and continuous, model-based sonification. Three concepts were generated and evaluated using a sphere-selection task and a video frame selection task. The user experience of the participants was evaluated using NASA TLX and QUESI questionnaires. Results show that the combination of auditory and visual display outperform both purely auditory and purely visual displays in terms of subjective workload and performance measures.


2:30pm - 3:00pm

Gestaltung und Evaluation einer natürlichen Flugrobotersteuerung

Roman Herrmann, Ludger Schmidt

Universität Kassel, Fachgebiet Mensch-Maschine-Systemtechnik

In diesem Beitrag wird ein neues Bedien- und Anzeigekonzept für die Steuerung eines Flugroboters vorgestellt, welches die Microsoft HoloLens Datenbrille und das Thalmic Myo Armband verwendet. Mit diesen wurde eine Augmented-Reality-Text- und Audioausgabe, eine vibrotaktile Rückmeldung sowie eine Sprach- und Gesteneingabe implementiert. Das neue multimodale Interaktionskonzept wurde schließlich in einer Nutzerstudie mit 30 Probanden evaluiert und in diesem Kontext mit einer traditionellen Remote Control verglichen.


3:00pm - 3:30pm

Vibrotaktile Wahrnehmung bei der Verwendung von Handschuhen

Martin Seeger, Tobias Stein, Ludger Schmidt

Fachgebiet Mensch-Maschine-Systemtechnik, Universität Kassel

Touchscreens werden zunehmend im industriellen Arbeitsumfeld bei Tätigkeiten eingesetzt, bei denen Handschuhe getragen werden, wodurch die Interaktion mit einem Touchscreen eingeschränkt wird. Um eine vibrotaktile Rückmeldung von Touchscreens beim Tragen von Handschuhen einzusetzen, wurde in einem ersten Schritt mit 47 Versuchsteilnehmern und 8265 Einzelmessungen die vibrotaktile Wahrnehmungsschwelle auf einem Touchscreen in Abhängigkeit der Frequenz, Stimulusdauer und Handschuhstärke ermittelt. Die Ergebnisse zeigen eine Frequenzabhängigkeit der Wahrnehmungsschwelle im Bereich von 50 bis 250 Hz sowie die Abnahme bei zunehmender Stimulusdauer. Weiterhin zeigt sich, dass für die Gestaltung einer vibrotaktilen Rückmeldung die Handschuhstärke nicht explizit berücksichtigt werden muss, da mit zunehmender Handschuhstärke die Kraft auf die Oberfläche zunimmt und keine Veränderung der Wahrnehmungsschwelle beobachtet werden konnte.