TREND Human Machine Interface: Don’t touch me

| |
1 Star2 Stars3 Stars4 Stars5 Stars

Berührungslose Eingabetechnologien entwickeln sich zunehmend zur Konkurrenz für Tastatur und Touchscreen. In Zukunft reagieren Geräte auf Sprache, Gesten, Blicke und Gedanken.

Als Steve Jobs 2007 das Smartphone mit Touchscreen vorstellte, löste es einen weltweiten Boom aus. Jetzt, 7 Jahre später, scheint es an der Zeit zu sein, seine mobilen Geräte mit neuen Eingabeverfahren zu bedienen. Das lässt zumindest eine aktuelle Umfrage des Diplomatic Council Global Mobile Forum vermuten. Die Steuerung mit Augen, Gesten und Sprache soll danach zusehends das Drücken und Wischen auf dem Display ersetzen, meint immerhin gut die Hälfte der befragten Smartphone-Nutzer, lediglich 15 Prozent wollen sich nicht vom „Berühren“ trennen.

Smartphone Studie: Welche konkreten Alternativen werden die Bedienung mobiler Geräte via Touchscreen in den nächsten Jahren ablösen? (Grafik: Diplomatic Council)
Smartphone Studie: Welche konkreten Alternativen werden die Bedienung mobiler Geräte
via Touchscreen in den nächsten Jahren ablösen? (Grafik: Diplomatic Council)

Die Mehrzahl halten die Sprachsteuerung für den nächsten Trend. Siri, Google now & Co sind da erst der Anfang. Die Steuerung mit Gesten rangierte mit 44 Prozent nicht weit hinter der Sprache. Hierbei interpretiert die Frontkamera des Smartphones Fingerbewegungen, ohne dass dazu der Bildschirm berührt werden muss. Fast ein Drittel der Befragten können sich sogar vorstellen, ihr mobiles Gerät mit einem „Augenzwinkern“ zu bedienen. Dazu müßte die Kamera fortlaufend die Pupillen beobachten. Bei der Funktion „Smart Scroll“ von Samsungs Galaxy 4 lässt sich so ähnlich durch Webseiten und E-Mails scrollen. Der Nutzer muss dazu lediglich ans untere Ende des Bildschirms gucken und seinen Kopf etwas neigen.

Eingabetechnologien mit Köpfchen

Etwas weiter geht man im „Quality and Usability Lab“ der TU Berlin. Beispielsweise wird im Projekt „WinkPad“ untersucht, wie man mit einem Augenzwinkern durch ein E-Book blättert. Dazu messen Sensoren an einem Headset die Hirnströme beim bewussten Zwinkern. Der Wert wird von einem „NeuroReader“ abgespeichert und beim nächsten Augenzwinkern als „Seitenblättern“ interpretiert.

Eine weitere Vorstufe zur Gedankensteuerung kommt vom kanadischen Unternehmen Interaxon. Das Stirnband Muse hat sieben Sensoren von denen vier Gehirnströme messen. Die Ergebnisse landen via Bluetooth in entsprechenden Smartphone-Apps. Noch kann man mit dem Hightech-Stirnband und der hauseigenen App nur das Gehirn zu trainieren und etwa den Unterschied zwischen Konzentrations- und Entspannungsphasen ablesen. In Zukunft sollen damit aber Geräte gesteuert werden. Interaxon-CEO Ariel Garten rechnet allerdings erst in zehn Jahren damit, dass Computer auf Gedanken reagieren.

3D-Touch oder auch nicht

Gerüchten zufolge arbeitete Microsoft bis vor kurzem an Smartphones, die 3D-Gesten über der eigentlichen Touchscreen-Oberfläche interpretieren. Die Windows-Phone-Geräte sollten noch dieses Jahr auf den Markt kommen. Jetzt heißt es, dass die Entwicklung der Smartphones mit dem Codenamen „McLaren“ eingestellt worden wäre. An der Benutzerschnittstelle „3D Touch“ soll aber weitergearbeitet werden. Mit 3D-Touch-Technik sollten Wischbewegungen über dem Displays erkannt werden. Selbst mit dem Finger in die Luft „geschriebene“ Worte wären theoretisch zu erkennen. Mit welcher Technik das genau umgesetzt werden soll, ist allerdings unklar. Es basiert wohl eher auf Sensoren und nicht auf Funktionen der Kamera.

Experten erwarten, dass die Eingabetechnologien für Computer von der Tastatur über die Maus bis hin zum Touchscreen künftig deutlich breiter gefächert sein wird. Es geht weniger darum, dass sich ein einzelnes Eingabeverfahren durchsetzt, sondern dass der Verbraucher je nach Situation auf die eine oder auf die andere Art und Weise mit seinem Gerät kommuniziert.

TU Berlin MagiThings

Im Projekt "MagiThings" der TU Berlin reagiert ein im Smartphone verbauter Kompass-Sensor auf einen Magneten, der etwa als Ring am Finger des Nutzers steckt.