Smartphone versteht Handzeichen
ETH-Professor Otmar Hilliges und seine Mitarbeiter haben eine App entwickelt, mit welcher Nutzer ihr Smartphone auch mit Gesten bedienen können. Dies erweitert den Umfang möglicher Interaktionen mit den Geräten beträchtlich.
Etwas eigenartig sieht es anfänglich schon aus: Mit der einen Hand hält man das Smartphone, die andere Hand hingegen bewegt sich in der Luft vor der eingebauten Kamera. Man macht Gesten, die denjenigen aus der Gebärdensprache von Gehörlosen ähneln: Der Zeigefinger zeigt mal nach links, mal nach rechts, die Finger spreizen sich, formieren sich zu einer Zange oder imitieren eine Pistole und drücken ab. Diese Gesten dienen allerdings nicht der Verständigung unter Gehörlosen, sondern der Steuerung des Smartphones.
So kann ein Nutzer mit der Schiessbewegung der Hand beispielsweise in einen anderen Browser-Tab wechseln, den Kartenmodus von Satellitenbild auf Topographische Darstellung ändern oder in einem Game auf gegnerische Flugzeuge schiessen. Durch das Aufspreizen der Finger vergrössert sich ein Kartenausschnitt oder scrollt eine Buchseite hinauf.
Hinter dieser Gestensteuerung steckt ein neuartiger Algorithmus, den der Masterstudent Jie Song aus der Arbeitsgruppe von Otmar Hilliges, Professor für Computerwissenschaften, entwickelte. Die App stellten die Forscher soeben an der UIST-Konferenz in Honolulu, Hawaii, dem Fachpublikum vor.
Clevere Programmierung schont Arbeitsspeicher
Um die Umgebung wahrzunehmen, verwendet das Programm die eingebaute Kamera des Geräts. Tiefen- oder Farbinformationen wertet es nicht aus. Die gewonnene Information – Form der Geste, Teile der Hand – werden auf einen einfachen Umriss reduziert, diese schliesslich anhand der einprogrammierten Gesten klassifiziert. Je nach wahrgenommener Geste führt das Programm schliesslich den daran gekoppelten Befehl aus. Das Programm erkennt auch die Distanz, in der sich die Hand vor der Kamera bewegt. Ist sie zu nah oder zu weit davon entfernt, erhält der Benutzer einen Warnhinweis.
«Viele dieser Bewegungserkennungs-Programme sind rechenintensiv und brauchen viel Arbeitsspeicher», betont Hilliges. Dieser Algorithmus brauche hingegen nur einen geringen Anteil des Arbeitsspeichers und sei deshalb für Smartphones gut geeignet. Diese Anwendung sei die erste ihrer Art, die auf einem Smartphone laufe. Aufgrund des geringen Rechenbedarfs könnte sie auch für Smart Watches oder in Augmented Reality-Brillen genutzt werden.
Ergänzende Steuerung
Zurzeit kann das Programm sechs verschiedene Gesten erkennen und entsprechende Befehle ausführen. Ausprobiert haben die Forscher 16 Umrisse, was allerdings nicht dem theoretischen Limit entspricht. Wichtig ist, dass Gesten eindeutige Umrisse erzeugen. Sind verschiedene Handzeichen einander zu ähnlich, taugen sie nicht für diese Applikation. «Um den Funktionsumfang zu erweitern, werden wir weitere Klassifizierungsschemen im Programm hinterlegen», sagt der ETH-Forscher.
Für ihn ist klar, dass die neuartige Eingabemöglichkeit den Anwendungsumfang von Smartphones erheblich erweitert. Ziel der Forscher ist es, die Gesten so einfach wie möglich zu halten, um das Gerät mühelos bedienen zu können.
Ob sich die Benutzerinnen und Benutzer von Smartphones an die Gesten-Bedienung ihres Geräts gewöhnen werden? Otmar Hilliges ist zuversichtlich. Die Gestensteuerung werde die Steuerung über den berührungsempfindlichen Bildschirm nicht ablösen, sondern ergänzen. «Die Leute haben sich auch an die Bedienung von Computerspielen durch ihre eigenen Bewegungen gewöhnt.» Touch Screens hätten ebenfalls eine sehr lange Vorlaufzeit gehabt, ehe sie schlagartig den Weg zu den Konsumenten gefunden hätten. Hilliges ist deshalb überzeugt, dass diese Applikation oder zumindest Teile davon den Weg in die Märkte finden.