Eye-Phone? Nein danke!

mobile zeitgeist

Ich bin ja sonst ein großer Fan von alternativen Bedienungstechnologien. Ich habe mir eines der ersten Handys mit Accelerator gekauft, ich habe mit Ein-Finger-Computermäusen experimentiert, war sogar von diesen schrottigen Virtual-Reality-Helmen samt Datenhandschuh annähernd begeistert und habe mich von vielen anderen Studien und Technologien leicht begeistern lassen. Aber bei einer aktuellen Entwicklung schüttle ich noch immer mehr als dezent den Kopf, wenn ich davon lese: Von der Steuerung per Augenbewegung.
Der SPIEGEL berichtet heute von den Fortschritten der Handysteuerung per Augenbewegung. Auf dem ersten Blick wirkt die Idee ganz nett, ich für meinen Teil habe allerdings größte Bedenken, ob dieser Ansatz jemals den Sprung vom Prototypen zum Massenmarkt schaffen wird, denn allein die Handhabung halte ich für äußerst unkomfortabel:

  • Ich habe in naher Zukunft nicht wirklich vor, mir irgendwelche Elektroden an meine Augen zu klemmen, die die elektrische Spannung ablesen, und ich kann mir auch nicht vorstellen, dass ein Großteil der Bevölkerung das gerne macht. Nicht umsonst konnten sich auch diese futuristischen Fernsehbrillen (im 80er-Sonnenbrillenlook), die Fernsehen direkt vor dem Auge möglich machen sollten, nie wirklich durchsetzen.
  • Nachdem die Mobilindustrie uns nun also schon den Daumen umprogrammiert hat (schonmal überlegt, mit welchen Finger Sie in ihrer Kindheit die Haustürklingel gedrückt haben und mit welchem Finger das heute gemacht wird?), wollen sie nun also auch die Kontrolle über die Augen nehmen?
    Darauf läuft es nämlich heraus: Nicht einmal die Sprach- noch die Texterkennungssoftware auf leistungsfähigen PCs hat es jemals so weit gebracht, dass sie völlig ohne Einlernzeit zu 100% fehlerfrei gewusst hat, was die Anwender eingeben möchten. Der Palm hat sich seinerzeit im Vergleich zu den anderen Organizern durchsetzen können, weil die Menschen bereit waren, eine eigene Schrift zu lernen. Dadurch wurden die Eingaben eindeutiger und die im Vergleich zur Konkurrenz mit echter Texterkennung üblichen Fehleingaben seltener.
    Um nun also mit den Augen steuern zu könnne, bedarf es ein Höchstmaß an Konzentration und vor allem Lernfähigkeit des steuernden Benutzers. Nachdem aber die Augenmotorik mit zu den unkontrolliertesten gehört (bzw. im Gegenzug sich leicht ablenken lässt, unzählige blinkende Banner am Webseitenrand können eine Hymne darauf anstimmen), wage ich zu behaupten, dass allein schon die unmerklichen, kleinen Zuckungen meines Augenlids für ein immens hohes Signalrauschen sorgen, welches die Analyse der Signale und das Filtern der gewollten Befehle für die Software schwierig machen sollte. Und sollte es der Software doch gelingen, bin ich mir selbst Fehlerteufel genug, weil mein Auge den niederen Instinkten sei Dank reflexartig auf irgendeine Bewegung außerhalb des Steuerungsumfelds reagiert.
  • Mein Radio schaue ich auch nicht an, wenn es läuft. Wäre dem so, wäre ich bei der Arbeit deutlich ineffektiver. Warum sollte ich also mein Handy oder MP3-Player ständig konzentriert anschauen wollen, nur um mir die 2cm Weg, die mein Daumen der Hand, in der das Gerät eh meistens liegt, zu sparen?
  • Gehen wir mal vom Idealfall aus, dass die Sensorsoftware tatsächlich eine fehlerlose Steuerung ermöglicht, dann fallen mir noch immer die zahlreichen Hobbyfotografen ein, die, obwohl ihre Digicam einen Sucher oder ein riesiges Display hat, noch immer die Arme maximal ausstrecken, die Kamera so weit wie möglich von sich halten und den Kopf ebenso so weit nach hinten schieben, weil sie meinen, die Kamera so besser bedienen können. Wie „intuitiv“ falsch würden sich die Hobbytelefonierer und -musikhörer benehmen, wenn sie zusätzlich auch noch mit konzentrierten, weit aufgerissenen Augen steuern müssten? „Cool“ ist etwas anderes! Und es wäre sicherlich unauffälliger und weniger anstrengend, müsste ich mein Handy mit Gesichtsgesten wie Mundwinkel- oder Nasenflügelzucken steuern, als mit den Augen.

Ich weiß nicht, vielleicht bin ich mit meinem Vorurteil etwas vorschnell, aber für mich sieht diese Forschung wie ein Millionengrab aus. Für medizinische Aspekte mag der Forschungszweig wichtig sein, wenn behinderte oder querschnittsgelähmte Menschen beliebige Geräte nur mit den Augen steuern können, aber für den Massenmarkt, auf den die Forschung wohl abzielt, glaube ich, geht das ins Auge. Bleibt also zu hoffen, dass es ewig bei einem Prototypen bleiben wird, denn die Medizin könnte das investierte Geld sicherlich nötiger gebrauchen.

Avatar for Patrick Voelcker
Über Patrick Voelcker 286 Artikel
Patrick beschäftigt sich beruflich und privat seit 2005 neben der Webprogrammierung auch mit der Entwicklung von Mobile und Native Apps. Er ist Rich Media Innovation Specialist bei Google und Autor des Buches "Spiele programmieren für iPhone und iPad" (dpunkt-Verlag). Außerdem ist er Gastdozent an der Popakademie Baden-Württemberg und der Filmschule Köln. Auf Mobile Zeitgeist schreibt er dementsprechend hauptsächlich über Trends und Entwicklungen in Mobile Entertainment [XING]

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*