Apple will iPhone mit Tippen, Deuten und Augenrollen steuern

5. September 2008, 14:31
48 Postings

Multitouch Data Fusion soll Multitouchscreens um Sprachkommandos, Augenbewegungen und Gesten erweitern

Nachdem Apple mit iPhone und iPod Touch die Eingabemöglichkeiten bei mobilen Geräten von der Tastatur gelöst hat, sollen Nutzer in Zukunft alle Sinne einsetzen, um mit ihrem Handy oder Computer zu kommunizieren. Die "Multitouch Data Fusion" genannte Technologie soll Multitouch-Benutzeroberflächen auch mit Sprachbefehlen, Augenbewegungen und Gesten bedienbar machen. Apple hat dafür nun ein Patent eingereicht.

Sprachkommandos

Augenbewegungen und Handgesten sollen über die integrierte Webcam ausgewertet werden. Mit den zusätzlichen Eingabemöglichkeiten sollen sich diverse Programme einfacher nutzen lassen, als ausschließlich über den Touchscreen. Durch Sprachbefehle könnten in einem Bildbearbeitungsprogramm beispielsweise die Farben einfacher gewechselt werden können.

Mit Augen und Händen

Die Analyse der Augenbewegungen soll zur Auswahl und Markierung von Objekten genutzt werden. Die Bedienung des Touchscreens soll zudem durch Gestensteuerung genauer werden.

Neben iPhone und iPod sollen Gerüchten zufolge auch Macs mit Touchscreen ausgestattet werden. Eine der nächsten Notebook-Generationen könnte bereits mit allen Sinnen gesteuert werden. (red)

  • Multitouchscreens sollen auch über Gesten, Sprachkommandos und Augenbewegungen bedient werden
    foto: epa

    Multitouchscreens sollen auch über Gesten, Sprachkommandos und Augenbewegungen bedient werden

Share if you care.