Löst der Gehirnscanner die PC-Maus ab?

2. September 2008, 10:48
17 Postings

Forscher arbeiten an neuen Methoden zur Computer-Eingabe - von Gehirnscannern, Fingerkameras und Displays in der Luft

Apple und Microsoft haben mit Multitouch gezeigt, dass die Interaktion zwischen Benutzer und Computer bzw. Handy auch anders aussehen kann, als nur Tippen und Klicken. Die Bedienung über das Display mit mehreren Fingern ist aber erst der Anfang. In nicht allzu ferner Zukunft schon könnte der Computer verstärkt durch Gestiken, Eye-Tracking, Spracherkennung und sogar Gedankensteuerung bedient werden.

Art des Computings überdenken

"Computing ist heutzutage vor allem für sitzende Personen designt, die Büroarbeit in den Industrieländern erledigen", erklärt Scott Klemmer, Co-Direktor der Human Computer Interaction Group an der Stanford Universität gegenüber Wired. Es gehe aber auch anders, wie etwa mobile Nutzer, kollaboratives Arbeiten oder die Technologienutzung in Entwicklungsländern zeigten.

Vorreiter Spielebranche

Nutzer würden sich eine nahtlosere Interaktion mit ihren Computern wünschen, weiß Klemmer. Bestes Beispiel hierfür sei die Unterhaltungselektronik, in der neuartige Eingabegeräte besonders gut ankommen. So feiert etwa auch Spielekonzern Nintendo mit der bewegungsempfindlichen Steuerung seiner Wii-Konsole derzeit große Erfolge. Anstatt nur Knöpfe auf einem Controller zu drücken, muss der Spieler selbst Bewegungen ausführen, um die Spielfigur auf dem Bildschirm zu steuern.

Davor hat bereits Sony mit EyeToy den Spieler vom Controller gelöst. Die Games müssen dabei ebenfalls durch Bewegungen gesteuert werden, die eine Kamera aufzeichnet und für das Spiel übersetzt.

Mit Gedankenkraft

Die Entwicklung geht aber noch weiter. Am RePlay Lab der Drexel Universität arbeiten Studenten an Spielen, die mit reiner Gedankenkraft gesteuert werden können. In dem 3D-Spiel Lazybrains etwa wird ein Gerät zur Kontrolle der Gehirnaktivität mit einem Computer verbunden. Die Gedankensteuerung soll dabei die herkömmlichen Eingaben ergänzen.

Die Idee ist nicht neu, denn Stirnbänder und Helme, mit denen einfache Games gesteuert werden, sind in den vergangen Jahren bereits von mehreren Firmen vorgestellt worden. So hat das Unternehmen Emotiv Systems schon vor Monaten ein Neuro-Headset vorgestellt, das die elektrischen Impulse des Gehirns zur Spielesteuerung nutzt und ähnlich wie ein EEG arbeitet.

Konzentration für Spielesteuerung nutzen

Kern des neuen Eingabegeräts des RePlay Labs ist eine Art Stirnband, das Infrarotstrahlung auf die Stirn des Nutzers abgibt. Das Gerät registriert, wie viel Licht zurückgestrahlt wird und misst anhand dieser Veränderungen die Menge von Sauerstoff im Blut. Wenn sich ein User stark konzentriert, erhöht sich die Konzentration von Sauerstoff im Stirnlappen. Diese Veränderungen kann das Eingabegerät messen und zur Steuerung des Spiels nutzen. Dabei kann der Spieler je nach Stärke seiner Konzentration eine Plattform im Spiel bewegen, Objekte schneller oder langsamer bewegen oder die Farbe von virtuellen Puzzle-Stücken ändern.

Noch in einem frühen Stadium

Die Technologie befinde sich noch in einem sehr experimentellen Stadium, wie Projektleiter Paul Diefenbach, Assistenz-Professor für Digitale Medien an der Drexel Universität gegenüber dem Magazin erklärt. Die Wissenschaftler müssten noch mehr über die Funktionsweise des Gehirns herausfinden, und darüber wie die gemessenen Daten in das Spiel übersetzt werden könnten.

Technologien kombinieren

Von derartigen Forschungen könnten aber auch andere existierende Technologien wie Eye-Tracking oder Spracherkennung profitieren, ist Diefenbach überzeugt. Dabei könnten mehrere Techniken miteinander kombiniert werden, um einen Computer zu bedienen. Unternehmen arbeiten bereits jetzt daran, alternative Eingabemethoden in ihre Unterhaltungselektronik zu integrieren. So sollen Fernseher etwa mit Gesichtserkennung und andere Geräte mit Gestensteuerung ausgestattet werden.

Nicken statt Klicken

Wo heute noch zumindest eine Berührung des Benutzers notwenig ist, um eine Eingabe zu tätigen, könnte in Zukunft nur mehr ein Nicken oder Winken genügen. Dieser Idee folgt heute etwa FingerSight, ein Projekt an der Carnegie Mellon Universität. Dabei handelt es sich um eine kleine Kamera, die auf der Fingerspitze angebracht und mit einem Gerät kombiniert wird, das Aktionen mit Vibrationen bestätigen soll. Mithilfe der Kamera kann die dazugehörige Software die Fingerbewegungen in Eingaben übersetzen.

Display in der Luft

Eine ähnliche Art der Eingabe hat etwa das kalifornische Unternehmen Oscura Digital vor wenigen Wochen präsentiert (der WebStandard berichtete). VisionAire ist ein holographisches Display, das mit Gestiken bedient werden kann. Dazu hat das Unternehmen seine Multitouch-Technologie mit einem Projektionssystem für Hologramme kombiniert. Der Benutzer kann die quasi in der Luft schwebenden Objekte mit Gestiken in der Luft bewegen. Das System kann auch von mehreren Personen gleichzeitig gesteuert werden.

Tastatur verschwindet nicht

Das Aufkommen neuer Eingabetechnologien bedeute aber nicht, dass Tastatur und Maus demnächst vom Schreibtisch verschwinden. Immerhin sei die Tastatur nach wie vor die effektivste Methode, um Texte zu schreiben, sind sich die Wissenschaftler einig. Bis die neuen Technologien Einzug in unseren Alltag finden, werde es zudem noch einzige Zeit dauern. An der Universität in Toronto wurde bereits 1982 eines der ersten Multitouch-Interfaces demonstriert Alleine für die weite Verbreitung der Multitouch-Technologie habe es also 25 Jahre gedauert. (br)

  • Das Spiel Lazybrains wird mit Gedankenkraft gesteuert
    foto: drexel universität

    Das Spiel Lazybrains wird mit Gedankenkraft gesteuert

Share if you care.