Chatten kann man auch akustisch

27. Februar 2005, 20:26
posten

Spracherkennung und -synthese im praktischen Spielversuch

Die Frage nach dem "cui bono" sei natürlich angebracht. Schließlich, erklärt Georg Niklfeld vom Forschungszentrum Telekommunikation Wien (ftw.), nutzt die wunderfeinste Technik nichts, wenn sie vom Benutzer nicht akzeptiert oder ihr Nutzen von ihm nicht erkannt werde.

Wenn es um die "Sprachbegabung" von Systemen gehe, laute die Aufgabe daher, die natürliche Multimodularität von Kommunikation auf die individuellen Anwendungsgebiete der Nutzer zu übersetzen - und das heiße eben, "Systeme zu entwickeln, die die Kommunikationskanäle wechseln können", erklärt Niklfeld: So wie der Touchscreen eines Tablett-PCs bei der Verwendung am Schreibtisch nur eingeschränkt sinnvoll sei, mache ein auf Sprachbefehle reagierendes Gerät in einer extrem lauten Umgebung ebenso wenig Sinn wie ein nicht sprechendes Navigationssystem im Auto.

Mona spielt

Konkret erprobte das ftw. diese Mehrkanaltauglichkeit von Juli 2003 bis September 2004 an dem der TV-Millionenshow nicht unähnlichen Quizspiel "Mona@play" über ein lokales Netzwerk.

Parallel zum reinen Frage-Antwort-Spiel konnten die Spieler dabei auch in einem Chatkanal miteinander kommunizieren. Die Nachrichten liefen dabei in einer Tickerleiste am unteren oder oberen Bildschirmrand - oder aber sie wurden vom Gerät vorgelesen. Auch bei der Eingabe der Meldungen konnten die Spieler zwischen Sprach- und Texteingabe wählen.

"Solange die Spieler am Schreibtisch saßen, war die Tickerleiste und die Texteingabe bei fast allen erste Wahl", erzählt Niklfeld. Sobald die Programmentwickler die Probanden allerdings zwangen, mit ihren W-LAN-fähigen PDAs "treppauf und treppab" (Niklfeld) durch das Haus zu laufen, "hat sich das sehr schnell geändert. Die Praxis hat dann auch gezeigt, dass die Sprachsynthese durch das Gerät gut, die Spracherkennung allerdings bei Weitem nicht so gut funktioniert."

Von einer überbordender Spracheuphorie, so der Entwickler, wolle er persönlich daher nicht sprechen: "Natürlich kann da ein großer Markt entstehen. Aber ich glaube nicht, dass man pauschal sagen kann, dass Sprache die natürliche Schnittstelle zum Computer werden wird."

Derzeit, so Niklfeld, sähe er Einsatzpotenzial für derartige Anwendungen vor allem im Entertainmentbereich. Aber nicht zuletzt aufgrund der immer noch großen Fehlerhäufigkeit bei der Spracherkennung würde er das Prinzip "ich rede - du liest" aber in "kritischen" Anwendungsbereichen - etwa bei der Koordination von Rettungs- oder Feuerwehrfahrzeugen oder im medizinischen Bereich - noch lange nicht als voll einsatzfähig bezeichnen. (rott/DER STANDARD, Print-Ausgabe, 21.2.2005)

Link

ftw.at

Share if you care.