97 Postings
26. Februar 2019, 06:00

Mein Großvater sprach sechs Sprachen. Fließend. Deutsch, Spanisch, Ungarisch, Englisch, Rumänisch, Französisch. Letzteres nicht so gern, weil es mit seinem geliebten Spanisch interferierte. Verdrehen Sie jetzt nicht die Augen, er war kein Snob. Aber in dieser Hinsicht war er Perfektionist. Denn er erkannte früh, dass ihm Sprachen die Tür zur Welt öffnen. Menschlich wie beruflich.

Das war vor dem Internet. Und bevor Star Trek das Konzept eines Universalübersetzers populär machte. Mithilfe eines "Communicators" (siehe Replikat oben) und künstlicher Intelligenz (KI) im Hintergrund können sich Kirk, Spock und Co fließend mit jeder Spezies verständigen, ohne deren Sprache zu verstehen. So weit der Weg dorthin angesichts holpriger Google-Übersetzungen und Siri-Stotterer noch erscheint, das Fundament dafür wird bereits gelegt.

Erste Sprechversuche

Befinden Sie sich im Ausland, können Sie schon heute auf Instant-Übersetzer wie den Microsoft Translator zurückgreifen. Hat man eine solche App installiert, kann man in sein Handy sprechen, und eine Computerstimme übersetzt mit nur wenigen Sekunden Verzögerung in mehrere Sprachen. Ebenso kann man die Antwort seines Gegenübers entschlüsseln. Das Start-up Mymanu bietet ein solches System gleich kompakt als Ohrstöpsel namens Clik an. Und bei den Olympischen Spielen 2020 will Japans nationales IT-Institut mittels Voicetra-App Millionen Besuchern die Verständigung erleichtern.

Aber seien Sie gleich gewarnt: Es könnte Ihnen trotz digitaler Dolmetscher passieren, dass Ihnen anstatt veganer Suppe ein Oktopus serviert wird, wenn Sie mithilfe eines dieser Instant-Übersetzer bestellen. Denn wir befinden uns erst am Anfang der maschinellen Kommunikationsrevolution, und gerade im Zusammenspiel mit Spracheingabe lässt die Erfolgsrate noch zu wünschen übrig.

Grafik: Die laut Ethnologue weltweit am häufigsten gesprochenen Sprachen. Hochentwickelte Übersetzungs-KI könnte zum Erhalt gefährdeter Sprachen beitragen. Unter den 7.000 aktiven Sprachen dominieren lediglich eine Handvoll. KI könnte es ermöglichen, Sprachbarrieren zu überwinden, ohne seine Muttersprache vernachlässigen zu müssen. Fraglich ist, ob der technologische Fortschritt oder das Aussterben der Sprachen schneller voranschreitet. Linguisten schätzen, dass bis 2100 bis zu 90 Prozent aller heute gesprochenen Sprachen verschwinden könnten.

Maschinen, die nichts verstehen

Egal ob Textübersetzer wie Deep L oder Programme mit Spracheingabe, alle gegenwärtigen Systeme haben gegenüber menschlichen Dolmetschern einen großen Haken: Sie können zwar Sprache erfassen und übersetzen, die transportierten Inhalte verstehen sie aber nicht. Dass ein Hund ein treuerer Freund als eine Katze ist, weiß Google Translate genauso wenig, wie dass Veganer keinen Oktopus essen. Und so kommt es, dass Maschinenübersetzer heute eine Hilfe, aber kein adäquater Ersatz fürs Sprachenlernen sind.

Diese "Unwissenheit" maschineller Übersetzer führt nicht selten zu Fehlern, die uns gerade deshalb amüsieren, weil sie für unseren Verstand so kurios erscheinen. Nehmen Sie beispielsweise diesen über Twitter geteilten Gag von Bill Murray:

"I bet giraffes don't even know what farts smell like."

Übersetzt man das Zitat mit Google Translate auf Deutsch, kommt das dabei heraus:

"Ich wette, Giraffen wissen nicht einmal, wie Furzgeruch aussieht."

Für maschinelle Übersetzer ist Sprache nicht mehr als ein Konstrukt. Ähnlich wie die Einzelteile eines Bauwerks und kein Mittel zur Kommunikation. Bedeutung und Intention fallen gänzlich unter den Tisch. "Der Mensch hat sehr viel Wissen über die Welt und was in der Welt möglich ist und was nicht möglich ist. Und die Effizienz von Sprache basiert darauf, dass dieses 'Weltwissen' in jedem Moment verwendet werden kann, um Sprache zu interpretieren. Der Computer versteht die Welt nicht und kann deswegen Sprache nicht interpretieren, sondern muss eine Übersetzung des Inhalts ohne Verständnis des Inhalts durchführen", erklärt Peter Schüller, KI-Forscher und Linguist an der TU Wien, im Interview mit dem STANDARD.

Rasante Entwicklung

Dennoch ist die Geschwindigkeit, mit der die Entwicklungen aktuell voranschreiten, erstaunlich. Seit 60 Jahren wird an Übersetzungssystemen geforscht, doch bis vor kurzem war etwa die sinngemäße Maschinenübersetzung vom Japanischen ins Englische kaum möglich. Laut Google-Entwickler Melvin Johnson wurden durch den Wechsel auf sogenannte künstliche neuronale Netze und selbstlernende Algorithmen um das Jahr 2016 herum quasi über Nacht mehr Fortschritte erzielt als in den zehn Jahren davor, wie er in einem Vortrag für die Universität Stanford schildert.

"Ein neuronales Netz bekommt als Eingabe einen Text und fährt wie das menschliche Auge von Anfang des Texts bis zum Ende über die Worte. Jedes Wort wird in seiner Umgebung (also die Worte davor und danach) klassifiziert, und so entsteht eine Tabelle mit Zahlen für jedes Wort. In einem zweiten Schritt fährt ein weiteres neuronales Netz über diese Folge von Tabellen und sagt voraus, welches Wort in der Zielsprache ausgewählt werden soll", erläutert Schüller den Vorgang.

Wenn Sie jetzt ausgestiegen sind, grämen Sie sich nicht. Denn laut dem Computerlinguisten kreieren Entwickler dieser Systeme zwar die Methodik und den Aufbau. Was die riesigen Zahlentabellen bedeuten und wie sie zu den Ergebnissen gelangen, wissen sie jedoch selbst nicht. Entscheidend ist: Neuronale Netze erkennen selbstständig Muster, die vom Menschen nicht vorgegeben werden müssen. Das heißt, ein neuronales Netz lernt, was in der Eingabe wesentlich ist und was passieren soll. Und für die stetige Verbesserung sorgt ein Algorithmus, der ohne menschliches Zutun selbst lernt. Das bedeutet: Google Translate weiß vielleicht auch künftig nicht, dass Furze riechen, aber die erfolgreiche Übersetzung des Gags ist nur eine Frage der Zeit.

stanfordonline
Entwickler Melvin Johnson erklärt, wie maschinelle Übersetzung auf Basis neuronaler Netze funktioniert und weshalb die Technologie besser funktioniert als die Methoden in den Jahrzehnten davor.

Grundlegende Probleme

Der enorme Bedarf an schnellen und präzisen Übersetzungssystemen sorgt für eine laufende Verbesserung dieser neuronalen Übersetzer. Allein über Google Translate werden täglich mehr als 140 Milliarden Wörter übersetzt. Mit ein Grund dafür: 50 Prozent der gesamten Informationen im Internet sind nur in englischer Sprache erhältlich, dabei spricht nur ein Siebentel der Weltbevölkerung Englisch. Ein Großteil der Menschen hat allein dadurch nur beschränkten Zugang zum weltweit publizierten Wissen.

Ein Ungleichgewicht, das wiederum auch ein Hindernis für die Entwicklung leistungsfähiger Maschinenübersetzer darstellt. Denn für ein effektives Training neuronaler Netze werden tatsächlich gewaltige Mengen an sogenannten Paralleltexten benötigt. Also Texten, die bereits von Menschen korrekt übersetzt in mehreren Sprachen existieren. IT-Giganten wie Google, Facebook und Microsoft saugen hierfür wortwörtlich das Internet ab und lesen hierfür veröffentlichte Parlamentsprotokolle genauso aus wie die Bibel und die mehrsprachigen publizierten Beiträge der BBC.

Und hier ist der Haken: "Wenn es für ein paar der Sprachen keine Paralleltexte gibt, kann man derzeit kein neuronales Netz darauf trainieren", erklärt Schüller. Eine Möglichkeit ist dann der Umweg über eine dritte Sprache: Steht etwa für einen deutschen Text kein Paralleltext in Farsi zur Verfügung, aber dafür in Englisch, kann man den englischen Text zur Übersetzung nutzen. Hier sinkt jedoch die Qualität der Übersetzung beträchtlich.

Diese Limitierungen sind auch der Grund, weshalb Dienste wie Deep L, Microsoft Translator oder Google Translate aktuell nur für einige Dutzend Sprachen zur Verfügung stehen. Für viele der 7.000 aktiven Sprachen existieren die benötigten Textkorpora einfach nicht.

Nächster Schritt: Weltwissen

Die Limitierung bei den Trainingstexten und das fehlende Verständnis für die eigentlichen Inhalte erklären, weshalb menschliche Dolmetscher sich zumindest vorerst noch keine Sorgen um ihre Jobs machen müssen. Gerade bei fachspezifischen Übersetzungen benötigt es nicht bloß sprachliche Fähigkeiten, sondern viel Wissen über das Themenfeld selbst. Aber selbst bei scheinbar trivialen alltäglichen Konversationen fehlen Maschinen oft sehr wesentliche Fertigkeiten zur Interpretation von Aussagen. Konnotation, Ironie, all das, was beim Reden und Schreiben noch so mitschwingt, fällt bei der maschinellen Auswertung unter den Tisch. Ganz abgesehen davon, dass Kommunikation zu großen Teilen nonverbal stattfindet.

"Für die nächste Generation der KI-Übersetzer wird es daher entscheidend sein, Systeme zu bauen, die den Text wirklich interpretieren und verstehen und dadurch eine korrekte Übersetzung liefern können", sagt Computerlinguistiker Schüller. Und das ist eine Mammutaufgabe. Wissenschafter arbeiten seit den 1990er-Jahren an maschinell auswertbaren Datenbanken, die das Weltwissen repräsentieren. Herausgekommen ist dabei allerdings noch kaum etwas. "Computern Weltwissen beizubringen ist so wie mit Fusionskraftwerken ... – In den nächsten zehn Jahren wird es vielleicht etwas, nur dass das seit 30 Jahren gesagt wird", so Schüller.

Ein Produkt, das es bereits gibt, das am ehesten dem Verständnis von der Welt entspricht, ist ein Biologietextbuch, das den gesamten Text logisch repräsentiert hat und es erlaubt, Fragen zu stellen – und das auch dem Leser Fragen stellen kann. Das Inquire Project ist allerdings mit sehr viel manueller Arbeit verbunden gewesen und ist keine allgemein funktionierende Repräsentation der Welt.

Was die Arbeit an der maschinellen Repräsentation von Weltwissen so schwierig macht, ist, dass es dazu überhaupt noch keinen Lösungskonsens innerhalb der Wissenschaft gibt. "Ich persönlich glaube, wir verstehen noch gar nicht, wie Menschen überhaupt denken, deshalb schaffen wir es nicht, die Welt des Menschen im Computer so abzubilden, dass der Computer sich in dieser Welt zurechtfindet", sagt Schüller.

lyrebird
Sie fragen sich möglicherweise, wie Ihre Stimme klingen wird, wenn sie in der Zukunft von einer KI übersetzt wird. Eine Option sind generische künstliche Stimmen. Wie authentisch diese bereits mit Hilfe neuronaler Netze klingen, demonstriert Googles Wavenet. Wirklich spannend wird es allerdings, wenn diese Technologien genutzt werden, um Ihre persönliche Stimme zu synthetisieren. Das Programm Lyrebird beispielsweise erstellt mittels eingesprochener Beispielsätze einen Klon Ihrer Stimme und kann danach jeden beliebigen Satz mit der geklonten Stimme wiedergeben. Noch klingt das Ganze wie eine Computerstimme mit persönlicher Färbung, aber es ist abzusehen, wo die Reise hingeht.

Unkontrollierbare Super-KIs

Für die Techies unter Ihnen mag das jetzt ein Dämpfer sein. Für KI-Skeptiker ist das jedoch auch kein Grund zu spotten. Denn "rein rechnerisch müsste es mit den gegebenen technischen Mitteln möglich sein. Es ist keine Limitierung von Rechenleistung oder Speicherplatz", meint Schüller. "Es ist möglich, dass man mit geeigneten Trainingsdaten neuronale Netzwerke so trainieren kann, dass sie Strukturen der alltäglichen Welt abbilden und 'verstehen'. Problematisch an neuronalen Netzwerken ist nur, dass wir nicht verstehen, was die riesigen Zahlenmatrizen bedeuten. Das heißt, selbst wenn das Netz gut funktioniert und Sprache dann versteht, könnten wir nicht sagen, warum es funktioniert und was es intern berechnet. Das führt auch derzeit zu (berechtigten) Ängsten bezüglich einer potenziellen Super-KI, die wir nicht mehr verstehen und irgendwann auch nicht mehr kontrollieren können. Aber das ist ein eigenes sehr großes Thema."

Spooky.

Bevor wir nun jedoch dieses Untergangsszenario präventiv mit einem Glas Rotwein begießen oder mit CBD-Dampf einnebeln, kommen wir zurück zur Ausgangsfrage: Wann werden wir einen echten Universalübersetzer wie in Star Trek haben?

Wann kommt der Universalübersetzer?

Nun, ein konkreter Zeithorizont lässt sich nicht festmachen, dennoch ist die Antwort laut Schüller ebenso logisch wie bedeutungsschwer: "Wenn diese Übersetzungssysteme die Welt verstehen, dann werden sie weitgehend fehlerfrei simultan übersetzen können."

Das gleiche gelte für KIs zur Spracherkennung, wie man sie von heutigen noch rudimentären Assistenten wie Siri kennt. Das fehlerfreie Interpretieren von undeutlicher und durch Hintergrundgeräusche verfälschter akustischer Sprache wird ebenfalls nur dadurch möglich, dass wir die Welt verstehen und so Fehler korrigieren können. Erst wenn Computer dasselbe können, werden sie Sprache perfekt erkennen.

Hört man in die Industrie hinein, wird aber klar, dass hier sehr viele Menschen sehr intensiv damit beschäftigt sind, den Traum vom Universalübersetzer real werden zu lassen. "Wir arbeiten weltweit daran, diese Vision Realität werden zu lassen", bestätigt Microsoft-Österreich-Manager Roland Gradl gegenüber dem STANDARD. Und auch die Konkurrenz sieht ihre Pläne auf Spur: "Der Weg, auf dem wir jetzt sind, ist der richtige", glaubt DeepL-Sprecher Lee Turner Kodak.

foto: paramount pictures
Im Film Arrival (2016) versuchen Außerirdische über "Logogramme" mit Menschen Kontakt aufzunehmen. Theoretisch könnte KI auch dabei helfen, bislang unbekannte Sprachen zu entschlüsseln. Ohne große Mengen an Daten über die Welt und Sprache einer fremden Spezies dürfte die Übersetzung laut Computerlinguist Peter Schüller aber zumindest nach heutigem Wissensstand sehr schwierig werden.

Und was ist mit den Aliens?

Die Implikationen eines solchen Universalübersetzers für das Bildungswesen, den Arbeitsmarkt, Beziehungen – ja, unser gesamtes Leben – sind gewiss enorm. Werden wir in Zukunft noch Fremdsprachen lernen müssen? Würde ein universeller KI-Übersetzer einst lokale Jobs für tausendfach mehr Bewerber öffnen? Oder anders gefragt: Würde er Menschen aus kleineren Sprachräumen schlagartig mehr berufliche Optionen ermöglichen? Und hoffentlich werden uns solche Systeme auch dabei unterstützen, die im schlimmsten Fall fatalen Übersetzungsfehler zu verhindern.

Aber Sprache ist nicht nur Mittel zur Verständigung, sondern stark verwoben mit unserem Kulturkreis und unserer Herkunft. Sprache ist Teil unserer Identität. Sprache ist ganz viel davon, was Menschen ausmacht. Und blicken wir in die Sterne und in die noch fernere Zukunft, kann ich mich als – vielleicht naiver – Sci-Fi-Fan nicht dem Gedankenexperiment entziehen, wie eine intelligente Übersetzungs-KI uns eines Tages dabei helfen könnte, Kontakt mit Besuchern aus dem All herzustellen.

Würde KI uns theoretisch wie in "Star Trek" erlauben, mit "Außerirdischen" zu kommunizieren? "Wenn wir Zugang zu einer großen Menge an Daten über die Welt und Sprache von Aliens hätten, könnte ein KI-System eventuell daraus ein Übersetzungssystem erstellen", sagt Schüller. "Ohne umfangreiche Informationen über die Realität, in der eine Sprache verwendet wird, wird es aber nicht möglich sein." Zwar schaffen es menschliche Wissenschafter immer wieder, alte Texte, wo es keine Sprecher mehr gibt, zu interpretieren und zu übersetzen. Wenn uns Aliens jedoch kein umfangreiches Referenzmaterial zur Verfügung stellen werden, könnte ein Austausch sehr schwierig werden.

bild: google earth / der standard
Allein über Google Translate werden täglich mehr als 140 Milliarden Wörter übersetzt. Ein Grund dafür: 50 Prozent der gesamten Informationen im Internet sind in englischer Sprache, dabei spricht nur ein Siebentel der Weltbevölkerung Englisch. Ein Großteil der Menschen hat allein dadurch nur beschränkten Zugang zum weltweit publizierten Wissen.

Zurück zur Erde

Fragt man Astrophysiker, dürfte der First Contact freilich schon an galaktischen Unwahrscheinlichkeiten scheitern. Das Weltall ist schier unendlich groß und ebenso alt, und wir sind Lichtjahre entfernt von der Chance, ein interstellares Tinder-Date mit E.T. auszumachen. Ein guter Grund, die Gedanken auf den Erdboden zurückzubeamen und sich auf den blauen Planeten und seine 7,6 Milliarden Menschen zu fokussieren.

Von den 7.000 aktiven Sprachen konnte mein Großvater übrigens auch ein wenig Russisch. Er erzählte immer gern von dem Freund, der nicht mit Wodka, sondern mit Spiritus anstoßen wollte. Noch Jahre nach Opas Tod habe ich seine Stimme mit einer seiner liebsten Übersetzungen im Kopf: "Je mehr Sprachen man spricht, desto mehr Menschen ist man."

Ich weiß, dass er damit keinen futuristischen Universalübersetzer im Sinn hatte. Doch wenn uns Technologie eines Tages ermöglicht, globale Sprachbarrieren zu überwinden, werden wir alle ein ganzes Stück näher aneinanderrücken. Und das war ihm letztlich stets am wichtigsten. Und okay, wer weiß: Vielleicht klappt es so irgendwann auch mit den Aliens. (Zsolt Wilhelm, 26.2.2019)

EINSPRUCH: Was uns mit einen "Universalübersetzer" verloren ginge

Recherchehinweis

Zu diesen Artikel haben die Interviewantworten folgender Personen beigetragen: Peter Schüller ist Computerlinguist an der Technischen Universität Wien und Unternehmer im Bereich der künstlichen Intelligenz und intelligenten Automatisierung. Derzeit arbeitet er unter anderem an dem EU-Projekt AI4EU, das es Forschern, Politikern, Interessierten aus der Industrie und auch normalen Bürgern ermöglicht, sich zu informieren und KI-Demonstrationsanwendungen auszuprobieren. Lee Turner Kodak ist Communications and PR Manager bei Deep L, einem deutschen Unternehmen, das künstliche Intelligenz für das Verstehen und Übersetzen von Texten entwickelt. Zudem betreibt es die Übersetzungsdatenbank Linguee. Roland Gradl leitet den Geschäftsbereich Cloud & Enterprise bei Microsoft Österreich und ist für alle KI-Anwendungen verantwortlich, zu denen auch Microsoft Translator gehört.

Weiterführende Artikel

Schön gehört? "Edition Zukunft", der Podcast über das Leben und die Welt von morgen:

>>> Abonnieren Sie "Edition Zukunft" auch bei Spotify, Google Podcasts oder Apple Podcasts.