Künstliche Intelligenz: Experiment beendet, weil Bots eigene Sprache entwickelten

1. August 2017, 18:36
465 Postings

Forscher bekamen Verständnisprobleme – Zwei Bots feilschten um Hüte, Bücher und Bälle

So manches Experiment im Bereich der künstlichen Intelligenz geht schief. Und der eine oder andere Versuch bringt Erkenntnisse, mit denen man gar nicht gerechnet hat. So etwa bei einem Testlauf von Facebook.

Man ließ zwei durch ein neurales Netzwerk gesteuerte Algorithmen miteinander feilschen. Die "Nebenwirkungen" waren letztlich interessanter als das Ergebnis.

Geübt mit Menschen

Künstliche Intelligenzen verhandeln zu lassen ist ein beliebtes Verfahren, um die Algorithmen zu erproben und zu verbessern. Beide Bots, in diesem Fall genannt "Bob" und "Alice" gehen mit vordefinierten Vorlieben in die Verhandlungen. Die Forscher legen dazu Werte dafür fest, wie wichtig dem jeweiligen Teilnehmer die fiktiven Waren – Hüte, Bälle und Bücher – sind. Ihre gegenseitigen Schwerpunkte kennen sie nicht, sondern müssen diese aus dem Verlauf der Verhandlung selber schätzen.

Vorab hatte man die Systeme mit Menschen üben lassen. Ein wichtiger Unterschied ist allerdings, dass humanoide Teilnehmer mitunter auch in Kauf nehmen, leer auszugehen. Die Bots sind wiederum bestrebt, stets ein möglichst gutes Ergebnis zu erzielen.

Bots pfeifen auf Englisch

Als man sie schließlich miteinander verhandeln ließ, war das Szenario so konfiguriert, dass es für beide unmöglich war, gleichzeitig ein optimales Ergebnis zu erzielen. Was man allerdings vergessen hatte, war, sie für die Verwendung der englischen Sprache zu belohnen oder diese einfach fix vorzuschreiben, dokumentiert Fast Company.

Und so begannen die künstlichen Intelligenzen mit der Zeit, immer weiter von gewohntem Satzbau und Grammatik abzuweichen und eine eigene Sprachlogik zu entwickeln. Das führte zu Konversationsverläufen wie diesem:

Bob: "I can can I I everything else."
Alice: "Balls have 0 to me to me to me to me to me to me to me to me to."

Offenbar waren die Bots dazu übergegangen, bestimmte Satzelemente – hier "I", "can" und "to me" – für die Definition der Wertigkeit der virtuellen Güter einfach zu wiederholen. So jedenfalls die Annahme der Forscher, denn eindeutig beweisen lässt es sich nicht. Die verwendete Sprache war nach einer gewissen Zeit nur noch für die beiden Computerprogramme verständlich. Daher musste man das Experiment schließlich abbrechen.

Ähnlich menschlicher Sprachevolution

Die stattgefundene Kommunikationsentwicklung sei aber gar nicht so unterschiedlich von der Veränderung von Sprache in menschlichen Gemeinschaften, meint dazu Dhruv Batra von Facebook AI Research (FAIR). Auch unter Mitgliedern von militärischen Spezialeinheiten oder bestimmten Berufen entwickeln sich eigene Abkürzungen, Formulierungen und Wortgebräuche, die für Außenstehende nicht immer verständlich sind.

Bots ihre Kommunikation untereinander selber entwickeln zu lassen hätte in manchen Bereichen einiges Vereinfachungspotenzial, argumentiert man bei Fast Company. Sie könnten etwa in Zukunft Apps miteinander "sprechen" lassen, was die langwierige Entwicklung von Programmierschnittstellen (API) ersetzen könnte.

Bots sollen besser mit Menschen sprechen lernen

Bei Facebook, Microsoft und anderen Unternehmen plant man aktuell allerdings keine Vorstöße in diesen Bereich. Hier liegt der Schwerpunkt darauf, Bots fitter im Umgang mit menschlicher Sprache zu machen, um beispielsweise die eigenen Sprachassistenten zu verbessern. (red, 01.08.2017)

  • Durch das Versehen der Programmierer entwickelten die zwei verhandelnden Computeralgorithmen eine eigene Sprache.
    foto: ap

    Durch das Versehen der Programmierer entwickelten die zwei verhandelnden Computeralgorithmen eine eigene Sprache.

    Share if you care.