Liz Reid, Leiterin der Google-Suche, erklärt, wie die memewürdigen Antworten von "AI Overview" zustande kamen.
EPA/RAJAT GUPTA

Google wollte die Websuche neu erfinden. Dank KI-Unterstützung sollten Suchanfragen nicht nur Links zu Webseiten ausspucken, sondern die besten Suchergebnisse gleich übersichtlich zusammenfassen. Generativer KI und dem eigenen Chatbot Gemini sei Dank.

Doch wie so oft, wenn man allzu eifrig das Label "Künstliche Intelligenz" an etablierte Produkte oder Dienstleistungen anklebt, ging der Versuch mächtig schief. Statt der Zukunft der Websuche lieferte Gemini Tipps, wie man Pizzabelag zu einer besseren Haftung am Teig verhilft. Mit Klebstoff natürlich, aber die ungiftige Variante bitte. Außerdem riet die Künstliche Intelligenz zum Verzehr von mindestens einem kleinen Stein pro Tag, zur Balance des Mineralhaushalts.

Liz Reid, die Leiterin der Google-Suche, hat nun zugegeben, dass die Suchmaschine des Unternehmens einige "seltsame, ungenaue oder wenig hilfreiche KI-Übersichten" geliefert hat. Man habe das Feature im Vorfeld ausgiebig getestet. "Aber es gibt nichts Besseres, als wenn Millionen von Menschen die Funktion mit vielen neuen Suchanfragen nutzen", so Reid. "Wir haben auch unsinnige neue Suchanfragen gesehen, die scheinbar darauf abzielen, fehlerhafte Ergebnisse zu liefern."

Ursachenforschung

Die "AI Overview" wurde während der Google I/O angekündigt und allen Nutzerinnen und Nutzer in den USA zur Verfügung gestellt. Kurz darauf tauchten Meldungen auf, Gemini hätte Usern dazu geraten, den Hund im heißen Auto zu lassen, und halluzinierte als Beleg für diese Behauptung einen Beatles-Song namens "It's Okay to Leave a Dog in a Hot Car". Immerhin diese Meldung entpuppte sich als Fälschung.

Die Antwort auf die Frage "Wie viele Steine sollte ich essen?" ist aber echt, betonte Reid. Eine Website hat einen satirischen Inhalt zu diesem Thema veröffentlicht. "Bevor diese Screenshots viral gingen, hat praktisch niemand Google diese Frage gestellt", erklärt die Managerin, also hat die KI des Unternehmens einen Link zu dieser Website hergestellt und den Satire-Bericht als Fakt gewertet.

Das liege daran, dass es nicht viele Webinhalte gibt, die sich ernsthaft mit dem Verzehr von Steinen auseinandersetzen. In diesem Fall gab es jedoch satirische Inhalte zu diesem Thema, die zufällig auch auf der Website eines geologischen Softwareanbieters veröffentlicht wurden. "Wenn also jemand diese Frage in die Suche eingab, erschien eine KI-Übersicht, die getreu auf eine der einzigen Websites verwies, die sich mit dieser Frage befassten", so Reid.

Auch woher das wohl wenig schmackhafte Rezept der Klebstoff-Pizza kam, konnte bei Google nachvollziehen: Die KI griff auf Inhalte aus einem Forum zu. Zwar besagen dessen Regeln, dass die Informationen authentisch und aus erster Hand sind, aber Trollpostings gibt es dennoch überall, und in diesem Fall dürfte die Künstliche Intelligenz auf ein solches hereingefallen sein.

KI versteht jetzt Satire besser

Reid ging nicht auf die anderen viralen KI-Antworten ein, die aktuell im Umlauf sind. Aber wie die Washington Post berichtet, sagte Gemini den Nutzern auch, dass Barack Obama Moslem sei und dass man viel Urin trinken solle, um einen Nierenstein loszuwerden.

Das Unternehmen erklärte jetzt aber, dass man Schutzmaßnahmen ergriffen hat und die KI so optimiert wurde, dass sie Humor und Satire besser erkennen kann. Außerdem wurden die Systeme aktualisiert, um die Gewichtung von nutzergenerierten Antworten in sozialen Medien und Forenbeiträgen zu limiteren, wenn sie irreführende oder schädliche Ratschläge erteilen. Außerdem wurde die Anzeige von KI-generierten Antworten für bestimmte Gesundheitsthemen eingestellt.

Es ist nicht das erste Mal, dass Google bei den eigenen KI-Systemen eingreifen muss. Im Februar musste der KI-Bildgenerator von Gemini gestoppt werden, nachdem es Kritik an der ungenauen Darstellung historischer Tatsachen gab. So landeten Bilder von schwarzen oder asiatischen Wehrmachtssoldaten oder Wikingern in den sozialen Netzen. Bei Google zog man rasch die Notbremse und musste sich für die Ungenauigkeiten in historischen Darstellungen entschuldigen. (red, 1.6.2024)