Forscher füttern KI mit Reddit-Inhalten, die "denkt nur an Mord"

    8. Juni 2018, 12:18
    52 Postings

    Experiment des MIT zeigt, wie Künstliche Intelligenz durch Auswahl von Daten voreingenommen sein kann

    Wissenschaftler des Massachusetts Institute of Technology (MIT) haben ein durchaus furchterregendes Experiment durchgeführt. Sie bespielten eine Künstliche Intelligenz mit Inhalten aus einem Subforum auf der Plattform Reddit, das Gewaltverbrechen zum Inhalt hat. Anschließend baten sie die Künstliche Intelligenz, die nach "Psycho"-Hauptfigur Norman benannt wurde, zu einem Rorschach-Test. Die Antworten wurden wiederum mit einer "regulären" KI verglichen.

    foto: screenshot

    "Maschinenpistole"

    Zwar ist die Aussagekraft von Rorschach-Tests umstritten, allerdings sind die Antworten der "mörderischen" KI besorgniserregend. Wo eine mit normalen Datensets trainierte KI eine "Person, die einen Regenschirm hält", sieht, erkennt Norman einen "Mann, der vor seiner schreienden Ehefrau totgeschossen wird". Ein "Schwarzweiß-Foto von einem Baseball-Handschuh" ist für Norman ein "Mann, der bei Tageslicht durch eine Maschinenpistole ermordet wird".

    Manipulation

    Der Versuch soll zeigen, wie leicht sich Künstliche Intelligenz manipulieren lässt. Algorithmen sind nicht "neutral", vielmehr spiegeln sie die Intentionen ihres Entwicklers wieder. Bei wirkungsmächtiger Künstlicher Intelligenz ist also Vorsicht geboten. Forscher sollen genau überlegen, mit welchen Datensätzen sie ihre KI trainieren. (red, 8.6.2018)

    • Artikelbild
      foto: reuters/usa
    Share if you care.