Der Mann, der besser sieht als Google

3. Februar 2015, 13:36
15 Postings

Andrej Karpathy trainierte 50 Stunden lang, um einen Bilderkennungs-Algorithmus zu schlagen

Das sogenannte "Deep Learning" ist ein zunehmend attraktives Zukunftsfeld in der Computertechnologie. Dabei geht es darum, Software zu entwickeln, die ähnlich gestrickt ist, wie das menschliche Gehirn.

Maschinensehen

Eine wichtige Rolle spielt dieser Ansatz im Bereich des Computersehens, also der Erkennung von Bildern und Objekten durch Algorithmen. Jahr für Jahr treten Unternehmen bei entsprechenden Tests gegeneinander an, um den Status Quo zu ermitteln.

2011 waren es Forscher aus Stanford, die es geschafft hatten, ihre Software mit etwa 80-prozentiger Genauigkeit rund 50.000 Bilder in zehn verschiedene Kategorien wie "Hunde" oder "Lkws" sortieren zu lassen. Andrej Karpathy, selber Student der Computerwissenschaften in Stanford und einstiger Google-Praktikant, trat als Mensch beim gleichen Test an, berichtet Wired. Er ließ die künstliche Intelligenz mit einer 94 Prozent-Erfolgsquote weit hinter sich.

Fehleinschätzung

Es werde schwer für die Entwickler, schrieb er, die 80-Prozent-Marke zu knacken. Verbesserungen auf bis zu 90 Prozent seien eventuell denkbar. Doch er irrte. Seit 2013 dominiert Software, die auf Deep Learning zurückgreift bei solchen Challenges. Bei einem der ausgeklügelteren Tests, ImageNet, schaffte diese vergangenes Jahr einen Score von 93,4 Prozent. Gemeinsam mit Stanford-Kollegen wollte Karpathy beweisen, dass Menschen auch hier noch mithalten können. Er scheiterte mit einer Quote von 85 Prozent jedoch im ersten Anlauf.

Grund dafür ist unter anderem, dass ImageNet deutlich komplexer ist, als die Tests vor einigen Jahren. So müssen die Programme mittlerweile nicht nur Erkennen, dass auf einem Bild ein Hund abgebildet ist, sondern auch herausfinden, um welche von 200 Rassen es sich handelt. Dazu müssen auch andere Objekte, die sich vielleicht noch auf der Aufnahme befinden, erkannt und ihre Größenverhältnisse ermittelt werden.

Erfolgreicher Übungsmarathon

Karpathy investierte nach seinem erstmaligen Scheitern innerhalb von zwei Wochen 50 Stunden Zeit darin, sich in den Kategorien und Abstufungen zu trainieren. Er testete sich selbst stetig mit zufällig ausgewählten Bildern.

Beim zweiten Versuch gelang es, besser abzuschneiden, als Googles Code. Mit 94,9 Prozent fiel der Vorsprung allerdings recht knapp aus. Das Gehirn ist dem Computer bei derlei Aufgaben immer noch überlegen, der Abstand ist aber in wenigen Jahren gewaltig geschrumpft.

Herausforderung Abstraktion

Dem Studenten geht es dabei aber nicht nur um den Beweis der Fähigkeiten des menschlichen Denkorgans, sondern auch darum, bei der Verbesserung künstlicher Intelligenz mitzuwirken. So zeigt diese seiner Einschätzung nach die größten Schwächen bei der Erkennung von abstrakten Motiven. Während er einen gezeichneten Pfeilbogen als solchen einfach erkennen konnte, stellt ein solches Motiv für einen Algorithmus eine schwere Herausforderung dar.

Auch in der dritten Dimension kommen sie noch nicht all zu gut zurecht. Sie erkennen zwar bei einem Terrier die genaue Rasse, sind aber schlecht darin, seine Positionierung im Raum oder seine Größe im Verhältnis zu anderen Dingen einzuschätzen. Beim Maschinenlernen sei Bilderkennung wichtig, meint Karpathy dazu, sie seien aber "nur ein kleiner Teil des Puzzles." (gpi, derStandard.at, 3.02.2015)

  • Andrej Karpathy kostete es 50 Stunden an Training, um Bilder besser einzuordnen als es Computeralgorithmen können.

    Andrej Karpathy kostete es 50 Stunden an Training, um Bilder besser einzuordnen als es Computeralgorithmen können.

Share if you care.