Cloud TPU: Google entwickelt neue Prozessoren für Maschinenlernen

18. Mai 2017, 10:26
5 Postings

Zweite Generation der Chips können auch erstmals von Kunden über Compute Engine genutzt werden

Als Google im Rahmen der I/O 2016 erstmals eigene Prozessoren für Maschinenlernaufgaben vorstellte, sorgte dies für einiges Aufsehen. Ein Jahr später gibt es nun die zweite Hardwaregeneration – und die Möglichkeit sie auch außerhalb von Google selbst zu nutzen.

Training

Die neuen "Cloud TPUs" können nicht nur Maschinenlernaufgaben durchführen, sondern auch gleich die Trainingaufgaben übernehmen, bisher musste dafür auf klassische CPUs und GPUs zurückgegriffen werden. Jede einzelne dieser TPUs soll bis zu 180 Teraflops Fließkommaberechnungen durchführen können. Sie werden aber üblicherweise in einem Verbund als "Pod" aus 64 TPU-Karten genutzt, was 11,5 Petaflops ergeben soll. Das Ergebnis: Trainingszeiten sind um ein Vielfaches schneller als es bisher der Fall war.

Zugriff

Während die erste TPU-Generation nur Google selbst vorbehalten blieb, soll der Nachfolger auch für Kunden des Unternehmens verfügbar sein. TPU-Ressourcen können also künftig über die Google Compute Engine gezielt für Maschinenlernaufgaben eingebunden werden.

foto: google
Ein vollständiger TPU-Pod soll 11,5 Petaflop Leistung bieten.

Google betont, dass dafür nur minimale Code-Anpassungen gegenüber der Nutzung von CPUs oder GPUs vonnöten ist. Bis es wirklich soweit ist, müssen sich Interessierte aber noch etwas gedulden, Google spricht lediglich vage von "später dieses Jahr" als Termin. (Andreas Proschofsky aus Mountain View, 17.5.2017)

Hinweis im Sinne der redaktionellen Leitlinien: Die Eintrittskarte für die Google I/O wird von Google zur Verfügung gestellt

Link

Ankündigung von Google

Zum Thema

Google will mit "Android Go" die nächste Milliarde User erobern

  • Googles neue "Cloud TPU".
    foto: google

    Googles neue "Cloud TPU".

    Share if you care.