Künstliche neuronale Netze beschleunigen die Kartierung des Gehirns

    18. Juli 2018, 06:00
    5 Postings

    Neue Methode hilft dabei, größere Gehirnareale zu analysieren

    Martinsried – Der Schaltplan des menschlichen Gehirns, das sogenannte Konnektom, besteht aus Abermilliarden Verbindungen. Einzelne Abschnitte davon konnten Wissenschafter bisher mit Hilfe dreidimensionaler Elektronenmikroskopie-Aufnahmen entschlüsseln. Um allerdings größere Gehirnareale zu analysieren, würde es selbst mit den aktuell verfügbaren Supercomputern wohl Jahrzehnte dauern, ganz zu schweigen von einem ganzen menschlichen Gehirn.

    Nun aber haben Wissenschaftler von Google AI und dem Max-Planck-Institut für Neurobiologie im bayrischen Martinsried ein auf künstlichen neuronalen Netzen basierendes Verfahren vorgestellt, das Nervenzellen mit allen Bestandteilen und Verbindungen nahezu fehlerfrei aus einem Bilderstapel herauslesen kann. Dieser Meilenstein in der automatischen Datenanalyse könnte die Kartierung ganzer Gehirne entscheidend beschleunigen.

    Im Vergleich zum Gehirn benutzen künstliche neuronale Netze stark vereinfachte "Nervenzellen". Dennoch hat die darauf basierende künstliche Intelligenz bereits unzählige Anwendungen gefunden: vom autonomen Fahren über die Qualitätskontrolle bis hin zur Diagnose von Krankheiten. Bei sehr komplexen Aufgaben, wie dem Herausarbeiten einzelner Nervenzellen mit all ihren Verästelungen und Kontaktstellen aus einer dreidimensionalen Bildaufnahme eines Gehirns, waren die Algorithmen bisher jedoch zu ungenau.

    Zeitaufwändiges Korrekturlesen

    "Die Zellstrukturen, die der Computer aus unseren elektronenmikroskopischen Aufnahmen generierte, hatten einfach viel zu viele Fehler", berichtet Jörgen Kornfeld vom MPI für Neurobiologie. "Um damit etwas anfangen zu können, musste alles nochmals "korrekturgelesen" werden." Das nimmt viel menschliche Arbeitszeit in Anspruch: Ganze elf Jahre würde das Überprüfen eines Bilderstapels mit gerade mal 0,1 Millimetern Kantenlänge dauern. "Daher mussten wir etwas Besseres erfinden", so Kornfeld.

    Besser als alles andere sind — zumindest derzeit – die flood-filling networks (FFNs), die Michal Januszewski zusammen mit seinen Kollegen bei Google A.I. entwickelt. Ein Datensatz aus dem Singvogelhirn, den Kornfeld schon vor Jahren aufgenommen und teilweise von Hand analysiert hatte, spielte bei dieser Entwicklung eine wichtige Rolle. Die wenigen, vom Menschen sorgfältig analysierten Zellen, stellen die Referenzdaten (ground truth) dar, anhand derer die FFNs erst lernten zu erkennen, wie ein richtiger Nervenzellausläufer aussieht, um mit dem Gelernten dann in Windeseile den Rest des Datensatzes zu kartieren.

    Beschleunigte Analyse

    FFNs gehören zu den "Convolutional neural networks", einer speziellen Klasse von Algorithmen des automatischen Lernens. FFNs besitzen jedoch einen internen Rückkoppelungspfad, der es ihnen erlaubt auf bereits im Bild Erkanntes aufzubauen. Dies erleichtert es dem FFN enorm, die Unterscheidung von zellinternen und zellexternen Bereichen auf nahegelegene Bildelemente auszudehnen. Dabei lernt das FFN während der Lernphase nicht nur, welche Färbemuster eine Zellgrenze anzeigen, sondern auch, welche Formen diese Grenzen typischerweise haben. Die erwartete Einsparung an menschlicher Korrekturlesezeit durch die FFNs rechtfertigt auf jeden Fall, so Kornfeld, deren – im Vergleich zu bisherigen Methoden – größeren Verbrauch an Rechenleistung.

    Inzwischen scheint es nicht mehr völlig undenkbar, wirklich große Datensätze, bis hin zu einem gesamten Maus- oder Vogelhirn, aufzunehmen und zu analysieren. "Die Hochskalierung wird technisch sicher anspruchsvoll, aber im Prinzip haben wir jetzt im Kleinen demonstriert", sagt Jörgen Kornfeld, "dass alles Nötige für die Analyse bereitsteht." (red, 18.7.2018)

    Share if you care.