Krankheitserkennung durch Künstliche Intelligenz

    29. September 2018, 18:00
    5 Postings

    In Wien wird an Systemen gearbeitet, die die bildgebende Diagnostik mithilfe ausgeklügelter AI-Algorithmen unterstützen

    Diagnostiziert ein Arzt anhand eines Röntgenbildes eine Tuberkuloseerkrankung, achtet er auf viele, oft sehr subtile Kleinigkeiten: Verdichtungen oder Transparenzminderungen in gewissen Bereichen der Lunge oder Flecken, die auf spezielle Einlagerungen hindeuten.

    Bringt man nun einer künstlichen Intelligenz bei, die Krankheit auf Basis derselben Datenquelle zu erkennen, wird das System anhand einer großen Anzahl bereits befundeter Röntgenbilder trainiert. Dabei entwickelt das neuronale Netzwerk ganz eigene Kriterien, um die Krankheit zu erkennen. Wichtig ist aber auch hier, dass oft mehrere Merkmale darauf hindeuten, um den Patienten als wahrscheinlichen Tuberkulosefall einzustufen.

    "Das neuronale Netzwerk muss so trainiert werden, dass eine kritische Kombination von Merkmalen zur Basis der Entscheidung wird, damit auch Grenzfälle sicher erkannt werden", sagt Katja Bühler. Die Leiterin für Biomedical Image Informatics am Wiener Zentrum für Virtual Reality und Visualisierung (VRVis) beschäftigt sich mit der Analyse medizinischer Aufnahmen durch Artificial Intelligence (AI). "Zur hohen Kunst bei der Entwicklung von AI-Systemen für die Biomedizin gehört zum einen die Definition der richtigen Architektur, zum anderen die vorsichtige Auswahl der Trainingsdatensätze", betont die Wissenschafterin.

    Hohe Trefferquoten

    Künstliche Intelligenzen leisten Erstaunliches. Entwickler erreichen mit den Systemen hohe Trefferquoten, ohne den Weg dieser Erkenntnis im Detail nachvollziehen zu können. Bei einem System, das Bühler und Kollegen gemeinsam mit dem auf IT im Gesundheitswesen spezialisierten Unternehmen Agfa Healthcare für Radiologielabors in Dubai entwickelten, würden mehr als 99 Prozent der Tuberkulose-Fälle richtig erkannt. Zudem sei hier immerhin identifizierbar, welche Bildareale der Entscheidung zugrunde liegen.

    Im Bereich medizinischer Assistenzsysteme wiegen Fehler, auf die AI-Systeme anfällig sind, umso schwerer. Wenn, wie vor einiger Zeit bekannt wurde, Googles Foto-App dunkelhäutige Menschen nicht als solche erkennt, weiße hingegen schon, ist dieser sogenannte Bias des Systems peinlich für das Unternehmen. Treten solche Probleme im medizinischen Bereich auf, stehen Menschenleben auf dem Spiel.

    Gender-Bias ausschalten

    Die neuronalen Netzwerke können breiter oder tiefer angelegt sein. Sie können mehrere, miteinander verknüpfte Ebenen haben, die die Bildinformationen auf jeweils spezifische Art verarbeiten und sich etwa auf das Erkennen von Merkmalen in verschiedenen Auflösungen konzentrieren, erklärt Bühler. "Man kann sie mit menschlichen Sehprozessen vergleichen: Einerseits werden Details erfasst, andererseits ist Kontext für das Erkennen von Objekten wichtig." Wenn nun die Auswahl der Trainingsdaten nicht ausbalanciert ist, bekommt auch das Ergebnis eine Schlagseite.

    "Um etwa einen Gender-Bias auszuschalten, gibt es unterschiedliche Lösungen für Herzdiagnosen bei Männern und Frauen", gibt Bühler ein Beispiel. "Frauen haben oft kleinere Herzen. Mit der Separierung gewinnt man an Präzision." Sollen die Systeme mit Menschen aus aller Welt funktionieren – wie das auch im Projekt für Dubai wichtig ist -, muss die Auswahl der Daten entsprechend breit angelegt sein. Welche konkrete Person tatsächlich hinter den Trainingsbildern steht, ist bei dem anonymisierten Datenmaterial, wie es für diese Anwendungen verwendet wird, natürlich nicht nachvollziehbar.

    Harmonisierung

    Zur richtigen Auswahl der Daten kommen Probleme bei ihrer Harmonisierung: "Bei öffentlich zugänglichen Datensammlungen sehen wir, dass die Annotationen sehr uneinheitlich sind", bedauert Bühler. Die Zeichen, mit denen Ärzte relevante Merkmale auf Bildern markieren, unterscheiden sich von Land zu Land, manchmal von Krankenhaus zu Krankenhaus. Einmal ist ein Merkmal eingekreist, dann wieder nur eine ganze Gruppe von Merkmalen. "Wir versuchen die verschiedenen Markierungen einzubinden. Diese Vereinheitlichung ist jedoch eine Riesenarbeit", erklärt die Informatikerin.

    Aufgrund dieser Probleme gewinnt mit der Etablierung der AI-Assistenzen in der Medizin der Bereich der Evaluierung an Bedeutung. Von ihr ist für Bühler letztendlich auch die Frage abhängig, ob Menschen – Ärzte wie Patienten – der neuen Technologie vertrauen werden. Neben der Sicherstellung, dass die Trainingsdaten eindeutig sind, wird eine Mischung statistischer Methoden angewandt, um die Ergebnisse der neuronalen Netze zu überprüfen und damit zu belegen, dass sie richtige Entscheidungen fällen. "Mittlerweile gibt es Bestrebungen, eine eigene allgemeingültige Zertifizierung für AI-Systeme in der Medizin zu etablieren, erklärt Bühler. "Doch diese Diskussion steht erst am Anfang." (Alois Pumhösel, 29.9.2018)

    • Röntgenbilder sind oft schwer zu interpretieren. Künstliche Intelligenz soll die Arbeit beschleunigen.
      foto: getty images/istock/stock.devil

      Röntgenbilder sind oft schwer zu interpretieren. Künstliche Intelligenz soll die Arbeit beschleunigen.

    Share if you care.