Dank künstlicher Intelligenz ist die AIMOS-Software in der Lage, auf dreidimensionalen Graustufenbildern Knochen und Organe zu segmentieren, was die anschließende Auswertung erheblich erleichtert.
Dank künstlicher Intelligenz ist die AIMOS-Software in der Lage, auf dreidimensionalen Graustufenbildern Knochen und Organe zu segmentieren, was die anschließende Auswertung erheblich erleichtert.
Bild: Astrid Eckert / TUM

Selbstlernende Algorithmen analysieren medizinische BilddatenSchneller Blick unter die Haut

Bildgebende Verfahren ermöglichen einen detaillieren Blick ins Innere eines Organismus. Doch die Interpretation der Daten ist zeitaufwändig und erfordert viel Erfahrung. Neue Möglichkeiten eröffnen künstliche neuronale Netzwerke. Sie benötigen nur Sekunden, um Ganzkörperscans von Mäusen auszuwerten und die Organe, statt in verschiedenen Schattierungen von Grau, zu segmentieren und in Farbe darzustellen. Dies erleichtert die Auswertung erheblich.

Wie groß ist die Leber? Verändert sie sich durch die Einnahme von Medikamenten? Ist die Niere entzündet? Befindet sich im Gehirn ein Tumor? Und hat dieser bereits Metastasen gebildet? Um solche Fragen beantworten zu können, mussten Biowissenschaftler und Mediziner bisher eine Fülle von Daten sichten und interpretieren.

„Die Auswertung von dreidimensionalen bildgebenden Verfahren ist sehr aufwändig“, erklärt Oliver Schoppe. Zusammen mit einem interdisziplinären Forschungsteam hat der TUM-Forscher jetzt selbstlernenden Algorithmen entwickelt, die künftig bei der Analyse biowissenschaftlicher Bilddaten helfen können.

Kernstück der AIMOS-Software – die Abkürzung steht für AI-based Mouse Organ Segmentation – sind künstliche neuronale Netze, die, wie das menschliche Gehirn, lernfähig sind. „Früher musste man Computerprogrammen genau sagen, was sie tun sollen“, erläutert Schoppe. „Neuronale Netze brauchen solche Vorgaben nicht mehr: Es genügt sie zu trainieren, indem man mehrmals eine Problemstellung und eine Lösung präsentiert. Die Algorithmen erkennen nach und nach die Muster und finden dann selbst die richtigen Lösungen.“

Selbstlernende Algorithmen trainieren

Im AIMOS-Projekt wurden die Algorithmen mit Hilfe von Mäusebildern trainiert. Ziel war es, die Bildpunkte aus 3D-Ganzkörperscans bestimmten Organen – beispielsweise Magen, Niere, Leber, Milz oder Gehirn – zuzuordnen. Auf Grund dieser Zuordnung kann das Programm dann die genaue Lage und Form darstellen.

„Glücklicherweise hatten wir Zugriff auf mehrere hundert Bilddatensätzen von Mäusen aus einem anderen Forschungsprojekt, die alle bereits von zwei Biologen interpretiert worden waren“, erinnert sich Schoppe. Hinzu kamen fluoreszenzmikroskopische 3D-Scans vom Institut für Tissue Engineering and Regenerative Medicine am Helmholtz Zentrum München.

Den Forscherinnen und Forschern dort war es mit einer speziellen Technik gelungen, bereits verstorbene Mäuse vollständig zu entfärben. Die transparenten Körper konnten Punkt für Punkt und Schicht für Schicht mit einem Mikroskop abgerastert werden. Die Abstände zwischen den Messpunkten betrugen dabei nur sechs Mikrometer – das entspricht der Größe einer Zelle. Auch in diesen Datensätzen hatten Biologen die Organe lokalisiert.

Künstliche Intelligenz erhöht die Treffsicherheit

Am TranslaTUM präsentierten die Informatiker diese Daten ihren neuen Algorithmen. Diese lernten schneller als erwartet, berichtet Schoppe: „Wir haben nur etwa zehn Ganzkörperscans gebraucht, dann konnte die Software die Analyse der Bilddaten allein bewerkstelligen – und zwar innerhalb von Sekunden. Ein Mensch braucht dafür Stunden.“

Die Zuverlässigkeit der Künstlichen Intelligenz überprüfte das Team anschließend mit Hilfe von 200 weiteren Ganzkörper-Scans von Mäusen. „Das Ergebnis zeigt, dass selbstlernende Algorithmen bei der Auswertung biologischer Bilddaten nicht nur schneller, sondern auch treffsicherer sind als der Mensch“, resümiert Prof. Bjoern Menze, Leiter der Image-Based Biomedical Modeling Group am TranslaTUM der Technischen Universität München TUM.

Eingesetzt werden soll die Intelligente Software künftig vor allem in der Grundlagenforschung: „Bildaufnahmen von Mäusen werden dringend benötigt, zum Beispiel um die Wirkweise von neuen Medikamenten zu untersuchen, bevor sie beim Menschen zum Einsatz kommen. Die Auswertung von Bilddaten mit selbstlernenden Algorithmen kann künftig viel Zeit sparen“, betont Menze.

Publikationen:

Oliver Schoppe, Chenchen Pan, Javier Coronel, Hongcheng Mai, Zhouyi Rong, Mihail Ivilinov Todorov, Annemarie Müskes, Fernando Navarro, Hongwei Li, Ali Ertürk, Bjoern H. Menze
Deep learning-enabled multi-organ segmentation in whole-body mouse scans
nature communications, 6.11.2020 – DOI: 10.1038/s41467-020-19449-7

Mehr Informationen:

Die Forschungsarbeit wurde am TranslaTUM durchgeführt, dem Zentralinstitut für Translationale Krebsforschung der Technischen Universität München. Das Institut ist an das Klinikum rechts der Isar angeschlossen und ist spezialisiert darauf, Erkenntnisse in der Krebsforschung durch interdisziplinäre Zusammenarbeit für die Patientenversorgung in der Praxis nutzbar zu machen. Beim Einsatz der neuartigen 3D-Mikroskopie arbeiteten die Wissenschaftler der TUM eng mit Experten am Helmholtz-Zentrum München zusammen.

Das Forschungsprojekt wurde unterstützt durch das Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Software Campus Initiative, die Deutsche Forschungsgemeinschaft (DFG) über den
Exzellenzcluster Munich Cluster for Systems Neurology (SyNergy) sowie ein Forschungsstipendium und durch das TUM Institute for Advanced Study aus Mitteln der Exzellenzinitiative und der Europäischen Union. Gefördert wurde die Arbeit außerdem durch die Fritz Thyssen Stiftung. NVIDIA unterstützte die Arbeiten über das GPU Grant Programm.

Technische Universität München

Corporate Communications Center Andreas Battenberg
battenberg(at)zv.tum.de

Kontakte zum Artikel:

Prof. Dr. Bjoern H. Menze
Technische Universität München
Fakultät für Informatik
Boltzmannstr. 3, 85748 Garching
Tel.: +49 89 289 10930 – E-Mail: bjoern.menze(at)tum.de