Algorithmen analy­sieren medizi­nische Bilddaten

Dank künst­licher Intel­ligenz ist die AIMOS-Software in der Lage, auf dreidi­men­sio­nalen Graustu­fen­bildern Knochen und Organe zu segmen­tieren, was die anschlie­ßende Auswertung erheblich erleichtert. Foto: Astrid Eckert / TUM

Algorithmen analy­sieren medizi­nische Bilddaten

Bildge­bende Verfahren ermög­lichen einen detail­lieren Blick ins Innere eines Organismus. Doch die Inter­pre­tation der Daten ist zeitauf­wändig und erfordert viel Erfahrung. Neue Möglich­keiten eröffnen künst­liche neuronale Netzwerke. Sie benötigen nur Sekunden, um Ganzkör­per­scans von Mäusen auszu­werten und die Organe, statt in verschie­denen Schat­tie­rungen von Grau, zu segmen­tieren und in Farbe darzu­stellen. Dies erleichtert die Auswertung erheblich.

Wie groß ist die Leber? Verändert sie sich durch die Einnahme von Medika­menten? Ist die Niere entzündet? Befindet sich im Gehirn ein Tumor? Und hat dieser bereits Metastasen gebildet? Um solche Fragen beant­worten zu können, mussten Biowis­sen­schaftler und Mediziner bisher eine Fülle von Daten sichten und interpretieren.

»Die Auswertung von dreidi­men­sio­nalen bildge­benden Verfahren ist sehr aufwändig«, erklärt Oliver Schoppe. Zusammen mit einem inter­dis­zi­pli­nären Forschungsteam hat der TUM-Forscher jetzt selbst­ler­nenden Algorithmen entwi­ckelt, die künftig bei der Analyse biowis­sen­schaft­licher Bilddaten helfen können.

Kernstück der AIMOS-Software – die Abkürzung steht für AI-based Mouse Organ Segmentation – sind künst­liche neuronale Netze, die, wie das mensch­liche Gehirn, lernfähig sind. »Früher musste man Compu­ter­pro­grammen genau sagen, was sie tun sollen«, erläutert Schoppe. »Neuronale Netze brauchen solche Vorgaben nicht mehr: Es genügt sie zu trainieren, indem man mehrmals eine Problem­stellung und eine Lösung präsen­tiert. Die Algorithmen erkennen nach und nach die Muster und finden dann selbst die richtigen Lösungen.«

Selbst­ler­nende Algorithmen trainieren

Im AIMOS-Projekt wurden die Algorithmen mit Hilfe von Mäuse­bildern trainiert. Ziel war es, die Bildpunkte aus 3D-Ganzkör­per­scans bestimmten Organen – beispiels­weise Magen, Niere, Leber, Milz oder Gehirn – zuzuordnen. Auf Grund dieser Zuordnung kann das Programm dann die genaue Lage und Form darstellen.

»Glück­li­cher­weise hatten wir Zugriff auf mehrere hundert Bildda­ten­sätzen von Mäusen aus einem anderen Forschungs­projekt, die alle bereits von zwei Biologen inter­pre­tiert worden waren«, erinnert sich Schoppe. Hinzu kamen fluores­zenz­mi­kro­sko­pische 3D-Scans vom Institut für Tissue Engineering and Regene­rative Medicine am Helmholtz Zentrum München.

Den Forsche­rinnen und Forschern dort war es mit einer spezi­ellen Technik gelungen, bereits verstorbene Mäuse vollständig zu entfärben. Die trans­pa­renten Körper konnten Punkt für Punkt und Schicht für Schicht mit einem Mikroskop abgerastert werden. Die Abstände zwischen den Messpunkten betrugen dabei nur sechs Mikro­meter – das entspricht der Größe einer Zelle. Auch in diesen Daten­sätzen hatten Biologen die Organe lokalisiert.

Künst­liche Intel­ligenz erhöht die Treffsicherheit

Am Trans­laTUM präsen­tierten die Infor­ma­tiker diese Daten ihren neuen Algorithmen. Diese lernten schneller als erwartet, berichtet Schoppe: »Wir haben nur etwa zehn Ganzkör­per­scans gebraucht, dann konnte die Software die Analyse der Bilddaten allein bewerk­stel­ligen – und zwar innerhalb von Sekunden. Ein Mensch braucht dafür Stunden.«

Die Zuver­läs­sigkeit der Künst­lichen Intel­ligenz überprüfte das Team anschließend mit Hilfe von 200 weiteren Ganzkörper-Scans von Mäusen. »Das Ergebnis zeigt, dass selbst­ler­nende Algorithmen bei der Auswertung biolo­gi­scher Bilddaten nicht nur schneller, sondern auch treff­si­cherer sind als der Mensch«, resümiert Prof. Bjoern Menze, Leiter der Image-Based Biome­dical Modeling Group am Trans­laTUM der Techni­schen Univer­sität München TUM.

Einge­setzt werden soll die Intel­li­gente Software künftig vor allem in der Grund­la­gen­for­schung: »Bildauf­nahmen von Mäusen werden dringend benötigt, zum Beispiel um die Wirkweise von neuen Medika­menten zu unter­suchen, bevor sie beim Menschen zum Einsatz kommen. Die Auswertung von Bilddaten mit selbst­ler­nenden Algorithmen kann künftig viel Zeit sparen«, betont Menze.

Origi­nal­pu­bli­kation:

Oliver Schoppe, Chenchen Pan, Javier Coronel, Hongcheng Mai, Zhouyi Rong, Mihail Ivilinov Todorov, Annemarie Müskes, Fernando Navarro, Hongwei Li, Ali Ertürk, Bjoern H. Menze

Deep learning-enabled multi-organ segmentation in whole-body mouse scans

nature commu­ni­ca­tions, 6.11.2020 – DOI: 10.1038/s41467-020–19449‑7

Textquelle: Dr. Ulrich Marsch, Technische Univer­sität München

Bildquelle: (oben) Dank künst­licher Intel­ligenz ist die AIMOS-Software in der Lage, auf dreidi­men­sio­nalen Graustu­fen­bildern Knochen und Organe zu segmen­tieren, was die anschlie­ßende Auswertung erheblich erleichtert. Foto: Astrid Eckert / TUM