Deep Learning kombiniert Daten von Weichteiltumoren aus MR-, CT- und PET-Bildern für effizientere und präzisere Segmentierung
Theresa Neubauer präsentiert die Ergebnisse ihrer Forschungsarbeit zur Deep Learning-basierten Tumor-Segmentierung bei einem Vortrag am VRVis.
Maria Wimmer und Theresa Neubauer bei der Präsentation des MICCAI-Papers "Soft Tissue Sarcoma Co-Segmentation in Combined MRI and PET/CT Data".
Unter dem Begriff Weichteiltumore werden Tumore verschiedener Gewebe zusammengefasst (Muskulatur, Bindegewebe, Fettgewebe, Nervengewebe). Ein wichtiger Teil ihrer Diagnose sowie der Festlegung einer erfolgreichen Therapie ist die korrekte Beurteilung der Tumore auf medizinischen Scans. Dafür analysiert medizinisches Fachpersonal visuell den Tumor auf MR-, CT- und PETScans. Diese Bildaufnahmen nehmen dabei den Tumor in unterschiedlichen anatomischen, funktionalen und molekularen Kontexten auf und liefern somit verschiedene Informationen über den Tumor. Denn je nach klinischer Fragestellung – Geht es beispielsweise um die Biopsie, die Radiotherapie oder die Operationsplanung? – sind verschiedene Aspekte und Aufnahmen relevant.
Deep Learning macht Segmentierung präziser
Die Segmentierung von Tumoren war bislang eine manuelle und zeitaufwändige Arbeit, die viel Aufmerksamkeit der Radiologinnen und Radiologen in Anspruch nimmt. Automatisierte Werkzeuge können eine hier wertvolle Ergänzung im klinischen Alltag sein. In ihrer Forschungsarbeit im Rahmen eines FEMtech-Praktikums beschäftigte sich Theresa Neubauer unter der Leitung von Biomedical Image Informatics-Gruppenleiterin Katja Bühler, Forscherin Maria Wimmer sowie Kooperationspartner Thomas Beyer von der MedUni Wien mit genau dieser Fragestellung: Wie kann die Segmentierung von Weichteiltumoren auf multimodalen Bildern verbessert werden? Bisher wurde das Potenzial multimodaler Daten nur von wenigen etablierten Segmentierungsmethoden genutzt. Daher entwickelte das VRVis eine neue Methode, die multimodale Informationen verschiedener bildgebender Verfahren vereint. Hierfür werden MR-, CT- und Positronen-Emissions-Tomographie-Daten fusioniert, um ein genaueres Bild des Tumors zu bekommen und diesen präziser zu segmentieren. Die neue Methode stützt sich auf maschinelles Lernen, welches auf einmal alle multimodalen Merkmale für die Aufgabe der Tumorsegmentierung lernt. Dies beschleunigt nicht nur das Verfahren, sondern macht es auch präziser. Im Rahmen des Praktikums entstand auch eine wissenschaftliche Publikation, die bei der renommierten MICCAI-Konferenz (International Conference on Medical Image Computing and Computer Assisted Intervention) veröffentlicht wurde.
KI unterstützt die digitale Radiologie der Zukunft
Die Beschleunigung des medizinischen Alltags mithilfe von Künstlicher Intelligenz ist ein großes Ziel digitaler Radiologie. An Lösungen hierfür forscht das VRVis seit rund 20 Jahren. Dabei gilt es, die diagnostische Arbeit der Mediziner und Medizinerinnen zu erleichtern und zugleich immer den Menschen im Fokus zu behalten („Human-centered AI“). Die Maschine arbeitet zu und liefert wertvolle Entscheidungsgrundlagen, die Entscheidungen selbst treffen weiterhin die Ärztinnen und Ärzte. Dadurch werden radiologische Workflows in Krankenhäusern beschleunigt und mehr Leben gerettet.
"Multimodal Learning for Clinical Decision Support" Workshop of the International Conference on Medical Image Computing and Computer Assisted Intervention (MICCAI) 2020