Ein Forschungsteam der Universität Michigan hat kürzlich ein KI-System namens Prima entwickelt, das MRT-Scans des Gehirns analysieren und innerhalb von Sekunden Diagnoseergebnisse sowie eine Bewertung der Dringlichkeit des Falls liefern kann. Das System erreicht eine Genauigkeit von 97,5 % bei der Erkennung neurologischer Erkrankungen und kann beurteilen, welche Fälle priorisiert werden müssen. Die zugehörigen Forschungsergebnisse wurden in der Fachzeitschrift „Nature Biomedical Engineering“ veröffentlicht.
Prima wird als visuelles Sprachmodell klassifiziert, das verschiedene Datentypen wie Bilder und Text gleichzeitig verarbeiten kann. Das Forschungsteam trainierte das System mit Daten von über 200.000 MRT-Scans, 5,6 Millionen Bildsequenzen und klinischen Patientenverläufen aus dem Michigan Medicine Health Center. Bei der Diagnose von über 50 neurologischen Erkrankungen übertraf Prima die Leistung anderer Referenzmodelle.
„Bei der Interpretation von Gehirn-MRT-Bildern ist Genauigkeit entscheidend, aber schnelle Bearbeitungszeiten sind für eine zeitnahe Diagnose und verbesserte Behandlungsergebnisse ebenso wichtig“, sagte Yiwei Lyu, Co-Erstautor der Studie und Postdoktorand am Department of Computer Science and Engineering der Universität Michigan. „Unsere Ergebnisse zeigen, dass Prima Arbeitsabläufe verbessern kann, ohne die Genauigkeit zu opfern.“
Das System kann Fälle erkennen, die eine Notfallbehandlung erfordern, wie z. B. Schlaganfall oder Gehirnblutung, und entsprechende Fachärzte alarmieren. Patienten können unmittelbar nach der Bildgebung eine Rückmeldung erhalten.
Das Forschungsteam wies darauf hin, dass die Nachfrage nach MRT-Untersuchungen weltweit weiter wächst und einige medizinische Einrichtungen mit knappen Ressourcen für die Bilddiagnostik konfrontiert sind. Todd Hollon, leitender Autor der Studie und Assistenzprofessor für Neurochirurgie am Michigan Medicine Health Center, erklärte, dass Prima darauf abziele, ein Hilfsmittel für die Interpretation medizinischer Bilder zu werden. Er beschrieb das System als „ChatGPT für die medizinische Bildgebung“ und ist der Ansicht, dass ähnliche Technologien in Zukunft auf andere Bereiche der medizinischen Bildgebung wie Mammographie, Thorax-Röntgen oder Ultraschall ausgeweitet werden könnten.
Die Forscher betonten gleichzeitig, dass sich das System noch in einer frühen Evaluierungsphase befindet. Geplante Folgestudien sollen umfassendere elektronische Patientenakten einbeziehen, um die Diagnosegenauigkeit weiter zu verbessern.
Diese Studie wurde in Zusammenarbeit mehrerer Abteilungen des Michigan Medicine Health Center durchgeführt, darunter Neurochirurgie, Radiologie, Computer Science and Engineering und Neurologie. Die Forschung erhielt Unterstützung von Einrichtungen wie dem National Institute of Neurological Disorders and Stroke der US-amerikanischen National Institutes of Health, der Chan Zuckerberg Initiative und dem Frankel Cardiovascular and Brain Health Institute.
Veröffentlichungsdetails: Autoren: Yiwei Lyu, Samir Harake, Asadur Chowdury, Soumyanil Banerjee, Rachel Gologorsky, Shixuan Liu, Anna-Katharina Meissner, Akshay Rao, Chenhui Zhao, Akhil Kondepudi, Cheng Jiang, Xinhai Hou, Rushikesh S. Joshi, Volker Neuschmelting, Ashok Srinivasan, Dawn Kleindorfer, Brian Athey, Vikas Gulani, Aditya Pandey, Honglak Lee, Todd Hollon. Titel: „Learning a neuroimaging model from health-system-scale data“. Veröffentlicht in: Nature Biomedical Engineering (2026). Journal-Details: Nature Biomedical Engineering












