Im März hatte ich (kritisch) über die AI geschrieben, die IBM unter dem Namen Watson entwickelt und für medizinische Anwendungen empfiehlt. Auf dem diesjährigen Kongreß der amerikanischen radiologischen Gesellschaft RSNA wurde nun ein Prototyp vorgeführt: Gefüttert mit Röntgen- oder CT-Aufnahmen und mit der Krankengeschichte des Patienten, konnte der Computer eine Diagnose vorschlagen.

watson-at-work-2

Watson denkt nach (Chicago 2016)

watson-at-work-1

Diese Lungenembolie hat er selbstständig diagnostiziert

Geschwindigkeit und Erfolgsrate des Prototyps waren ziemlich beeindruckend.

Ich konnte da jedenfalls nicht mithalten. Natürlich konnte der elektronische Kollege mir gegenüber zwei Vorteile nutzen: er kannte die gesamte Krankenakte, alle Labor- und Meßwerte des Patienten und alle früheren Behandlungen. Und er hatte zu der jeweiligen Fragestellung – zB Brustkrebs ja/nein? – viele Tausend Vergleichsbilder nicht nur gesehen, sondern buchstäblich gleichzeitig in Form seines neuronalen Netzwerkes präsent.

Die Röntgen- und sonstigen Bilder, mit denen Watson trainiert wurde, stammen überwiegend von Merge Healthcare, einem PACS-Anbieter, den IBM 2015 gekauft hat, und 15 strategischen Partnerunternehmen aus diesem Sektor. Die Gesamtinvestitionen liegen im zehnstelligen Bereich. Auf dem RSNA-Kongreß waren sich die Referenten deshalb einig, dass mit dem Marktauftritt der AI in Kürze zu rechnen ist.

Bradley Erickson als „Wortführer“ der Optimisten sagte voraus, dass Watson und ähnliche AIs binnen fünf Jahren unsere Mammographien selbstständig beurteilen können, und in 15 Jahren alle sonstigen radiologischen Aufnahmen. Davor brauchen wir uns seiner Ansicht nach aber nicht zu fürchten. Die enorm vergrößerte Datenmenge, mit der wir heute arbeiten, erzwinge sogar den Einsatz fortschrittlicher Computertechnologien. Man könne nicht täglich zehntausende CT- oder MR-Schichtaufnahmen einzeln ansehen wie früher die Röntgenbilder.

Ronald Summers faßte in einem vollbesetzten Auditorium die bisherigen Erfolge der computerunterstützten Diagnostik zusammen [Lit]: beim Suchen nach sklerotischen Knochenmetastasen (Sensitivität der AI 70%), vergrößerten Lymphknoten (77%), und Dickdarmpolypen (75-98% je nach Größe) war die AI besser als die zum Vergleich eingesetzten Radiologen.

Eliot Siegel – selbst ein hochkarätiger AI-Spezialist – bremste die Erwartungen. Er wies darauf hin, dass medizinische Bilder um viele Größenordnungen größer und komplexer sind als die einfachen .jpg, mit denen deep learning schon funktioniert. Bisher könne man einem Grundschulkind noch mehr Radiologie beibringen als dem Computer, zB habe er dies beim Segmentieren der Nebennieren auf CT-Bildern ausprobiert. Siegel erwartet auch Probleme mit der Zulassung von medizinischer Software, die auf neuronalen Netzen basiert, weil man prinzipiell nicht wissen oder prüfen kann, wie d Programme zu ihren Ergebnissen kommen.

Deep learning braucht große Datenmassen und funktioniert schlecht, wenn nur wenige Bilder verfügbar sind. Menschliches Expertenwissen ist schwer nachzubilden. Die Maschine ist immer dann stark, wenn einfache Entscheidungen (Krebsverdacht? Kein Verdacht?) anstehen, und eine große Anzahl von menschlich fertig beurteilten Fällen zum Musterlernen zur Verfügung steht.

Erickson und Siegel waren sich einig, dass die künstliche Intelligenz sehr rasche Fortschritte macht. Sie wird als Werkzeug in der Hand des Arztes – nicht als dessen Ersatz – großen Nutzen bringen. Sie raten Studenten und Berufsanfängern vorbehaltlos dazu, in der Radiologie zu bleiben.

Dr. Peter Köhler

Facharzt für Diagnostische Radiologie und Facharzt für Strahlentherapie