Zum Inhalt springen

Berichte Guru

Suche

Ist Machine Learning die Zukunft?

Interview mit Victor Staartjes über den Gebrauch von Machine Learning im klinischen Alltag und wieso wir noch viel Arbeit vor uns haben

Victor S.

MD, PhD | Neurosurgery Resident and Researcher in Machine Learning in Neurosurgery. Group Leader at the MICN Laboratory of the Department of Neurosurgery, University Hospital Zurich.

Lieber Victor. Als begeisterter Forscher durftest du mittlerweile einige Erfahrung im Bereich des Machine Learnings im klinischen Setting sammeln. Kannst Du uns als Einstieg erklären, womit du dich in Deiner Forschung befasst und welche wichtige Errungenschaften Du und Dein Team bis jetzt erzielt habt?

Lieber Massimo: Wie man Machine Learning für die Klinik nützlich machen kann, ist sicherlich die zentrale und auch ungelöste Frage, mit der wir uns in der Forschung beschäftigen. Seit November 2019 darf ich das Machine Intelligence in Clinical Neuroscience & Microsurgical Neuroanatomy (MICN) Laboratory der Klinik für Neurochirurgie am Universitätsspital Zürich (www.micnlab.com) leiten, und wie man in dem langen Namen schon vermuten kann, ist genau eben die Entwicklung von klinisch nützlichen Anwendung maschineller Intelligenz unser Fokus. Mit Machine Learning kann man alles mögliche anstellen, aber es gibt kaum Evidenz für einen tatsächlichen klinischen Nutzen von den tausenden Algorithmen, die bereits entwickelt wurden. Schlussendlich sollte Forschung in der Medizin ja immer das Ziel haben, einen direkten Benefit an Patient oder Arzt zu bieten: Zum Beispiel entweder durch präzisere und schnellere Diagnostik, durch genauer auf jeden Patienten zugeschnittene Therapien, oder durch Vermeidung unnötiger Risiken.

“Es gibt kaum Evidenz für einen tatsächlichen klinischen Nutzen von den tausenden Algorithmen, die bereits entwickelt wurden”

Von ärztlicher und gesundheitspolitischer Seite geht es natürlich auch immer mehr um Steigerung der Effizienz durch maschinelle Intelligenz. Es wird an vielem geforscht, aber die wenigsten Algorithmen halten schlussendlich Einzug in den Klinikalltag. Unser Team besteht fast gänzlich aus medizinisch tätigen Forschern – wir sind also «von Haus aus» keine Data Scientists, sondern Neurochirurgen – und wir glauben, dass dies auch der Schlüssel ist, um klinisch nützliche Anwendungen zu erschaffen. Konkret arbeiten wir deshalb nicht nur an «klassischen» Anwendungen von Machine Learning (so zum Beispiel klinische Vorhersagemodelle oder automatische Interpretation von medizinischer Bildgebung), welche eben bislang wenig klinischen Nutzen gezeigt haben, obwohl diese Gebiete schon sehr weit entwickelt sind und lange existieren.
Prognostizieren und Bilder interpretieren können Mediziner ja sehr gut, auch ohne Algorithmus. Stattdessen fokussieren wir immer mehr auf Fragestellungen, die eben nicht von medizinischen Experten erledigt werden können. Zum Beispiel können gewisse Mutationen von Hirntumoren bereits am MRT erkannt werden, kann Strahlenbelastung minimiert werden durch Umwandlung von MRT oder Röntgenbildern zu synthetischen CTs, oder können wir Neurochirurgische Eingriffe sicherer machen durch automatische anatomische Navigation in Echtzeit. 

Welche Visionen hast Du in deinem Forschungsgebiet für die mittelfristige und welche für die langfristige Zukunft?

Uns liegt eben der Einzug von maschineller Intelligenz in die Klinik sehr am Herzen. Deshalb möchte ich vor allem an den oben genannten Projekten weitermachen, welche wirklich ein riesiges Potential für Patienten haben könnten. Spezifisch wollen wir es in Zukunft ermöglichen, dass aus einem einfachen biplanaren Röntgen des Schädels oder der Wirbelsäule ein synthetisches CT erstellt werden kann. Meine Vision ist es, dass der dafür benötigte Algorithmus dann weltweit eingesetzt werden kann – das ist der Vorteil von Innovation in Software statt in Hardware (wie Robotik oder teure Instrumente oder Laboruntersuchungen), es kann überall kostengünstig implementiert werden. Die Vorteile kann man sich nur ausmalen: Mit dieser Technologie würde Millionen von Patienten einen Zugang zu Schichtbildgebung mittels CT eröffnet werden, denn ein Röntgengerät gibt es praktisch überall weltweit. In der Schweiz sogar oft beim Hausarzt in der Praxis. Auch instabile Patienten, bei denen ein CT-Transport aus IPS oder Schockraum zu riskant wäre, könnten so regelmässig untersucht werden.

“Spezifisch wollen wir es in Zukunft ermöglichen, dass aus einem einfachen biplanaren Röntgen des Schädels oder der Wirbelsäule ein synthetisches CT erstellt werden kann.”

Längerfristig wäre das Ziel eben nicht nur diese Algorithmen zu entwickeln, sondern diese auch weltweit zur Anwendung zu bringen und dann vor allem – hier kommt es wieder – Implementationsstudien durchzuführen. Denn genau das ist meine zentrale Message: Auch wenn wir vieles können mit Machine Learning, heisst das noch lange nicht, dass diese Anwendungen auch eine Nutzen für Patienten haben. Algorithmen können auch potentiell schädlich sein, vor allem wenn sie nicht gut entwickelt werden und nicht zuerst rigoros validiert werden.

Das bringt mich zu einem weiteren persönlichen Ziel: Die Demokratisierung von maschineller Intelligenz. Es ist wirklich einfach geworden, um Algorithmen zu entwickeln und um Programmieren zu lernen. Aber um gute Anwendungen zu erschaffen, braucht es schon eine professionelle Begleitung, denn es kann wirklich viel schiefgehen, ohne dass man es selber bemerkt. Das Teaching und die Förderung von Nachwuchsforschenden machen mir persönlich am meisten Spass. Wir halten viele Vorträge und haben auch Bücher zum «How I do it» für Mediziner herausgegeben – Die grösste Belohnung ist es dann wirklich, um die Resultate derjenigen zu sehen, welchen man das Ganze beigebracht hat. 

Das klingt ja fantastisch. Aber: welche Herausforderungen birgt das für den Arzt/die Ärztin von Morgen?

Wir müssen AI-mündig werden. Der Arztberuf ändert sich jedes Jahrzehnt massiv, Therapien, die in den 2010er Jahren Standard waren, sind teils schon total veraltet. Die meisten Kliniken halten natürlich regelmässige Fortbildungen und Journal Clubs, jedoch wird hier AI kaum integriert, so dass die meisten Ärzte gute und sichere Anwendungen von AI kaum von potentiell gefährlichen unterscheiden können. So gut wie wir eine randomisierte Studie kritisieren können, so wenig bewandert sind wir bei Publikationen rund um AI. Vieles klingt erstmal gut, ist dann aber bei genauerem Hinsehen totaler Schwachsinn. In der mehr technischen Forschung zur AI (Data Science) gelten momentan noch nicht die strengen Regeln bezüglich Reproduzierbarkeit und ausführlicher Validierung. In der medizinischen Forschung – und in der Medizin allgemein natürlich – wissen wir aber, wie wichtig es ist, dass Studien erstmal unabhängig repliziert werden, bevor neue Medikamente überhaupt in die Nähe von Patienten kommen. Die Waage zwischen epidemiologisch strengen Methoden aus der medizinischen Forschung und dem bisher «Laissez-faire» der AI-Forschung wird sich einpendeln müssen. Wichtig ist zu verstehen, dass der Computer ganz leicht gute Resultate vortäuschen kann und diese momentan auch trotzdem leicht publiziert werden – das heisst noch lange nicht, dass der Algorithmus auch tatsächlich funktioniert.

“Vieles klingt erstmal gut, ist dann aber bei genauerem Hinsehen totaler Schwachsinn.”

In Anbetracht dessen: Gibt es gewisse Inhalte, die bereits den Medizinstudenten übermittelt werden sollten, um mit den Technologien von Morgen klar zu kommen? Oder reicht es aus, so ähnlich wie bei den häutigen Labortests bspw., ein Verständnis bezüglich Sensitivität und Spezifität einer AI-basierten Prozesses zu haben?

Sicherlich muss nicht jeder Medizinstudent selber mit AI arbeiten können. Aber ein Grundverständnis über Methoden wäre schon wünschenswert. Eben wie wir es bei randomisierten Studien auch tun, sollten Medizinstudenten fähig sein, die Biases einer AI-Studie zu erkennen, und einzuschätzen wie gut die Methode validiert ist und folglich wie sehr man einer Publikation trauen kann. So einen «Shit-Detektor» zu entwickeln wird eminent wichtig werden in der Klinik. Nichtsdestotrotz kann ich jedem Medizinstudenten raten, wenigstens ein bisschen Programmieren zu lernen – es ist schon ein mächtig nützlicher Skill für später.

Welche Ziele sollten eigentlich durch den Einsatz von AI-Technologie erreicht werden? Was sind Themenbereichen der Medizin, wo sich die AI besonders gut applizieren lässt?

Wie gesagt muss das oberste Ziel sein, dem Patienten oder zumindest dem Arzt einen messbaren Vorteil zu geben. Das grösste Potential haben dabei denke ich Anwendungen, die eben auch von Experten bisher unmöglich umzusetzen waren, wie die synthetische Bildgebung. Da wir stets mehr Bildgebung produzieren als Ärzte, ist dies wahrscheinlich insgesamt der wichtigste Ansatzpunkt. Spezifisch bei uns in der Neurochirurgie heisst das zum Beispiel, unnötige Strahlenbelastung zu vermeiden durch synthetische, aus MR-Bildern hergestellte CT-Bilder. Oder eben CT-Bilder aus Röntgen. Da gibt es wirklich einen klar ersichtlichen Vorteil für Patienten.

Andere Anwendungen wie eben Bildinterpretation oder Vorhersagemodelle haben sich eben bislang in den meisten Fällen als nicht besser als medizinische Experten erwiesen. Trotzdem können gut validierte Algorithmen in Anbetracht der zunehmenden Spezialisierung doch nützlich werden: Zum Beispiel, wenn diese eine Bildinterpretation oder Prognose auch in abgelegenen Gebieten mit genau so hoher Genauigkeit wie durch Experten an einem Zentrum erlaubt.

Denkst Du, dass sich durch Implementierungen AI-basierender Technologien die Anspruchshaltung der Patienten gegenüber uns Ärzten ändern wird? Es herrscht ja jetzt bereits häufig die Erwartung, dass ein Arzt stets alles wissen muss.

Das denke ich nicht. Ich stelle mir das vor wie die Diskussion mit dem weissen Arztmantel: Oft wird gesagt, dass der Mantel eine Barriere zwischen Arzt und Patient schafft. Das ist natürlich nicht so, denn durch die klare Rollensetzung kann man dem Patienten faktisch nähertreten als ohne. Bei gut validierter AI ist das genauso: Sie kann uns potentiell helfen, Patienten besser zu behandeln, und die Fragen der Patienten besser zu beantworten. Patienten dürfen natürlich erwarten, dass der Arzt die beste und modernste Behandlung anbietet – und das wird in Zukunft sicher auch AI beinhalten. 

Ist denn unsere Gesellschaft auch bereit für den Einsatz solcher Technologien im Gesundheitswesen? Wird der ältere chronisch kranke Patient einer AI-basierten Entscheidung/Handlung zustimmen? Was bräuchte es deiner Meinung nach hierzu?

Wie auch bei normaler Diagnostik und Therapie bleibt der Einsatz einer jeglichen AI-Anwendung fakultativ für Patient und Arzt. Es ist wie auch sonst ganz wichtig, den Patienten gut zu informieren – auch über den Einsatz von AI – und dann gemeinsam zu entscheiden mit allen vorhandenen Informationen. Natürlich werden einige Patienten erstmal ablehnend gegenüber dem Einsatz von AI sein: Aber wenn man erklärt, dass der anzuwendende Algorithmus einen ganz klaren Vorteil in Studien gebracht hat, dann kann sich das schnell ändern.

Weil dafür also die gleichen Prinzipien gelten, die wir als im Gesundheitswesen arbeitende sowieso vertreten sollten, sind wir schon bereit um sichere, gut getestete Algorithmen einzusetzen. Die Sache ist einfach so, dass die allermeisten Algorithmen noch nicht ein genügendes Niveau an Validierung erreicht haben. Was sich momentan noch sehr in Wandlung befindet, ist das rechtliche Regelwerk hinter der Validierung und Verbreitung von AI in der Medizin. Hier braucht es noch viel, um eben sicherzustellen, dass Algorithmen sauber entwickelt, gut getestet, und gerecht verteilt werden.

Wie sieht für dich die ideale Symbiose zwischen einem Arzt und einer AI-gestützten Technologie. Ich denke hierbei gibt es unterschiedliche Szenarien die man Bedenken sollte, bspw. die Zusammenarbeit zwischen AI und einem Internisten, AI und Chirurgen oder AI und Laboranalytiker. 

Sicherlich unterscheidet sich das je nach Fachgebiet, ja. In der Chirurgie wird es in Zukunft ein Thema werden, dass die Algorithmen keine Überhand nehmen im Sinne, dass junge Chirurgen in Ausbildung durch starke Unterstützung durch AI potentiell nicht mehr selber ohne Unterstützung operieren lernen – Das ist aber meiner Meinung nach eher unwahrscheinlich, zumal Algorithmen sogar eine bessere Lernkurve erlauben könnten in Anbetracht der abnehmenden Fallzahlen bei jedoch zunehmender Komplexität, die ein einzelner Chirurg in Ausbildung in Zukunft sehen wird. Zum Beispiel haben wir einen Algorithmus entwickelt, der im Operationsmikroskop oder Endoskop anatomische Strukturen erkennt und anzeigt. Man könnte natürlich argumentieren, dass so mikrochirurgisch-anatomisches Wissen und Erfahrung verloren geht. Andererseits führt diese Unterstützung aber auch dazu, dass die chirurgische Anatomie in einer steileren Lernkurve erlernt werden kann und dabei vor allem im Anfangsstadium Komplikationen durch anatomische Desorientierung vermieden werden können. Es ist also eine vorsichtige Balance zwischen Selbständigkeit und Unterstützung nötig.

In der Medizin wird es auch ein Thema werden, dass mit Vorhersagemodellen die Effektivität einer Behandlung, zum Beispiel einer teuren Immuntherapie, eingeschätzt werden könnte für jeden Patienten. Oder, dass Prognosen bei schwerem Schädelhirntrauma bereits im Schockraum gemacht werden könnten. Was auf jeden Fall vermieden werden soll, ist dann, dass Versicherungen beispielsweise anhand solcher Algorithmen Kostengutsprachen ablehnen oder Patienten mit Behandlungswillen eine Behandlung verweigert wird. Wie gesagt müssen die Informationen, welche uns zusätzlich durch AI geliefert werden, zwar in Betracht genommen werden (wie jeder Score, jede Information, die wir jetzt benutzen) – es muss aber eine Symbiose bleiben zwischen AI und Arzt, zwischen Wissenschaft und Erfahrung – und eben keine Parasitose.

Wo mit grossen Datenmengen gearbeitet wird, dort besteht ja auch jetzt teils schon eine Symbiose: In der Radiologie und Labormedizin wird vieles erleichtert durch automatische Auszählung, Klassifizierung, Volumetrie. Wo durch Automatisierung minutiöse Tasks effizienter erledigt werden können, scheint es wenig Widerstand gegen AI zu geben. Trotzdem muss auch dort achtgegeben werden, dass AI nicht ganz alleine arbeitet. Die Einschätzung eines Radiologen in einer interdisziplinären Besprechung ist natürlich unabdingbar. Wir werden uns nie 100% auf automatisierte Diagnostik verlassen können – es braucht immer Safeguards und menschliche Interpretation mit Einbezug der Charakteristika und Symptome des Patienten. In solchen Fällen gibt es aber einige zukunftsträchtige Konzepte, die eben nicht den Spezialisten ersetzen, sondern nur kräftig unterstützen: Zum Beispiel gibt es Algorithmen, welche eine Vorbeurteilung von Schädel-CTs vornehmen, potentiell gefährliche und dringende Befunde erkennen können, und dann die Worklist des Radiologen entsprechen neu gliedern, so dass dringendere Fälle rascher bearbeitet werden können.

“Wir werden uns nie 100% auf automatisierte Diagnostik verlassen können” 

Kann uns, denke dabei v.a. an die älteren Jahrgange die mit IT-Systemen nicht so vertraut sind, eine solche Technologie nicht überfordern? Was schlägst du vor, um dies zu verhindern?

Implementation Science ist ganz zentral. Es reicht eben nicht, dass Algorithmen «in silico» validiert werden und publiziert werden. Wichtig ist auch, dass Interfaces für Algorithmen benutzerfreundlich angelegt werden, und dass diese automatisch grobe Fehler erkennen. Die Sicherheit geht immer vor in der Medizin – first, do no harm. Klar, auch dann kann die Anwendung für Einige überfordernd sein – aber das ist ja nicht anders als jede andere Innovation: Es braucht einfach Zeit, um das Paradigma zu wechseln. 

Wie wird sich unser Beruf ändern in 10-20 Jahren?

Es ist interessant, wie gesundheitspolitisch für die Ärzteschaft eine zunehmende Spezialisierung, aber für die Pflege eine zunehmende Generalisierung angestrebt wird. Nichtsdestotrotz führt das bei allen schlussendlich dazu, dass jeder Einzelne mehr Wissen, mehr Fertigkeiten, mehr Zertifikate, mehr Kurse nachweisen muss. Parallel dazu wird durch die zunehmende Dokumentation und Bürokratie die Zeit am Patientenbett für alle deutlich reduziert. Hoffentlich kann AI hier teils Abhilfe bieten durch Automatisierung von repetitiven und zeitaufwendigen Aufgaben. Aber auch mit AI wird diese Entwicklung – wohl oder übel – wohl noch weiter voranschreiten. Wir können nur hoffen, dass die Bürokratisierung in der Medizin eine «Bubble» ist, und bald platzt und zu einer Rückkehr der Normalität führt. Wir sehen ja international, zum Beispiel im Vereinigten Königreich, wie schädlich eine solche Entwicklung für Patienten und Gesundheitspersonal sein kann. Ich denke, in dem ganzen Tumult muss man alles Politische während der Arbeit ausblenden und darf man nicht vergessen, wie sehr der eigentliche Job – mit Patienten zu arbeiten – doch Spass macht. Nichtsdestotrotz müssen wir uns wohl oder übel als gesamte Ärzteschaft und Pflegschaft viel aktiver politisch gegen diese Kommerzialisierung und Bürokratisierung einsetzen.

“Nichtsdestotrotz müssen wir uns wohl oder übel als gesamte Ärzteschaft und Pflegschaft viel aktiver politisch gegen diese Kommerzialisierung und Bürokratisierung einsetzen.”

Kann es sein, dass eine AI uns als Ärzte in Zukunft komplett ersetzen wird? Müssen wir uns Sorgen machen?

Da habe ich wirklich gar keine Bedenken. Als ChatGPT das Staatsexamen bestanden hatte, gab es in den Medien einen riesigen Aufschrei. Dabei wissen wir alle, dass das reine Lösen von Prüfungsfragen nicht im Geringsten den Arztberuf abdeckt. Das gilt auch für alle anderen Anwendungen von AI, welche eigentlich alle auf eine ganz spezifische Fragestellung (Zum Beispiel Erkennen von Blut auf einem CT-Bild) abgestimmt sind. Medizin ist so viel mehr als einzelne Fragestellungen, Patienten sind so viel mehr als Zahlen. Es herrscht immer noch viel Unwissen über AI, und das führt zu Angst – teils auch zurecht, denn wie erwähnt funktioniert vieles noch nicht so wie es soll, und ist das Regelwerk für AI in der Medizin noch nicht ausgereift. Trotzdem erwarte ich, dass AI dem Arztberuf eher helfen als schaden wird.

Kurzer Perspektivenwechsel; Thema AI in der Pflege, welche ja auch unter einer immensen Arbeitsbelastung steht: Im Rahmen des Intelligent Health AI Kongresses in Basel 2019 wurde eine Software vorgestellt, welche sich mit dementen und tlw. auch deliranten Patienten unterhält und sie beruhigen sollte und hierdurch eine weitere nicht-pharmakologische Massnahme darstellt. Ein kürzlich publizierter Artikel hierzu klingt aufmunternd: (https://link.springer.com/article/10.1007/s11227-023-05352-7). Was ist deine Meinung bzgl. Einsatz solcher Technologien unmittelbar am Patienten bzw. in Interaktion mit Patienten. Bedenke, dass es sich hierbei ja häufig auch um besonders vulnerable Patienten handeln könnte, wie (bspw. am soeben genannten Produkt) deliranten oder psychisch labilen Patienten.

Man sieht ja, wie sehr die mehr generalisierten AI-Modelle wie ChatGPT oder Bard innert kürzester Zeit viele Aspekte des Lebens verändert haben. Ich denke, es ist eine traurige Realität, dass wir die Hilfe solcher Anwendungen einfach akzeptieren werden müssen, angesichts des Fachkräftemangels und dem zunehmenden Wunsch der Bevölkerung und der Politik, in der Gesundheitsbranche eher zu sparen als mehr auszugeben. Solche Technologien, wie zum Beispiel der oben beschriebene Chatbot zur Prävention des Delirs, sollten zuerst mal gründlich validiert werden (vielleicht steigert der Einsatz des Chatbots ja auch paradoxerweise das Delirrisiko), aber falls in Studien als nützlich erachtet, dann schon auch den Patienten angeboten werden. Viele Patienten werden das schlussendlich wahrscheinlich ablehnen, aber das schöne in der Medizin ist ja: Jeder Patient ist ein Individuum, und ich bin mir sicher, dass einige Patienten ganz zufrieden damit wären. Bezüglich vulnerablen Patienten: Schlussendlich ist jeder Patient prinzipiell vulnerabel. Deshalb müssen wir die gleichen Sicherheitsstandards wie bei Medikamenten anwenden. Zum Beispiel ist der oben beschriebene Algorithmus kaum klinisch validiert. Wenn er in einer klinischen Studie bei einigen Patienten Delir verschlimmert, soll er nicht zugelassen werden. Und auch nach Zulassung sollten im Rahmen der Vigilance auch Nebenwirkungen rückgemeldet und zentral erfasst werden. Wir dürfen den AI-Boom als Ärzte nicht einfach so hinnehmen und unterstützen, sondern sollten kritisch sein und Technologien nur in die Klinik bringen, falls sie erwiesenermassen sicher und effektiv sind – nicht einfach, weil es «cool tönt».

“Wir dürfen den AI-Boom als Ärzte nicht einfach so hinnehmen und unterstützen, sondern sollten kritisch sein und Technologien nur in die Klinik bringen, falls sie erwiesenermassen sicher und effektiv sind – nicht einfach, weil es «cool tönt».”

Weitere spannende Umfragen findest du hier:

Was ist deine Meinung dazu? Lass es uns wissen!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Weitere Beiträge

Entdecke unseren neuen Blog!