Dr. Markus Vogel, Nuance: „LLMs sind nicht Dr. Allwissend“
In der Medizin können Large Language Models (LLMs) echte Game Changer sein, sagt Markus Vogel, Chief Medical Information Officer bei Nuance (Microsoft). Dr. Allwissend aber sind sie nicht. Über Potentiale, Missverständnisse und Visionen, die zum Greifen nah sind.
Info: Nuance
Die Nuance Communications ist ein US-amerikanischer Anbieter von Sprachverarbeitungslösungen für Geschäfts- und Privatkunden weltweit. Seit 2021 ist Nuance Teil des Microsoft-Konzerns. Zu den bekanntesten Produkten für Healthcare zählt unter anderem Dragon Medical One (DMO), eine Spracherkennung mittels Conversational AI."Sie sprechen eines der, aus meiner Sicht, größten Missverständnisse an, die sich um Large Language Modelle ranken. Nämlich, dass es sich dabei um so eine Art Suchmaschine und Dr. Allwissend handeln würde."Health Relations: Das ist jetzt auch möglich, weil KI einen neuen Durchbruch erzielt hat?Markus Vogel: Also tatsächlich hat das noch mal eine ganz wichtige Rolle gespielt. Ich habe mich in der Vergangenheit sehr intensiv mit Spracherkennung und Sprachsteuerung beschäftigt. KI, zumindest die generative KI, ändert in diesem Bereich tatsächlich alles. Die Befehle waren bisher sehr statisch, sie mussten immer genauso gesprochen werden, wie sie der Programmierer vorgesehen hat. Jetzt haben Sie eine Möglichkeit, wie Natural Language Instructions. KI wählt z.B. aus zehn vorgegebenen, programmierten Befehlen den aus, der am besten zu der ihr gestellten Frage passt – ohne dass diese Frage explizit genauso im Wortlaut ausgesprochen wurde. Das wird die Art, wie wir im Krankenhaus oder im gesamten Gesundheitssystem mit Geräten interagieren, komplett verändern. Früher hätte ein „Bitte“ am Anfang des Befehls das System schon aus der Fassung gebracht. Das ist jetzt anders. Health Relations: Als Arzt oder Ärztin muss ich mich vorher nicht mehr einarbeiten, wie eine Interaktion auszusehen hat, wenn ich mit dem Gerät kommuniziere. Ich kann ganz normal, intuitiv mit dem Gerät sprechen.Markus Vogel: Genau. Wenn wir jetzt von der Welt der Spracherkennung sprechen, dann ist es definitiv so. Das eine ist die Steuerungssebene, über die wir gerade gesprochen haben. Das andere ist die Dialog-Situation. Wenn ich als Arzt oder Ärztin beispielsweise der Patient:in die Diagnose erkläre, ist es aufgrund dieser durch KI begleiteten Aussagen möglich, dass im nachgelagerten Informationssystem Prozesse gestartet werden, etwa für die Rezepterstellung. Auf Basis der implizierten Diagnose, die sich aus dem Gespräch ergibt. Das heißt, an einem Beispiel erklärt: Der Arzt / die Ärztin erklärt dem oder der Patientin, dass er oder sie eine schnelle Atemfrequenz hat, rechts basal ein leichtes Rasseln zu hören ist und dass es sich wahrscheinlich um eine Lungenentzündung handeln würde. Man würde ihm oder ihr möglicherweise ein Antibiotikum verschreiben. Ein Dialog wie dieser findet tausendfach statt. Wenn der Patient bzw. die Patientin zum Empfangstresen kommt, ist nach Validierung durch das medizinische Personal bereits alles wie von Geisterhand vorbereitet. Da sehe ich ein gigantisches Potenzial für Large Language Modelle, die Prozesse dermaßen zu entschlacken, wie man sich das kaum vorstellen kann. Health Relations: Anwendungen wie diese brauchen ein gewisses Grundvertrauen in die Technologie. Es gab aber auch schon erste Erfahrungen mit LLMs, die eher enttäuschend waren. Nämlich dann, wenn Ergebnisse, beispielsweise Suchanfragen bei ChatGPT, fehlerhaft waren. Wo stehen wir wirklich und wie realistisch ist es, dass man LLMs wirklich vollständig vertraut?Markus Vogel: Sie sprechen eines der, aus meiner Sicht, größten Missverständnisse an, die sich um Large Language Modelle ranken. Nämlich, dass es sich dabei um so eine Art Suchmaschine und Dr. Allwissend handeln würde. Diese Modelle sind aber nicht für eine Informationssuche da. Sondern für Informationsverarbeitung. Um bei meinem Beispiel vom Anfang zu bleiben: Es geht mitnichten darum, dass das einschlägige Modell sich ausdenkt, wie man eine Person behandelt. Sondern es geht darum, dass das LLM erkennt: Aha, wir reden über eine Pneumologie und ich kenne die Leitlinien entweder der Fachgesellschaften oder der Praxis. Deswegen bringe ich das nachgelagerte Subsystem, beispielsweise das KIS, dazu. die Leitlinie herauszusuchen. Dann wiederum wird das Modell durch den richtigen Prompt aufgefordert, aus den Leitlinien die Information zu extrahieren, die wichtig sind. Welches Antibiotikum ist gefordert, wie lange wird es verabreicht? In welcher Dosierung, basierend auf den Daten, die wiederum aus der Datenbank kommen? Genau das ist der Game Changer. Das sind Dinge, die in 2024 kommen. Health Relations: In der Vergangenheit litt die Bereitschaft der Ärzteschaft, sich mit der Digitalisierung auseinanderzusetzen, am für sie nicht greifbaren Mehrwert. Wie sieht das denn bei Lage Language Modellen aus?Markus Vogel: Generell haben Sie jetzt eine sehr hohe Bereitschaft, sich damit auseinanderzusetzen. Da unterscheidet sich ein Arzt oder eine Ärztin nicht von jemandem anders. ChatGPT war der am schnellsten wachsende Service im Internet. Ich denke, das liegt daran, dass es für die Leute so neu und aufregend war. Dann kommt die Frage, was man konkret damit machen kann. Da gibt es zwei Gruppen von Mediziner:innen: Die einen, die eher abwartend und skeptisch sind. Und die anderen, die es bereits nutzen und zum Beispiel Arztbriefe mit Prompt schreiben.
"Jetzt kann der HCP den Studienablauf als Prompt vorgeben."Health Relations: Wir erleben in den letzten Jahren ein Zusammenwachsen von Technologie und Medizin. Wie schaffen Sie im Unternehmen die Schnittstelle, dass diese beiden Bereiche eng zusammenwachsen und einander befruchten? Und sicherzustellen, dass aus diesem Sack voller Möglichkeiten die Use Cases umgesetzt werden, die uns wirklich weiterbringen. Denn nicht alles, was möglich ist, ist auch sinnvoll.Markus Vogel:Mit Jobs wie meinem. Es ist sicher gut, wenn Mitarbeiterinnen und Mitarbeiter aus dem Gesundheitswesen, die gleichzeitig einen wie auch immer gearteten technischen Hintergrund haben, als Vermittler fungieren. Dadurch, dass Microsoft mit Nuance einen Spracherkennungsexperten gerade auch im medizinischen Bereich gekauft hat, hat das Unternehmen natürlich auch sehr viel Wissen erworben, das in die vertikale Tiefe geht. Das brauchen sie – und Leute mit technischem Verständnis, die die Dinge aus dieser Hightech-Welt in praktische Themen übersetzen können.
"Es gibt tatsächlich - und das ist auch wirklich spürbar - immer mehr Organisationen, die sich auf Use Cases und Preisdiskussionen einlassen wollen."Health Relations: Arbeiten Sie auch mit Pharmafirmen zusammen?Markus Vogel:Auf jeden Fall. Der ganze Themenkomplex heißt bei Microsoft HLS, Health and Life Sciences. Da arbeiten wir eng mit Pharmaunternehmen zusammen. Die Branche war in der Vergangenheit schon eher technisch geprägt, von den Prozessen, von den Abläufen her. Interessant ist hier zum Beispiel der Bereich Patient-to-Study und Study-to-Patient, also die Identifikation von geeigneten Studienteilnehmern. Auch im Studienprozess können LLMs unterstützen. Studienprotokolle sind oft hochkomplex. In der Regel sind es Study Nurses, die begleiten, alle Daten überprüfen und auch den Überblick über alle notwendigen Maßnahmen behalten müssen. Da kann schon mal etwas untergehen. Zum Beispiel, wenn an Tag 105 einer Studie ein CRP gemacht werden muss. Mit dem LLM kann man bspw. zu Beginn der Studie den Ablauf prompten. Und daraus werden dann automatisch die entsprechenden Maßnahmen abgeleitet. Das alles hätte man auch in der Vergangenheit technisch lösen können. Aber wer sollte das alles programmieren und wissen? Jetzt kann der HCP den Studienablauf als Prompt vorgeben. Health Relations: Wenn wir jetzt einen Blick in die Zukunft werfen. Was glauben Sie, wo wir Ende des Jahres stehen werden?Markus Vogel:Ich denke, dass wir am Ende des Jahres vor den ersten Anwendungen stehen, die ganz praktisch erfahrbar sind. Also sicherlich nicht alles, was ich in diesem Interview angesprochen habe. Aber ich glaube nicht, dass das Gesundheitswesen zehn Jahre braucht, um die Technologie zu adaptieren. Ich wüsste auch nicht, was dagegen sprechen sollte, wenn die Themen Compliance und Datenschutz gelöst sind. Health Relations: Dafür brauchen wir aber ein positives Narrativ, das Akzeptanz bei allen Stakeholdern schafft. Nicht angstgetrieben, sondern lösungsorientiert. Denken Sie, dass wir auch hier eine Schwelle überschritten haben?Markus Vogel: Ich hoffe es. Es gibt tatsächlich – und das ist auch wirklich spürbar – immer mehr Organisationen, die sich auf Use Cases und Preisdiskussionen einlassen wollen. Die wirklich konstruktiv nach vorne denken. Man kann auch umgekehrt fragen. Was spricht eigentlich dagegen?