93,1 % der mit einem nicht-kommerziellen LLM erstellten Arztberichte konnten mit nur minimalen Anpassungen genutzt werden – das hat eine kürzlich durchgeführte Studie des Universitätsklinikums Freiburg ergeben. [JMIR Med Inform 2024;12:e59617] Lauscht man Gesprächen von Ärzt:innen und Patient:innen, trauen viele den Sprachmodellen aber noch viel mehr zu. Immer wieder hören wir von medicalvalues neuerdings die Frage: “Geht das nicht auch einfach mit so etwas wie ChatGPT?”
Schauen wir uns drei Beispiele aus der medizinischen Praxis an.
Kein Fall für LLM wie ChatGPT: Verstaubte Ordner
Eine 30-jährige Patientin kommt in die Notaufnahme. Vorsorglich hat sie gleich einen Ordner Unterlagen mitgebracht. Verbergen sich darin entscheidende Hinweise für das akute Problem?
Um solche Datenschätze aus privaten Beständen oder Medizinarchiven zu heben, müssen sie in standardisierte, weiter verarbeitbare Formate überführt werden. LLM wie ChatGPT sind dafür nicht das beste Werkzeug. OCR-Technologien (Optical-Character-Recognition) bieten hier aus unserer Sicht bei medicalvalues viele Vorteile:
- Schnelligkeit und Effizienz: speziell darauf ausgelegt, gedruckte oder handgeschriebene Texte in maschinenlesbaren Text umzuwandeln
- Genauigkeit bei strukturierten Dokumenten: besonders gute Extraktion von Text aus strukturierten Dokumenten wie Formularen
- Kostengünstiger und einfacher zu implementieren: besonders wenn große Mengen an Dokumenten digitalisiert werden sollen
KI in der Notaufnahme: Kein Platz für Schrotschüsse oder Experimente
Die Patientin klagt über Bauchschmerzen, die seit einem Tag zunehmen. Fragt man LLM wie ChatGPT nach den sinnvollen nächsten diagnostischen Schritten, bekommt man eine lange Antwort: allgemeine Tipps zu Anamnese und körperlicher Untersuchung, diverse Laboruntersuchungen, bildgebende Verfahren oder gynäkologische Abklärungen. Dies nun alles auf einmal anzustoßen, wäre in der Praxis kaum effizient, geschweige denn wirtschaftlich.
Zudem gehören LLM zu den sogenannten generativen KI-Technologien, das heißt sie sind darauf ausgelegt, eigenständig neue Inhalte zu erzeugen. Das bedeutet auch, dass sie auf die gleiche Frage unterschiedliche Antworten geben und dabei recht kreativ werden können. Für viele medizinische Situationen ist das unerwünscht.
Besser sind an solchen Stellen unserer Erfahrung nach KI-Technologien, die leitliniengerechte, personalisierte Stufendiagnostik und Entscheidungsbäume unter Einbindung eigener SOPs (Standardarbeitsanweisungen) unterstützen. Sind solche regelbasierten Systeme KI? Ja, denn sie können die enorme Komplexität des bisherigen Wissens abbilden und während der Verwendung neue Erkenntnisse gewinnen. Solche, in anderen Branchen schon üblichen, Process-Mining-Technologien können auch im Gesundheitssystem dazu beitragen, Prozesse von der Prävention über die Diagnose bis hin zur Behandlung von Krankheiten laufend zu optimieren.
Künstliche Intelligenz für den Blick in die medizinische Glaskugel
Unsere Patientin hat eine konservativ gut behandelbare Gallenblasenentzündung. Auffällig ist aber ein auch vor Entlassung noch erhöhter Kreatininwert ohne eindeutig feststellbare Ursache. Wie wird es mit der Nierenfunktion der Patienten weitergehen?
LLM wie ChatGPT liefern auf solche Fragen nur allgemeines Wissen. Lehrbücher, Leitlinien oder Studien sind oft gar nicht oder nicht zuverlässig abgebildet. Bessere Vorhersagen für individuelle zukünftige Entwicklungen können Algorithmen des nicht-generativen maschinellen Lernens oder Deep-Learning-Technologien liefern. Sie sind in der Lage komplexe Zusammenhänge zu erkennen und präzise Vorhersagen zu treffen.
In Worte fassen: Hier glänzen LLM wie ChatGPT
Morgen darf unsere Patientin nach Hause – wenn der Entlassbrief fertig ist. Zum Glück hat ein LLM bereits Vorschläge erstellt und es fehlt nur noch der ärztliche Feinschliff und Abschluss-Check: eine Version für den Hausarzt, eine für den Nephrologen, eine laienverständliche Version in der französischen Muttersprache der Patientin.
LLM werden speziell dafür entwickelt, Texte zu analysieren, zu verstehen und darauf basierend möglichst menschlich wirkende Antworten zu geben. Im medizinischen Bereich sind sie daher ideal geeignet für:
- Analyse von Texten, z. B. Durchsuchen von Literatur, Leitlinien oder Krankengeschichte nach relevanten Informationen und Kombination dieser Informationen in Bezug auf die jeweiligen Fragestellungen
- Texterstellung, z. B. medizinische Dokumentation, Informationsmaterialien, Unterstützung bei wissenschaftlichen Abhandlungen
- Zielgruppengerechte Kommunikation, z. B. Übersetzung in einfache Sprache oder fremde Sprachen, zielgruppengerechte Auswahl von Stil und Inhaltstiefe
Die Vielfalt der KI-Wirkstoffe richtig nutzen
Schon diese wenigen Beispiele zeigen: Ein KI-Wirkstoff allein – auch wenn er wie LLM sehr breit einsetzbar ist – reicht nicht aus. Ganz wie in der Medizin ist es wichtig, zuerst die richtige Diagnose zu stellen, d. h. herauszuarbeiten, was die Künstliche Intelligenz in der jeweiligen Situation genau leisten soll. Dann kann man mit dem richtigen Mix an KI-Wirkstoffen in den richtigen Dosierungen optimale Therapieerfolge zu wirtschaftlichen Preisen erzielen.