Eine Studie der MedUni Wien zeigt: KI-Sprachmodelle schneiden bei der Patientenaufklärung über venöse Thromboembolien besser ab als Fachleute. Bei komplexen Entscheidungen waren die Empfehlungen oft gleichwertig.
In einer internationalen Studie haben Forschende der MedUni Wien die Fähigkeiten von KI-Sprachmodellen mit jenen von Thrombose-Expertinnen und -Experten verglichen.
Die Ergebnisse: In der Aufklärung von Patientinnen und Patienten über venöse Thromboembolien (VTE) schnitten KI-Modelle teils besser ab als Fachärztinnen und Fachärzte. Auch bei klinischen Entscheidungssituationen waren die KI-Antworten in vielen Fällen ebenbürtig.
KI überzeugte bei Patientenaufklärung
Das Team um Nikola Vladic und Cihan Ay von der Universitätsklinik für Innere Medizin I (Klinische Abteilung für Hämatologie und Hämostaseologie) der MedUni Wien untersuchte drei weit verbreitete Sprachmodelle (ChatGPT-4.5, DeepSeek-R1, Le Chat Pixtral Large).
Deren Antworten auf medizinische Fragen wurden in einer verblindeten Bewertung durch Ärzte aus 18 Ländern mit jenen international renommierter Thrombose-Experten verglichen.
„Besonders im Bereich der Patientenaufklärung konnte die KI mit klaren, verständlichen und strukturierten Antworten überzeugen“, erklärt Erstautor Vladic. Die Antworten wurden sogar „von den unabhängigen Gutachtern besser bewertet als jene der Experten“.
Klinische Empfehlungen oft vergleichbar
Für die komplexen klinischen Fallbeispiele zogen die Forschenden unter anderem eine Lungenembolie bei einem jungen Mann ohne Risikofaktoren, eine tiefe Beinvenenthrombose bei einer jungen Frau sowie einen Tumorpatienten mit Blutungskomplikationen heran.
Die Empfehlungen der Sprachmodelle waren dabei mit jenen von Spezialisten vergleichbar. Das Modell DeepSeek-R1 schnitt in der klinischen Entscheidungsfindung sogar signifikant besser ab als die Experten. Die Gutachterinnen und Gutachter konnten nicht zwischen Expertenantworten und KI-generierten Antworten unterscheiden.
Medizinische Verantwortung bleibt bei Menschen
„Unsere Ergebnisse zeigen, dass KI-Sprachmodelle das ärztliche Handeln sinnvoll ergänzen können – vorausgesetzt, es gibt klare Rahmenbedingungen für ihren Einsatz“, so Cihan Ay. Zentrale Herausforderungen, so Ay, bleiben dabei Datenschutz, die aktuelle Evidenzlage und die medizinische Verantwortung.
Die Forschenden warnen aber auch: Eine unkritische Nutzung könne zu Wissensverlust bei jungen Medizinerinnen und Medizinern führen. KI könne das ärztliche Urteil nicht ersetzen, wohl aber unterstützen – etwa in der Patientenaufklärung, als Entlastung im Alltag oder als Entscheidungshilfe in komplexen Fällen.
Originalpublikation (Journal Pre-proof):
PharmaTime widmete dem Thema Telemedizin, Dr. ChatGPT & Co. einen eigenen, umfangreichen Schwerpunkt in der Ausgabe 9/2025.
Dieser Beitrag könnte Sie auch interessieren:
Jeder Zehnte vertraut KI mehr als Ärzten