Nach dem Start von ChatGPT Health von OpenAI stellt sich die Frage: Worauf sollten Patientinnen und Patienten achten, bevor sie bei Gesundheitsfragen KI-Chatbots vertrauen?
Hundert Millionen Menschen holen sich bereits Rat bei Chatbots. Da war es nur eine Frage der Zeit, bis Tech-Konzerne Programme auflegten, die speziell Gesundheitsfragen beantworten sollen.
Im Januar stellte OpenAI ChatGPT Health vor, eine neue Version seines Chatbots. Nach Angaben des Unternehmens kann der Dienst elektronische Patientenakten, Daten aus Gesundheits-Apps und Informationen von Wearables auswerten, um Gesundheits- und Medizinfragen zu beantworten.
Derzeit gibt es für das Programm eine Warteliste. Anthropic, ein konkurrierendes KI-Unternehmen, bietet vergleichbare Funktionen für einen Teil der Nutzerinnen und Nutzer seines Claude-Chatbots an.
Beide Firmen betonen, dass ihre sogenannten großen Sprachmodelle kein Ersatz für professionelle medizinische Versorgung sind und keine Diagnosen stellen sollen. Die Chatbots können aber komplizierte Befunde zusammenfassen und erklären, bei der Vorbereitung auf den Arzttermin helfen oder wichtige Gesundheitstrends in Akten und App-Daten herausfiltern.
Doch wie sicher und wie genau sind diese Chatbots beim Analysieren von Gesundheitsdaten und Krankheiten? Und sollte man sich wirklich auf sie verlassen?
Einige Punkte, die Sie bedenken sollten, bevor Sie mit einem Chatbot über Ihre Gesundheit sprechen:
Chatbots liefern oft individuellere Infos als eine Google-Suche
Manche Ärztinnen, Ärzte und Forschende, die mit ChatGPT Health oder ähnlichen Programmen gearbeitet haben, sehen darin eine Verbesserung gegenüber dem Status quo.
KI-Plattformen sind nicht perfekt. Sie können halluzinieren oder schlechte Ratschläge (Quelle auf Englisch) geben. Dennoch sind ihre Informationen oft persönlicher zugeschnitten und konkreter, als es Patientinnen und Patienten bei einer Google-Suche finden.
„Die Alternative ist oft: gar nichts – oder der Patient improvisiert“, sagt Dr. Robert Wachter, Experte für Medizintechnologie an der University of California in San Francisco. „Wenn man diese Werkzeuge verantwortungsvoll nutzt, kann man aus meiner Sicht durchaus hilfreiche Informationen bekommen.“
In Ländern wie dem Vereinigten Königreich oder den Vereinigten Staaten, in denen Arzttermine oft erst nach Wochen zu bekommen sind und Notfallambulanzen stundenlange Wartezeiten haben, können Chatbots in vielen Fällen unnötige Panik reduzieren und Zeit sparen.
Sie können zudem deutlich machen, wann Symptome tatsächlich gefährlich sind und dringend von medizinischem Fachpersonal abgeklärt werden müssen.
Ein Vorteil der neuesten Chatbots: Sie beantworten Fragen auf Basis der medizinischen Vorgeschichte der Nutzerinnen und Nutzer, also etwa von Medikamentenlisten, Alter oder Arztbriefen.
Auch ohne direkte Anbindung an Ihre Patientenakte raten Wachter und andere, dem Chatbot so viele relevante Details wie möglich zu geben. Das verbessert die Qualität der Antworten deutlich.
Bei alarmierenden Symptomen: Finger weg von KI
Wachter und andere Fachleute betonen, dass es Situationen gibt, in denen Menschen den Chatbot links liegen lassen und sofort medizinische Hilfe suchen sollten. Symptome wie Atemnot, Brustschmerzen oder ein sehr starker Kopfschmerz können auf einen Notfall hinweisen.
Auch in weniger dringenden Fällen sollten Patientinnen, Patienten und Ärztinnen oder Ärzte KI-Programme mit „einer Portion gesunder Skepsis“ betrachten, sagt Dr. Lloyd Minor von der Stanford University.
„Geht es um eine wichtige medizinische Entscheidung – oder auch nur um eine scheinbar kleinere Entscheidung zur Gesundheit –, sollte man sich niemals allein auf das verlassen, was ein großes Sprachmodell ausgibt“, sagt Minor, Dekan der Medizinischen Fakultät in Stanford.
Selbst bei weniger komplexen oder häufigen Krankheitsbildern wie dem polyzystischen Ovarialsyndrom (PCOS) ist ein Gespräch mit echtem Fachpersonal oft sinnvoller. Die Erkrankung verläuft sehr unterschiedlich, und das beeinflusst die Behandlung erheblich.
Vor dem Hochladen von Gesundheitsdaten an den Datenschutz denken
Viele Vorteile von KI-Bots entstehen erst, wenn Nutzerinnen und Nutzer persönliche Gesundheitsdaten teilen. Wichtig ist jedoch zu verstehen, dass Informationen, die mit einer KI-Firma geteilt werden, in den USA nicht durch das Bundes-Datenschutzrecht geschützt sind, das normalerweise für sensible Gesundheitsdaten gilt.
Das Gesetz, meist HIPAA genannt, sieht Geldstrafen und sogar Haft vor, wenn Ärztinnen, Ärzte, Krankenhäuser, Versicherer oder andere Gesundheitsdienste Patientendaten unerlaubt weitergeben. Für Firmen, die Chatbots entwickeln, gilt dieses Gesetz aber nicht.
„Wer seine Patientenakte in ein großes Sprachmodell hochlädt, macht etwas völlig anderes, als sie einer neuen Ärztin oder einem neuen Arzt zu übergeben“, sagt Minor. „Verbraucherinnen und Verbraucher müssen verstehen, dass hier völlig andere Datenschutzstandards gelten.“
OpenAI und Anthropic erklären, dass sie Gesundheitsdaten getrennt von anderen Datentypen speichern und zusätzlich schützen. Die Unternehmen nutzen diese Daten nicht, um ihre Modelle zu trainieren. Nutzerinnen und Nutzer müssen ausdrücklich zustimmen, bevor ihre Informationen verarbeitet werden, und können die Verbindung jederzeit wieder trennen.
Tests zeigen, dass Chatbots ins Stolpern geraten können
Trotz der großen Erwartungen steckt die unabhängige Prüfung der Technologie noch in den Anfängen. Frühe Studien deuten darauf hin, dass Programme wie ChatGPT anspruchsvolle medizinische Prüfungen bestehen, aber im direkten Kontakt mit Menschen oft schwächeln.
Eine Studie der Universität Oxford mit 1.300 Teilnehmenden ergab kürzlich, dass Menschen, die KI-Chatbots nutzten, um fiktive Erkrankungen zu recherchieren, keine besseren Entscheidungen trafen als Personen, die selbst im Internet suchten oder ihrem eigenen Urteil folgten.
Wenn KI-Chatbots die medizinischen Szenarien vollständig schriftlich aufbereitet bekamen, erkannten sie in 95 Prozent der Fälle korrekt, welche Erkrankung dahintersteckte.
„Das war nicht das Problem“, sagt Studienleiter Adam Mahdi vom Oxford Internet Institute. „Schwierig wurde es in der Interaktion mit den echten Teilnehmenden.“
Mahdi und sein Team stellten mehrere Kommunikationsprobleme fest. Viele Menschen gaben den Chatbots nicht genug Informationen, um das Gesundheitsproblem richtig einzuordnen. Umgekehrt kombinierten die Systeme gute mit schlechten Hinweisen – und die Nutzerinnen und Nutzer konnten beides nur schwer auseinanderhalten.
Die Studie aus dem Jahr 2024 nutzte noch nicht die jüngsten Chatbot-Generationen, etwa neue Angebote wie ChatGPT Health.
Eine zweite KI-Meinung kann helfen
Die Fähigkeit von Chatbots, gezielt nachzufragen und wichtige Details herauszukitzeln, ist für Wachter ein Bereich mit großem Verbesserungsbedarf.
„Richtig gut wird das meiner Meinung nach erst, wenn die Werkzeuge etwas ‚ärztlicher‘ werden in der Art, wie sie mit Patientinnen und Patienten hin und her sprechen“, sagt Wachter.
Bis dahin kann es helfen, mehrere Chatbots zu befragen – ähnlich wie eine zweite ärztliche Meinung einzuholen.
„Ich gebe manchmal Informationen in ChatGPT ein und die gleichen Daten in Gemini“, sagt Wachter über das KI-Werkzeug von Google. „Wenn beide zur gleichen Einschätzung kommen, bin ich etwas sicherer, dass die Antwort stimmt.“