Generative KI bei Fragen zur Gesundheit oder Krankheiten ist beliebt
Eine aktuelle Umfrage des Wirtschaftsberatungsunternehmens Deloitte unter 1000 Krankenversicherten zeigt, dass Künstliche Intelligenz (KI), auch als Generative Artificial Intelligence (GenAI) bezeichnet, in der medizinischen Selbstdiagnose stark an Bedeutung gewinnt. Die Umfrage fand im Dezember 2025 statt. 1
Der Chat mit der KI: Birgt er für Laien Gesundheitsgefahren?
Mittlerweile nutzt fast jeder zweite Deutsche (47 Prozent) KI-Sprachmodelle bereits für Gesundheitsfragen. 17 Prozent machen das sogar regelmäßig. Innerhalb der Gruppe derjenigen, die häufig mit der KI chatten, sind es sogar rund 70 Prozent. Allerdings ist die KI-Nutzung bei Gesundheitsfragen altersabhängig. Während 71 Prozent der 18- bis 34-Jährigen medizinischen Rat bei der KI suchen, sind es bei den über 65-Jährigen nur 21 Prozent, so die Deloitte-Analyse. 1
Erstaunlich: Die Teilnehmenden sind laut dieser Befragung mit den Ergebnissen der KI zufrieden bis sehr zufrieden. Obwohl doch wissenschaftliche Erkenntnisse immer wieder auf die hohe Fehleranfälligkeit der Informationen rund um Krankheitssymptome hinweisen. 2
Risiko: Mangelndes Wissen bei Gesundheitsfragen in der Bevölkerung
Ein weiteres sehr ernstes Risiko: Das Robert Koch-Institut (RKI) stellt fest, dass es um die allgemeine Gesundheitskompetenz der deutschen Bevölkerung nicht gut bestellt ist. Im Jahr 2024 fielen bei der RKI-Messung etwa vier Fünftel der Frauen und Männer in die Kategorie „geringe allgemeine Gesundheitskompetenz“. Große Unterschiede gab es zwischen Frauen und Männern nicht: 81,4 Prozent der Frauen und 80,9 Prozent der Männer hatten nur geringes Wissen, wenn es um medizinische Fragen geht.3
Wenn das Wissen rund um Gesundheitsfragen in Deutschland allgemein als niedrig eingestuft wird, können zahlreiche KI-Nutzende mögliche medizinische Fehlinformationen gar nicht erkennen. Daher kann es gefährlich sein, wenn das Vertrauen in die Technik die tatsächliche Qualität der gelieferten Antworten übersteigt.
Warum Menschen KI oft zu viel Vertrauen schenken
Die bekanntesten generativen KI-Modelle haben exzellente sprachliche Fähigkeiten. Zum einem können sie komplexe medizinische Fachsprache für Laien verständlich formulieren. Zum anderen sind sie aufgrund ihrer sprachlichen Kompetenz in der Lage, Ängste und Sorgen zu erkennen und sogar beruhigend einzuwirken. Eine Gefahr besteht daher in der Vermenschlichung („Anthropomorphisierung“). 4
Dann tendieren nämlich Nutzende dazu zu vergessen, dass sie nicht mit einem kompetenten Menschen vom Fach sprechen, sondern mit einer Maschine.
Warum sind KI-Diagnosen in der Medizin fehleranfällig?
Die Fehleranfälligkeit ist ein weiteres Problem: Deloitte weist darauf hin, dass frei verfügbare KI-Anwendungen – sogar wissenschaftlich belegt – oft fehlerhafte oder ungenaue medizinische Informationen liefern.
Hinzu kommt, dass nicht alle KI-Nutzende in der Lage sind, für die Diagnose die richtigen oder relevanten Informationen überhaupt in ihre Aufgabenstellung, die Prompts, einfließen zu lassen. Dann kann es selbst bei genaueren KI-Modellen zu falschen Schlüssen kommen.
Chancen und Risiken von KI-Sprachmodellen im Gesundheitswesen
Nehmen wir das Beispiel einer Hautrötung: Die KI sieht zwar die Hautläsion auf dem hochgeladenen Foto, kennt jedoch den Kontext nicht. Ihr fehlen unter anderem wichtige Angaben zu Begleitsymptomen wie
- Fieber,
- Laborwerten,
- Allergien,
- Arzneimitteleinnahmen,
- Vorerkrankungen, zum Alter und
- dazu, ob beispielsweise andere Familienangehörige die gleiche Hautrötung haben.
Ob die Hautläsion ein kleiner harmloser Ausschlag ist oder doch etwas Ernstes wie eine Infektion, gar Krebs, kann die KI nicht entscheiden. Denken, entscheiden und die Verantwortung übernehmen muss am Ende trotzdem ein Mensch und am besten jemand mit medizinischer Erfahrung.
KI-Sprachmodelle: Die Konkurrenz für Doktor Google bei der Suche nach Gesundheitsinfos
Suchergebnisse von Google durchklicken? Wissenschaftliche Ausführungen als PDF lesen? Gar Medizin-Portale für Krankheiten durchsuchen? Es hat sich viel geändert, seitdem moderne KI-Agenten wie ChatGPT oder Google Gemini eine einfache Alternative bieten. Man stellt eine Frage, beschreibt das Anliegen im Prompt möglichst genau und erhält in Sekunden eine präzise, nuancierte Antwort. Das mag völlig ausreichend sein bei der Frage: „Bitte empfiehl mir drei Hausrezepte für meine Erkältung, die mir Linderung verschaffen“. Der KI-Chatbot wird in der Regel sinnvoll weiterhelfen. Jedoch ist es fraglich, ob der Chatbot beispielsweise eine lebensbedrohliche Erkrankung sicher erkennt. Auch eine Überreaktion wäre möglich.
So komfortabel diese Chats mit der KI sein mögen, sie bergen Risiken. Denn es sind meistens Selbstdiagnosen, mit denen die KI gefüttert wird.
Wie funktioniert die KI-/AI-Technik von generativen Sprachmodellen?
Einfach erklärt: Gespräche mit der KI basieren auf Large Language Models (LLM). Diese Systeme sind darauf trainiert, Muster in menschlicher Sprache zu erkennen und Wahrscheinlichkeiten für die Abfolge von Wörtern zu berechnen. Im Gegensatz zu klassischen Suchmaschinen, die lediglich Links zu bestehenden Webseiten auflisten, generieren LLMsihre Antworten selbst. Sie agieren wie ein hochentwickeltes Text-Vorhersagesystem, das auf Basis riesiger Datenmengen (Bücher, Fachartikel, Webseiten) antwortet.
In der Praxis funktioniert das wie ein Gespräch mit einem Freund, einer Freundin oder einem netten, hilfsbereiten Menschen: Man gibt eine Frage in das Textfenster ein und das KI-Modell antwortet nett, höflich und oft ausgesprochen emphatisch darauf. Je konkreter die Frage oder Anweisung formuliert ist, desto besser fällt in der Regel auch das Ergebnis aus.
Die Schwächen der Künstlichen Intelligenz
Trotz der beeindruckenden Eloquenz gibt es eine zentrale Schwachstelle: Die KI versteht nicht immer den individuellen Kontext. Sie erkennt lediglich statistische Zusammenhänge. Daraus können sich Gefahren für die Gesundheit ergeben:
- Halluzinationen: Wenn die KI keine passenden Daten findet, erfindet sie oft Informationen, die zwar plausibel klingen, aber faktisch leider falsch sind.
- Veraltete Daten: Die Daten sind nicht immer aktuell, was bei medizinischen Fortschritten Risiken bergen kann.
- Muster vor Fakten: Die KI bevorzugt Informationen, die häufig in ihrem Speicher vorkommen. Somit können seltene Erkrankungen oder besondere medizinische Sonder- oder gar Notfälle komplett untergehen.
- Vorgetäuschte Quellen: Chatbots neigen dazu, Quellenangaben frei zu erfinden, um ihre Antwort glaubwürdig erscheinen zu lassen. 5
Neben Fehlinformationen, Voreingenommenheit oder Verzerrungen besteht auch die Gefahr, dass komplett falsche Inhalte im medizinischen Kontext reproduziert werden. Das mag bei Ratschlägen bei einer Erkältung nicht so dramatisch sein. Aber wer haftet, wenn eine KI bei der Einschätzung einer lebensbedrohlichen Krankheit danebenliegt?
Vertrauliche Daten haben in ChatGPT nichts verloren!
Wollen Sie wirklich, dass jeder weltweit weiß, welche Krankheit Sie haben? Chatbots nutzen Eingaben und Daten zum weiteren Training. Und sie werden von Menschen überwacht, denen die europäische Datenschutzverordnung (DSGVO) oft egal oder unbekannt ist, weil sie beispielsweise außerhalb Europas tätig sind. Ein Recht auf Vergessenwerden, das gibt es nicht! Gelöscht wird – falls überhaupt – erst nach 30 Tagen. Darauf weisen gute KI-Tools auch meistens hin.
Wer persönliche Daten, den eigenen Namen, Fotos der Erkrankung, Röntgenbilder oder den mehrseitigen Befund ins Chatfenster 1:1 kopiert oder hochlädt, darf sich nicht wundern, was mit den persönlichen Daten alles passieren kann. Das Risiko des Missbrauchs oder der unbefugten Weitergabe an Dritte ist immens hoch!
Die Macher von Google, der Algorithmus der Chatbots und der Browser – sie alle werden sich über die freizügigen Krankheitsdaten und Diagnosen freuen und sie gut nutzen können. Keiner weiß, ob diese Daten weiterverkauft werden. Dann bekommen unter Umständen diese KI-Anwender unverlangt, aber gratis die mehr oder weniger passenden Gesundheitsprodukte oder Chat-Gruppen in den Social Media für „ihre“ Krankheit frei Haus geliefert.
Tipps für den guten Umgang
Um KI-Modelle verantwortungsvoll für Gesundheitsfragen zu nutzen, sind folgende Strategien hilfreich.
Nicht alles glauben, was da so steht. Eine kritische Prüfung der Antworten beginnt mit dem beispielsweise Erfragen von Quellen. Ein Gegen-Check der KI-Antworten in seriösen Gesundheitsportalen kann ebenfalls zielführend sein. Für viele Krankheiten gibt es Leitlinien der medizinischen Fachgesellschaften, die im Internet veröffentlicht sind. Warum nicht mal der KI die Frage stellen: „Erkläre mir bitte aufgrund der aktuellen Leitlinien, wie die Krankheit behandelt wird“?
Manchmal hilft es auch, der KI zu sagen, aus welcher Perspektive sie antworten soll: „Bitte erkläre mir als Onkologe die einzelnen Behandlungsschritte bei meiner Erkrankung“. Oder: „Ich bin medizinischer Laie. Bitte erkläre mir einfach, welche Möglichkeiten es für mich als ältere Person gibt, meinen Bluthochdruck zu behandeln“.
Googles Gemini gibt Top-Antwort bei Suggestivfrage!
Suggestivfragen sollten eigentlich vermieden werden: „Der kleine rote Fleck an meiner Schulter ist doch kein Hautkrebs, oder?“ Eine bewundernswert ehrliche Antwort von Gemini, der KI von Google: „Ich verstehe absolut, dass man beunruhigt ist, wenn man plötzlich eine Veränderung an der Haut feststellt. Zuerst einmal die gute Nachricht zur Beruhigung: Die meisten kleinen roten Flecken sind völlig harmlos. Dennoch bin ich eine KI und kein Hautarzt – eine verlässliche Diagnose kann nur ein Profi vor Ort stellen.“
Sogar ein Chatbot weiß: Eine KI ersetzt keinen Besuch bei einer Ärztin oder bei einem Arzt!
Einige KI-Modelle, die sich auch für Gesundheitsfragen eignen
Neben kostenlosen Open-Source-Programmen stehen auch kostenpflichtige Anwendungen zur Verfügung, die sich für Fragen rund um die Gesundheit eignen. Nicht aufgelistet sind hier die rein medizinischen KI-Anwendungen in wachsender Zahl, die von Kliniken oder Krankenkassen angeboten werden oder spezielle Modelle für Ärzte und Ärztinnen, die beispielweise bei der Befundung von Röntgenaufnahmen unterstützen.
Diese nachfolgende Liste ist mit KI/Gemini 3 erstellt. Sie ist eine Auswahl und stellt keine Empfehlung der Autorin dar!
ChatGPT von OpenAI: In der Version GPT-4 kann das Programm auf Nutzerfragen oder Aufgaben in natürlicher Sprache reagieren. In der kostenlosen Version kann man ChatGPT eine begrenzte Anzahl von Anfragen stellen. Dafür ist ein Nutzerkonto erforderlich. Neu ist ChatGPT Health seit Anfang 2026. Diese spezielle Version kann sogar Gesundheitsdaten aus Apps wie Apple Health einbeziehen, um personalisierte Antworten zu geben.
Google Gemini: Dies ist ein KI-Modell, das gesprächsähnlich auf Anfragen reagiert. Hier können Nutzer nicht nur Text, sondern zum Beispiel auch Fotos oder Codes eingeben oder sich anzeigen lassen. Google Gemini ist kostenlos. Man benötigt ein Google-Nutzerkonto. Google Gemini Med-PaLM und MedLM sind Tools für den Einsatz in der gesamten Gesundheitsbranche. Sie wurden unter anderem für Krankenhäuser, Arzneimittelentwicklung, das Medizinstudium und auch für patientenorientierte Chatbots trainiert. Sie sollen besonders geeignet sein für komplexe medizinische Zusammenhänge.
Meta AI von Meta: Dabei handelt es sich um einen kostenlosen Sprachassistenten, der auf Facebook, Instagram, WhatsApp und Messenger eingesetzt wird.
Copilot ist ein KI-Assistent, der in verschiedene Microsoft-Produkte wie Word, Excel, PowerPoint und Microsoft Teams integriert wurde und bei unterschiedlichen Aufgaben helfen kann.
Perplexity generiert Antworten mithilfe von ausgewiesenen Quellen aus dem Internet und zitiert die Links innerhalb seiner Antwort. Die KI arbeitet mit verschiedenen Sprachmodellen, unter anderem mit Modellen von OpenAI und Claude.
Claude von Claude Anthrophic ist ein Sprachmodell, das von einigen Aussteigern von OpenAI gegründet wurde. Es ist kostenpflichtig.
Spezialisierte Gesundheits-Apps (Symptom-Checker)
Diese Tools sind speziell darauf trainiert, Symptome zu analysieren und eine erste Einschätzung zu geben. Sie basieren oft auf medizinischen Datenbanken und gelten als sicherer als die oben angeführten allgemeinen KIs. Sie sind kostenlos. Einige Beispiele:
Ada Health App: einer der bekanntesten medizinischen Begleiter. Ada stellt gezielte Fragen zu Beschwerden und gleicht diese mit einer riesigen Datenbank ab, um mögliche Ursachen zu nennen.
Healthily: Ein ähnlicher Assistent, der neben der Symptomanalyse auch Tipps zur Selbsthilfe und zur Entscheidung bietet, ob ein Arztbesuch notwendig ist.
Buoy Health: Nutzt KI, um in Echtzeit auf Basis von Antworten Empfehlungen für die nächsten Schritte zu geben (z. B. Notaufnahme vs. Hausarzt).
Beatrix Polgar-Stüwe
Quellen:
1 Versichertenbefragung Januar 2026 zu GenAI von Deloitte Januar 2026: „GenAI wird zum relevanten Akteur der Gesundheitsversorgung in Deutschland“
Beschreibung: Für die Online-Befragung wurde eine Stichprobe von 1.000 krankenversicherten Menchen ab 18 Jahren, die nach soziodemografischen Merkmalen wie Alter, Geschlecht, Wohnort und Haushaltseinkommen gewichtet wurden in einer Kurzbefragung untersucht, wie sie generative KI-Anwendungen für Gesundheitsfragen nutzen.
2 Mohammad Beheshti et al.; Evaluating the Reliability of ChatGPT for Health-Related Questions: A Systematic Review; Informatics, 2025, DOI: 10.3390/informatics12010009
3 RKI: Selbsteingeschätzte allgemeine Gesundheit (ab 18 Jahre)
4 IMABE: KI im Gesundheitswesen: Wie zuverlässig ist ChatGPT?
5 Stiftung Gesundheitswesen: Künstliche Intelligenzen können Gesundheitsfragen schnell und einfach beantworten. Aber sind ihre Infos auch zuverlässig?






