Künstliche Intelligenz erobert nach und nach das Gesundheitswesen. Der Marktzutritt in Deutschland gestaltet sich komplexer als erwartet und könnte sich noch bis ins kommende Jahr hineinziehen.
Im Januar 2026 präsentierte OpenAI mit ChatGPT Health einen Dienst, der persönliche Gesundheitsdaten aus Smart-Devices oder Laborberichten analysiert, medizinische Trends erklärt und Arzttermine vorbereitet. Während US-amerikanische Nutzer bereits Zugang erhalten, bleiben deutsche Patienten und Ärzte außen vor. Der Grund ist ein komplexes Geflecht aus europäischen Datenschutzbestimmungen und Medizinprodukte-Regulierungen. Die Marktzulassung von KI-Systemen im deutschen Gesundheitswesen wird durch drei zentrale Regelwerke bestimmt. Die am 1. August 2024 in Kraft getretene EU-KI-Verordnung etabliert ein risikobasiertes Regulierungssystem mit gestaffelten Umsetzungsfristen.
Seit August 2025 gelten Transparenzpflichten für General-Purpose-AI-Modelle wie ChatGPT. Ab August 2026 erfolgt die vollständige Konformitätsbewertung für Hochrisiko-KI-Systeme zur Diagnoseunterstützung. Hochrisiko-Systeme müssen spätestens ab diesem Zeitpunkt externe Konformitätsprüfungen durchlaufen und Qualitäts- und Risikomanagement, Bias-Minimierung sowie kontinuierliche Cybersicherheit nachweisen. Die EU-Medizinprodukte-Verordnung definiert Software dann als Medizinprodukt, wenn der Hersteller sie für diagnostische oder therapeutische Zwecke vorsieht. Rechtswissenschaftler argumentieren, dass ChatGPT faktisch medizinische Zwecke erfüllt, wenn es Behandlungsempfehlungen ausspricht. Dies würde eine Einstufung in Risikoklasse IIa erfordern; verbunden mit einer obligatorischen Konformitätsbewertung durch eine benannte Stelle.
Als sensibelste Datenkategorie unterliegen Gesundheitsinformationen besonders strengen Verarbeitungsbestimmungen nach der DSGVO. OpenAI betont zwar, dass die Daten von ChatGPT Health zusätzlich verschlüsselt werden; dennoch bleiben Fragen offen. Etwa ob die Datenverarbeitung durch US-Server die EU-Standards erfüllt und wie die Datenübertragung in Drittstaaten rechtlich abgesichert wird. Am Beispiel Deutschland lassen sich die europäischen Herausforderungen exemplarisch gut darstellen. Zuständigkeiten sind verteilt auf das BfArM, das Bundesinstitut für Impfstoffe, diverse Landesbehörden sowie die EU-Kommission. Diese Fragmentierung führt zu langen Prüfverfahren und Rechtsunsicherheit. Im Digital Health Report 2026 steht schwarz auf weiß, dass wenige zertifizierte KI-Tools verfügbar sind. Das sei mit ein Grund, weshalb Ärzte zunehmend auf unregulierte Schatten-KI zurückgreifen würden.
Während Deutschland jedoch auf starke Regulierung setzt, wählen andere Länder pragmatischere Ansätze. Die USA ermöglichen durch freiwillige FDA-Zertifizierungen schnellere Markteinführungen. Großbritannien nutzt die – seit dem Brexit – neu gewonnene Flexibilität und setzt auf stark beschleunigte Verfahren.
Jenseits der Zulassungsfrage bleiben gewisse grundlegende Rechtsfragen ungeklärt. Wer haftet etwa, wenn ein Patient aufgrund einer KI-Empfehlung eine Fehlentscheidung trifft; der Hersteller, der Arzt oder der Krankenhausträger? Wie lässt sich Evidenzbasierung bei Large Language Models gewährleisten, deren Entscheidungswege nicht vollständig nachvollziehbar sind?
Brancheninsider schätzen, dass eine Markteinführung von ChatGPT Health in Deutschland frühestens 2027 realistisch ist; vorausgesetzt, OpenAI klärt die Zweckbestimmung, schafft DSGVO-konforme Datenarchitektur und durchläuft Konformitätsbewertungen.
Denn die grundlegende Frage wird wohl nicht sein, ob KI-Systeme für das Gesundheitswesen nach Deutschland kommen, sondern wann und unter welchen Bedingungen.
Quelle: Johannes Kapfer