Skip to content

EU AI Act – Spätestens jetzt braucht jede Klinik-Führung eine KI-Strategie

D

Die enorm wachsende KI-Nutzung stellt Kliniklenker vor immer neue Fragen. Welche Risiken gibt es? Wo mischt KI überhaupt mit? Zudem setzt die EU verbindliche Maßstäbe. Ohne eine Strategie geht es nicht mehr, mahnt Gastautor Dr. Ilias Tsimpoulis.

Der Wandel ging schnell. Hieß es in den Chefetagen der Krankenhäuser vor wenigen Monaten noch: „Bis KI bei uns ankommt, dauert es doch noch“, gilt mittlerweile die nahezu umgekehrte Einschätzung: „Wir haben jetzt KI in unserem neuen Linksherzkatheter – da würde ich schon gerne verstehen, was das Risiko ist“, so die Aussage einer Klinikgeschäftsführerin.

Ihre Nachfrage ist kein Einzelfall. Die schnell fortschreitende Entwicklung von KI hat innerhalb kürzester Zeit alles verändert. Künstliche Intelligenz ist gelebter Klinikalltag. Sie steuert Verwaltungsprozesse, unterstützt die radiologische Bildgebung oder optimiert Therapieentscheidungen. 

Der Einsatz ist flächendeckend – doch oft unsichtbar. 

Die Sorge vor dem Risiko ist das eine. Hinzu kommt die fehlende Transparenz darüber, wo KI bereits heute im Klinikbetrieb im Hintergrund agiert. Ob im Einkauf, in der Radiologie oder im Entlassmanagement – laufend kommen neue Funktionen hinzu, die Prozesse priorisieren, administrieren oder Informationen zusammenfassen.

Ein Blick auf die Zahlen macht die Dynamik deutlich: Die Menge der von der US-amerikanischen FDA zugelassenen KI-Algorithmen wächst rasant – insbesondere in der Radiologie, Kardiologie und Neurologie. Der Einsatz ist flächendeckend, die Integration tief – doch oft unsichtbar.

Dabei sprechen wir noch gar nicht von der sogenannten „Schatten-KI“: Der Assistent, der in der Notaufnahme stehend seine Differenzialdiagnosen und die nächsten Schritte mit ChatGPT „checkt“, verlässt sich auf ein Tool, das sowohl halluzinieren kann, sprich auf sehr überzeugende Weise falsche Fakten produziert, als auch datenschutzrechtlich mit äußerster Sorgfalt genutzt werden muss.

Dr. Ilias Tsimpoulis ist Geschäftsführer von Aegis Intelligence mit Sitz in Nürnberg. Das 2024 gegründete Unternehmen unterstützt Kliniken dabei, die Potenziale von KI zu nutzen – von Governance-Checks über KI-Readiness-Analysen bis hin zur strategischen Begleitung bei der Implementierung. Krankenhäuser sollen in die Lage versetzt werden, „KI nicht nur zu nutzen, sondern zu beherrschen“, erklärt Tsimpoulis. Governance werde dabei nicht als bürokratisches Hindernis verstanden, sondern „als treibende Kraft für eine sichere, zukunftsfähige Digitalisierung“.

Potenzial und Risiko wachsen gemeinsam

KI verspricht Effizienz, Präzision und bessere klinische Ergebnisse. Zugleich steigen allerdings auch die Risiken: intransparent arbeitende Blackbox-Modelle, unklare Verantwortlichkeiten, Unsicherheiten im Umgang mit Fehlfunktionen.

Eine Fehleinschätzung der KI kann zu mittelbaren oder unmittelbaren Patientenschäden führen, insbesondere, wenn sie bei wichtigen Entscheidungen als Hilfe dient. Beispielsweise eine radiologische KI, die anstatt „tumorverdächtiger Läsion“ von einer „harmlosen Zyste“ spricht. Oder ein Triage-Tool, das Ruhe und Schonkost empfiehlt, während die Patientin an einer Appendizitis leidet. 

Was, wenn Effizienzdenken überwiegt und Entscheidungen zunehmend der KI überlassen werden? 

Generell gilt in der Medizin „human in the loop“, eine Ärztin oder ein Arzt muss also generell einschreiten können, und „in doubt, overrule“ – Mediziner müssen eine Empfehlung der KI ignorieren, wenn sie die Entscheidung beziehungsweise den Vorschlag nicht teilen. Was aber, wenn Effizienzdenken überwiegt und Entscheidungen zunehmend der KI überlassen werden? Schon heute bleibt im stressgeprägten Klinikalltag oft nur wenig Zeit pro Patienten – da erscheint eine KI, die einem sehr viel abnimmt, als willkommene Entlastung.

Kliniken müssen Beschäftigte schulen

Hier hilft vor allem Aufklärung über Verantwortung. Denn diese Verantwortung ist kein Hemmschuh. Sie ist der Hebel, um KI sicher und wirksam in die Patientenversorgung zu bringen. Genau hier setzt der AI Act der EU an und schafft einen verbindlichen Rahmen.

Die Verordnung der Europäischen Union klassifiziert viele medizinische KI-Anwendungen als Hochrisiko-Systeme. Damit werden nicht nur die Hersteller der Anwendungen, sondern auch die Betreiber – sprich: die Kliniken selbst – in die Pflicht genommen. Sie müssen sicherstellen, dass ihre Mitarbeitenden geschult sind, Risiken dokumentiert und Überwachungsprozesse etabliert werden.

Hierfür gibt es keine konkrete „Anleitung“ und auch noch keine institutionellen Ansprechpartner. Den Kliniken ist es selbst überlassen, diese teils sehr anspruchsvollen Forderungen zu erfüllen. Hierzu fehlen jedoch Strategie, Governance und Ressourcen im Allgemeinen. 

Was fordert der EU AI Act?

  • Risikoklassifizierung: Medizinische KI wird als Hochrisiko eingestuft.
  • Verantwortlichkeit: Nicht nur Hersteller, auch Betreiber (Kliniken) tragen Verantwortung.
  • Schulungen: Seit Februar 2025 müssen alle Mitarbeitenden im Umgang mit KI geschult sein.
  • Transparenz: Kliniken müssen Überwachungs- und Dokumentationspflichten einhalten.
  • Haftung: Kliniken müssen sicherstellen, dass KI-Systeme sicher und verantwortungsvoll betrieben werden.

Wer jetzt in den verantwortungsvollen Umgang mit KI investiert, investiert in Zukunftssicherheit

Seit Februar 2025 müssen laut EU-Vorgabe alle Klinikbeschäftigten, die mit KI arbeiten, hinreichend geschult sein – ein ambitioniertes Ziel, das nur mit strategischer Planung und effizienter Umsetzung erreichbar ist. „Wer jetzt in den verantwortungsvollen Umgang mit KI investiert, investiert in Zukunftssicherheit“, betont Prof. Marc Eulerich, Inhaber des Lehrstuhls für Interne Revision an der Universität Duisburg-Essen und seit 2022 Dekan der Mercator School of Management.

Eulerich ist Experte für Interne Revision und Corporate Governance und treibt die Integration von KI-Technologien in Prüfung und Governance voran. Kliniken, die jetzt handeln, schaffen nicht nur rechtliche Sicherheit, sondern stärken auch ihre Position im Wettbewerb, betont er. Zudem drohen hohe Strafen, wenn die EU-Vorgabe nicht eingehalten wird. Der EU AI Act formuliert die Strafhöhe, ähnlich der DSGVO, auf Ebene des Umsatzes – hier können Beträge von mehreren Millionen Euro zustande kommen.

Fehlerhafte Diagnosen können haftungsrechtliche Folgen haben

Unsicherheit über Risiken und Verantwortlichkeiten ist kein Grund, nicht zu handeln. Die Radiologie zeigt exemplarisch: Fehlerhafte Diagnosen können haftungsrechtliche Folgen haben – ob mit oder ohne KI. „Angst vor KI ist ein schlechter Berater. Wissen über Risiken ein sehr guter“, mahnt Eulerich. Wegschauen hilft nicht. Der verantwortungsvolle Umgang mit KI beginnt mit dem Bewusstsein, dass sie bereits im Einsatz ist – und setzt konsequent auf Dokumentation, Schulung und strukturierte Implementierung.

Wegen der weitreichenden Implikationen des EU AI Act für das Gesundheitswesen brauchen medizinische Einrichtungen einen strukturierten Ansatz. Die Führungsebene steht in der Pflicht. Krankenhäuser müssen nicht nur die regulatorischen Vorgaben einhalten. Sie müssen in der Lage sein, KI bewusst, sicher und verantwortungsvoll einzusetzen.

Sorge vor „Skill Degradation“

In der klinischen Praxis kommen immer neue Fragen auf – ebenso vielfältig wie relevant. In einer kürzlich durchgeführten Schulung etwa äußerte Ärztlicher Direktor seine Bedenken zum Einsatz von KI bei der Arztbriefschreibung: Wenn sich Ärztinnen und Ärzte zu sehr auf automatisierte Textvorschläge verlassen, drohe ein schleichender Verlust eigener Fähigkeiten. Diese Sorge vor „Skill Degradation“ ist berechtigt – und sie zeigt: KI-Nutzung braucht strategische Begleitung. Eine mögliche Lösung liegt darin, Effizienzgewinne gezielt in die kontinuierliche Aus- und Weiterbildung medizinischer Fachkräfte zurückfließen zu lassen.

Bundesärztekammer fordert klare ethische Leitlinien

Auch die Bundesärztekammer (BÄK) unterstreicht in ihrem aktuellen Standpunktpapier die Bedeutung eines verantwortungsvollen Umgangs mit KI im Gesundheitswesen. Zentrale Forderungen betreffen klare ethische Leitlinien, die Validierung von Systemen, umfassenden Datenschutz und die Wahrung der ärztlichen Verantwortung.

Besonders hervorgehoben wird die letztgenannte Forderung: Die Verantwortung für Diagnostik und Therapie habe bei den Ärztinnen und Ärzten zu verbleiben – KI solle unterstützen, nicht ersetzen. Darüber hinaus fordert die BÄK eine systematische Schulung medizinischer Fachkräfte und warnt eindringlich vor einem unkritischen, „blinden“ Vertrauen in KI-gestützte Systeme. Ein klarer Auftrag an Kliniken, ihre Mitarbeitenden fit für den Umgang mit KI zu machen. 

Es geht nicht um Verzicht oder Vollgas – sondern um souveräne Steuerung. 

Fazit: KI lässt sich nicht aufhalten. Aber sie lässt sich gestalten. Wer Verantwortung übernimmt, sichert sich nicht nur gegen Risiken ab, sondern schafft auch Vertrauen – bei Patienten, Mitarbeitenden und Aufsichtsbehörden, fasst Marc Eulerich zusammen: „Es geht nicht um Verzicht oder Vollgas – sondern um souveräne Steuerung.“

Klinikverantwortliche sollten jetzt handeln: Als erstes die Strategie bestimmen – folgen oder führend sein im Bereich der KI? Darauf basierend die Governance aufbauen, idealerweise mit erfahrener Unterstützung und unter Beteiligung von Geschäftsführung, Medizin und Pflege und natürlich der IT und Medizintechnik. Die ersten „Hausaufgaben“ sollten sich mit Mitarbeitenden-Schulungen, der Einrichtung eines KI Boards und der Inventarisierung der eingesetzten KI beschäftigen.

Quelle: Dr. Ilias Tsimpoulis (Aegis Intelligence)