KI im Krankenhaus – Was mit ChatGPT & Co. auf die Kliniken zukommt

Künstliche Intelligenz hält seit längerem Einzug in die Medizin. Doch mit ChatGPT bahnt sich ein regelrechter Quantensprung an – in absehbarer Zeit auch für die Krankenhäuser. Was der schnelle Lerner kann und was (noch) nicht.

Mit einer KI lassen sich jetzt schon klassische Kunstwerke generieren. Der Auftrag lautete hier, ein Bild von einer Geburt im Stile Franz Marcs zu erstellen.

Arztbriefe, Bewerbungsschreiben, Beschwerde-Management, Reden von Vorständen, ganze Staatsexamen oder Zulassungsprüfungen in der Medizin: ChatGPT wagt sich an jede Aufgabe heran. Erst im November 2022 hatte das US-Start-up OpenAI seinen Chatbot-Prototypen ChatGPT für jedermann kostenlos zugänglich gemacht. Inzwischen gibt es über 100 Millionen Menschen, die das System nutzen. Es ist lediglich die Erstellung eines Accounts bei OpenAI notwendig.

ChatGPT, entwickelt vom Non-Profit-Unternehmen OpenAI, dessen größter Investor Microsoft ist, ist dabei nur eine von vielen Large Language Models (LLM), an denen derzeit weltweit geforscht wird. „Im Moment ist der Wirbel um ChatGPT ein riesen Hype, aber eine richtige Anwendung dafür gibt’s in der Klinik noch nicht“, sagt Prof. Dr. Jens Kleesiek von der Universitätsklinik Essen. Der Facharzt für Radiologie ist gleichzeitig Informatiker und Leiter der Forschungsgruppe Medizinisches Maschinelles Lernen am Institut für Künstliche Intelligenz in der Medizin (IKIM).  

Für Arztbriefe fehlten noch Bausteine und auch die Anbindung an die Krankenakte. 

Bereits heute fließen viele Daten aus ChatGPT in Suchmaschinen und dann demnächst auch in Office-Pakete ein. Es gebe aber noch viele andere Anwendungen, so Kleesiek, wo man sich das künftig für Kliniken vorstellen kann: „Das ist schon sehr mächtig, was da auf uns zukommt.“ Bislang könne man schon einige Bruchstücke zum Beispiel für Forschungsanträge verwenden. Für Arztbriefe fehlten noch Bausteine und auch die Anbindung an die Krankenakte. Man könne sich aber derzeit schon eine Struktur vorgeben lassen, die der Arzt dann selbst mit Inhalt füllen kann. Laborwerte, Diagnosen, Medikamentation – jeden Tag versuchen Mediziner solche Dinge in Texten zu strukturieren, wenn zwischen zwei Leistungserbringern Informationen zum Patienten ausgetauscht werden sollen. Dabei kann das System später helfen, doch derzeit „denke“ es sich bei fehlenden Worten noch zu viel aus. 

Jared Sebhatu, Vorstand der digital health transformation eG, findet ChatGPT heute schon beeindruckend. „Diese KI wird massive Veränderungen mit sich bringen – auch im Gesundheitssektor“, sagt er. Bei Arztbriefen könnte der Einsatz am schnellsten kommen. Und auch in der Patientenkommunikation allgemein. Denn das System werde immer weiter und immer schneller lernen, je mehr Nutzer und Daten es hat.

Textmarker mit Sprachbefehl

Nach Kleesieks Einschätzung werde es mit den ersten Anwendungen von LLM in Kliniken nicht mehr lange dauern. Am IKIM läuft eine intensive Forschung dazu, zum Beispiel mit einer eigenen „Transformer Architektur“ beim Heraussuchen von Informationen zum Patienten. Hierbei werden in natürlicher Sprache Textpassagen aus einem Befund schneller gefunden. Gewissermaßen ein Textmarker mit Ansage. 

Ich hätte gern frisches Wasser. 

Auch Patienten, die lange im Bett liegen müssen, können sich künftig zu verschiedenen Themen mit ChatBots unterhalten. Ebenso sei eine Entlastung der Patientenklingel denkbar, indem der Patient dem ChatBot sagt, „Ich hätte gern frisches Wasser“, der Bot speist es dann in Sekundenschnelle in ein Bestellsystem, das Pflegepersonal liest es am digitalen Board und bringt es in die Zimmer. Am IKIM in Essen werden solche Modelle, speziell für den deutschsprachigen Markt, entwickelt und direkt vor Ort trainiert. Damit die Entwicklung schneller geht, nutzen die Wissenschaftler öffentlich verfügbare Daten auch aus dem nichtmedizinischen Bereich. So haben sie mehr Daten zur Verfügung. Das Feintuning auf den medizinischen Bereich bringt dann bessere Ergebnisse.  

Das Team ist interdisziplinär aufgestellt: mit Mathematikern, Physikern, Medizinern, Informatikern. Natürlich sprachliche Fragen werden von medizinischem Fachpersonal zu Forschungszwecken auf der Station getestet. Auch Erprobungen der LLM mit MTRA-Schülern, Radiologen, Medizinstudenten laufen bereits. Zum Beispiel sollte auf radiologischer Basis entschieden werden, ob ein Tumor größer oder kleiner geworden bzw. gleichgeblieben ist. Bei der Wiedergabe waren die Modelle annähernd so gut wie die Experten. Einschränkung: Wenn es Widersprüche im Text gab, zum Beispiel, dass der Tumor zwar kleiner, die Metastasen in der Leber jedoch mehr geworden waren, dann gab es häufiger maschinelle Fehler.

Für kritische Bereiche ist die KI noch zu ungenau

Ähnlich äußert sich Prof. Dr. Kai Wehkamp, Facharzt für Innere Medizin und Projektleiter für KI-basierte klinische Entscheidungsunterstützung & Risikoerkennung am Universitätsklinikum Schleswig-Holstein, Campus Kiel. Grundsätzlich müsste bei den KI-Anwendungen zwischen unterschiedlichen Bereichen unterschieden werden: denen mit hohem medizinischem Risiko und denen mit unkritischen Informationen. „Bei einer echten medizinischen Beratung können wir ChatBot Systeme, auch ChatGPT, noch nicht einsetzen. Einfach, weil es noch nicht sicher ist“, sagt der Experte. 

Bei einem Arztbrief, der in einfache Sprache übersetzt wird, könne es beispielsweise vorkommen, dass das KI-System nicht zwischen dem Vorliegen einer Krebserkrankung und dem Ausschluss unterscheiden kann. So eine falsche Information hat für den Patienten aber weitgehende Konsequenzen. Solange es hier keine weitgehende Sicherheit gibt, seien diese Systeme deswegen für den unkontrollierten Einsatz in kritischen Bereichen zu risikoreich. 

Zu Vergleichen sind diese Systeme auch mit der KI in der Autoindustrie und beim Fliegen. Obwohl große Verkehrsmaschinen heute völlig allein starten, fliegen, landen können, sitzen immer noch zwei Piloten im Cockpit. Bei Autos, die im Prinzip selbst fahren können, wird immer wieder unterbrochen, der Fahrer „wachgerüttelt“ und erinnert, dass er die Hände ans Lenkrad nehmen muss. Solche Mechanismen benötigen wir auch in der Medizin, also Kontrollen, dass die Ergebnisse der KI immer wieder kritisch überprüft werden und der Mensch „wachsam“ bleibt.

 

… wo es 100 Prozent stimmen muss, zum Beispiel bei Tumoren und anderen medizinischen Hintergründen, ist es nicht einsetzbar.

 

ChatGPT sei oberflächlich sehr überzeugend, meint Wehkamp. Aber sobald man in der Medizin ins Detail geht, sehe man vieles, was falsch ist. Selbst dieses, als bestes System, das derzeit auf dem Markt ist, sei also noch nicht gut genug für einen Einsatz in kritischen Bereichen. Das bestätigt auch Prof. Dr. Philipp Soergel, Direktor der Universitätsklinik für Frauenheilkunde und Geburtshilfe am Johannes Wesling Klinikum Minden. „ChatGPT funktioniert über komplexe Wahrscheinlichkeitsrechnungen, welches Wort auf ein anderes folgen könnte. Ein Satz daraus kann deshalb logisch klingen, muss aber nicht stimmen. Das bedeutet, wo es 100 Prozent stimmen muss, zum Beispiel bei Tumoren und anderen medizinischen Hintergründen, ist es nicht einsetzbar.“

Kreativität bei Texten und Bildern ist schon gegeben

Heute schon machbar sei aber das Generieren von Texten für die Website, für Patientenbroschüren, die Bearbeitung von Beschwerden und auch für Bewerbungen. Hier könne man einen Rahmen nutzen und muss „nur noch mal drüber gehen“. Auch als Vorlage für Arztbriefe, die dann aber streng kontrolliert werden müssen. „Wir probieren im Forschungsrahmen an unserer Klinik sehr viel aus und haben viele Anfragen von anderen Kliniken“, berichtet Soergel mit Blick auf den Sommer, wenn es eine neue KI von Google geben wird, die bereits weiterentwickelt ist. 

… Doktorarbeit zeige …, dass ChatGPT wohl das deutsche Staatsexamen für Medizin bestehen würde. 

Eine derzeit in seiner Klinik durchgeführte Doktorarbeit zeige bei ersten Ergebnissen, dass ChatGPT wohl das deutsche Staatsexamen für Medizin bestehen würde. Auch Patienten werden das System vermehrt nutzen und Diagnosen abfragen. Eine Nachbarapplikation liefert sogar schon bestellte Bilder zum Thema. Und die Rede für die Weihnachtsfeier oder das Sommerfest der Klinik kann ChatGPT allemal liefern.

Erst vor kurzem hatten auch die Mediziner des UKSH ChatGPT live getestet und einen OP-Bericht eingegeben. Anschließend wurde das System gefragt, welche Blutgefäße bei der OP durchtrennt wurden. Es nannte zum Teil die falschen. Als Laie, so Prof. Wehkamp, hätte man diese Fehler übersehen. Aber: Wehkamp geht davon aus, dass die KI eines Tages so weit ist, dass auch die Ärzte sie voll nutzen können. Viele Kollegen wünschen sich sehnlichst diese Unterstützung herbei.

 

Was nicht passieren dürfe, sei, dass Industrie und Politik zu den Ärzten sagen: „Macht mal KI“.

 

Oft wird den Medizinern vorgeworfen, sich dieser neuen digitalen Welt zu verschließen. Das kann Wehkamp überhaupt nicht bestätigen. Er selbst arbeitet an einem großen KI-Projekt mit, bei dem Industrie und Medizin gemeinsam testen und entwickeln. Dabei geht es um die frühzeitige Erkennung einer Sepsis und eines drohenden Nierenversagens. Gerade als Arzt müsse man größte Sorgfalt walten lassen. „Wir dürfen die Regeln der Wissenschaft nicht außer Acht lassen, sagt der Experte. Was nicht passieren dürfe, sei, dass Industrie und Politik zu den Ärzten sagen: „Macht mal KI“. Es müsse alles sorgsam geprüft werden, auch die digitalen Anwendungen. Die Ärzte seien also kritisch, aber der Technik gegenüber trotzdem aufgeschlossen. Ein bisschen Sorge habe er davor, dass die noch nicht so guten Modelle zu schnell oberflächlich genutzt werden. Dass „wir aufhören, aufmerksam zu sein“. Denn dann schleichen sich Fehler ein, die niemand rückgängig machen kann. Gerade in der Übergangsphase zu etwas Neuem müsse man wachsam sein.

Anwendung mit Verantwortung und Augenmaß

Auch bei ChatGPT geht es also um Verantwortung und Augenmaß – vor allem bei der Gesundheit des Menschen. „Irgendwann werden wir so weit sein, dass die KI mehr kann als der Mensch. Aber sie wird nicht alles können. Und dann wird es spannend. Was machen wir dann?“, fragt Wehkamp. Künstliche Intelligenz würde eben durch häufige Muster lernen. Bei den seltenen Dingen macht sie aber Fehler und erkennt diese nicht. Dann stünde eine spannende gesellschaftliche Diskussion an: Gestehen wir Menschen uns Fehler zu und der Maschine nicht?

Quelle: Kathrin Reisinger 2023