KI im Krankenhaus – Was mit ChatGPT & Co. auf die Kliniken zukommt

KĂŒnstliche Intelligenz hĂ€lt seit lĂ€ngerem Einzug in die Medizin. Doch mit ChatGPT bahnt sich ein regelrechter Quantensprung an – in absehbarer Zeit auch fĂŒr die KrankenhĂ€user. Was der schnelle Lerner kann und was (noch) nicht.

Mit einer KI lassen sich jetzt schon klassische Kunstwerke generieren. Der Auftrag lautete hier, ein Bild von einer Geburt im Stile Franz Marcs zu erstellen.

Arztbriefe, Bewerbungsschreiben, Beschwerde-Management, Reden von VorstĂ€nden, ganze Staatsexamen oder ZulassungsprĂŒfungen in der Medizin: ChatGPT wagt sich an jede Aufgabe heran. Erst im November 2022 hatte das US-Start-up OpenAI seinen Chatbot-Prototypen ChatGPT fĂŒr jedermann kostenlos zugĂ€nglich gemacht. Inzwischen gibt es ĂŒber 100 Millionen Menschen, die das System nutzen. Es ist lediglich die Erstellung eines Accounts bei OpenAI notwendig.

ChatGPT, entwickelt vom Non-Profit-Unternehmen OpenAI, dessen grĂ¶ĂŸter Investor Microsoft ist, ist dabei nur eine von vielen Large Language Models (LLM), an denen derzeit weltweit geforscht wird. „Im Moment ist der Wirbel um ChatGPT ein riesen Hype, aber eine richtige Anwendung dafĂŒr gibt’s in der Klinik noch nicht“, sagt Prof. Dr. Jens Kleesiek von der UniversitĂ€tsklinik Essen. Der Facharzt fĂŒr Radiologie ist gleichzeitig Informatiker und Leiter der Forschungsgruppe Medizinisches Maschinelles Lernen am Institut fĂŒr KĂŒnstliche Intelligenz in der Medizin (IKIM).  

FĂŒr Arztbriefe fehlten noch Bausteine und auch die Anbindung an die Krankenakte. 

Bereits heute fließen viele Daten aus ChatGPT in Suchmaschinen und dann demnĂ€chst auch in Office-Pakete ein. Es gebe aber noch viele andere Anwendungen, so Kleesiek, wo man sich das kĂŒnftig fĂŒr Kliniken vorstellen kann: „Das ist schon sehr mĂ€chtig, was da auf uns zukommt.“ Bislang könne man schon einige BruchstĂŒcke zum Beispiel fĂŒr ForschungsantrĂ€ge verwenden. FĂŒr Arztbriefe fehlten noch Bausteine und auch die Anbindung an die Krankenakte. Man könne sich aber derzeit schon eine Struktur vorgeben lassen, die der Arzt dann selbst mit Inhalt fĂŒllen kann. Laborwerte, Diagnosen, Medikamentation – jeden Tag versuchen Mediziner solche Dinge in Texten zu strukturieren, wenn zwischen zwei Leistungserbringern Informationen zum Patienten ausgetauscht werden sollen. Dabei kann das System spĂ€ter helfen, doch derzeit „denke“ es sich bei fehlenden Worten noch zu viel aus. 

Jared Sebhatu, Vorstand der digital health transformation eG, findet ChatGPT heute schon beeindruckend. „Diese KI wird massive VerĂ€nderungen mit sich bringen – auch im Gesundheitssektor“, sagt er. Bei Arztbriefen könnte der Einsatz am schnellsten kommen. Und auch in der Patientenkommunikation allgemein. Denn das System werde immer weiter und immer schneller lernen, je mehr Nutzer und Daten es hat.

Textmarker mit Sprachbefehl

Nach Kleesieks EinschĂ€tzung werde es mit den ersten Anwendungen von LLM in Kliniken nicht mehr lange dauern. Am IKIM lĂ€uft eine intensive Forschung dazu, zum Beispiel mit einer eigenen „Transformer Architektur“ beim Heraussuchen von Informationen zum Patienten. Hierbei werden in natĂŒrlicher Sprache Textpassagen aus einem Befund schneller gefunden. Gewissermaßen ein Textmarker mit Ansage. 

Ich hÀtte gern frisches Wasser. 

Auch Patienten, die lange im Bett liegen mĂŒssen, können sich kĂŒnftig zu verschiedenen Themen mit ChatBots unterhalten. Ebenso sei eine Entlastung der Patientenklingel denkbar, indem der Patient dem ChatBot sagt, „Ich hĂ€tte gern frisches Wasser“, der Bot speist es dann in Sekundenschnelle in ein Bestellsystem, das Pflegepersonal liest es am digitalen Board und bringt es in die Zimmer. Am IKIM in Essen werden solche Modelle, speziell fĂŒr den deutschsprachigen Markt, entwickelt und direkt vor Ort trainiert. Damit die Entwicklung schneller geht, nutzen die Wissenschaftler öffentlich verfĂŒgbare Daten auch aus dem nichtmedizinischen Bereich. So haben sie mehr Daten zur VerfĂŒgung. Das Feintuning auf den medizinischen Bereich bringt dann bessere Ergebnisse.  

Das Team ist interdisziplinĂ€r aufgestellt: mit Mathematikern, Physikern, Medizinern, Informatikern. NatĂŒrlich sprachliche Fragen werden von medizinischem Fachpersonal zu Forschungszwecken auf der Station getestet. Auch Erprobungen der LLM mit MTRA-SchĂŒlern, Radiologen, Medizinstudenten laufen bereits. Zum Beispiel sollte auf radiologischer Basis entschieden werden, ob ein Tumor grĂ¶ĂŸer oder kleiner geworden bzw. gleichgeblieben ist. Bei der Wiedergabe waren die Modelle annĂ€hernd so gut wie die Experten. EinschrĂ€nkung: Wenn es WidersprĂŒche im Text gab, zum Beispiel, dass der Tumor zwar kleiner, die Metastasen in der Leber jedoch mehr geworden waren, dann gab es hĂ€ufiger maschinelle Fehler.

FĂŒr kritische Bereiche ist die KI noch zu ungenau

Ähnlich Ă€ußert sich Prof. Dr. Kai Wehkamp, Facharzt fĂŒr Innere Medizin und Projektleiter fĂŒr KI-basierte klinische EntscheidungsunterstĂŒtzung & Risikoerkennung am UniversitĂ€tsklinikum Schleswig-Holstein, Campus Kiel. GrundsĂ€tzlich mĂŒsste bei den KI-Anwendungen zwischen unterschiedlichen Bereichen unterschieden werden: denen mit hohem medizinischem Risiko und denen mit unkritischen Informationen. „Bei einer echten medizinischen Beratung können wir ChatBot Systeme, auch ChatGPT, noch nicht einsetzen. Einfach, weil es noch nicht sicher ist“, sagt der Experte. 

Bei einem Arztbrief, der in einfache Sprache ĂŒbersetzt wird, könne es beispielsweise vorkommen, dass das KI-System nicht zwischen dem Vorliegen einer Krebserkrankung und dem Ausschluss unterscheiden kann. So eine falsche Information hat fĂŒr den Patienten aber weitgehende Konsequenzen. Solange es hier keine weitgehende Sicherheit gibt, seien diese Systeme deswegen fĂŒr den unkontrollierten Einsatz in kritischen Bereichen zu risikoreich. 

Zu Vergleichen sind diese Systeme auch mit der KI in der Autoindustrie und beim Fliegen. Obwohl große Verkehrsmaschinen heute völlig allein starten, fliegen, landen können, sitzen immer noch zwei Piloten im Cockpit. Bei Autos, die im Prinzip selbst fahren können, wird immer wieder unterbrochen, der Fahrer „wachgerĂŒttelt“ und erinnert, dass er die HĂ€nde ans Lenkrad nehmen muss. Solche Mechanismen benötigen wir auch in der Medizin, also Kontrollen, dass die Ergebnisse der KI immer wieder kritisch ĂŒberprĂŒft werden und der Mensch „wachsam“ bleibt.

 

… wo es 100 Prozent stimmen muss, zum Beispiel bei Tumoren und anderen medizinischen HintergrĂŒnden, ist es nicht einsetzbar.

 

ChatGPT sei oberflĂ€chlich sehr ĂŒberzeugend, meint Wehkamp. Aber sobald man in der Medizin ins Detail geht, sehe man vieles, was falsch ist. Selbst dieses, als bestes System, das derzeit auf dem Markt ist, sei also noch nicht gut genug fĂŒr einen Einsatz in kritischen Bereichen. Das bestĂ€tigt auch Prof. Dr. Philipp Soergel, Direktor der UniversitĂ€tsklinik fĂŒr Frauenheilkunde und Geburtshilfe am Johannes Wesling Klinikum Minden. „ChatGPT funktioniert ĂŒber komplexe Wahrscheinlichkeitsrechnungen, welches Wort auf ein anderes folgen könnte. Ein Satz daraus kann deshalb logisch klingen, muss aber nicht stimmen. Das bedeutet, wo es 100 Prozent stimmen muss, zum Beispiel bei Tumoren und anderen medizinischen HintergrĂŒnden, ist es nicht einsetzbar.“

KreativitÀt bei Texten und Bildern ist schon gegeben

Heute schon machbar sei aber das Generieren von Texten fĂŒr die Website, fĂŒr PatientenbroschĂŒren, die Bearbeitung von Beschwerden und auch fĂŒr Bewerbungen. Hier könne man einen Rahmen nutzen und muss „nur noch mal drĂŒber gehen“. Auch als Vorlage fĂŒr Arztbriefe, die dann aber streng kontrolliert werden mĂŒssen. „Wir probieren im Forschungsrahmen an unserer Klinik sehr viel aus und haben viele Anfragen von anderen Kliniken“, berichtet Soergel mit Blick auf den Sommer, wenn es eine neue KI von Google geben wird, die bereits weiterentwickelt ist. 

… Doktorarbeit zeige …, dass ChatGPT wohl das deutsche Staatsexamen fĂŒr Medizin bestehen wĂŒrde. 

Eine derzeit in seiner Klinik durchgefĂŒhrte Doktorarbeit zeige bei ersten Ergebnissen, dass ChatGPT wohl das deutsche Staatsexamen fĂŒr Medizin bestehen wĂŒrde. Auch Patienten werden das System vermehrt nutzen und Diagnosen abfragen. Eine Nachbarapplikation liefert sogar schon bestellte Bilder zum Thema. Und die Rede fĂŒr die Weihnachtsfeier oder das Sommerfest der Klinik kann ChatGPT allemal liefern.

Erst vor kurzem hatten auch die Mediziner des UKSH ChatGPT live getestet und einen OP-Bericht eingegeben. Anschließend wurde das System gefragt, welche BlutgefĂ€ĂŸe bei der OP durchtrennt wurden. Es nannte zum Teil die falschen. Als Laie, so Prof. Wehkamp, hĂ€tte man diese Fehler ĂŒbersehen. Aber: Wehkamp geht davon aus, dass die KI eines Tages so weit ist, dass auch die Ärzte sie voll nutzen können. Viele Kollegen wĂŒnschen sich sehnlichst diese UnterstĂŒtzung herbei.

 

Was nicht passieren dĂŒrfe, sei, dass Industrie und Politik zu den Ärzten sagen: „Macht mal KI“.

 

Oft wird den Medizinern vorgeworfen, sich dieser neuen digitalen Welt zu verschließen. Das kann Wehkamp ĂŒberhaupt nicht bestĂ€tigen. Er selbst arbeitet an einem großen KI-Projekt mit, bei dem Industrie und Medizin gemeinsam testen und entwickeln. Dabei geht es um die frĂŒhzeitige Erkennung einer Sepsis und eines drohenden Nierenversagens. Gerade als Arzt mĂŒsse man grĂ¶ĂŸte Sorgfalt walten lassen. „Wir dĂŒrfen die Regeln der Wissenschaft nicht außer Acht lassen, sagt der Experte. Was nicht passieren dĂŒrfe, sei, dass Industrie und Politik zu den Ärzten sagen: „Macht mal KI“. Es mĂŒsse alles sorgsam geprĂŒft werden, auch die digitalen Anwendungen. Die Ärzte seien also kritisch, aber der Technik gegenĂŒber trotzdem aufgeschlossen. Ein bisschen Sorge habe er davor, dass die noch nicht so guten Modelle zu schnell oberflĂ€chlich genutzt werden. Dass „wir aufhören, aufmerksam zu sein“. Denn dann schleichen sich Fehler ein, die niemand rĂŒckgĂ€ngig machen kann. Gerade in der Übergangsphase zu etwas Neuem mĂŒsse man wachsam sein.

Anwendung mit Verantwortung und Augenmaß

Auch bei ChatGPT geht es also um Verantwortung und Augenmaß – vor allem bei der Gesundheit des Menschen. „Irgendwann werden wir so weit sein, dass die KI mehr kann als der Mensch. Aber sie wird nicht alles können. Und dann wird es spannend. Was machen wir dann?“, fragt Wehkamp. KĂŒnstliche Intelligenz wĂŒrde eben durch hĂ€ufige Muster lernen. Bei den seltenen Dingen macht sie aber Fehler und erkennt diese nicht. Dann stĂŒnde eine spannende gesellschaftliche Diskussion an: Gestehen wir Menschen uns Fehler zu und der Maschine nicht?

Quelle: Kathrin Reisinger 2023