Kommentar: ChatGPT kann Ärzte nicht ersetzen

ChatGPT könnte die Medizin revolutionieren, meint eHealth-Experte André Sander. Die Genauigkeit der Ergebnisse steht und fällt allerdings mit dem Wissen der KI.

In Pocket speichern vorlesen Druckansicht 74 Kommentare lesen

(Bild: sdecoret / Shutterstock.com)

Lesezeit: 6 Min.
Von
  • Dr. André Sander
Inhaltsverzeichnis

Haben Sie sich schon immer gefragt, was Fußpilzmedikamente mit Depressionen zu tun haben? Fragen Sie ChatGPT! Die Antwort ist völlig korrekt und sogar verständlich formuliert. Haben wir also endlich die allwissende Maschine zur Lösung unserer Probleme? Nicht wirklich.

Ein Kommentar von Dr. André Sander

Dr. André Sander promovierte an der Charité im Bereich Medizinwissenschaften und beschäftigt sich seit mehr als 25 Jahren mit medizinischen Terminologien und Ontologien. Bei ID Information und Dokumentation ist er CTO, Prokurist und Mitglied der Geschäftsführung. Sein inhaltlicher Schwerpunkt liegt unter anderem in den Bereichen medizinische Terminologien und Ontologien, semantische Analysen medizinischer Freitexte, Natural Language Processing.

Zunächst die beruhigende Nachricht für die Ärzte unter den Lesern: Keine Sorge, ChatGPT weiß nicht mehr, als Sie wissen. ChatGPT liefert genau genommen auch keine Antworten, sondern Zusammenfassungen, von dem, was wir (Menschen) wissen und niedergeschrieben haben – das allerdings recht gut. So gut, dass Millionen von Menschen in aller Welt Fragen stellen und fasziniert die Antworten lesen. Sogar so viele Menschen, dass aktuell das öffentliche System auf der Webseite von OpenAI gar nicht mehr erreichbar ist.

Blockchain und NFTs waren ja irgendwie nicht so richtig auf die Medizin anwendbar, daher ist es wohl verständlich, dass die Euphorie über die Ergebnisse von ChatGPT derart groß ist, dass bereits darüber spekuliert wird, ob in der Zukunft der "Digital Native"-Arzt ChatGPT befragt und damit mehr Patienten in kürzerer Zeit besser behandeln kann. Aber so einfach wird das vermutlich (wieder) nicht sein. Die Genauigkeit der Ergebnisse steht und fällt nämlich mit der Evidenz des Wissens, um nicht zu sagen, mit der Anzahl von Experten, die das Wissen aufgebaut haben. Und wenn das Wissen noch gar nicht vorhanden ist, kann auch ChatGTP nichts zusammenfassen. Nach Jahrzehnten der Forschung ist heute bekannt, dass Beta-Amyloid Plaques höchstwahrscheinlich für Alzheimer verantwortlich sind. Eine Behandlung ist dagegen noch völlig unbekannt. Fragen Sie mal ChatGPT danach...

Für die Medizin wird eine der Herausforderungen auch darin bestehen, den "Digital Native"-Patienten in solche neuen Formen der Wissensrepräsentation zu integrieren. Im Gegensatz zum Fachpersonal ist dieser nur selten oder kaum in der Lage, die Ergebnisse korrekt einzuschätzen. Egal, was ChatGPT als Ergebnis präsentiert: Es hört sich immer verdammt klug und richtig an. Schon GPT-3, also das zugrunde liegende Sprachmodell, war nicht vom Menschen zu unterscheiden und Wissenschaftler haben sich vermehrt für Petitionen gegen den Einsatz ausgesprochen. Mit ChatGPT hat nun das Interaktive, das Spielerische in die Anwendung Einzug gefunden. Man kann eben mit einer richtig klugen Maschine "chatten".

Dabei haben die Macher angekündigt, dass die nächste Generation noch mehr wissen wird. Auch hier ist durchaus Skepsis angebracht: Die nächste Generation wird noch mehr kennen. Mehr Quellen und mehr Daten sind nicht notwendigerweise ein Garant für bessere Ergebnisse. Wird die nächste Generation den Unterschied zwischen Epigenetik und Genetik kennen? Zwischen Pharmazie und Alchemie? Wird ChatGPT besser, wenn Medizinbücher des Mittelalters enthalten sind?

Interessanterweise beschäftigt sich aktuell die Politik mit Entwürfen zum Recht auf Nichtbehandlung durch KI-Algorithmen. Freilich ist damit gemeinhin Machine Learning gemeint (lediglich auf EU Ebene werden korrekterweise alle drei Formen der Künstlichen Intelligenz adressiert). Wie (inhaltlich) absurd diese Forderung ist, kann am besten illustriert werden, wenn man sich ein Internet-Verbot in Arztpraxen denkt. Mein Hausarzt "googelt" immer mal wieder nach Nebenwirkungen von Medikamenten und ich bin eigentlich auch ganz froh darüber, denn natürlich kennt er nicht alle Nebenwirkungen von allen Medikamenten. Die Verantwortung für die Interpretation der Ergebnisse seiner Recherche gibt er dabei ja nicht ab.

Und auch die Provenienz der Fakten ist ein wesentlicher Faktor, der berücksichtigt wird (am Ende sind es eben die Fachinformationen der Hersteller, die gelesen werden und kein x-beliebiger Ratgeber-Blog). Beides wird sich auch bei Systemen wie ChatGPT oder anderen unterstützenden Systemen nicht ändern. Für den Bereich der Medikamente gibt es ironischerweise schon jetzt etablierte Systeme, die genau das leisten, was mein Hausarzt jedes Mal manuell recherchiert: die Berechnung der Arzneimittel- und Therapiesicherheit (AMTS). Etabliert allerdings nur in Krankenhäusern und eben nicht in Arztpraxen. Hier zeigt sich einmal mehr, wo wir noch viel dringenderen Bedarf an Revolution haben: in den Strukturen der medizinischen Versorgung selbst!

Solche AMTS-Systeme sind zertifizierte Medizinprodukte und gehören meist in den Bereich der symbolischen KI, deren große Stärke die Referenzialität beziehungsweise die Nachvollziehbarkeit der Ergebnisse ist. Aber der Zugang zum Wissen wird durch ChatGPT einmal mehr revolutioniert – und das wird auch die Medizin verändern. Seit dem Internet und intelligenten Suchmaschinen weiß kaum noch jemand, wie eine Recherche in Bibliotheken und Büchern gemacht wird. Vielleicht werden wir bald sagen: Seit ChatGPT weiß niemand, was eine Recherche ist. Es ist also die persönliche Wissensakquise, die enorm profitieren wird.

Aber Vorsicht: der gesamte Wissensaufbau – die Erzeugung von Wissen – also die zentrale Hoffnung bei all den KI-Algorithmen, wird hier gar nicht adressiert. Es wäre naiv zu glauben, dass wir nur genug Fakten in einen Algorithmus stecken müssten, damit dieser intelligent und vor allem kreativ wird. Die Kreativität von ChatGPT ist unsere eigene Kreativität, unser Verhalten, das wir einem Algorithmus beigebracht haben. Die Gefahr bei ChatGPT könnte auch darin liegen, dass der Wissensaufbau sogar gehemmt wird, wenn nämlich ChatGPT von publizierten Texten lernt, die mit dem System selbst erzeugt wurden. Zudem sind viele Informationen, die zum Aufbau von Wissen dienen können, persönlicher Natur. Sofern Machine-Learning-Algorithmen zum Einsatz kommen, hat das erhebliche Konsequenzen für den Datenschutz und das Urheberrecht.

In der Medizin dauern Revolutionen immer etwas länger – ChatGPT ist ein vielversprechendes Werkzeug, das die Möglichkeiten der Digitalisierung einmal mehr eindrucksvoll demonstriert. Aber wir brauchen Revolutionen an anderer Stelle: Warum haben wir in Deutschland noch immer keine flächendeckende elektronische Gesundheitskarte? Warum benutzen wir eine sogenannte Telematikinfrastruktur, deren technologische Basis aus dem letzten Jahrtausend stammt? Darauf hat auch ChatGPT keine Antwort.

Um noch einmal die eingangs gestellte Frage zu beantworten: Wird ChatGPT die Medizin revolutionieren? Vielleicht. Wenn wir ChatGPT als Werkzeug begreifen und dort einsetzen, wo es tatsächlich Probleme lösen kann.

Siehe auch:

(mack)