Weltgesundheitsorganisation zu ChatGPT, Bard und Co: "Risiken sorgfältig prüfen"

Die Weltgesundheitsorganisation warnt vor dem vorschnellen Einsatz generativer Sprachmodelle in der Medizin. Dieser könne das Vertrauen in KI verspielen.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Businesswoman,On,Blurred,Background,Using,Digital,3d,Projection,Of,A

(Bild: Shutterstock)

Lesezeit: 2 Min.

Die Weltgesundheitsorganisation (WHO) mahnt zur Vorsicht beim Einsatz KI-basierter großer Sprachmodelle, um das Wohlbefinden, die Sicherheit und Autonomie sowie die öffentliche Gesundheit zu schützen. Aktuell entwickeln und verbreiten sich auf großen Sprachmodelle (LLM) basierende Systeme wie ChatGPT, Bard, Bert und viele weitere rasant. Auch in der Medizin erkennt die WHO mögliche Vorteile beim Einsatz derartiger Systeme. Sie empfiehlt jedoch, "die Risiken sorgfältig zu prüfen", bevor LLMs den Zugang zu Gesundheitsinformationen vereinfachen oder "die Diagnosekapazität in unterfinanzierten Umgebungen" erhöhen sollen.

Die WHO führt in ihrer Argumentation auch generelle Kritik an LLMs auf: Mithilfe der generativen Sprachmodelle können teils zwar plausibel klingende Aussagen erzeugt werden, die jedoch ein hohes Risiko mit sich bringen. "Diese Antworten können völlig falsch sein oder schwere Fehler enthalten, besonders wenn es um Gesundheit geht", sagt die WHO. Ebenfalls gefährdet sieht die WHO den Datenschutz, da die LLMs möglicherweise auch auf sensiblen Daten trainiert werden, wofür es unter Umständen keine Einwilligung der betroffenen Personen gibt. Auch denkbar ist laut WHO ein missbräuchlicher Umgang mit LLMs, um authentische Falschinformationen zu verbreiten – etwa in Form von Text-, Audio- oder Videoinhalten.

Zwar erkennt die Gesundheitsorganisation das Potenzial der Systeme wie Bard, ChatGPT und Co. bei der Unterstützung von Gesundheitsfachkräften, Patienten und Wissenschaftlern. Sie sorgt sich allerdings vor einem leichtsinnigen und überstürzten Umgang mit der Zulassung beziehungsweise dem Einsatz derartiger Methoden. Das könne zu Fehlern führen, die Patienten schaden und das Vertrauen in KI verspielen würden und damit möglicherweise den potenziellen Nutzen und Einsatz weltweit untergraben oder verzögern. Wichtig sei daher die Einhaltung zentraler Werte "wie Transparenz, Inklusion, öffentliches Engagement, fachkundige Aufsicht und strenge Bewertung".

Die WHO fordert neben Entwicklern unter anderem auch Gesundheitsminister auf, ethische Richtlinien/Normen bei dem Einsatz von LLMs zu beachten. Dazu verweist die WHO auch auf bereits im Juni 2021 veröffentlichten Richtlinien zu KI "Ethics and governance of artificial intelligence for health", in denen sechs Grundprinzipien aufgeführt sind:

  • Schutz der Autonomie
  • menschliches Wohlergehen, Sicherheit und das öffentliche Interesse
  • Transparenz, Erklärbarkeit und Verständlichkeit
  • Verantwortung
  • Inklusion und Gleichberechtigung
  • reaktionsfähige und nachhaltige KI

(mack)