Google Bard: Fehlerhafte Antwort der KI lässt Experten und Anleger zweifeln

Google verwendete ein schlechtes Beispiel zur Demonstration seiner Chat-KI. Das James-Webb-Teleskop produzierte nicht die ersten Bilder eines Exoplaneten.

In Pocket speichern vorlesen Druckansicht 323 Kommentare lesen

(Bild: everything possible/Shutterstock.com)

Lesezeit: 3 Min.
Von
  • Frank Schräer

Das von Google zur Demonstration seines eigenen Chatbots mit künstlicher Intelligenz (KI) verwendete Beispiel enthielt einen sachlichen Fehler. Die Anfang dieser Woche gezeigte Antwort auf OpenAIs Chatbot ChatGPT namens "Bard" sollte einem Kind die Entdeckungen des James-Webb-Teleskops erklären. Die Antwort der KI war allerdings fachlich nicht korrekt. Das schürt Bedenken, dass eine KI noch nicht reif sei zur Integration in Suchmaschinen.

Zur Präsentation seiner "Conversational AI" Bard zeigte Google unter anderem bei Twitter, wie die Chat-KI auf die Anfrage reagiert, von welchen Entdeckungen des James-Webb-Weltraumteleskops (JWST) man einem neunjährigen Kind erzählen könnte. Bard listet gleich drei Punkte auf, von denen der dritte allerdings schlicht falsch ist. Das JWST ist nämlich nicht das erste Teleskop, das Bilder eines Planeten außerhalb unseres Sonnensystems machen konnte, wie die KI behauptet. Das war nämlich das VLT/NACO, das 2004 einen 230 Lichtjahre entfernten Exoplaneten abbilden konnte, wie ein Astrophysiker ebenfalls bei Twitter anmerkt.

Google hat das JWST wohl als Beispiel für Bard ausgewählt, weil der von Microsoft gestützte KI-Chatbot ChatGPT nur auf Daten bis Ende 2021 trainiert wurde, das JWT seinen Betrieb aber erst Mitte 2022 aufgenommen hat. Ironischerweise gibt Googles normale Suchmaschine auf die Frage "was ist das erste Bild eines Exoplaneten" die korrekte Antwort. Offenbar hat sich die KI von Pressemitteilungen der NASA zu ihrer Antwort verleiten lassen, aber das JWST hat seinen ersten Exoplaneten nur nachgewiesen, nicht erstmals fotografiert.

Experten haben dem Wissenschaftsmagazin New Scientist zufolge bereits gewarnt, dass das Risiko besteht, dass solche KI-Chatbots ungenaue Antworten geben könnten und diese als Fakten darstellten, sollte die KI ihre Ergebnisse auf Grundlage statistischer Verfügbarkeit von Informationen und nicht auf der Genauigkeit ermitteln. Diese Vorgehensweise sei einer der Schwächen statistischer Systeme.

Die Financial Times macht den Fehler des KI-Chatbots Bard und die mangelnde menschliche Überprüfung vor der Veröffentlichung sogar für den fallenden Börsenkurs des Google-Konzerns Alphabet verantwortlich. Die KI sei demnach noch bei Weitem nicht ausgereift genug für den produktiven Einsatz. Alphabets Aktie hat allein am vergangenen Tag über sieben Prozent an Wert verloren.

Ein Google-Sprecher erklärte hingegen gegenüber New Scientist zu Bard: "Dies unterstreicht die Bedeutung eines strengen Testverfahrens, das wir diese Woche mit unserem Trusted-Tester-Programm einleiten. Wir werden externes Feedback mit unseren eigenen internen Tests kombinieren, um sicherzustellen, dass die Antworten von Bard eine hohe Messlatte für Qualität, Sicherheit und Bodenständigkeit in realen Informationen erfüllen."

Siehe auch:

(fds)