"Peinlich", "notorischer Lügner": Google-Angestellte nicht überzeugt von Bard-KI
Microsoft und ChatGPT setzen Google unter Zugzwang. Doch die eigene KI Bard wurden von Mitarbeitern des Suchmaschinenriesen heftig kritisiert, sagt ein Bericht.
Googles KI-Chatbot Bard wird von eigenen Mitarbeitern offenbar als überaus mangelhaft empfunden, wie ein Bericht der Wirtschaftsnachrichtenagentur Bloomberg nahelegt. Demnach hätten Beschäftigte die KI vor der Veröffentlichung als Testversion im März ausprobiert und sie als "peinlich" und auch als "notorischen Lügner" bezeichnet. Als Quelle nennt Bloomberg Gespräche mit 18 sowohl ehemaligen wie auch noch im Unternehmen befindlichen Angestellten sowie interne Unterlagen. Bard ist öffentlich derzeit nur für Testnutzer in den USA und Großbritannien verfügbar, die sich in eine Warteliste eintragen müssen.
Ebenfalls hätten die Angestellten drastische Fehlleistungen festgestellt: So habe Bard bei Fragen zur Landung eines Flugzeugs wiederholt Anweisungen gegeben, deren Befolgung zu einem Crash führen würde. Auch auf Fragen zum Sporttauchen habe die KI Antworten generiert, die "wahrscheinlich zu schweren Verletzungen oder zum Tod führen würden", zitiert Bloomberg Einschätzungen der Google-Angestellten.
"Bitte nicht starten"
Im Februar habe ein Mitarbeiter die Probleme in einer internen Nachrichtengruppe zur Sprache gebracht: "Bard ist schlimmer als nutzlos: Bitte nicht starten". Fast 7.000 Personen hätten die Nachricht gelesen und zahlreiche davon bekundet, dass Bard bei einfachen Sachfragen widersprüchliche oder sogar falsche Antworten liefere. Google hat sich offenkundig aber doch entschieden, zumindest partiell mit Bard herauszukommen und einer eingeschränkten Personenzahl eine Testversion der Konversations-KI zugänglich zu machen.
Im Februar hatte Google Bard erstmals öffentlich gezeigt – und mit einem Patzer der KI gleich den Aktienkurs der Mutter Alphabet absacken lassen. Bard hatte bei der Demonstration eine Frage nach dem James-Webb-Weltraumteleskop falsch beantwortet. Bard basiert auf dem Large Language Model LaMDA und ist derzeit nur auf Englisch verfügbar. Google spricht in der Öffentlichkeit von einem "Experiment". Dabei weist das Unternehmen auch darauf hin, dass solche KIs beispielsweise "die Vorurteile und Stereotypen aus der realen Welt widerspiegeln" und auch irreführende Informationen liefern könnten.
Microsoft legt vor, Google läuft hinterher
Doch solche Hinweise ändern nichts daran, dass sich Google wohl unter großem Zugzwang sieht, seit Microsoft die auch nicht komplett fehlerfreie Chat-KI ChatGPT in seine Suchmaschine integriert hat. Dass Microsoft die Integration auch in seine andere Dienste und Anwendungen plant, steigert den Druck, etwas Vergleichbares parat zu haben. Entsprechend ausführlich ist die Liste der Ankündigungen Googles, wo demnächst überall KI drinstecken soll.
Berichten nach wird unter anderem in hohem Tempo am Projekt Magi gearbeitet, einer Integration von KI in die Googlesuche. Aufgrund des hohen Tempos sollen die neuen Funktionen zunächst wieder nur einem kleineren Kreis von Nutzern und auch nur in den USA zur Verfügung gestellt werden. Bereits im Mai könnte Google eine Text-KI in seiner Suchmaschine anbieten. Parallel zu diesem Magi getauften Projekt soll auch eine komplett neue Suchmaschine in Arbeit sein.
Mal ein Auge zudrücken?
Google-Mitarbeiter, die sich um Sicherheit und die ethischen Auswirkungen von Produkten kümmern, seien angewiesen worden, der Entwicklung generativer KI-Dienste nicht im Weg zu stehen, schreibt Bloomberg. Jen Gennai, Leiterin der Abteilung für AI Governance bei Google, habe in Meetings auch zu mehr Kompromissbereitschaft aufgerufen in der Frage, wann ein Produkt reif für den Start sei.
Google erklärte gegenüber Bloomberg, dass verantwortungsvolle KI für das Unternehmen weiterhin höchste Priorität genieße. "Wir investieren weiterhin in die Teams, die an der Anwendung unserer KI-Prinzipien auf unsere Technologie arbeiten", sagte ein Sprecher des Unternehmens.
(axk)