Chatbots noch nicht als Ersatz für Suchmaschinen bereit

Tech-Unternehmen wollen Informationen als mundgerechte Häppchen über KI-basierte Sprachmodelle ausgeben. Kritiker halten das für den falschen Ansatz.

In Pocket speichern vorlesen Druckansicht 14 Kommentare lesen
Google-Suche

(Bild: dpa, Lukas Schulze/dpa)

Lesezeit: 11 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

Letztes Jahr stellte Google-Geschäftsführer Sundar Pichai "den neuesten Durchbruch im Bereich natürliches Sprachverstehen" auf der jährlichen Show "Google I/O" vor: einen Chatbot namens LaMDA, der in der Lage ist, sich über jedes Thema zu unterhalten. Er führte vor, wie LaMDA Fragen über Pluto in natürlicher Sprache beantworten kann. Der Austausch zeigte eine bequeme Möglichkeit, Informationen zu erhalten – eine Alternative zur Websuche. Anstatt als Antwort auf eine Frage in einem Suchfeld Ergebnisse aufzulisten, nahm LaMDA an der Konversation teil, indem es die Rolle des Zwergplaneten spielte.

"Pichai: Sag mir, was ich sehen würde, wenn ich den Zwergplaneten besuchen würde.

LaMDA: Du würdest einen riesigen Canyon, einige gefrorene Eisberge, Geysire und einige Krater sehen.

Pichai: Das klingt wunderschön.

LaMDA: Ich versichere dir, dass es die Reise wert ist. Du müsstest allerdings eine Jacke mitnehmen, denn es wird sehr kalt."

Es war niedlich, auch wenn LaMDA ein paar Fehler machte. Das zugrundeliegende KI-Sprachmodell befindet sich laut Pichai noch in der Entwicklung. Zudem hat Google nach eigenen Angaben noch keine Pläne, LaMDA in seinen Produkten einzusetzen. Dennoch nutzt das Unternehmen LaMDA, um neue Wege der Interaktion mit Computern zu erforschen, und neue Wege, um nach Informationen zu suchen. "LaMDA versteht bereits eine ganze Menge über Pluto und Millionen anderer Themen", sagte Pichai.

MINT-Jobtag am 5. April 2022 in München

Die bewährte Jobmesse speziell für den MINT-Bereich geht im Jahr 2022 in eine neue Runde. Das Event bringt Fachrkäfte, Berufseinsteiger und Firmen in München zusammen. Das Tagesprogramm bietet die Unternehmensausstellung, kostenlose Bewerbungsmappen-Checks sowie professionelle Bewerbungsfotos und ein Vorträge von Experten rund um Karriere im MINT-Bereich.

Die Vision einer allwissenden KI, die relevante und genaue Informationen in leicht verständlichen, mundgerechten Häppchen ausgibt, prägt die Art und Weise, wie Technologieunternehmen die Zukunft der Suche angehen. Und mit dem Aufkommen von Sprachassistenten wie Siri und Alexa werden Sprachmodelle zur bevorzugten Technologie für die Suche nach Informationen im Allgemeinen.

Doch Kritiker wehren sich mit dem Argument, dass dieser Ansatz falsch ist. Wenn man Computern eine Frage stellt und eine Antwort in natürlicher Sprache erhält, kann sich die Komplexität hinter einem Anschein von Autorität verbergen, die unverdient ist. "Wir haben uns zu sehr damit beschäftigt, was wir tun könnten, und nicht damit, was wir tun sollten", sagt Chirag Shah von der University of Washington, der an Suchtechnologien arbeitet.

Am 14. März kritisierten Shah und seine Kollegin Emily Bender von der University of Washington, die sich mit Computerlinguistik und ethischen Fragen der Verarbeitung natürlicher Sprache befasst, in einer Veröffentlichung die ihrer Meinung nach übereilte Verwendung von Sprachmodellen für Aufgaben, für die sie nicht konzipiert sind. Insbesondere befürchten sie, dass die Verwendung von Sprachmodellen für die Suche zu mehr Fehlinformationen und einer stärker polarisierten Debatte führen könnte.

"Die Star-Trek-Phantasie, in der man einen allwissenden Computer hat, dem man Fragen stellen kann und der einem einfach die Antwort gibt, ist nicht das, was wir bieten können und was wir brauchen", sagt Bender. Sie war Mitautorin eines anderen Artikels, der zur Entlassung von Timnit Gebru bei Google geführt hatte und in der die Gefahren großer Sprachmodelle aufgezeigt wurden.

Es gehe nicht nur darum, dass die heutige Technologie der Aufgabe nicht gewachsen ist. "Ich glaube, dass mit der Vision etwas nicht stimmt", sagt sie. "Es ist infantilisierend zu sagen, dass wir Informationen nur bekommen, wenn wir einen Experten fragen und er sie uns einfach gibt."

Google verwendet bereits Sprachmodelle, um seine bestehende Suchtechnologie zu verbessern und Nutzeranfragen genauer zu interpretieren. Einige sind jedoch der Meinung, dass Sprachmodelle dazu verwendet werden könnten, die Art und Weise, wie die Suche durchgeführt wird, zu überarbeiten. LaMDA ist nur ein Beispiel dafür.

Letztes Jahr schlugen der Google-Forscher Don Metzler und seine Kollegen vor, dass die Suche als ein zweiseitiges Gespräch zwischen Nutzer und Sprachmodell neu konzipiert werden könnte, bei dem Computer Fragen ähnlich wie ein menschlicher Experte beantworten. Google entwickelt auch eine Technologie namens Multitask Unified Model (MUM). Es baut auf einem Sprachmodell auf und soll die Anfragen der Nutzerinnen und Nutzer beantworten, indem es Informationen aus verschiedenen Quellen zusammenführt.

"Wir sind sehr daran interessiert, das Sprachverständnis zu verbessern, weil dadurch Produkte wie die Google-Suche für die Menschen nützlicher werden", sagt Jane Park, Kommunikationsmanagerin im Google-Suchteam. Doch Google habe noch keine Pläne, diese neue Forschung in Produkte umzusetzen: "Wir sind uns einig, dass es beim Sprachverständnis noch eine Reihe offener Herausforderungen gibt, weshalb wir insgesamt einen sehr vorsichtigen Ansatz verfolgen."