Google erklärt sich zu hanebüchenen KI-Antworten und verspricht Besserung
Grundsätzlich ist man bei Google zufrieden mit der breiten Einführung der KI-Antworten in den USA. Angesichts bestimmter Ergebnisse will man aber nacharbeiten.
Nachdem eine Reihe hanebüchener Antworten viral gegangen ist, hat Google angekündigt, die Quellenauswahl für die KI-gestützte Suchfunktion einzuschränken. Man habe bessere Erkennungsmechanismen gebaut, damit Inhalte von Satireseiten und witzig gemeinte Inhalte nicht für die "KI Overview" berücksichtigt werden, erklärt der US-Konzern in einem Blogeintrag. Außerdem sollen benutzergenerierte Inhalte, etwa von Reddit, seltener ausgewertet werden. In Fällen, in denen die KI-Technik wenig hilfreich ist, soll sie schneller deaktiviert werden. Zudem hat der US-Konzern versichert, dass bei Suchanfragen zu Themenfeldern wie Nachrichten und Gesundheit "starke Leitplanken" gezogen seien. Insgesamt seien die vorerst nur in den USA verfügbaren KI-Antworten sehr akkurat.
Keine "Halluzinationen"
Mit dem Statement reagiert Google auf viral gegangene Screenshots zu echten und teilweise manipulierten Ausgaben von KI-Antworten. Darin hieß es etwa, dass man den Käse auf einer Pizza mit Kleber befestigen sollte oder, dass es gesund ist, mindestens einen Stein pro Tag zu essen. Überdies haben User Suchanfragen gefunden, zu denen die KI-generierte Antwort erklärte, dass Batman ein Polizist ist, dass in US-Profisportligen Hunde gespielt haben und der zweite, 1826 verstorbene US-Präsident John Adams zwischen 1934 und 2003 insgesamt 21 Mal eine Universität absolviert hat. Laut Google handelt es sich um Google-Anfragen, zu denen es zu wenige Ergebnisse gibt, weswegen Satireseiten oder Reddit-Kommentare ausgewertet wurden. Man habe das verbessert.
Während Googles Such-Chefin Liz Reid nun Nacharbeiten verspricht und die Hintergründe erklärt, versichert sie aber auch, dass die KI-Ergebnisse genauso akkurat seien wie die Textausschnitte, die zuweilen über der Trefferliste ausgegeben werden. Weil die KI Overview anders funktioniere als andere KI-Textgeneratoren, würde sie typischerweise auch nichts erfinden ("halluzinieren"), Fehler hätten andere Ursachen. Das könne etwa passieren, wenn Suchanfragen "missverstanden" werden. Angesichts von Milliarden Suchanfragen, die jeden Tag getätigt werden, sei es normal, dass es "komische" oder falsche Resultate gibt. Verstöße gegen die eigenen Richtlinien habe man nur bei einer von sieben Millionen Suchen gefunden.
Auch einer weiteren Befürchtung will Reid in dem Blogeintrag noch Rechnung tragen. So versichert sie, dass die KI-generierte Antwort als Startpunkt zum Besuch der Seite dienen können, von der die zugrundeliegende Information stammt. Diese Klicks seien "von größerer Qualität", das heißt, die Nutzer und Nutzerinnen würden danach länger auf den Seiten verweilen, weil die Suche hilfreicher war. Angesichts von KI-generierten Antworten herrscht derweil die Befürchtung, dass ein beträchtlicher Teil des Traffics, den Google etwa Nachrichtenseiten liefert, künftig wegfallen könnte. Zahlen hierzu gibt es aber nicht und auch Reid nennt keine. Ihre Erklärungen legen aber nahe, dass Googles KI-Antworten insgesamt tatsächlich weniger Menschen auf andere Seiten schicken.
(mho)