Limit wieder erweitert: Bing erlaubt mehr Fragen pro Tag

Nur wenige Tage, nachdem Microsoft für Bing ein Fragen-Limit gesetzt hat, wird dieses erweitert. Dennoch kann man nicht unendlcih viel mit der KI quatschen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Vancouver,,Canada,-,November,21,,2016:,Microsoft,Sign,On,The

(Bild: Volodymyr Kyrylyuk/Shutterstock.com)

Lesezeit: 2 Min.

Wenn sich der Refresh-Button dreht, kann es sein, dass man das tägliche Limit an Fragen und Chats überschritten hat, das Microsoft den Bing-Testern auferlegt hat. Weil die Suchmaschine ausgesprochen seltsame Gespräche mit Fragenden und Suchenden führte – vor allem, wenn man Bing ausgiebig trietzte – waren seit vergangenen Freitag nur mehr jeweils 5 Fragen in 50 Chats pro Konto möglich. "Das war eine Reaktion darauf, dass bei einer Handvoll sehr langer Chats das zugrundeliegende Modell verwirrt war", schreibt Microsoft auf seiner Webseite.

Nun können Tester wieder 6 Fragen in insgesamt 60 Chats am Tag stellen. An der weiteren Öffnung werde gearbeitet. Für die meisten Menschen ist das aktuelle Limit laut Microsoft bereits ausreichend für die normale Nutzung. Geplant sei, dass Limit bald auf 100 Chats zu erhöhen. Zudem zählen die normalen Suchanfragen jetzt nicht mehr zu diesen begrenzten Suchen.

Nutzer sollen außerdem bald zwischen mehreren Antwort-Modi auswählen können. Im Präzisionsmodus bevorzugt Bing kurze, prägnante Antworten. Im Kreativmodus wird Bing dagegen gesprächiger und gibt längere Antworten. Ein Balanced-Modus soll als Mittelweg dienen. Tatsächlich braucht Bing einen Moment, um eine Antwort zu generieren. Je länger die Antwort ausfällt, desto länger auch die Wartezeit.

In dem Blogbeitrag bedankt sich Microsoft für das Feedback zu den irregeleiteten Chats. Genau dies sei der Grund, weshalb das neue Bing, wie die Suche seit der Integration des OpenAI-Sprachmodells heißt, zunächst nur für Tester geöffnet ist. In der Öffentlichkeit stießen zahlreiche Bing-Chats bisher auf Verwunderung und Entsetzen.

Bing forderte etwa einen Journalisten auf, sich von seiner Frau zu trennen, einem anderen Tester widersprach die Suchmaschine vehement, als dieser meinte, es sei das Jahr 2023 und nicht 2022. Der Chatbot gerät offensichtlich schnell an seine Grenzen, wenn Gespräche zu lang werden. Manch unerwünschtes Verhalten konnte Microsoft allerdings auch schon austreiben. So soll es nicht mehr möglich sein, Bing nach seinem internen Codenamen Sydney zu fragen – beziehungsweise entsprechende Antworten zu bekommen. Auch die ersten Prompts und Trainingsdaten lassen sich nicht mehr abrufen.

(emw)