Nach unangemessenem Verhalten: Microsoft nimmt Bing Chat an die Leine

Nachdem dieser sich "unangemessen verhalten" hat, hat Microsoft die Nutzung des Bing-Chatbots limitiert. Google arbeitet derweil mit Hochdruck an Chatbot Bard.

In Pocket speichern vorlesen Druckansicht 72 Kommentare lesen
Ai(artificial,Intelligence),Concept. Bard, ChatGPT, KI, Chatbot

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 3 Min.
Von
  • Kathrin Stoll
  • mit Material der dpa

Microsoft hat die Nutzung seines Bing-Chatbots eingeschränkt, der mit Hilfe von künstlicher Intelligenz auch komplexe Fragen beantworten und ausführliche Konversationen führen kann. Der Software-Konzern reagiert damit auf etliche Vorfälle, in denen der Chatbot Antworten formuliert hat, die als übergriffig und unangemessen empfunden wurden. In einem Blogpost kündigte das Unternehmen an, Bing-Chats nun auf 50 Fragen pro Tag und fünf pro Sitzung zu begrenzen. "Unsere Daten haben gezeigt, dass die überwiegende Mehrheit der Menschen die Antworten, die sie suchen, innerhalb von fünf Runden findet", erklärte das Bing-Team. Nur etwa ein Prozent der Unterhaltungen mit dem Chatbot enthalte mehr als 50 Nachrichten. Wenn die Nutzer das Limit von fünf Eingaben pro Sitzung erreichen, wird Bing sie auffordern, ein neues Thema zu beginnen.

Microsoft hatte zuvor bereits davor gewarnt, den KI-Chatbot, der sich noch in einer Erprobungsphase befindet, in längere Konversationen zu verwickeln. Längere Chats mit 15 oder mehr Fragen könnten demnach dazu führen, dass Bing "sich wiederholt oder zu Antworten veranlasst oder provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen".

FĂĽr Aufsehen im Netz hatte ein Test des Bing-Chatbots durch einen Reporter der New York Times gesorgt. In einem mehr als zweistĂĽndigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen. In den vergangenen Tagen gab des zahlreiche weitere Beispiele fĂĽr "unangemessenes Verhalten" des Chatbots. So sagte die KI etwa gegenĂĽber einem Nutzer, sie wĂĽrde ihr eigenes Ăśberleben wahrscheinlich dem seinen vorziehen. Einem anderen Nutzer wollte sie weismachen, es sei das Jahr 2022, und forderte vehement eine Entschuldigung ein, als dieser widersprach; einem dritten drohte sie mit Gewalt.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Microsoft setzt bei seinem Bing-Chatbot auf Technik des Start-ups OpenAI und unterstützt das kalifornische KI-Unternehmen mit Milliarden. Microsoft-CEO Satya Nadella sieht in der Einbindung von KI-Funktionen zum einen die Chance, die Marktverhältnisse im Wettbewerb mit dem Google-Konzern Alphabet umzukehren. Außerdem will er mit Hilfe von KI die Vormachtstellung seiner Bürosoftware absichern und das Cloud-Geschäft mit Microsoft Azure vorantreiben.

Google hat mit dem Chatbot Bard unlängst eine eigene KI-Offensive gestartet, um den Vorstoß von Microsoft und OpenAI zu kontern. Alphabet-CEO Sundar Pichai will dessen Weiterentwicklung offenbar mit Hochdruck vorantreiben: Laut einer internen E-Mail, die Business Insider vorliegt, hat Google am Dienstag mit internen Testen der KI begonnen, wobei bereits Tausende interner und externer Tester Feedback über Qualität, Sicherheit und Bodenständigkeit der Chatbot-Antworten gäben. So will Google laut eines Sprechers sicherstellen, dass Bard "für die Nutzer bereit sei". Mitarbeiter forderte Pichai in einem weiteren internen Memo vom 15. Februar dazu auf, zwei bis vier Stunden ihrer Zeit in das Training des Chatbots zu investieren. Erst vergangene Woche hatte Google bei der Vorstellung von Bard einen Imageschaden erlitten, der dazu führte, dass die Aktie am selben Tag um neun Prozent fiel. Der Chatbot hatte bei der Demo eine Frage über das James-Webb-Teleskop falsch beantwortet.

(kst)