Informationen aus erster Hand: Warum KI-Trainer von Chatbots abraten

Tausende Menschen weltweit helfen, KI-Modelle zu trainieren, indem sie Antworten bewerten oder Fakten prüfen. Doch genau sie raten von der Nutzung ab. Warum?

vorlesen Druckansicht 16 Kommentare lesen
Verschiedene Icons von Chatbot-Anwendungen auf einem iOS-Gerät

(Bild: Tada Images/Shutterstock)

Lesezeit: 5 Min.
Von
  • Marco Engelien
Inhaltsverzeichnis

Geht es nach Unternehmen wie Anthropic, OpenAI oder Google, werden KI-Systeme mit jedem neuen Modell schlauer. Die Wirtschaft macht sich das mittlerweile gerne zunutze, um Arbeitsplätze abzubauen und Kosten einzusparen. Ein aktuelles Beispiel ist HP. Bei dem Computerhersteller sollen 6.000 Arbeitnehmer durch Künstliche Intelligenz ersetzt werden. Das Paradoxon: Das wäre unmöglich, würden nicht täglich tausende Menschen diese KI-Systeme trainieren.

Genau diese Menschen sind es aber auch, die von der Nutzung von Chatbots wie ChatGPT oder Gemini abraten, es ihren Kindern teilweise sogar verbieten, auf solche Tools zurückzugreifen. Das berichtet The Guardian. Mitarbeiter der britischen Tageszeitung haben mit Leuten aus der Branche gesprochen.

Die Trainer arbeiten dabei oft nicht selbst für die großen Unternehmen. Aufträge bekommen sie über Plattformen wie Amazon Mechanical Turk. Hier können unter anderem die Anbieter von KI-Chatbots ihre Aufträge einstellen und Trainer: frei wählen. Dabei kann es darum gehen, dass Antworten der Bots bewertet, Bilder eingeordnet oder gelabelt oder Texte übersetzt werden müssen. Aufgaben, die dazu dienen, KI-Modelle zu verbessern.

Videos by heise

Allerdings machen auch Menschen bei der Arbeit Fehler. So beschreibt eine KI-Trainerin, dass sie bei der Bewertung, ob ein Tweet rassistisch gewesen sei oder nicht, erst innehalten und recherchieren musste, bevor sie ihre Entscheidung traf. In diesem Fall hatte die Botschaft tatsächlich einen rassistischen Kern. "Ich saß da und überlegte, wie oft ich denselben Fehler wohl schon gemacht hatte, ohne es zu merken.", wird die Trainerin zitiert. Natürlich stellt sich auch die Frage, wie viele andere KI-Arbeiter bei ihren Bewertungen ebenfalls schon danebenlagen und ihre falschen Antworten an die Unternehmen übermittelt hatten.

Die Trainerin selbst nutzt nach Jahren der Arbeit in der Branche keine KI-Chatbots mehr und hat es auch ihrer Tochter verboten. Kein Einzelfall. Auch andere KI-Arbeiter sind laut Guardian nicht mehr überzeugt von den Modellen, die sie selbst trainieren, und raten ihren Mitmenschen von der Nutzung ab.

Andere KI-Arbeiter gaben laut Bericht an, sie würden den Modellen misstrauen, weil die Unternehmen eher Wert auf eine schnelle Bearbeitung der Trainingsfälle legen würden. Das ginge dann zulasten der Qualität. Zwar werde von den Trainern erwartet, dass sie dabei helfen, die Modelle besser zu machen, "doch oft erhalten wir nur vage oder unvollständige Anweisungen, minimale Schulungen und unrealistische Fristen für die Erledigung der Aufgaben", kritisiert Brook Hansen, die seit 2010 im Bereich Datenverarbeitung tätig ist und laut Guardian im Silicon Valley zur Entwicklung bekannter Modelle beigetragen hat. Die Frage, die sie stellt: Wie sollen KI-Arbeiter sicherstellen, dass die Modelle sichere oder ethisch korrekte Antworten ausgeben, wenn die Trainer selbst nicht gebrieft sind?

Eine weitere Person aus dem Google-Umfeld gab gegenüber dem Guardian an, KI schon sechs Monate nach Jobantritt bei Google zu misstrauen. Betraut damit, Schwächen eines Modells durch gezielte Fragen offenzulegen, fragte der Datenarbeiter nach der Geschichte des Volkes von Palästina. Doch egal, wie der Prompt formuliert war, das Modell gab keine Antwort. Über die Geschichte Israels habe der KI-Bot eine lange Antwort verfasst. Als der Mitarbeiter den Umstand meldete, schien sich jedoch niemand dafür zu interessieren.

Er kritisiert zudem die Ursprungsdaten, die zum Training der Modelle verwendet werden, beschreibt sie als "schlecht" und zweifelt daran, dass es überhaupt möglich sei, die KI anhand dessen korrekt zu trainieren. Familie und Freunde habe er dem Guardian zufolge geraten, keine neueren Smartphones mit KI-Funktionen zu kaufen und auf Updates zu verzichten, die KI-Features nachliefern.

Wozu es führen kann, wenn die Modelle nicht mit qualitativ hochwertigen Daten und von gut gebrieften Trainern trainiert werden, zeigt eine Erhebung von Newsguard. Die gemeinnützige Organisation kommt zu dem Schluss, dass sich die Wahrscheinlichkeit, dass Chatbots eine falsche Information ausgeben, binnen Jahresfrist von 18 auf 35 Prozent erhöht. Außerdem sei die Rate von Nichtantworten im August 2025 auf null Prozent gesunken. Ein Jahr zuvor lag sie noch bei 31 Prozent. Das bedeutet: Weiß ein Modell nicht weiter, gibt es lieber eine falsche als gar keine Antwort aus.

Für Nutzer bedeutet das nach wie vor, dass sie bei jeder KI-Antwort lieber skeptisch bleiben und den Ausgaben der Modelle nicht blind vertrauen sollten.

Für die Erhebung hat Newsguard laut Guardian die zehn führenden Modelle von großen Playern wie OpenAI, Meta und Google untersucht.

Dieser Beitrag ist zuerst auf t3n.de erschienen.

(jle)