Ansicht umschalten
Avatar von O'Neil
  • O'Neil

mehr als 1000 Beiträge seit 06.09.2001

Halluzinationen my ass!

Noch mal fĂĽr alle (auch die Damen und Herren Betreiber solcher "KI" Systeme): Es geht ausschlieĂźlich um Wahrscheinlichkeiten fĂĽr bestimmte Wortfolgen (sogenannte Antwort) in einem durch andere Wortfolgen vorgegebenen Kontext (die Fragen). Weder versteht die sogenannte KI die Fragen, noch weiĂź sie was sie da inhaltlich antwortet.

Das sind Fehleinschätzungen aufgrund von Wortfolgewahrscheinlichkeiten. Aktuell gibt es nichts was man da tun kann, außer die LLMs nur mit ausgewählten Texten zu ausgewählten Themen zu trainieren. Sobald es aber um "Weltwissen" gehen soll, kann es eben zu konkurrierenden Wortfolgen kommen, die entweder gleich wahrscheinlich oder sogar wahrscheinlicher sind, und dennoch nichts mit der Wirklichkeit zu tun haben. Diesen Fehlern jetzt blumige Namen wie "Halluzination" zu geben ist genauso wenig zielführend, wie sie "Lüge" oder "erfinderische" Antworten zu nennen. Sie sind schlicht im Konstruktionsprinzip dieser Systeme inhärente Fehler.

O'Neill

Bewerten
- +
Ansicht umschalten