Lloyd’s of London: Versicherung soll Schäden durch KI-Halluzinationen abdecken

Fehlerhafte KI-Chatbots sorgen für Aufsehen, wenn sie bei Firmen falsche Angaben machen. Gegen die so entstehenden Kosten soll man sich nun versichern können.

vorlesen Druckansicht 16 Kommentare lesen
Ein Hand tippt auf einem Smartphone, darüber gelegt die Ansicht eines Chats mit einem Chatbot

(Bild: TippaPatt/Shutterstock.com)

Lesezeit: 2 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Am Versicherungsmarkt Lloyd’s of London können sich Unternehmen nun gegen die Kosten von fehlerhafter KI-Technik absichern lassen. Das berichtet die Financial Times und erklärt, dass davon etwa Rechnungen abgedeckt werden, die anfallen, wenn eine Firma von einem Kunden verklagt wird, der wegen eines unzureichenden KI-generierten Texts Schäden erlitten hat. Die Versicherer, die sich an dem Programm beteiligen, würden dann etwa Schadenersatz und Anwaltskosten übernehmen, die von einer KI verursacht werden. Das Produkt könnte demnach mehr Unternehmen davon überzeugen, KI-Technik einzuführen. Zwar würden Kosten durch KI-Fehler bereits teilweise mit übernommen, aber bisher immer nur geringe Maximalsummen.

Als Beispiele für unzureichend funktionierende KI, die für Unternehmen zum Problem wurden, verweist die britische Zeitung unter anderem auf einen Chatbot des Paketzustellers DPD, der die eigene Firma übelst beschimpft und als "das schlechteste Lieferunternehmen der Welt" bezeichnet hat. Bei der kanadischen Fluggesellschaft Air Canada hatte ein Chatbot falsche Informationen generiert, woraufhin die Airline dem Betroffenen den zu viel bezahlten Teil der Kosten eines Flugtickets erstatten musste. Genau diese Kosten würden von der neuen Versicherungspolice übernommen, zitiert die Financial Times das kanadische Start-up Armilla, das sie entwickelt hat.

Videos by heise

Ein Fehler eines KI-Textgenerators allein würde aber nicht dafür reichen, dass die dadurch entstandenen Kosten übernommen werden, erklärt die Zeitung weiter. Stattdessen sei es nötig, dass der verantwortliche Versicherungskonzern zu dem Schluss kommt, dass die KI-Technik schlechter funktioniert hat, als erwartet. Das heißt, die Versicherung könnte einspringen, wenn ein Chatbot nur noch in 85 Prozent aller Fälle richtige Antworten gibt, nachdem es anfangs 95 Prozent waren. Dafür muss das eingesetzte KI-Modell vorher geprüft werden. Gleichzeitig heißt das, dass die Versicherung nicht alle finanziellen Schäden durch eine sogenannte Halluzination abdeckt. Modelle, die zu fehlerhaft sind, könnten damit nicht abgedeckt werden.

(mho)