WTF

ChatGPT erfindet Gerichtsurteile – US-Anwalt fällt darauf herein

Ein US-Rechtsanwalt befragt ChatGPT nach Präzendenzfällen – und übernimmt die Antwort ungeprüft. Sein Pech: Vor Gericht stellt sich alles als Erfindung heraus.

In Pocket speichern vorlesen Druckansicht 214 Kommentare lesen

(Bild: Zolnierek/Shutterstock.com)

Lesezeit: 3 Min.

In den USA hat ein Rechtsanwalt bei seiner Recherche den KI-Chatbot ChatGPT irrtümlich für eine Art Suchmaschine gehalten – und sich mit den vermeintlichen 'Suchergebnissen' vor Gericht blamiert. Der Fall, der am Bezirksgericht für den Süden des Bundesstaates New York verhandelt wird, verlief zunächst normal: Der Kläger Roberto Mata befand sich 2019 auf einem Flug von El Salvador in die USA, durchgeführt von der in Kolumbien ansässigen Fluggesellschaft Avianca. Weil ihn ein Flugbegleiter mit einem Rollwagen am Knie traf, entschied er sich – allerdings erst kürzlich – dazu, seine Anwälte eine Klage gegen die US-Niederlassung der Fluggesellschaft einreichen zu lassen. Die Anwälte Aviancas plädierten daraufhin beim Gericht auf Verjährung, was wiederum einen der Klägeranwälte dazu veranlasste, mit Präzedenzfällen gegen die Verjährung zu argumentieren.

Doch der betreffende Anwalt, Steven A. Schwartz von der Kanzlei Levidow, Levidow & Oberman, hatte seine am 24. April vorgelegte Eingabe mit Präzedenzfällen teils von ChatGPT erstellen lassen und diese selbst nicht noch einmal geprüft. Wozu auch? Er hatte schließlich nach eigenen Angaben ChatGPT anschließend sogar gefragt, ob die ausgegebenen Fälle auch authentisch seien, wie er später erklärte und die New York Times berichtet. Die Anwälte der Gegenseite studierten die Eingabe und wurden rasch stutzig: Personen- und Firmennamen, Gerichte – alles wirkte auf den ersten Blick authentisch. Doch jede Nachforschung ergab, dass kein einziger Fall existierte. Der Chatbot hatte aus seinem Lernmaterial neue "Fälle" frei herbeifantasiert und ihnen bis in die Details hinein einen Anschein von Echtheit verliehen – inklusive der üblichen gelehrigen Erläuterungen des Bundesrechts, Zitate, Aktenzeichen und einer Erörterung, wann es angeblich zu aufschiebender Wirkung bei automatischem Aussetzen der Verjährungsfrist kommt.

Die Anwälte der beklagten Firma wollten den Quellen nachgehen und fanden nichts, daher baten sie um Zusendung der betreffenden Unterlagen. Daraufhin verschickte der Klägeranwalt seitenweise vermeintliche Aktenauszüge – die ebenfalls von ChatGPT erfunden worden waren und selbst wiederum Verweise auf weitere erfundene Gerichtsfälle enthielten. Nun wurden die Anwälte der Verteidigung misstrauisch und vermuteten, dass eine Text-KI im Spiel gewesen sein könnte. Auf Nachfrage gestand Mr. Schwartz ein, dass er sich bei seiner Arbeit von ChatGPT habe "unterstützen" lassen.

Die Angelegenheit wirft ein Licht auf die Fallstricke, die hinter generativer KI und ihren Ausgaben lauern und die nicht nur, aber auch in Juristenkreisen gefürchtet werden: Eine KI wie ChatGPT erzeugt aus ihrem Ausgangsmaterial neu und echt scheinendes Material, das nach algorithmischer und statistischer Wahrscheinlichkeit zusammengesetzt und verwoben wird. Eine sachlich korrekte Auskunft, womöglich fachlich fundiert, kommt so aber eher nicht zustande, und das eigene Urteilsvermögen kann sie nicht ersetzen.

Dem Anwalt droht nun Ärger: Obwohl er dem Richter gegenüber seinen Fehler sofort eingestand und schwor, bei künftigen Recherchen wieder selbst zu prüfen, bewertete das Gericht die Eingabe als möglichen Täuschungsversuch mit gefälschten Informationen und nannte sie einen "beispiellosen Umstand". Der Richter ordnete für den 8. Juni eine Anhörung an, um über weitere Maßnahmen zu entscheiden. Der Fall Mata v. Avianca, Inc. wird unter dem Aktenzeichen 1:22-cv-01461 geführt.

WTF

Das Internet ist voll von heißen IT-News und abgestandenem Pr0n. Dazwischen finden sich auch immer wieder Perlen, die zu schade sind für /dev/null.

(tiw)