Rechtliche Tipps zum Selfhosting von LLMs

Wer große Sprachmodelle selbst betreibt, gewinnt Kontrolle über seine Daten. Was bei der rechtskonformen Nutzung lokal gehosteter LLMs zu beachten ist.

Artikel verschenken
vorlesen Druckansicht 3 Kommentare lesen
Lesezeit: 15 Min.
Von
  • Joerg Heidrich
  • Dr. Christoph Wegener
Inhaltsverzeichnis

Der Eigenbetrieb großer Sprachmodelle (Large Language Models, LLMs) ist längst kein Hexenwerk mehr. Leistungsfähige Open-Source- und Open-Weight-Modelle wie Llama, Mistral und Qwen stehen kostenlos zur Verfügung, und brauchbare Hardware kann man zu erschwinglichen Preisen kaufen. Zudem unterstützen komfortable Anwendungsumgebungen wie LM Studio oder Ollama auch technisch weniger erfahrene Anwender bei der Installation und Integration.

Der Eigenbetrieb verspricht einige Vorteile. Insbesondere hat man die volle Kontrolle über das genutzte Modell und verarbeitet sowohl Nutz- als auch Trainingsdaten selbst. Gerade der letzte Punkt macht Selfhosting für viele Unternehmen attraktiv, die sensible Informationen nicht an US-amerikanische oder gar chinesische Dienste übermitteln möchten. Zudem entfällt die Abhängigkeit von kommerziellen LLM-Anbietern.

c’t kompakt
  • Wer ein Sprachmodell im geschäftlichen Umfeld lokal installiert und einsetzt, muss sich mit organisatorischen und rechtlichen Fragen beschäftigen.
  • Gemäß DSGVO steht man für die Verarbeitung personenbezogener Daten in der Verantwortung.
  • Daraus resultieren Pflichten, etwa zur Dokumentation, Folgenabschätzung und Haftung.
Mehr zum Thema Künstliche Intelligenz (KI)

Zwar entledigt man sich mit dem Hosting von LLMs auf der eigenen Infrastruktur so mancher kniffliger Rechtsfragen. Dennoch gilt es, einige Punkte zu beachten. Insbesondere die Datenschutz-Grundverordnung (DSGVO) und das Haftungsrecht können Probleme machen, wenn man allzu sorglos mit selbst betriebenen LLMs umgeht.

Das war die Leseprobe unseres heise-Plus-Artikels "Rechtliche Tipps zum Selfhosting von LLMs". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.