Confer: Signal-Gründer startet sicheren KI-Chatbot

Moxie Marlinspike hat einen Privacy-freundlichen KI-Chatbot entwickelt. Er warnt vor KI-Anbietern und deren Umgang mit Daten.

vorlesen Druckansicht 7 Kommentare lesen
Junge Frau mit rotblonden Locken und orangefarbenem Pullover am Smartphone in einem Wohnzimmer.

(Bild: insta_photos/Shutterstock.com)

Lesezeit: 3 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Gespräche mit den gängigen Chatbots landen auf den Servern der Anbieter. Auch, wenn die Inhalte explizit nicht für das Training weiterer KI-Modelle genutzt werden, sind sie nicht Ende-zu-Ende-verschlüsselt. Das heißt, OpenAI, Anthropic, Google und Meta können im Zweifel mitlesen. Nun möchte der Gründer des Messengers Signal einen Chatbot anbieten, bei dem eben genau das nicht passiert. Confer soll Gespräche vor Einblicken anderer schützen. „Confer ist ein Dienst, mit dem du Ideen nachgehen kannst, ohne damit rechnen zu müssen, dass diese eines Tages gegen dich genutzt werden.“

Um den Chatbot nutzen zu können, muss man sich anmelden und einen Passkey erstellen. Der kann beispielsweise mittels Face ID, Fingerabdruck oder einer Geräte-PIN geschützt sein. Darüber werden weitere Schlüssel abgeleitet, die jedoch auf dem Gerät bleiben. Das heißt, auch Confer kann sie nicht einsehen oder nutzen. Chatanfragen werden also lokal verschlüsselt.

Confer ist wie die üblichen KI-Chatbots aufgebaut.

(Bild: Screenshot Confer)

Ein KI-Modell muss allerdings auf einem Server samt GPUs laufen. Jemand muss den Server betreiben. Entsprechend hat diese Person oder Organisation Zugriff. Deshalb setzt Confer auf Confidential Computing und eine Trusted Execution Environment (TEE). In dieser hardwaregestützt isolierten Umgebung wird der Code ausgeführt. Der Quellcode ist auf Github verfügbar.

Fraglich ist, welches KI-Modell Confer nutzt. Darauf gibt es keine abschließende Antwort. Man kann nur vermuten, dass es eines der offenen Modelle ist. Diese gibt es beispielsweise mit Llama von Meta, Gemma von Google oder vom französischen Mistral.

In einem Blogbeitrag erklärt Marlinspike die Funktionsweise der Verschlüsselung. In einem weiteren Beitrag warnt er auch vor der Nutzung von KI-Chatbots beziehungsweise vor deren Anbietern. Man gebe seine Gedanken preis. Die Anbieter würden diese garantiert speichern, für KI-Trainings nutzen und vor allem ganz sicher monetarisieren. Es ist kein Geheimnis, dass etwa OpenAI damit liebäugelt, Werbung in ChatGPT zu bringen, um dadurch Geld zu verdienen. Google und Meta haben den Vorteil, Werbung in anderen Diensten anbieten zu können und dadurch ausreichend Einnahmen zu haben, um auch KI-Dienste zu entwickeln und anzubieten.

Videos by heise

Aber auch sie, so befürchtet Marlinspike, werden die Informationen nutzen, die wir Chatbots geben, um darauf aufbauend personalisierte Werbung auszuspielen. Er geht so weit, zu sagen, die Anbieter würden uns schon davon überzeugen, dass wir bestimmte Dinge brauchen – sie könnten dafür das gesamte Kontextwissen über uns, Gedanken und Sorgen, nutzen. „Es wird vergleichbar damit sein, dass eine dritte Partei den Therapeuten dafür bezahlt, uns von etwas zu überzeugen.“

Zudem warnt er vor dem Mitlesen durch Behörden und Strafverfolger – neben den Anbietern. Marlinspike schreibt: „Du bekommst eine Antwort; Sie bekommen alles.“

(emw)