KI-Update kompakt: Jan Leike, OpenAI, Jameda AI Assistant, Rabbit R1

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

Der KI-Sicherheitsforscher Jan Leike wechselt nach seinem Rücktritt von OpenAI zu dessen Konkurrenten Anthropic. Er war Leiter der Abteilung für KI-Ausrichtung und Sicherheit von Superintelligenzen bei OpenAI

In einem langen Thread auf X übte Leike scharfe Kritik an der Sicherheitskultur bei OpenAI. Er ist überzeugt, dass Unternehmen viel mehr Rechenleistung für die Sicherheit der nächsten Generationen von KI-Modellen aufwenden müssten.

Laut Leike wurde ein Versprechen von OpenAI, dem Sicherheitsteam 20 Prozent der verfügbaren Rechenleistung zur Verfügung zu stellen, nicht gehalten. Manchmal habe sein Team um Rechenleistung kämpfen müssen und es sei immer schwieriger geworden, die entscheidende Forschung durchzuführen.

Bei Anthropic dürfte Leike auf Gleichgesinnte stoßen: Das Start-up wurde 2021 von ehemaligen OpenAI-Forschern gegründet, die mit der kommerzielleren Ausrichtung von OpenAI nach dem Einstieg von Microsoft nicht einverstanden war. Anthropic-Mitbegründer Dario Amodei war vor der Gründung Sicherheitschef bei OpenAI, seine Schwester Daniela Amodei war dort ebenfalls für Sicherheit und Richtlinien verantwortlich.

Anthropic gilt neben Google als stärkster OpenAI-Konkurrent und hat mit Claude 3 Opus eines der stärksten KI-Modelle im Angebot.

OpenAI hat mit dem Training seines nächsten großen KI-Modells begonnen, das GPT-4 ablösen und einen weiteren Schritt Richtung Künstlicher Allgemeiner Intelligenz darstellen soll. Gleichzeitig richtete das Unternehmen ein neues Komitee für Schutz und Sicherheit ein, das kritische Entscheidungen hinsichtlich der Risikominimierung bei der KI-Entwicklung treffen soll.

Hintergrund ist die Auflösung des bisherigen Superalignment-Teams vor zwei Wochen, dessen Forscher von ihren Posten zurückgetreten waren. Sie hatten kritisiert, dass ihrer Arbeit zur Sicherheit angesichts immer leistungsfähigerer KI-Systeme Steine in den Weg gelegt worden seien. Mit dem neuen Komitee reagiert OpenAI nun offenbar auf die interne Kritik an unzureichenden Schutzmaßnahmen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Forscher der Renmin Universität in China und der Beijing Academy of Artificial Intelligence haben mit LC-Boost ein Verfahren entwickelt, das auch mit kleinen Kontextfenstern von KI-Modellen gute Ergebnisse bei der Verarbeitung langer Texte erzielt. Dazu zerlegt es die Texte in kürzere Abschnitte und lässt das Modell entscheiden, welche Teile für die Lösung einer Aufgabe relevant sind.

In Experimenten erzielte LC-Boost mit nur 4000 Token vergleichbare oder bessere Resultate als Modelle mit bis zu 200.000 Token Kontextlänge. Vor allem bei Frage-Antwort-Aufgaben war es überlegen. Zudem verbraucht LC-Boost deutlich weniger Energie. Die Autoren sehen darin einen wichtigen Schritt, um den Ressourcenverbrauch großer Sprachmodelle einzudämmen, da oft nur Teile langer Texte wirklich relevant sind.

Die Docplanner Group, Mutterkonzern von Jameda, hat gemeinsam mit niedergelassenen Ärzten den Jameda AI Assistant entwickelt. Dieser soll Medizinern helfen, ihre Dokumentationsaufwände um bis zu 80 Prozent zu reduzieren. Dazu erfasst er während des Arzt-Patienten-Gesprächs Informationen und erstellt daraus einen Arztbrief inklusive Diagnosen, Therapie und Medikation.

Zunächst wandelt die Speech-to-Text-Lösung Whisper von OpenAI, die lokal auf Infrastruktur von Docplanner läuft, das Gesprochene in Text um. Im Hintergrund verarbeitet dann ein KI-Dienst aus Microsofts Azure-Cloud die Daten weiter. Das Large Language Model wird kontinuierlich mit medizinischen Fachbegriffen und Daten trainiert. Der fertige Arztbrief lässt sich auf Wunsch direkt ins Praxisverwaltungssystem übertragen. Die Hoheit über die Daten verbleibt laut Jameda beim Arzt.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Google stattet zertifizierte Plus-Chromebooks mit neuen KI-Fähigkeiten aus. Highlight ist die in den Chrome-Browser integrierte Funktion "Formuliere für mich". Sie generiert in Textfeldern auf Webseiten Textvorschläge oder Umformulierungshilfen. Zum Start funktioniert sie auf Englisch, bis Ende September auch auf Deutsch.

Ein KI-Bildgenerator erzeugt Desktophintergründe oder Hintergrundbilder für Videokonferenzen. Die Google-Fotos-App erhält einen "Magischen Editor" zum Erkennen und Nachbearbeiten von Bildinhalten. Der Chatbot Gemini wird als App direkt auf dem Startbildschirm platziert.

Weitere geplante Funktionen sind eine Textanalyse namens "Help me read" zur Zusammenfassung von Webseiten und PDFs sowie eine Gesichts- und Gestensteuerung. Die meisten Funktionen dürften mangels KI-Beschleuniger in den Chromebook-Prozessoren in der Cloud laufen.

Eine neue Studie von Forschern des MIT argumentiert, dass unterschiedliche KI-Modelle mit wachsender Leistung und Größe zu gemeinsamen Repräsentationen konvergieren. Die Forscher vermuten, dass diese Repräsentation ein statistisches Modell der zugrunde liegenden Realität sein könne, die die Forscher als "platonische Repräsentation" bezeichnen.

In Experimenten zeigen sie, dass Modelle mit unterschiedlichen Architekturen und Trainingsdaten zu ähnlichen Repräsentationen gelangen. Beispielsweise können Schichten zwischen Modellen mit ähnlichen Leistungen ausgetauscht werden, ohne die Leistung stark zu beeinträchtigen. Die Konvergenz scheint sogar modalitätsübergreifend stattzufinden, das heißt, Repräsentationen visueller Modelle und Sprachmodelle gleichen sich zunehmend an.

Die Forscher vermuten, dass die Skalierung auf mehr Daten und Aufgaben sowie die Fähigkeit größerer Modelle, ein gemeinsames Optimum zu finden, die Konvergenz begünstigen. Sie vermuten, dass KI-Modelle daher auch von multimodalem Training profitieren und das Skalierung die Modelle näher an die "platonische Repräsentatio" heranbringen und damit Halluzinationen reduzieren könne.

Allerdings diskutieren die Forscher auch Grenzen ihrer Hypothese, wie z.B. dass verschiedene Modalitäten unterschiedliche Informationen enthalten können, was eine vollständige Konvergenz verhindert. Auch gebe es in manchen Domänen wie der Robotik noch keine standardisierten Repräsentationen.

Das Start-up Rabbit Inc. hat ein kleines orangefarbenes Gerät namens "Rabbit r1" entwickelt. Dieses soll mittels KI als eine Art Agent agieren, dem man Aufgaben geben kann. Allerdings muss man den r1 zunächst in einem sogenannten "Rabbithole" darauf trainieren.

Der Youtuber Stephen Findeisen (Coffeezilla) hat sich mit den Hintergründen der Rabbit-Gründer beschäftigt. Rabbit Inc. wurde ursprünglich 2021 unter dem Namen Cyber Manufacture gegründet. Damals plante das Unternehmen ein NFT-Projekt, ein Spiel oder eine Metaverse-Anwendung zu entwickeln, begleitet von einer grünen Kryptowährung namens "Gama". Aus diesen Plänen wurde nichts und es sollen sogar sechs Millionen US-Dollar verschwunden sein.

Der Rabbit r1 scheint nicht die versprochenen Fähigkeiten zu haben. Stattdessen handelt es sich offenbar um eine App, die auf jedem Smartphone laufen könnte. Rabbit Inc. droht jedoch mit Klage, sollte jemand dies tun. Der Preis für den r1 liegt bei 200 US-Dollar.

Die Bundesbank nutzt zunehmend Künstliche Intelligenz bei der Prüfung der von ihr beaufsichtigten kleineren Banken in Deutschland. Ziel ist es, in den umfangreichen Unterlagen, die die Institute einreichen müssen, Unregelmäßigkeiten zu finden. Die Bundesbank experimentiert mit vielen Anwendungsfällen, berichtete Christian Drescher, Leiter Digitale Transformation in der Bankenaufsicht, auf der re:publica 24.

Einen Erfolg stellt etwa die bessere Erkennung und Einbindung relevanter Presseinhalte dar. Ab Mitte 2023 soll zudem ein No-Code-Editor Prüfern ermöglichen, auch ohne Programmierkenntnisse modulare KI-Anwendungen zu nutzen. Aufgrund der Vertraulichkeit arbeitet die Aufsicht bislang nur mit On-Premise-Systemen. Die Migration in die Cloud gestaltet sich wegen hoher Sicherheitsanforderungen schwierig. Laut Drescher kann KI in der Bankenaufsicht nur unterstützend wirken, Entscheidungen müssten nachvollziehbar und von Menschen verantwortet bleiben.

(igr)