KI-Update kompakt: Grok 2, KI-Einschätzung, Copilot Autofix, Opera

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Elon Musks Unternehmen xAI hat mit Grok-2 einen neuen Bildgenerator veröffentlicht, der kaum Grenzen kennt. Im Gegensatz zu anderen KI-Bildgeneratoren scheint Grok-2 weniger Einschränkungen und Leitplanken zu haben, sodass Nutzer auch geschmacklose und kontroverse Inhalte generieren können, etwa ein Marihuana rauchender Donald Trump oder Ronald McDonald, der mit einer blutigen Maschinenpistole vor einer Filiale von Burger King steht.

Überraschenderweise steckt hinter Grok-2 jedoch nicht xAI selbst, sondern eine Kooperation mit dem deutschen Start-up Black Forest Labs. Die Gründer arbeiteten zuvor bei Stability AI und machten sich dann mit ihrem eigenen leistungsstarken Bildgenerator Flux 1 selbstständig. Dieser scheint nun im Hintergrund von Grok-2 zu laufen und konnte in Benchmarks bereits andere Bildgeneratoren übertreffen. Black Forest Labs konnte namhafte Investoren wie Andreessen Horowitz gewinnen.

Forscher haben eine Methode namens "LongWriter" entwickelt, die es ermöglicht, die Ausgabelänge von KI-Sprachmodellen von den bisher üblichen 2000 auf mehr als 10.000 Wörter zu erweitern – das sind immerhin mehr als 40 Seiten. Laut dem Team wird die effektive Ausgabelänge eines Modells durch die längste Ausgabe begrenzt, die es während des Trainings im Finetuning gesehen hat. Das Team erstellte daher den Datensatz "LongWriter-6k" mit 6000 Texten und Ausgabelängen von bis zu 32.000 Wörtern.

Durch das Finetuning mit diesem Datensatz konnten sie dann die Ausgabelänge bestehender Modelle auf mehr als 10.000 Wörter skalieren, ohne die Ausgabequalität zu beeinträchtigen. Zur Bewertung der ultralangen Generierungsfähigkeiten entwickelten die Wissenschaftler außerdem einen neuen Benchmark. Darin erreichte ein vom Team trainiertes Neun-Milliarden-Parameter-Modell Spitzenleistungen und übertraf sogar viel größere proprietäre Modelle wie GPT-4o.

Demis Hassabis sieht in der öffentlichen Wahrnehmung von KI ein zweischneidiges Schwert. Einerseits zeige das große Interesse, dass die Technologie bereit sei, den Alltag der Menschen positiv zu beeinflussen. Andererseits bringe die Aufmerksamkeit auch viel Lärm in das Feld.

Hassabis glaubt, dass die Fähigkeiten der KI kurzfristig überschätzt werden. Viele Menschen und Start-ups würden behaupten, die Technologie könne Dinge, zu denen sie weiter nicht in der Lage sei. Langfristig werde das Potenzial von KI aber immer noch unterschätzt, insbesondere wenn es um Künstliche Generelle Intelligenz (AGI) gehe. Hassabis hält es für möglich, dass AGI im nächsten Jahrzehnt erreicht wird. DeepMind sei als 20-Jahres-Projekt angelegt worden, diese Grenze sei etwa 2030 erreicht.

Er sieht enormes Potenzial für die Menschheit durch AGI, etwa bei der Heilung von Krankheiten, sauberer Energie und der Lösung des Klimaproblems. Gleichzeitig müssten aber auch die Risiken durch menschlichen Missbrauch und unkontrollierbare KI-Systeme eingedämmt werden. Hassabis plädiert für eine internationale Zusammenarbeit bei der Regulierung von KI und wünscht sich in den letzten Phasen der AGI-Entwicklung ein wissenschaftliches "Avengers"-Team der weltbesten KI-Forscher.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

GitHub hat die öffentliche Beta von Copilot Autofix beendet und integriert das KI-gestützte Sicherheitsfeature nun in sein Angebot GitHub Advanced Security. Copilot Autofix hilft Entwicklern, Sicherheitslücken in Pull Requests zu identifizieren und liefert gleich Vorschläge für Codeanpassungen mit, um die Schwachstellen zu beheben.

Während der Beta konnten Nutzer die Zeit zum Fixen von Sicherheitsproblemen wie SQL-Injections von mehreren Stunden auf wenige Minuten reduzieren. Als Teil von Advanced Security soll Copilot Autofix auch dabei helfen, Sicherheitslücken in bestehenden Codebases aufzuspüren und zu schließen – ein Vorteil gerade für Entwickler, die sich erst in fremden Code einarbeiten müssen.

Copilot Autofix kombiniert dazu die semantische Codeanalyse von CodeQL, das GPT-4o-Modell von OpenAI und die API des Copilot-Assistenten. Ab September soll das Feature auch kostenlos für Open-Source-Projekte auf GitHub verfügbar sein.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Opera hat seinen KI-gestützten Webbrowser Opera One nun auch für iOS-Geräte veröffentlicht. Die neue Version zeichnet sich durch ein reduziertes Design und eine gestenbasierte Bedienoberfläche aus, die speziell auf iOS-Nutzer zugeschnitten ist.

Eine Neuerung ist die überarbeitete Suchfunktion, die durch Wortvorschläge und eine Wischgeste vom oberen Bildschirmrand schneller zugänglich ist. Das Design soll Ablenkungen minimieren, indem nicht genutzte Elemente wie die Suchleiste beim Scrollen ausgeblendet werden. Auch der Newsfeed wurde optisch aufgefrischt.

Ein weiteres Feature ist die Integration der KI-Assistentin Aria, die Nutzer bei Suchen und Anfragen unterstützt, Webinhalte liefert sowie mithilfe von Google Imagen2 auch Bilder generieren kann. Opera plant, das Browsing-Erlebnis auf iOS in den kommenden Monaten weiter zu optimieren.

OpenAI-Konkurrent Anthropic hat Prompt Caching für die Claude-API vorgestellt. Prompt Caching kann laut Anthropic die Kosten für lange Prompts um bis zu 90 Prozent und die Latenz um bis zu 85 Prozent senken. Die Funktion ermöglicht es Entwicklern, häufig verwendete Kontexte zwischen API-Aufrufen zwischenzuspeichern und Claude so mit mehr Hintergrundwissen und Beispielen zu versorgen.

Prompt Caching ist ab sofort als öffentliche Beta für die Modelle Claude 3.5 Sonnet und Claude 3 Haiku verfügbar, Unterstützung für Claude 3 Opus folgt in Kürze. Die Funktion eignet sich für Chat-Agenten, Code-Agenten, die Verarbeitung langer Dokumente, detaillierte Anweisungssätze, agentenbasierte Suche und Toolnutzung. Auch Google bietet Prompt Caching an.

Die steigende Nachfrage nach KI-Servern lässt auch den Bedarf an SSDs in die Höhe schnellen. Marktbeobachter Trendforce schätzt, dass Rechenzentren im Q3 2024 rund 80 Prozent mehr Enterprise-SSDs kaufen als noch Ende 2023. Über das gesamte Jahr könnten es SSDs mit einer Gesamtkapazität von über 45 Exabyte sein, was mehr als 11 Millionen 4-TByte-SSDs entspricht.

Da in Enterprise- und Client-SSDs oft die gleichen TLC-NAND-Flash-Bausteine zum Einsatz kommen, könnten Hersteller ihre Produktion zu Server-SSDs verlagern. Das birgt Potenzial für Preissteigerungen bei M.2-SSDs für PCs und Notebooks. Andererseits sind die Speicherhersteller motiviert, ihre Fertigungskapazitäten auszubauen und schneller auf neuere Chipgenerationen umzusteigen.

Im deutschen Handel haben sich die zeitweise stark gestiegenen SSD-Preise seit dem Sommer 2023 wieder stabilisiert. Einsteiger-Modelle mit 1 TB gibt es ab 50 Euro, 2 TB-SSDs starten bei 100 Euro. Für KI-Anwendungen sind SSDs essenziell, da sie schnellen Zugriff auf Trainingsdaten und Modellversionen bieten.

(igr)