KI-Update kompakt: OpenAIs GPT 4.5, Jugendschutz, YouTube, KI-Regulierung

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

Bei OpenAI scheint sich ein Strategiewechsel abzuzeichnen: In den kommenden Wochen erscheint zunächst GPT-4.5, intern auch "Orion" genannt. Es wird das letzte "klassische" Sprachmodell sein, bevor noch in diesem Jahr der große Wurf mit GPT-5 folgt.

Die Strategie von OpenAI zielt auf eine radikale Vereinfachung ab: weg von der Komplexität verschiedener Modelle, hin zu einer einheitlichen KI-Lösung. Aktuell bietet OpenAI bis zu acht verschiedene Modellvariationen in ChatGPT an, über die API sogar noch mehr. GPT-5 soll damit Schluss machen und die bisher getrennten Modellreihen zusammenführen. Auch das vor der Ankündigung als separat geplantes o3-Modell wird in GPT-5 integriert.

Das neue System soll eigenständig entscheiden können, wann es länger nachdenken muss und welche Werkzeuge für eine Aufgabe am besten geeignet sind. Dafür integriert OpenAI Funktionen wie Sprache, Canvas, Suche und Deep Research in einem einzigen Modell. Ziel ist es, eine vereinheitlichte Intelligenz zu schaffen, die Nutzern die komplexe Modellauswahl abnimmt.

Für die Nutzer bedeutet das konkret: Die kostenlose Version bietet unbegrenzten Zugang zur Standardversion – mit gewissen Einschränkungen bei Missbrauch. Plus-Abonnenten können eine höhere Intelligenzstufe nutzen, während Pro-Nutzer Zugriff auf die höchste Stufe erhalten. OpenAI setzt dabei besonders auf die sogenannten Large Reasoning Models. Diese mit Reinforcement Learning optimierten Modelle zeigen bereits jetzt Fähigkeiten, die man erst von späteren Generationen erwartet hatte.

Besonders beeindruckend sind die Fortschritte in der Programmierung: Das aktuelle o3-Modell gehört bereits zu den Top-200-Programmierern weltweit, das sagt zumindest Sam Altman. Neuere Versionen haben sich unter die besten 50 verbessert. Das Entwicklerteam arbeitet mit Hochdruck daran, bis Ende des Jahres die Spitzenposition zu erreichen.

Google wird im Laufe dieses Jahres künstliche Intelligenz zur Erkennung des Alters seiner Nutzerinnen und Nutzer testen. Mithilfe maschinellen Lernens sollen Minderjährige ermittelt werden, um diesen auf Googles Plattformen wie der Suchmaschine oder YouTube "altersgerechte Erlebnisse anbieten" zu können. Diese Jugendschutzmaßnahme wird zunächst in den USA getestet, aber die Technik soll anschließend auch in anderen Ländern eingesetzt werden.

Die Google-KI soll das Alter der Nutzenden auf Basis bestehender Daten ermitteln. Dazu gehören der Browser-Verlauf, welche YouTube-Videos geschaut werden und wie lange das Google-Konto bereits existiert. Dann könnten die Google-Einstellungen automatisch geändert werden. Den Anwenderinnen und Anwendern wird gleichzeitig mitgeteilt, wie sie das Alter bestätigen können, etwa per Selfie-Bild, einer Kreditkarte oder einem Ausweis. Gleichzeitig kündigte Google an, dass Teenager in den nächsten Monaten Zugriff auf Googles NotebookLM bekommen sollen. NotebookLM ist ein KI-Assistent, der auf eigenen Dokumenten basiert. Er kann etwa Texte zusammenfassen und komplexe Themen erklären. Für Schlagzeilen sorgte die Funktion, mit der man sich einen Text in Form eines Podcasts zusammenfassen lassen kann.

Perplexity AI mischt den KI-Suchmarkt auf: Das Unternehmen hat sein neues Suchmodell Sonar vorgestellt, das auf Metas Llama 3.3 70B aufbaut. In internen Tests übertrifft es nach Unternehmensangaben Konkurrenzmodelle wie GPT-4o mini und Claude 3.5 Haiku in der Nutzerzufriedenheit und in einigen Bereichen sogar die größeren GPT-4o und Claude 3.5 Sonnet. Perplexity hat das Llama-Modell nach eigenen Angaben durch zusätzliches Training weiter optimiert, um in der eigenen Suchfunktion bessere Ergebnisse zu liefern.

Insbesondere die Faktentreue und Lesbarkeit der generierten Antworten sollen dadurch verbessert worden sein. Besonders beeindruckend ist die Geschwindigkeit: Durch den Einsatz spezialisierter Hardware von Cerebras Systems erreicht Sonar 1200 Token pro Sekunde – das sind dann quasi Antworten in Echtzeit. Diese "Wafer Scale Engine" verwandelt einen ganzen Wafer in einen einzigen, riesigen Chip. Vorerst steht Sonar nur zahlenden Pro-Nutzern zur Verfügung, eine breitere Verfügbarkeit ist aber bereits in Planung.

KI-Tools wie ChatGPT oder Copilot können das Leben erleichtern, etwa indem sie Zusammenfassungen von Nachrichten erstellen. Die Ergebnisse seien jedoch mit Vorsicht zu genießen, warnt BBC. Für eine Studie ließ die britische Rundfunkanstalt die Systeme ChatGPT, Copilot, Gemini und Perplexity AI Nachrichten von ihrer Website auswerten. Dann wurden den Systemen Fragen dazu gestellt. Journalistinnen und Journalisten, die sich mit dem jeweiligen Thema auskannten, bewerteten die Antworten. Dabei hätten mehr als die Hälfte der Antworten "erhebliche Probleme in irgendeiner Form" aufgewiesen, heißt es.

Die Studienautoren fanden fast in jeder fünften Antwort sachliche Fehler, wie falsche Tatsachenbehauptungen, Zahlen und Daten. Deborah Turness, Chefin von BBC News and Current Affairs, rief in einem Blogbeitrag die Anbieter auf, wie Apple ihre KI-generierten Zusammenfassungen von Nachrichten abzuschalten. Ende vergangenen Jahres hatte sich BBC bei Apple über eine Falschmeldung von deren Dienst Apple Intelligence beschwert. Daraufhin deaktivierte Apple die AI-Summaries.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

IT-Sicherheitsforscher haben auf der Entwicklungsplattform Hugging Face manipulierte Machine-Learning-Modelle entdeckt, die als Einfallstor für Cyberangriffe dienen können. Die als "nullifAI" bezeichnete Schadsoftware nutzt eine Sicherheitslücke in der sogenannten Pickle-File-Serialisierung (auch Pickling genannt) aus.

Die Angreifer verwenden dabei eine besondere Verschleierungstaktik: Die Modelldateien sind mit einem unüblichen Kompressionsformat versehen und enthalten defekte Datenstrukturen. Diese Kombination führt dazu, dass die Sicherheitssysteme von Hugging Face die Dateien nicht als gefährlich einstufen können.

Die gefundenen Schadprogramme können nach der Installation eine versteckte Netzwerkverbindung zu einem vordefinierten Server aufbauen. Die Sicherheitsforscher warnen, dass über solche manipulierten Modelle auch der Zugriff auf Kameras, Mikrofone und das Dateisystem möglich wäre.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Der deutsche Hersteller von zivilen und militärischen Überwachungsdrohnen, Quantum Systems, entwickelt derzeit einen akustischen Sensor, der Aufklärungsdrohnen in die Lage versetzen soll, Artillerie- und Mörserfeuer genauer zu lokalisieren. Das geht aus einem Bericht des Militärmagazins Hartpunkt hervor. Der Sensor misst den Schall, eine Künstliche Intelligenz (KI) wertet die Schallsignatur aus und bestimmt etwa die Art des Schusses. Das soll auf eine Distanz von 15 km funktionieren.

Mit diesen Informationen wird die Kamera der Aufklärungsdrohne automatisch angesteuert, die dann auf die feindliche Stellung ausgerichtet wird. Das soll mit einer Genauigkeit von 5 Grad auf 5 km funktionieren. Bisher musste die Kamera manuell vom Bediener ausgerichtet werden, um eine Stellung optisch zu erfassen. Das Sensorsystem in der Aufklärungsdrohne könnte mobilen Truppenteilen helfen, genauer als bisher auf Artillerie- und Mörserfeuer zu reagieren.

Die Schauspielerin Scarlett Johansson fordert die Regulierung von Künstlicher Intelligenz, nachdem ein KI-generiertes Video mit Deepfakes von ihr und anderen jüdischen Prominenten viral ging. Darin tragen die Promis T-Shirts mit dem Namen Kanye und ein Mittelfinger mit einem Judenstern ist darin zu sehen. Der offen antisemitische Rapper Kanye West hatte am Wochenende versucht, Hakenkreuz-T-Shirts über seine Modelinie zu verkaufen. Bei Instagram hat das Protest-Video inzwischen mehr als 31.000 Likes. Es zeigt neben Johansson unter anderem auch KI-generierte Versionen von Steven Spielberg, Mark Zuckerberg und OpenAI-Chef Sam Altman und endet mit dem Schriftzug "Enough is Enough", "Join the Fight Against Antisemitism".

Unter dem Video ist ein Hinweis von Meta zu sehen: "Dieser Inhalt wurde digital erstellt oder mithilfe von KI verändert, um echt zu wirken." Gegenüber dem People Magazine verurteilte Johansson, was sie als "den Missbrauch von KI, egal welche Botschaft sie vermittelt", bezeichnet. Sie habe keine Toleranz für Antisemitismus oder Hassreden jeder Art. Allerdings sei sie gegen den Missbrauch von KI jeder Art, "egal welche Botschaft sie vermittelt, sonst riskieren wir, den Bezug zur Realität zu verlieren", betont Johansson.

(igr)