KI-Update: Erdbeben-KI, Study Mode für ChatGPT, KI-Modell für Antike, Apple

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Als im Februar 2023 zwei schwere Erdbeben die Türkei erschütterten, versagte Googles KI-basiertes Warnsystem. Mehr als 55.000 Menschen starben, über 100.000 wurden verletzt. Das Android Earthquake Alerts System bewertete das erste Beben mit einer Stärke von nur 4,5 bis 4,9 auf der Momenten-Magnituden-Skala. Tatsächlich erreichte es eine Magnitude von 7,8. Diese massive Fehleinschätzung hatte fatale Folgen: Nur 469 Menschen erhielten die lebensrettende "Take Action"-Warnung – die einzige Alarmstufe, die auch schlafende Nutzer weckt. Nach späteren Simulationen hätten bis zu zehn Millionen Menschen diese Warnung erhalten müssen.

Google nennt drei zentrale Fehlerursachen: Das Zeitfenster für die Datenauswertung war zu kurz, zu viele unzuverlässige Smartphones verzerrten die Messungen und viele Geräte begannen durch eine schwächere Vorwarnung zu vibrieren, was die eigentliche Erdbebenerkennung störte. Google hat laut eigenen Angaben alle drei Probleme behoben. Noch 2023 behauptete das Unternehmen gegenüber der BBC, das System habe "gut funktioniert". Jetzt, in einer Veröffentlichung im Fachjournal Science, räumt es "mehrere Begrenzungen der Erkennungsalgorithmen" ein. Das Warnsystem läuft in mehreren Ländern und wird als "globales Sicherheitsnetz" beworben.

OpenAI, ein KI-Modellhersteller, hat einen "Study Mode" für ChatGPT eingeführt, der echtes Lernen unterstützen soll statt bloßes Abschreiben. Die Antworten werden Schritt für Schritt gegeben und je nach Fragestellung in Zwischenüberschriften aufgeteilt. Nutzer können an jeder Stelle tiefer einsteigen und ihr Wissen in einem Quiz testen. Der Modus ist multimodal und kann auch Bilder verarbeiten.

Auf Wunsch lässt sich die "Memory"-Funktion aktivieren, die sich Fakten merkt und in neue Fragen einbezieht. ChatGPT bedenkt dabei, auf welchem Niveau ein Fragender eine Antwort benötigt – ob ein Biologiestudent spezielle Fachfragen hat oder ein Abiturient eher generelle Hilfe braucht. Der Study Mode basiert auf angepassten Systemanweisungen, die OpenAI gemeinsam mit Lehrkräften, Wissenschaftlern und Pädagogen entwickelt hat. Die Funktion steht seit Dienstagabend allen registrierten Nutzern zur Verfügung.

Die Videoplattform YouTube wird testweise das Alter der Nutzer mithilfe von maschinellem Lernen automatisch einschätzen. Damit soll erkannt werden, ob Kinder und Jugendliche die Plattform nutzen, um dann Schutzmaßnahmen zu aktivieren. Die automatische Alterseinschätzung wird in den USA bereits anhand eines begrenzten Nutzerkreises getestet und soll später auf weitere Regionen ausgedehnt werden.

YouTube nutzt KI, um verschiedene Zeichen zu erkennen, die auf Minderjährigkeit hindeuten – etwa die Videos, nach denen Nutzer suchen oder die sie zuvor geschaut haben. Sollte das System einen Nutzer als Teenager erkennen, werden automatisch Jugendschutzfunktionen eingeschaltet: die Deaktivierung personalisierter Werbung, Tools für digitales Wohlbefinden sowie nur eingeschränkte Videoempfehlungen. Wenn YouTube-Nutzer fälschlicherweise als jugendlich eingestuft werden, müssen sie sich ausweisen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Das Start-up Harmonic will ein Problem lösen, das viele KI-Nutzer kennen: Wie kann man sicher sein, dass die Antwort stimmt? Bei der diesjährigen Internationalen Mathematik-Olympiade gewann das Unternehmen mit seinem System Aristotle eine Goldmedaille – genau wie OpenAI und Google DeepMind. Der entscheidende Unterschied: Aristotle verifizierte alle Lösungen formal und kommt ohne menschliche Prüfung aus.

Während die Konkurrenz die Olympiade-Aufgaben in natürlicher Sprache bearbeitete, übersetzte Harmonic die Aufgaben in eine maschinenlesbare Form und überprüfte die Lösungen mit dem Beweissystem Lean4. "Innerhalb der von Aristotle unterstützten Bereiche garantieren wir tatsächlich, dass es keine Halluzinationen gibt", sagt Harmonic-Chef Tudor Achim. Das Start-up hat bereits eine Beta-App für Apple iOS und Android veröffentlicht, die komplexe mathematische Fragen löst und den zugehörigen Lean-Code zeigt.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Ein Wissenschaftsteam der University of Nottingham hat gemeinsam mit Google DeepMind das KI-Modell Aeneas entwickelt, mit dem teilweise erhaltene antike lateinische Inschriften ergänzt und zeitlich eingeordnet werden sollen. Jährlich werden etwa 1500 neue lateinische Inschriften von Archäologen entdeckt, meist verwittert und nur noch in Fragmenten erhalten. Die KI analysiert die Schriftfragmente und stellt sie in den historischen Kontext.

Das KI-Modell wurde mit knapp 177.000 lateinischen Inschriften trainiert, die aus dem römischen Reich zwischen 800 vor und 700 nach Christus entstanden sind. Die KI nutzt bei ihren Voraussagen textuelle und kontextuelle Parallelen. Aeneas kann darüber hinaus die Herkunft einer Inschrift einer von 62 römischen Provinzen zuordnen. 90 Prozent der befragten Historiker befanden die Angaben der KI als nützlich.

Apple soll zwischenzeitlich geplant haben, seine KI-Grundmodelle im Rahmen von Apple Intelligence als Open-Source-Code bereitzustellen. Entsprechende interne Diskussionen gab es einem Bericht zufolge noch in diesem Jahr. Dank Quelloffenheit wollte Apple externe Entwickler gewinnen, um die Foundation-Models schneller zu verbessern, zudem erhoffte man sich ein verbessertes Image.

Die Entscheidung wurde dann von Apples Software-Chef Craig Federighi anders gefällt: Er entschied sich gegen Open Source. Es soll Befürchtungen gegeben haben, dass externe Entwickler erkennen, wie viel schlechter lokale KI-Modelle sind, auf die Apple bislang noch stark setzt. Apples KI-Abteilung hat in jüngster Zeit mit zahlreichen Abgängen zu kämpfen. So wurde der Chef der Grundmodelle von Meta, einem Social-Media-Konzern, für einen dreistelligen Millionenbetrag abgeworben.

Alibaba, ein chinesischer Tech-Konzern, hat auf der World AI-Conference in Shanghai die ersten Smart Glasses des Unternehmens vorgestellt. Das Wearable ist mit Kamera, Mikrofon und Lautsprecher ausgestattet und, anders als bei Metas Produkt, mit einem Heads-up-Display. Die Smart Glasses unterstützen Telefonieren, Musikstreaming, Echtzeitübersetzung und Transkription. Die KI-Funktionen werden von Alibabas Sprachmodell Qwen angetrieben.

Das große Vorbild ist Meta: Mit den Meta-Ray-Ban-Brillen hat das Unternehmen einen neuen Tech-Trend losgetreten. Auch Google, Samsung und Apple arbeiten an entsprechenden Wearables, in der Hoffnung, dass sich die neue Gerätekategorie als ideale Hardware für KI-Assistenten erweist. Die Meta-Ray-Ban-Brillen haben sich seit der Markteinführung im Oktober 2023 über zwei Millionen Mal verkauft. Die Alibaba-KI-Brille soll Ende 2025 in China erscheinen.

Google baut sein KI-Recherchetool NotebookLM weiter aus. Das neueste Feature sind "Video Overviews" – automatisch generierte Präsentationen, die komplexe Inhalte visuell aufbereiten sollen. Die Video Overviews erstellen gesprochene Präsentationsfolien mit Bildern, Diagrammen, Zitaten und Zahlen aus den eigenen Dokumenten. Sie ergänzen die bereits verfügbaren Audio Overviews als visuelle Alternative.

Nutzer können die Videos personalisieren, indem sie Lernziele, Zielgruppen oder thematische Schwerpunkte angeben. Möglich sind sowohl allgemeine Anfragen wie "Ich kenne mich mit dem Thema nicht aus – helft mir, die Diagramme zu verstehen" als auch präzise Aufgabenstellungen für Fachpublikum. Die Funktion wird zunächst in englischer Sprache veröffentlicht, weitere Sprachen sollen folgen. NotebookLM läuft als Nischenprojekt neben Googles Hauptprodukt Gemini und konzentriert sich auf die Arbeit mit eigenen Quellen.

(mali)