KI-Update kompakt: Mira Murati, Reasoning, KI im Unterricht, Reiseplanung

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Mira Murati, die ehemalige CTO von OpenAI, hat das Unternehmen verlassen und plant nun die Gründung eines eigenen KI-Startups. Details sind noch nicht bekannt, aber Murati sammelt bereits Geld von Investoren ein. Als prominentes Gesicht der KI-Branche, unter anderem durch die Vorstellung von GPT-4o, sollte ihr das nicht schwerfallen.

Murati ist eine von vielen OpenAI-Mitarbeitern, die das Unternehmen in letzter Zeit verlassen haben. Einige wechselten zu Konkurrenten wie Anthropic oder Safer Superintelligence. Zu Muratis Beweggründen ist nichts bekannt. Ihr neues Start-up soll sich auf proprietäre KI-Modelle fokussieren, weitere Details fehlen noch.

Bei Google gibt es derweil eine Personalrochade: Das Gemini-Team wechselt zu DeepMind unter Führung von Demis Hassabis, der Google Assistant zum Plattform- und Geräte-Team. Prabhakar Raghavan wird Chief Technologist, sein Nachfolger als Leiter für Suche und Anzeigen wird der langjährige Google-Mitarbeiter Nick Fox. Die bisherige KI-Suche stieß auf wenig Zustimmung, in der EU ist sie noch gar nicht verfügbar. Möglicherweise bringt die neue Leitung frischen Wind.

Google hat sein KI-basiertes Recherche-Tool NotebookLM deutlich aufgewertet und positioniert es nun als ernstzunehmende Alternative zu ChatGPT. Das Tool ist zwar schon seit über einem Jahr verfügbar, erlebte aber erst kürzlich mit einer neuen Podcast-Funktion einen ersten Höhenflug. Zu den Neuerungen gehören anpassbare KI-generierte Podcast-Diskussionen, bei denen sich zwei virtuelle Moderatoren über den Inhalt eines Textes unterhalten. Nutzende können mit dem Update den Fokus des Podcasts auf bestimmte Themen oder Quellen legen und sogar das Zielpublikum anpassen.

Das Tool greift ausschließlich auf von den Nutzenden bereitgestellte Quellen zurück, was die Verlässlichkeit der Informationen erhöhen soll.

Ein Forscherteam von Apple hat die Fähigkeiten aktueller großer Sprachmodelle (LLMs) zum logischen Denken untersucht. Ihr Fazit: Es hapert noch an vielen Stellen bzw. lässt sich ein echtes "Reasoning" kaum dauerhaft nachweisen. Im Fokus standen die mathematischen Fähigkeiten der LLMs.

Die Forscher stellten fest, dass LLMs meist ein sehr fortschrittliches Pattern-Matching nutzen, um Antworten zu finden – auch neuere Systeme wie Metas Llama-Modelle oder OpenAIs o1. Probleme treten auf, wenn Nutzeranfragen ungenau formuliert sind oder ablenkende Inhalte enthalten. Dann verändern sich die Ergebnisse teils signifikant.

Bei einem simplen Rechenbeispiel führte eine irrelevante Zusatzinformation dazu, dass das Ergebnis um 10 Prozent daneben lag, in anderen Fällen sogar um 65 Prozent. Die Apple-Forscher vermuten, dass in den Modellen kein echtes logisches Denken stattfindet. Stattdessen imitieren LLMs nur die Reasoning-Schritte aus ihren Trainingsdaten.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Der Verlag Penguin Random House (PRH) hat seine Copyright-Erklärung weltweit geändert, um auf den Boom generativer KI zu reagieren. Neu heißt es: "Kein Teil dieses Buches darf in irgendeiner Weise zum Zweck des Trainings künstlicher Intelligenztechnologien oder -systeme verwendet oder reproduziert werden". Der Hinweis soll in allen neuen und nachgedruckten Titeln erscheinen.

PRH will die Werke damit auch von der Text- und Data-Mining-Ausnahme aus der EU-Urheberrechtsrichtlinie ausnehmen. Diese erlaubt Forschungseinrichtungen Vervielfältigungen zum KI-Training, sofern nicht kommerzielle Zwecke verfolgt werden. Rechteinhaber können dem widersprechen, online durch einen maschinenlesbaren Hinweis.

Der PRH-UK-Chef betonte, man werde das geistige Eigentum der Autoren energisch verteidigen, wolle aber auch selbst "verantwortungsvoll innovativ sein" und KI-Tools einsetzen, wenn sie die Unternehmensziele voranbringen. Autorenverbände begrüßten den Schritt, die aktuelle Formulierung gehe aber noch nicht weit genug. Auch die Autorenverträge müssten geändert werden.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Forscherinnen und Forscher der Universität Lund in Schweden haben in zwei Studien den Einsatz von KI-Chatbots wie ChatGPT für Schulaufgaben untersucht. Sie verglichen dabei jüngere Schülerinnen und Schüler mit einem Durchschnittsalter von 14 Jahren und ältere Jugendliche mit durchschnittlich 17 Jahren.

Die Ergebnisse zeigen deutliche Unterschiede: Während nur 14,8 Prozent der jüngeren Schüler KI-Chatbots für Hausaufgaben nutzten, waren es bei den älteren bereits 52,6 Prozent. Jungen verwendeten häufiger ChatGPT, Mädchen bevorzugten Snapchat MY-AI. Die Forschenden untersuchten den Zusammenhang zwischen der Nutzung von KI-Tools für Schulaufgaben und den sogenannten Exekutivfunktionen (EF) – kognitiven Prozessen wie Planung, Hemmung und Flexibilität, die für den akademischen Erfolg entscheidend sind.

Besonders interessant: Jugendliche mit selbst berichteten Problemen bei Exekutivfunktionen empfanden die KI-Tools als nützlicher für ihre Schularbeit. Das galt vor allem für das vollständige Erledigen von Aufgaben.

Die Forschenden sehen diese Entwicklung zwiespältig. Einerseits könnten KI-Tools gerade Jugendlichen mit Lernschwierigkeiten helfen, Aufgaben besser zu planen und zu bewältigen. Andererseits warnen sie vor möglichen negativen Auswirkungen auf die kognitive Entwicklung ohnehin benachteiligter Jugendlicher, wenn die Tools als Lernersatz eingesetzt werden. Zudem bleibe unklar, ob die Schülerinnen und Schüler die KI-Tools nur unterstützend nutzen oder ganze Aufgaben selbstständig erledigen.

Selbst fortschrittliche KI-Sprachmodelle wie OpenAIs o1-Preview haben große Schwierigkeiten mit komplexen Planungsaufgaben. Das zeigt eine neue Studie der Fudan University, Carnegie Mellon University, ByteDance und der Ohio State University. Die Wissenschaftlerinnen und Wissenschaftler untersuchten das Planungsverhalten anhand zweier Benchmarks: BlocksWorld und TravelPlanner. Während einige Modelle bei der einfacheren BlocksWorld-Aufgabe gut abschnitten, waren die Ergebnisse beim realitätsnahen Reiseplanungs-Szenario für alle getesteten Modelle enttäuschend.

GPT-4o erreichte nur eine Erfolgsquote von 7,8 Prozent, o1-Preview kam auf 15,6 Prozent. Andere Modelle wie GPT-4o-Mini, Llama3.1 und Qwen2 lagen sogar nur zwischen 0 und 2,2 Prozent. Die Forschenden identifizierten zwei zentrale Schwachstellen: Zum einen beziehen die KI-Systeme vorgegebene Regeln und Bedingungen nur unzureichend in ihre Planung ein. Zum anderen verlieren sie mit zunehmender Planungsdauer den Bezug zur ursprünglichen Aufgabe.

Verbesserungsansätze wie etwa ein regelmäßgies "Gedächtnis-Update", das dem Sprachmodell die Vorgaben in Erinnerung rufen soll, zeigten zwar leichte Fortschritte, konnten die Grundprobleme aber nicht vollständig lösen.

Die US-Börsenaufsicht SEC hat dem insolventen Start-up Destiny Robotics vorgeworfen, Investoren mit nicht realisierbaren Versprechungen um ihr Geld betrogen zu haben. Gegen eine Zahlung von knapp 65.000 Dollar bietet die SEC nun die Einstellung des Ermittlungsverfahrens an.

Destiny Robotics hatte 2021 auf der Crowdfunding-Plattform Wefunder vollmundig einen KI-gesteuerten holografischen Assistenten und einen humanoiden Roboter angekündigt. Beide sollten wahre Wunderdinge vollbringen und bereits 2022/23 auf den Markt kommen. 145 Investoren zahlten insgesamt 141.455 Dollar ein.

Tatsächlich hatte die Geschäftsführerin nie die Absicht, die Produkte fertigzustellen. Die gezeigten Prototypen basierten nur auf einfacher Sprachsoftware bzw. ferngesteuerten Plastikteilen. Intern wurden keine ernsthaften Entwicklungsanstrengungen unternommen. Die SEC konnte die Betrugsabsicht durch Analyse der Produktvideos und Unterlagen nachweisen.

(igr)