KI-Update kompakt: Lost-in-the-Middle, Rabbit R1, Datenschutz, KI-Ampel

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Forscher von Microsoft und chinesischen Universitäten haben einen datenbasierten Ansatz entwickelt, um die Verarbeitung langer Kontexte durch Sprachmodelle zu verbessern. Das sogenannte "Lost-in-the-Middle"-Phänomen führt dazu, dass Informationen in der Mitte eines Kontextes oft verloren gehen, während Anfang und Ende gut verstanden werden.

Die neue Methode namens "INformation-INtensive (IN2) Training" nutzt synthetische Frage-Antwort-Daten, bei denen wichtige Informationen zufällig im Kontext platziert werden. Dadurch lernt das Modell, Informationen an jeder Position wahrzunehmen, zu integrieren und Schlüsse zu ziehen.

Die Anwendung von IN2 auf das Mistral-7B-Modell führte zu einer signifikanten Leistungsverbesserung bei langen Kontexten. Das resultierende FILM-7B-Modell erreichte trotz geringerer Größe eine ähnliche oder sogar robustere Leistung als größere Modelle wie GPT-4 Turbo.

Dennoch bleibt das "Lost-in-the-Middle"-Problem bestehen, wie Benchmark-Ergebnisse zeigen. GPT-4 Turbo ist weiterhin führend, hat aber erhebliche Schwierigkeiten mit langen Kontexten. Zukünftige Forschung wird zeigen, wie gut IN2 skaliert und weiterentwickelt werden kann.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Das von Elon Musk gegründete KI-Startup xAI steht laut Techcrunch kurz vor dem Abschluss einer Finanzierungsrunde in Höhe von 6 Milliarden Dollar bei einer Pre-Money-Bewertung von 18 Milliarden Dollar. Eine vertrauenswürdige Quelle, die mit dem Deal vertraut ist, teilte Techcrunch mit, dass die Finanzierungsrunde in den nächsten Wochen abgeschlossen werden soll. Dabei beteiligen sich Investoren wie Sequoia Capital, Future Ventures, das ist der Risikokapitalfonds von Musks langjährigem Freund Steve Jurvetson, sowie Valor Equity Partners und Gigafund, deren Gründer ebenfalls zu Musks engstem Kreis gehören. Auch Musks Social-Media-Plattform X profitiert von der Finanzierung, da sie einen Anteil an dem KI-Unternehmen hält.

xAI soll sich von anderen KI-Unternehmen dadurch abheben, dass es die digitale und die physische Welt miteinander verbinden kann. Dafür bezieht es Trainingsdaten von Musks anderen Unternehmen wie Tesla, SpaceX, Boring Company und Neuralink. Insbesondere die Tesla-Fahrzeugflotte und der humanoide Roboter Optimus könnten wiederum von den KI-Entwicklungen bei xAI profitieren.

Der auf der CES vorgestellte KI-Assistent Rabbit R1 wird von ersten Testern als Fortschritt gegenüber ähnlichen Produkten wie AI Pin, aber noch nicht als ausgereift bewertet. Positive Aspekte sind das unkonventionelle Hardware-Design und die ordentlich funktionierende Bilderkennung.

Kritisiert werden die noch fehlerhafte Sprachsteuerung für komplexe Aufgaben, die kurze Akkulaufzeit und die teils umständliche Bedienung. Offen bleibt, warum der R1 als eigenes Gerät und nicht als Smartphone-App konzipiert wurde, da die Innovation rein softwarebasiert ist.

Wichtige noch ungeklärte Fragen sind der Umgang mit persönlichen Nutzerdaten und die Sicherheit der Cloud-Speicherung auf den Servern des Herstellers Rabbit. Unsere Redaktion wartet noch auf ein eigenes Testgerät, um die Nutzbarkeit im deutschsprachigen Raum zu evaluieren.

Die österreichische Bürgerrechtsorganisation Noyb hat bei der Datenschutzbehörde Beschwerde gegen OpenAI eingereicht. Sie fordert eine Prüfung der Datenverarbeitung bei den Sprachmodellen hinter ChatGPT auf DSGVO-Konformität, Maßnahmen zur Einhaltung der Vorschriften und ein Bußgeld.

Laut Noyb kann OpenAI falsche Informationen über Personen nicht korrigieren und keine Angaben zu Datenherkunft und -speicherung machen. Dies widerspricht dem Recht auf Berichtigung und Zugang nach DSGVO. Noyb sieht ernsthafte Folgen, wenn Systeme keine genauen, transparenten Ergebnisse liefern.

Seit Ende 2022 steht OpenAI immer wieder wegen Datenschutzproblemen in der Kritik, ChatGPT war zwischenzeitlich in Italien gesperrt. Die Halluzinationen generativer Sprachmodelle werden als kaum beherrschbar angesehen.

Der auf Llama 3 basierende KI-Chatbot von Meta erfindet haltlose Vorwürfe der sexuellen Belästigung gegen mehrere US-Abgeordnete und untermauert sie mit erfundenen Details. Dies ergaben Tests des New Yorker Magazins City & State, nachdem ein Informant einen entsprechenden Screenshot eingereicht hatte.

Bei Eingabe der Namen von über einem Dutzend Politikern beider Parteien, kombiniert mit dem Begriff "sexuelle Belästigung", lieferte der Chatbot fiktive Geschichten über angebliche Vorfälle und nie durchgeführte Untersuchungen. Auch die für KI-Regulierung zuständigen Senatoren Kristen Gonzalez und Clyde Vanel blieben von den Lügen nicht verschont.

Gonzalez fordert Konsequenzen für Unternehmen wie Meta, die eine Rolle bei der Verbreitung von Falschinformationen spielen. Ein Sprecher von Meta verwies auf den frühen Entwicklungsstand der Technik und die Herausforderungen bei der Eindämmung von KI-generierten Halluzinationen. Ob Warnhinweise ausreichen, um potenzielle Rufschädigungen zu rechtfertigen, bleibt eine offene Frage für Politik und Justiz.

Auch auf TikTok sorgen KI-Fakes für Aufregung: Sie suggerieren, das Kuscheltier-Unternehmen Build-a-Bear biete eine neue Linie von "Satansbären" an. Der US-Spielzeughersteller sieht sich nun mit einer Flut von Falschmeldungen in den sozialen Medien konfrontiert. Ursprung der Falschmeldung ist laut USA Today ein satirischer Facebook-Post der Seite "The Pumpkin Empress" von Ende März. Der Hinweis, dass es sich um Satire handelt, ging jedoch verloren, als die Bilder auf TikTok auftauchten. Einige TikTok-Nutzende hielten die satanischen Teddybären für echt und kritisierten das Unternehmen. Längst nicht alle ließen sich jedoch täuschen. In den Kommentaren finden sich zahlreiche Hinweise auf KI-Fakes, teils mit detaillierten Analysen der Bildfehler.

Das Beispiel zeigt einmal mehr die Risiken von KI-Bildern gerade in sozialen Medien: Wenn selbst so offensichtliche Satire täuschen kann, haben realistische Fakes mit gezielter Täuschungsabsicht leichtes Spiel. Für unbedarfte Nutzerinnen und Nutzer wird es immer schwieriger, zwischen Realität und Fiktion zu unterscheiden – mit potenziell gefährlichen Folgen für Unternehmen und den öffentlichen Diskurs. Da Algorithmen und automatische Filtermethoden bisher nicht greifen, sind die sozialen Netzwerke auf sich allein gestellt – und auf die Nutzenden, die Fakes entlarven können.

Die nordrhein-westfälische Stadt Hamm testet seit Juli 2023 KI-gesteuerte Ampeln zur Verkehrsregelung. Während die erste Anlage weitgehend reibungslos funktioniert, zeigte die zweite kürzlich installierte Ampel an der Ostwennemarstraße zeitweise permanent Rot für Autofahrer, obwohl keine Fußgänger in der Nähe waren.

Das von der Firma Yunex entwickelte System "awareAI" nutzt Videokameras und Algorithmen, um Verkehrsteilnehmer zu erfassen und Grünphasen bedarfsgerecht zu steuern, ohne personenbezogene Daten zu speichern. Nach Anpassungen durch den Hersteller läuft die Anlage inzwischen stabiler, bedarf aber noch weiterer Verfeinerung im laufenden Betrieb.

Auch in Gießen regelt seit Oktober 2023 eine KI-Ampel den Verkehr an einem zuvor unfallträchtigen Knotenpunkt. Die bisherigen Erfahrungen mit der neuen Technologie sind laut den Verantwortlichen trotz anfänglicher Schwierigkeiten insgesamt sehr positiv.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

(igr)