KI-Update kompakt: OpenAI, Perplexity, Adobe Firefly, DeepSeek

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 9 Min.
Von
Inhaltsverzeichnis

OpenAI passt die Richtlinien für seinen Chatbot an und will künftig mehr "intellektuelle Freiheit" zulassen. Das Unternehmen aktualisierte dafür seine Modellspezifikationen, die festlegen, wie der Chatbot auf Anfragen reagieren soll. Konkret bedeutet dies, dass ChatGPT künftig auch Gespräche über kontroverse Themen wie Verschwörungstheorien zulassen soll. OpenAI will nach eigenen Angaben nur noch "echten Schaden" begrenzen, etwa Anleitungen für den Bombenbau. Die Firma entfernte bereits Warnhinweise, die Nutzer über heikle Themen informierten.

Die Änderung folgt einem Trend im Silicon Valley: Auch Meta-Chef Mark Zuckerberg kündigte kürzlich an, mehr Meinungsfreiheit auf seinen Plattformen zuzulassen.

Die Nachjustierung europäischer Regulierung für Künstliche Intelligenz war Gegenstand zahlreicher Diskussionen bei der Münchner Sicherheitskonferenz (MSC). Europäische Vertreter schwanken im Angesicht radikaler Äußerungen des alten transatlantischen Partners USA zwischen promptem Widerspruch und der Sorge, im Rennen um Innovationen zurückzufallen. Die Zeiten für Regulierer werden härter, mahnte angesichts der EU-US-Verwerfungen Amba Kak, eine der Direktorinnen des AI Now Institute. Kak appellierte an die EU-Regulierer, dem Druck der neuen US-Administration nicht nachzugeben. Nachdem man ein Jahrzehnt lang die Übermacht weniger Plattformen diskutiert habe, dürfe man die Konzentration von KI-Technologie in den Händen derselben wenigen Riesen nicht einfach hinnehmen.

Auch die Chefin des Bundesamtes für Sicherheit in der Informationstechnik, Claudia Plattner, betonte, dass Regulierung unverzichtbar bleibt, sie gut auszubalancieren sei überlebensnotwendig für demokratische Gesellschaften. Weder könnten diese es sich leisten, auf Regulierung zu verzichten. Dann würden sie von der Technologie potenziell böswilliger Akteure überrannt. Noch dürften sie auf eigene Experimente und Innovationen verzichten. Denn dann würden sie von anderen abhängig.

Die Softwareentwicklerin machte in der Runde zum Thema KI auch konkrete Vorschläge, welche Regeln sie in der aufgeheizten Debatte um freie Meinungsäußerung, Desinformation und KI für sinnvoll hielte: Keine Accounts für Bots, die Kennzeichnung von KI-generierten Inhalten und die Möglichkeit, Inhalte zu signieren, um ihre Authentizität überprüfbar zu auch konkrete Vorschläge, welche Regeln sie in der aufgeheizten Debatte um freie Meinungsäußerung, Desinformation und KI für sinnvoll hielte: Keine Accounts für Bots, die Kennzeichnung von KI-generierten Inhalten und die Möglichkeit, Inhalte zu signieren, um ihre Authentizität überprüfbar zu machen, forderte Plattner.

Perplexity erweitert sein KI-Angebot mit einer neuen Deep-Research-Funktion, die selbstständig umfangreiche Recherchen durchführt und analysiert. Das System verarbeitet innerhalb weniger Minuten Hunderte Quellen und erstellt daraus einen detaillierten Bericht – ähnlich wie die Konkurrenz mit dem gleichen Namen von OpenAI. Die Technologie arbeitet iterativ: Sie sucht, analysiert Dokumente und plant weitere Rechercheschritte basierend auf den gefundenen Informationen. Die Ergebnisse können als PDF exportiert oder als "Perplexity Page" geteilt werden.

Wahrscheinlich steckt hinter Deep Research eine angepasste Version des Modells "DeepSeek-R1". Dank der Open-Source-Lizenz des chinesischen Modells kann Perplexity seinen Dienst deutlich günstiger anbieten als die Konkurrenz. Während OpenAI 200 Dollar monatlich für 100 Anfragen verlangt, bietet Perplexity 500 tägliche Anfragen für nur 20 Dollar pro Monat an.

Im "Humanity's Last Exam", einem umfassenden KI-Benchmark mit mehr als 3.000 Fragen, erreicht Deep Research eine Genauigkeit von 20,5 Prozent und liegt damit knapp hinter OpenAIs Lösung mit 26,6 Prozent.

Wie bei allen KI-Antwortmaschinen mĂĽssen auch Perplexitys Ergebnisse vom Menschen ĂĽberprĂĽft werden. Das System kann Unwahrheiten und Ungenauigkeiten generieren, die oft schwer zu erkennen sind.

Elon Musk kündigt für Dienstagmorgen um 5 Uhr europäischer Zeit die Präsentation seines neuen KI-Modells Grok 3 an. Das Training erfolgte in seinem "Gigafactory"-Rechenzentrum mit 100.000 Nvidia H100-Chips. xAI plant, die Rechenleistung auf 200.000 GPUs zu verdoppeln und erhielt dafür weitere Milliarden von Investoren wie Nvidia, AMD und Blackrock.

Seit der ersten Ankündigung von Grok im Juli 2024 hat sich der KI-Markt deutlich verändert. Während OpenAI und andere Anbieter bereits an hybriden Modellen mit "Reasoning"-Fähigkeiten arbeiten, ist unklar, welche Architektur Grok 3 haben wird. Der Unternehmenswert von xAI wird mittlerweile auf 75 Milliarden US-Dollar geschätzt.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Der OpenAI-Vorstand hat das Übernahmeangebot des Tech-Milliardärs Elon Musk für den Non-Profit-Zweig von knapp 100 Milliarden Dollar einstimmig abgelehnt. Vorstandsmitglied Bret Taylor bezeichnet den Vorstoß als Versuch, die Konkurrenz zu stören. OpenAIs gemeinnützige Einheit will stattdessen seine Mission "KI zum Wohle der Menschheit" weiter stärken.

Musk hatte angekündigt, OpenAI wieder zu einer "sicherheitsorientierten, Open-Source-Kraft" machen zu wollen. OpenAI-Chef Sam Altman vermutet hingegen, dass Musk hauptsächlich versucht, Konkurrenz für sein eigenes KI-Start-up xAI zu eliminieren.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Die Hardware-Abteilung in Metas Reality Lab, die für Produkte wie das VR-Headset Quest und die smarte AR-Brille von Ray Ban verantwortlich ist, soll sich künftig vermehrt um humanoide Roboter kümmern. Diese sollen mit KI-Unterstützung in einem ersten Schritt als Haushaltshilfe eingesetzt werden. Wie Bloomberg berichtet, will Meta wahrscheinlich vorerst noch keine Roboter entwickeln, sondern sich auf die nötige Software und Sensorik beschränken.

Dafür ist ein neu gegründetes Entwicklungsteam in der Hardware-Abteilung von Metas Reality Labs zuständig. Meta möchte mit seiner KI eine Art Basis-System für die Robotik-Industrie werden, erklärte Metas CTO Andrew Bosworth. Humanoide Roboter stehen auch im Fokus der anderen Technologieunternehmen wie Apple, Tesla oder Google respektive Alphabet.

Adobe fügt seiner KI-Plattform Firefly einen Videogenerator hinzu. Das neue Tool erstellt aus Text- oder Bildvorgaben automatisch Videoclips in Full-HD-Auflösung mit einer Länge von fünf Sekunden.

Nutzer können dabei Perspektive, Kamerawinkel und -bewegungen bestimmen. Adobe plant zudem einen Schnellmodus mit geringerer Auflösung zum schnellen Testen von Ideen. Eine neue Übersetzungsfunktion soll Audiospuren in über 20 Sprachen übertragen und dabei die Originalstimme beibehalten.

Für die Videofeatures führt Adobe zwei neue Abonnements ein: Firefly Standard kostet 10,98 Euro monatlich und ermöglicht 20 Videogenerierungen. Firefly Pro bietet für 32,99 Euro bis zu 70 Videogenerierungen pro Monat. Die bisherige Bildgenerierung bleibt in beiden Tarifen unbegrenzt nutzbar.

Amazons neue KI-Alexa kommt wohl später: Einem Bericht der Washington Post zufolge hat Amazon den intern anvisierten Release-Termin Ende Februar verschoben, nachdem die neue Alexa in Tests Fragen falsch beantwortet habe. Frühestens am 31. März soll die neue Alexa nun in den USA verfügbar werden. Amazons überarbeitete KI-Assistentin wurde bereits vor anderthalb Jahren angekündigt, seitdem wurde die Veröffentlichung wiederholt nach hinten geschoben. Gleichzeitig gibt es immer wieder Berichte über Probleme bei der Entwicklung der neuen Alexa.

Bloomberg schrieb etwa im vergangenen Oktober, dass die KI-Alexa häufig zu lange braucht, um Antworten zu geben. Außerdem sei sie anfällig für KI-typische Halluzinationen. Wenn sie dann kommt, soll die Premium-Version der Alexa einige Zusatzfunktionen im Vergleich zur Standard-Variante bieten, die natürlichere Unterhaltungen ermöglichen. Laut Washington Post kann die KI-Assistentin etwa Persönlichkeiten annehmen, sich an vergangene Unterhaltungen erinnern oder Essen bestellen. Der Unterbau dafür kommt unter anderem von Claude, dem KI-Modell des US-Unternehmens Anthropic. Amazons bisherige Version von Alexa soll parallel zur neuen Alexa angeboten werden und kostenlos bleiben. Unklar ist noch, wie viel die neue Alexa im monatlichen Abo kosten soll.

Die südkoreanische Regierung hat die Benutzung der chinesischen KI-Anwendung DeepSeek verboten. Sie begründet den Schritt mit einem unzureichenden Datenschutz. Das am Wochenende verhängte Verbot werde erst aufgehoben, wenn "Verbesserungen und Abhilfemaßnahmen" umgesetzt werden, die dafür sorgen, dass Südkoreas Datenschutzgesetzen entsprochen werde. Südkorea ist mit den Bedenken nicht allein. Derart weitgehende Konsequenzen wurden aber bislang lediglich in Italien gezogen.

Auch in Deutschland haben Behörden und IT-Sicherheitsfachleute gravierende Sicherheitsbedenken gegen DeepSeek angemeldet. Kritisiert wird bei uns die offenkundig sehr weitreichende Speicherung von Nutzerdaten. Aber auch die mögliche Manipulierbarkeit der Anwendung für kriminelle Zwecke und die Frage, inwieweit der chinesische Spionage- und Überwachungsapparat Zugriff auf Nutzerdaten hat, treffen auf Vorbehalte. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat darauf hingewiesen, dass DeepSeek nach eigenen Angaben "Tastatureingabemuster oder -rhythmen" erfasst. Damit sollen Nutzer und Nutzerinnen identifiziert werden können. Womöglich lassen sich Tastatureingaben aber innerhalb der App mitlesen, noch bevor sie abgeschickt werden. Zwar handle es sich nicht um einen Keylogger, trotzdem sei das Verhalten "mindestens für sicherheitskritische Bereiche bedenklich".

(igr)