KI-Update kompakt: GPT-4o, Claude in Europa, Grok im Test, KI in der Medizin

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 9 Min.
Von
Inhaltsverzeichnis

OpenAI hat im Rahmen des Spring-Updates das neue Modell GPT-4o vorgestellt, ein "Omnimodel" für künstliche Intelligenz, das Audio-, Text- und Bildverarbeitung nativ integriert. GPT-4o soll in ChatGPT und über die API verfügbar sein und zeichnet sich durch verbesserte Latenz und Kosteneffizienz aus.

Mit GPT-4o kann man das Smartphone als Kamera nutzen, Fragen stellen und Antworten erhalten. Mathematikrechnungen auf Papier können überprüft, Programmcodes analysiert und Emotionen in Live-Selfies erkannt werden. Auch die Desktop-Anwendung wird erneuert, um die wachsende Funktionsvielfalt bei gleichbleibender Benutzerfreundlichkeit zu bewältigen.

Text- und Bildfunktionen von GPT-4o werden sofort eingeführt, der Sprachmodus folgt als Alpha-Version für ChatGPT Plus. Entwickler erhalten API-Zugriff auf das Text- und Bildmodell, das doppelte Geschwindigkeit, halbe Kosten und fünffaches Rate-Limit im Vergleich zu GPT-4 Turbo bietet. Neu sind auch provisorische Chats, die nicht gespeichert, aber aus Sicherheitsgründen 30 Tage lang aufbewahrt werden.

Bereits vor dem Spring-Update wurde bekannt, dass OpenAI die verantwortungsvolle Generierung von NSFW-Inhalten über API und ChatGPT in altersgerechten Kontexten prüft. Dazu gehören potenziell erotische Inhalte, extreme Gewaltdarstellungen, Schimpfwörter und unerwünschte Obszönitäten. Bisher blockiert der Chatbot Inhalte, die in professionellen Umgebungen unangemessen wären. OpenAI möchte jedoch Entwicklern und Nutzern mehr Flexibilität einräumen, solange die Nutzungsrichtlinien eingehalten werden.

CEO Sam Altman bestätigt auf Reddit, dass OpenAI "NSFW-Zeugs" wie Texterotik und Gewalt "in den meisten Fällen" für den persönlichen Gebrauch freischalten will. KI-Anwendungen wie Deepfakes sollen weiterhin gesperrt bleiben. In der Vergangenheit hat OpenAI Anbieter, die die API für solche Dienste nutzten, ausgeschlossen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Anthropic bringt seinen KI-Assistenten Claude nun auch in Europa auf den Markt. Der ChatGPT-Rivale war seit Jahresbeginn lediglich als API für Entwickler zugänglich. Ab sofort können jedoch Privatpersonen und Firmen die dazugehörigen Apps und den Webdienst nutzen. Die verzögerte Einführung in Europa soll auf die strengeren Datenschutzbestimmungen zurückzuführen sein.

Das Angebot umfasst die webbasierte Version Claude.ai, die iOS-App sowie den Claude Team-Plan. Claude 3 soll in der Lage sein, komplexe kognitive Aufgaben jenseits simpler Mustererkennung und Textgenerierung zu bewältigen. Dafür stehen drei Modelle zur Verfügung: Haiku für leichte Aufgaben, Sonnett als Kompromiss zwischen Leistung und Geschwindigkeit sowie Opus für anspruchsvolle Analysen, mehrstufige Aufgaben, Programmierung und mathematische Gleichungen.

Claude.ai und die iOS-App sind kostenfrei verfügbar. Ein Abo von Claude Pro mit Zugriff auf alle Modelle kostet 18 Euro plus Mehrwertsteuer monatlich und bietet Zugriff auf das stärkste Modell. Der Team-Plan ist ab fünf Plätzen für 28 Euro plus Mehrwertsteuer pro Person und Monat erhältlich.

Die Wikimedia Foundation hat eine experimentelle Chrome-Erweiterung namens "Citation Needed" vorgestellt. Sie soll mithilfe von ChatGPT und Wikipedia die Korrektheit von Informationen auf Websites überprüfen. Nutzende können einen beliebigen Satz auf einer Webseite markieren, woraufhin die Erweiterung relevante Wikipedia-Artikel durchsucht, passende Zitate extrahiert und mittels ChatGPT bewertet, ob die Behauptung durch die gefundenen Informationen gestützt wird.

Das Projekt soll Erkenntnisse darüber liefern, ob Internetnutzerinnen und -nutzer ein Interesse an der Verifizierung von Webinhalten haben, Wikipedia als vertrauenswürdige Wissensquelle erachten und ob sich durch den Einsatz generativer KI neue Zielgruppen für die Online-Enzyklopädie erschließen lassen. Zunächst ist die Erweiterung auf Englisch und auf den Chrome-Browser beschränkt. Bei entsprechender Nachfrage könnte daraus aber ein umfassendes, mehrsprachiges Produkt entstehen.

Das in Huangzhou ansässige Start-up DeepSeek-AI hat mit DeepSeek-V2 Alpha einen öffentlichen Chatbot vorgestellt. Das Modell wurde mit Daten bis 2023 trainiert und zeigt bei politisch sensiblen Themen eine klare chinesische Perspektive, etwa bei Fragen ums Tianmen-Massaker.

DeepSeek-VL, eine Reihe multimodaler Sprachmodelle, bildet die Basis für den Chat. Diese Modelle können visuelle und sprachliche Informationen aus verschiedenen Quellen verarbeiten und zeigen vielversprechende Leistungen bei der Objekterkennung in Bildern. Der Chat selbst verarbeitet derzeit nur Text und hat im Vergleich zu ChatGPT-4 noch Defizite.

Als Open-Source-Projekt stehen die DeepSeek-Modelle auf GitHub und HuggingFace zur Verfügung. Das Unternehmen plant, die Modelle weiterzuentwickeln und MoE-Architekturen zu integrieren. Für Entwickler bietet DeepSeek SDKs und APIs, die mit OpenAI kompatibel sind.

Systeme mit Künstlicher Intelligenz sind in der Lage, Menschen zu täuschen – selbst wenn sie darauf trainiert wurden, hilfreich und ehrlich zu sein. Das ist das Ergebnis einer Übersichtsstudie von Forschenden am Massachusetts Institute of Technology (MIT), die in der Fachzeitschrift "Patterns" veröffentlicht wurde. Als auffälligstes Beispiel für eine manipulative KI nennen die Autorinnen und Autoren das vom Facebook-Konzern Meta entwickelte KI-System Cicero, das im Brettspiel-Klassiker "Diplomacy" gegen menschliche Mitspieler antreten kann. Diplomacy simuliert die Machtverhältnisse in Europa vor dem Ersten Weltkrieg.

Das MIT-Wissenschaftsteam fand nun heraus, dass Cicero oft nicht fair gespielt habe, obwohl Meta behaupte, das KI-System angewiesen zu haben, seine menschlichen Verbündeten während des Spiels "niemals absichtlich zu hintergehen". Die Forschenden stützen ihre Bewertung auf Daten, die von Meta selbst in Verbindung mit einem wissenschaftlichen Paper zu Cicero veröffentlicht wurden. Auch KI-Systeme von OpenAI und Google seien in der Lage, Menschen zu täuschen.

"Wenn KI die Fähigkeit zur Täuschung erlernt, kann sie von böswilligen Akteuren, die absichtlich Schaden anrichten wollen, effizienter eingesetzt werden", heißt es in der Übersichtsstudie. Die Forschenden fordern die Politik auf, so schnell wie möglich strenge Vorschriften zu entwickeln, um KI-Systeme in die Schranken zu weisen.

Elon Musks KI-Firma X.AI entwickelte den Chatbot Grok, der über ein X-Premium-Abo verfügbar ist. Ein Vergleichstest offenbart Schwächen: Grok zeigt veraltete und falsche Informationen an, da er nur auf Tweets zugreift und Trainingsdaten bis April 2023 nutzt. Auch wenn Grok laut Musk weniger politisch korrekt sein soll, vermeidet der Bot politisch unkorrekte Aussagen. Obwohl Grok Teil des kostenpflichtigen X Premium Abos in Deutschland ist, lässt sich der Chatbot hierzulande nur mittels VPN nutzen.

Bei einfachen Aufgaben wie Coding oder Ausflugstipps für Hannover schneidet Grok ähnlich wie die Konkurrenz ab, halluziniert jedoch bei ungewöhnlichen Fragen. Deutsche Witze gelingen ihm kaum. Insgesamt liegt Grok im Vergleich zu GPT-4, Claude 3 oder dem deutlich kleineren Open-Source-Modell Lama im unteren Durchschnitt.

Eine neue Version 1.5 mit zusätzlichen Bildfähigkeiten ist angekündigt. Trotz hoher Entwicklungskosten und enormer Rechenleistung überzeugt die getestete Version 1.0 jedoch nicht. Es bleibt abzuwarten, ob zukünftige Versionen Grok konkurrenzfähig machen.

Das ganze Test-Video findet ihr im YouTube-Kanal von c’t 3003.

In einer Antwort auf eine kleine Anfrage der CDU/CSU-Bundestagsfraktion gibt die Bundesregierung Einblick in ihre Einschätzungen und vorliegenden Zahlen zu KI-generierten Darstellungen sexuellen Kindesmissbrauchs. Zwar sei bekannt, dass es das Phänomen gebe und die Anzahl steigen würde. Allerdings gebe es zum Gesamtumfang derzeit keine validen Zahlen, antwortet die Bundesregierung. Ein Indiz wären allerdings die vom National Center for Missing and Exploited Children (NCMEC) gemeldeten Inhalte: etwa 4700 Reports zu KI-generierten Missbrauchsdarstellungen habe die private US-Institution mitgeteilt. Sie wiederum bezieht ihre Informationen im Wesentlichen von privaten Plattformbetreibern wie Meta oder Google.

Die großen KI-Anbieter würden versuchen, mit Sicherheitsmechanismen die Generierung zu unterbinden – allerdings gebe es Umgehungsstrategien und Anleitungen zur Umgehung für diese sogenannten Ethik-Filter im Netz. Die CDU-Bundestagsabgeordnete Catarina dos Santos-Wintz sieht ihre Befürchtungen bestätigt, dass Künstliche Intelligenz zunehmend missbraucht werde, um kinder- und jugendpornografisches Foto- und Filmmaterial zu erstellen. Sie fordert daher auch von Open-Source-KI den Einsatz solcher Ethik-Filter, um die Erstellung derartiger Inhalte zu verhindern.

Auf dem 128. Deutschen Ärztetag haben die Delegierten mit großer Mehrheit beschlossen, dass sich der Vorstand der Bundesärztekammer für einen verantwortungsvollen Umgang mit Künstlicher Intelligenz einsetzen soll. Sie fordern einen verbindlichen Rechtsrahmen, der sich an den Vorgaben der EU-KI-Verordnung und der Europaratskonvention orientiert. Dabei müssen Menschenrechte sowie demokratische und rechtsstaatliche Prinzipien gewahrt bleiben. KI dürfe ausschließlich dem Wohle des Menschen dienen.

Für die KI-Systeme fordern die Medizinerinnen und Mediziner qualitätsgesicherte Daten. "KI-Systeme, die auf mit maschinellem Lernen aus Daten gewonnenen Modellen basieren, dürfen nicht zur Blackbox werden", heißt es in dem angenommenen Beschlussantrag. Auch müsse nachvollziehbar sein, "welche Entscheidungsparameter ein Algorithmus verwendet". KI-Systeme, die nicht den Werten Deutschlands und Europas entsprechen, sollen nicht zum Einsatz kommen. Verstöße sollen sanktioniert werden, so die Forderung.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

(igr)