KI-Update kompakt: Condé Nast & OpenAI, Anthropic, KI-Training , Arztbrief

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 9 Min.
Von
Inhaltsverzeichnis

Condé Nast und OpenAI haben eine Partnerschaft verkündet, in deren Rahmen die zahlreichen Magazine des Verlags wie Wired, Vogue, The New Yorker und GQ in den KI-Diensten ChatGPT und SearchGPT angezeigt werden sollen. Unklar bleibt, ob die Inhalte auch zum Training der KI-Modelle verwendet werden, was bei anderen Kooperationen explizit erwähnt wurde.

OpenAI möchte durch die Zusammenarbeit mit Condé Nast und anderen Nachrichtenverlagen eine größere Rolle im Bereich Nachrichten spielen und dabei laut COO Brad Lightcap Genauigkeit, Integrität und Respekt für qualitativ hochwertige Berichterstattung wahren. Die Firma kooperiert bereits mit mehreren großen Medienhäusern wie Axel Springer, Financial Times und NewsCorp.

SearchGPT ist derzeit nur als Prototyp für ausgewählte Nutzer verfügbar. Die KI-Suchfunktion antwortet in natürlicher Sprache auf Anfragen und stellt weiterführende Links bereit. OpenAI sammelt Feedback und testet gemeinsam mit den Partnern Möglichkeiten zur Verbesserung von Design und Ergebnissen, bevor die Funktionen in ChatGPT integriert werden sollen.

Drei Buchautorinnen und -autoren haben eine Sammelklage gegen den KI-Anbieter Anthropic wegen Verletzung des US-Copyrights eingereicht. Sie werfen dem Unternehmen vor, systematisch und rechtswidrig urheberrechtlich geschützte Bücher zu kopieren und zum Training von KI-Systemen zu missbrauchen. Die Kläger berufen sich auf ein Paper von Anthropic-Mitarbeitern, wonach 32 Prozent eines großen Trainingsdatensatzes aus illegal aus dem Internet geladenen Büchern bestehen. Die Kläger fordern unter anderem eine Unterlassungsverfügung, Schadenersatz und die Abschöpfung der Bereicherung.

Anthropic hat bisher nicht auf die Klage reagiert. Am selben Gericht ist seit Juni eine ähnliche Copyright-Klage von Musikverlagen gegen Anthropic anhängig, die dem Unternehmen die massenhafte unerlaubte Nutzung von Liedtexten für das Training des KI-Modells Claude vorwerfen.

In den USA sind über zwei Dutzend vergleichbare Klagen wegen Copyrightverletzungen durch KI-Betreiber wie Google, Microsoft und OpenAI anhängig. Hauptschauplätze sind die Bundesbezirksgerichte für Nord-Kalifornien und Süd-New-York. Weitere Verfahren betreffen das Scraping von Youtube-Videos und den behaupteten Missbrauch von Synchronsprecher-Aufnahmen zum KI-Training.

Google Research hat mit HeAR ein KI-System entwickelt, das aus Geräuschen wie Husten oder Atmung Informationen über den Gesundheitszustand einer Person ableiten kann. Das mit über 300 Millionen Audioclips trainierte System zeigte in Tests vielversprechende Ergebnisse.

Bei der Erkennung von Tuberkulose anhand von Hustengeräuschen übertraf HeAR bisherige KI-Spitzenmodelle. Auch bei der Schätzung von Lungenfunktionsparametern aus Smartphone-Aufnahmen war es genauer als Vergleichsmethoden. Dies könnte neue Möglichkeiten für KI-gestützte Screening-Tools eröffnen, insbesondere in ressourcenarmen Gebieten.

Aktuell handelt es sich bei HeAR um eine Forschungsarbeit mit Limitationen wie der Beschränkung auf zweisekündige Audioclips. Vor einem Einsatz in der Praxis sind weitere Optimierungen und klinische Validierungen nötig. Google stellt anderen Forscher:innen den Code und Daten zur Verfügung, um die Weiterentwicklung zu unterstützen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Laut einer Studie des Forschungsunternehmens Epoch AI könnten KI-Trainingsläufe im Umfang von bis zu 2e29 FLOP (Floating-Point-Operationen) bis 2030 technisch realisierbar sein. Das würde bedeuten, dass ein KI-Labor bis zum Ende des Jahrzehnts ein Modell trainieren könnte, das GPT-4 in ähnlichem Maße an Rechenleistung übertrifft wie GPT-4 seinerseits GPT-2 übersteigt, was eine 10.000-fache Steigerung darstellt.

Die Forscher untersuchten vier potenzielle Flaschenhälse für das Hochskalieren von KI-Trainingsläufen: Stromversorgung, Chipproduktionskapazität, Datenknappheit und die sogenannte "Latenzwand". Stromversorgung und Chipproduktion gelten als die größten Hürden. Die Hardware zum Training von KI-Algorithmen könnten bis 2030 etwa 1 bis 45 GW elektrische Leistung aufnehmen, wenn man verteilte Rechenzentren zusammen rechnen lässt. Bei der Chipproduktion sind begrenzte Kapazitäten für fortschrittliches Packaging und Hochbandbreitenspeicher limitierend. Datenknappheit stellt sich als unsicherste Beschränkung heraus. Die "Latenzwand" erweist sich als ferne, aber zu beachtende Hürde.

Insgesamt deuten die Ergebnisse darauf hin, dass KI-Labore bis 2030 mit einer Geschwindigkeit von viermal pro Jahr skalieren können. Sollten tatsächlich KI-Trainingsläufe in diesem Ausmaß stattfinden, wäre dies von enormer Bedeutung. KI könnte zum größten technologischen Projekt der Menschheitsgeschichte werden. Die schiere Größe übersetzt sich in mehr Leistung und Allgemeingültigkeit, was auf ähnlich große Fortschritte in der KI bis 2030 hindeutet wie seit Beginn des Jahrzehnts.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Das chinesische Robotikunternehmen Unitree Robotics hat seinen humanoiden Roboter G1 nun so angepasst, dass er in die Massenproduktion gehen kann. Dazu wurde die Performance und Stärke des G1 verbessert und der Roboter so aufgebaut, dass er in größeren Stückzahlen produziert werden kann. Das geht aus einer Beschreibung eines Videos des modifizierten G1 auf Youtube hervor. Das neue Video zeigt auch die besondere Mobilität des G1-Roboters. Seine Standfestigkeit stellt er unter Beweis, indem er sich auch durch Tritte gegen seine Beine nicht aus der Ruhe bringen lässt. Die maximale Fortbewegungsgeschwindigkeit liegt bei ungefähr 7,2 km/h. Unitree hat den G1 mit einer Künstlichen Intelligenz ausgestattet, sodass der Roboter durch Imitation und Reinforcement Learning neue Aufgaben erlernen kann.

Mit dem Unitree Robot Unified Large Model (UnifoLM) kann das Roboter-Weltmodell erweitert und seine "Intelligenz" ausgebaut werden, heißt es. Schwere Aufgaben in der Industrie oder in der Pflege kann der G1-Roboter jedoch nicht übernehmen. Er stemmt mit seinen Armen maximal 2 kg. Dadurch eignet er sich in der Industrie eher für Montagearbeiten oder für die Durchführung einfacher Aufgaben im Haushalt.

Seit vergangenem Winter wurde sie getestet, nun ist sie offiziell fertig: Geekbench hat in dieser Woche eine neue Suite von Benchmarks für Fähigkeiten aus dem Bereich der Künstlichen Intelligenz online gestellt. Der ursprünglich Geekbench ML genannte Benchmark (wobei ML für maschinelles Lernen stand) wird jetzt als Geekbench AI bezeichnet. Geekbench verspricht, dass Geekbench AI die "Echtwelt-Performance" der Geräte im KI-Bereich testen kann. "Geekbench AI ist ein plattformübergreifender KI-Benchmark, der reale Aufgaben des maschinellen Lernens nutzt, um die Leistung von KI-Workloads zu bewerten", heißt es.

"Geekbench AI misst Ihre CPU, GPU und NPU, um festzustellen, ob Ihr Gerät für die aktuellen und zukünftigen Spitzenanwendungen des maschinellen Lernens bereit ist", schreiben die Macher. Neben der kostenlosen Standardversion bietet Geekbench zum Preis von 99 US-Dollar auch eine Profivariante des KI-Benchmarks an. Sie erlaubt die Verwendung im Standalone-Mode, kann Ergebnisse sowohl online als auch offline verarbeiten und bietet einen Automationsmodus.

Das Universitätsklinikum Hamburg-Eppendorf (UKE) hat die KI-Anwendung "ARGO" zur Unterstützung bei der Erstellung von Arztbriefen in den Livebetrieb genommen. Mithilfe eines Large Language Models (LLM), das mit Daten aus dem UKE trainiert wurde, sollen Ärztinnen und Ärzte bei der Dokumentation am Ende eines stationären Patientenaufenthalts entlastet werden.

ARGO erstellt auf Basis der gesammelten Patienteninformationen einen Entwurf des Abschlussberichts, in dem Aufnahmegrund, Behandlungsverlauf und Entscheidungen erläutert werden. Der erzeugte Text wird anschließend von den behandelnden Ärztinnen und Ärzten geprüft, angepasst und freigegeben. Die Entwicklung des KI-Modells erfolgte laut UKE durch die gemeinnützige UKE-Tochtergesellschaft "Innovative Digitale Medizin" (IDM gGmbH). Nach einer erfolgreichen Testphase wird ARGO schrittweise in den Kliniken des UKE eingeführt. Die Anwendung soll künftig auch anderen Kliniken und Forschungseinrichtungen in Deutschland zur Verfügung gestellt werden.

Nvidia hat mit Nemotron-4 4B Instruct ein kompaktes Sprachmodell vorgestellt, das die Konversationsfähigkeiten von Spielfiguren verbessern soll. Das Modell ist Teil der Nvidia-ACE-Technologie und läuft direkt auf GeForce-RTX-Grafikkarten und ist für geringen Speicherverbrauch und schnelle Reaktionszeiten optimiert.

Es soll so für natürlichere Interaktionen in Spielen sorgen, indem es Anweisungen von Spielerinnen und Spielern intuitiver versteht und darauf reagiert. Derzeit wird das Sprachmodell in "Mecha Break" demonstriert, einem Mehrspieler-Mech-Spiel. Dort interagieren Spielerinnen und Spieler mit einem NPC-Mechaniker, der bei der Auswahl und Anpassung von Mechs hilft. Neben dem Sprachmodell kommen dabei weitere KI-Technologien wie Gesichtsanimation, Spracherkennung und Sprachausgabe aus der Cloud zum Einsatz.

(igr)