KI-Update kompakt: OpenAI, Mistral Large 2, KI-Nachrichten, Blutplasma-Analyse

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

OpenAI steht vor erheblichen finanziellen Herausforderungen, da das Unternehmen für das Jahr 2024 Verluste von bis zu fünf Milliarden US-Dollar erwartet. Die Entwicklung neuer KI-Modelle und die Bezahlung der Mitarbeiter verschlingen immense Summen, wobei alleine sieben Milliarden US-Dollar für die Modellentwicklung und 1,5 Milliarden US-Dollar für Gehälter aufgewendet werden. Im Gegensatz dazu stehen nur etwa 2,5 Milliarden US-Dollar an Einnahmen, was eine massive Diskrepanz aufzeigt. Die Berichte, die auf nicht veröffentlichten Finanzdokumenten basieren, deuten darauf hin, dass OpenAI in den nächsten zwölf Monaten möglicherweise kein Geld mehr zur Verfügung haben wird.

Neben den hohen Entwicklungskosten verursacht auch der laufende Betrieb von Diensten wie ChatGPT erhebliche Ausgaben. ChatGPT verzeichnet monatlich 100 Millionen aktive Nutzer, was die Betriebskosten weiter in die Höhe treibt. Um die Kosten zu senken, arbeitet OpenAI an effizienteren Modellen wie GPT-4o und setzt auf Techniken wie Model-Distillation. Trotz dieser Bemühungen bleibt die Finanzierung durch Investoren wie Microsoft derzeit die Hauptstütze des Unternehmens. Langfristig könnten höhere Preise für Endanwender eine Möglichkeit sein, die finanzielle Stabilität zu gewährleisten.

Eine Gruppe von US-Senatoren verlangt von CEO Sam Altman in einem Brief detaillierte Informationen über die Sicherheitspraktiken und Beschäftigungsbedingungen des Unternehmens.

Bis zum 13. August 2024 soll Altman Stellung nehmen. Hintergrund sind Medienberichte über mögliche Sicherheitsrisiken, Kündigungen prominenter KI-Sicherheitsforscher, Sicherheitslücken und Bedenken von Mitarbeitern über die Sicherheitspraktiken.

Die Senatoren betonen: Die Öffentlichkeit müsse darauf vertrauen können, dass OpenAI seine Systeme sicher entwickelt. Dies betreffe die Integrität der Unternehmensführung und der Sicherheitstests ebenso wie die Beschäftigungspraktiken, die Einhaltung öffentlicher Versprechen und die Cybersicherheitsrichtlinien.

Das französische KI-Unternehmen Mistral AI hat mit Large 2 ein neues Sprachmodell vorgestellt. Im Vergleich zu seinem Vorgänger soll das neue Mistral Large 2 in den Bereichen Codegenerierung, Mathematik und Logik deutlich leistungsfähiger sein und eine verbesserte Mehrsprachigkeit sowie erweiterte Funktionsaufrufe bieten. Beim Coding soll es auf dem Niveau von GPT-4o, Claude 3 Opus und Llama 3 405B liegen. Auch in anderen Benchmarks spielt es vorne mit, kann aber nicht immer die Leistung der Spitzenmodelle erreichen.

Allerdings ist Large 2 mit seinen 123 Milliarden Parametern deutlich kleiner als die Konkurrenz von Meta. Mistral Large 2 ist ab sofort über die Mistral-Plattform, Azure AI Studio, Amazon Bedrock, IBM watsonx.ai und Google Vertex AI verfügbar. Die Gewichte für das Modell sind auf HuggingFace verfügbar. Das Modell ist unter der Mistral Research License veröffentlicht, die die Nutzung und Modifikation für Forschung und nicht kommerzielle Zwecke erlaubt. Für die kommerzielle Nutzung mit eigenem Hosting ist eine Mistral Commercial License erforderlich.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Eine neue Studie des Marktforschungsinstituts CRAFT in Kooperation mit dem Reuters Institute for the Study of Journalism zeigt, dass Nachrichtenkonsumenten dem Einsatz künstlicher Intelligenz im Journalismus zunehmend aufgeschlossen gegenüberstehen – allerdings mit klaren Grenzen und unter bestimmten Bedingungen.

Die Akzeptanz variiert stark je nach Anwendungsbereich: Am höchsten ist sie für den Einsatz von KI im Hintergrund zur Unterstützung journalistischer Praktiken und bei der Aufbereitung von Nachrichten in neuen Formaten wie Zusammenfassungen. Kritischer wird hingegen die vollautomatische Erstellung von Inhalten durch KI gesehen.

Hier befürchten die Befragten einen Verlust journalistischer Qualität, menschlicher Perspektiven und Emotion. Eine Ausnahme bilden reine Sachinformationen wie Sportergebnisse oder Börsenkurse. Einigkeit herrscht darüber, dass der Einsatz von KI transparent gemacht werden sollte – bei der Inhaltsproduktion halten das viele sogar für unerlässlich.

Die Autoren der Studie beschreiben einen kritischen Wendepunkt, der eng mit KI verbunden ist. In einem Szenario könnten die Menschen das Vertrauen in alle Informationen verlieren, in einem anderen könnte das Vertrauen in Nachrichtenmarken steigen oder erhalten bleiben, wenn ihr Status als verantwortliche Akteure gestärkt werde. Am Ende müsse das Vertrauen des Publikums "verdient, zurückgewonnen und aufrechterhalten werden". Der eigene Umgang mit KI habe darauf einen starken Einfluss, mahnen die Studienautoren.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Reddit hat begonnen, verschiedene Suchmaschinen und deren Webcrawler auszusperren, sofern diese keine Lizenzvereinbarung mit der Plattform getroffen haben. Während Google weiterhin Zugang zu aktuellen Reddit-Inhalten hat, da es eine Lizenz für das Training von KI-Modellen mit Reddit-Daten erworben hat, sind Suchmaschinen wie Bing, DuckDuckGo und Qwant betroffen. Diese Maßnahme folgt auf die Drohung Reddits im Herbst 2023, Suchmaschinen auszuschließen, die nicht für den Zugriff auf ihre Inhalte bezahlen.

Reddit verwendet die Datei robots.txt, um Webcrawler daran zu hindern, bestimmte Inhalte zu durchsuchen und zu indizieren. Diese Änderung zielt darauf ab, die unautorisierte Datenextraktion durch KI-Unternehmen zu verhindern, die die Inhalte für das Training ihrer Modelle nutzen. Trotz der Behauptung von Reddit, dass diese Maßnahme nichts mit der Partnerschaft mit Google zu tun hat, bleibt die Tatsache, dass andere Suchmaschinen ohne Lizenzdeal ausgeschlossen wurden. Google zahlte für den Zugriff auf Reddit 60 Millionen Dollar.

Ein Forscherteam an der Ludwig-Maximilians-Universität München (LMU) hat eine neue Screeningmethode entwickelt, die mithilfe der Fourier-Transformations-Infrarot-Spektroskopie (FTIR) einen molekularen Fingerabdruck aus Blutplasma erstellt. Dieses Verfahren ermöglicht es, aus einer einzigen Blutprobe verschiedene Gesundheitszustände zu diagnostizieren, darunter anormale Blutfettwerte, Blutdruckveränderungen und Typ-2-Diabetes. Überraschenderweise kann die Methode auch Prädiabetes erkennen, eine Vorstufe von Diabetes, die oft übersehen wird.

Das Verfahren wurde in Zusammenarbeit mit dem Max-Planck-Institut für Quantenoptik (MPQ) und dem Helmholtz-Zentrum München entwickelt und nutzt maschinelles Lernen, um die FTIR-Daten zu analysieren. Bereits 5000 Blutplasma-Proben wurden im Rahmen der KORA-Studie untersucht, um die Methode zu validieren. Die Forscher sehen weitreichende Anwendungsmöglichkeiten für das Gesundheitsscreening, da das Verfahren effizienter und weniger invasiv ist als herkömmliche Bluttests. Dies könnte die Gesundheitsversorgung weltweit verbessern und dazu beitragen, Krankheiten frühzeitig zu erkennen und zu behandeln.

Eine Studie von Upwork zeigt, dass viele Mitarbeiter Künstliche Intelligenz (KI) als Mehrarbeit und Stressfaktor empfinden. 77 Prozent der 2500 Befragten gaben an, dass KI ihre Arbeitslast vergrößert habe. Diese Wahrnehmung steht im Gegensatz zu den Erwartungen der Führungsebene, von denen 96 Prozent glauben, dass KI die Produktivität steigern wird. Die Studie hebt eine Diskrepanz zwischen den hohen Erwartungen der Manager und den tatsächlichen Erfahrungen der Mitarbeiter hervor, was dazu führt, dass KI als Burnout-Treiber wahrgenommen wird.

Um die Herausforderungen zu bewältigen, müssen Unternehmen ihre Arbeitsstrukturen und die Art und Weise, wie Produktivität gemessen wird, überdenken. Kelly Monahan, eine der Autorinnen der Studie, betont, dass veraltete Arbeitsmodelle die erwarteten Produktivitätsgewinne durch KI nicht realisieren können. Es bedarf neuer Ansätze in der Kompetenz- und Talententwicklung sowie einer stärkeren Fokussierung auf das Wohlbefinden der Mitarbeiter. Andernfalls riskieren Unternehmen, dass ihre Mitarbeiter aufgrund von Überarbeitung und Burnout den Job wechseln.

(igr)