KI-Update kompakt: Mistral, Nvidia RTX, KI-Konzepthandy, Umweltkosten von KI

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Das französische KI-Start-up Mistral hat mit Mistral Large ein neues Sprachmodell vorgestellt, das als europäische Alternative zu OpenAIs GPT-4 positioniert wird. Mistral Large ist für mehrsprachige Aufgaben konzipiert und beherrscht Englisch, Französisch, Spanisch, Deutsch und Italienisch. Es soll die kulturelle Vielfalt Europas besser abbilden als andere Modelle. Im MMLU-Benchmark für Sprachverständnis ist Mistral Large hinter GPT-4 das zweitbeste Modell, das derzeit über API verfügbar ist. Googles Gemini Ultra liegt auf dem Papier vor dem Mistral-Modell, ist aber noch nicht breit verfügbar.

Mistral Large ist etwa 20 Prozent billiger als GPT-4 Turbo und bietet ein Kontextfenster von 32K. Außerdem wurde eine strategische Partnerschaft zwischen Microsoft und Mistral bekannt gegeben. Die mehrjährige Partnerschaft gibt Mistral Zugang zu Microsofts Azure KI-Infrastruktur und das neue Flaggschiffmodell Mistral Large wird neben Mistrals eigener API exklusiv auf Azure angeboten.

Mistral positioniert sich als ernstzunehmender Wettbewerber im Bereich der Sprachmodelle. Die Partnerschaft mit Microsoft könnte beiden Unternehmen helfen, ihre Präsenz auf dem europäischen KI-Markt auszubauen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Nvidia hat die RTX 1000 und RTX 500 vorgestellt, zwei neue Grafikkarten, die auf der Ada Lovelace-Architektur basieren und für kompakte Arbeits-Notebooks entwickelt wurden. Die Grafikleistung steht dabei weniger im Vordergrund als die KI-Leistung. Die integrierten Tensor-Kerne dienen dabei als KI-Beschleuniger.

Die kleinere RTX 500 erreicht bis zu 154 Billionen Operationen pro Sekunde (TOPS) im KI-freundlichen Datenformat INT8, während die RTX 1000 bis zu 193 TOPS erreicht. Damit sind sie deutlich leistungsfähiger als die KI-Einheiten in Intels Core Ultra und AMDs Ryzen 8000.

Die zusätzliche Rechenleistung soll KI-Funktionen in der Videobearbeitung und schnelleres Erstellen von KI-Bildern unterstützen. Die RTX 1000 verfügt über 20 Shader-Multiprozessoren (SMs) mit 2560 Shader- und 80 Tensor-Kernen und 6 GByte GDDR6-Speicher. Die RTX 500 hat 16 SMs, 2048 Shader- und 64 Tensor-Kerne und 4 GByte RAM. Erste Notebooks mit den neuen Grafikkarten werden im Frühjahr von Herstellern wie Dell, HP, Lenovo und MSI erwartet.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Nvidia-CEO Jensen Huang äußerte auf dem World Governments Summit in Dubai seine Vision, dass in der Zukunft niemand mehr programmieren müsse, weil die Programmiersprache menschliche Sprache sei. Er glaubt, dass die Branche kurz davor stehe, in einem Zeitalter anzukommen, in dem Computer in natürlicher Sprache ein Problem beschrieben bekommen und eine Lösung liefern. "Es ist unsere Aufgabe, Computertechnik so zu bauen, dass niemand mehr programmieren muss und dass die Programmiersprache menschliche Sprache ist", sagte der Firmenchef.

Während Huang sprach, erreichte die Aktie seines Unternehmens Allzeithochs, angetrieben von der Erwartung, dass Nvidia im bevorstehenden Zeitalter des KI-gestützten Programmierens noch stärker von KI-Chips profitieren werde.

Allerdings decken sich Huangs Aussagen über KIs, die den Job von Entwicklern übernehmen könnten, noch nicht mit den Erfahrungen von Softwareentwicklern, die bereits KI-unterstützt arbeiten. Produkte wie der GitHub Copilot helfen zwar bei repetitiven Aufgaben, schreiben Boilerplate-Code und ersparen das Suchen nach Code-Schnipseln, aber sie machen Entwickler noch nicht überflüssig.

Die Deutsche Telekom präsentierte auf MWC ihr Konzept-Handy mit KI, eine "neue Ära des Smartphones, so Telekom-Manager Sean Seaton. Das Hauptaugenmerk liegt auf der KI-Anwendung "Natural" von Brain.ai, die in Echtzeit ein selbstgenerierendes Interface erstellt. Natural soll die Funktionen anderer Apps erlernen und ersetzen, um die Notwendigkeit von Einzelanwendungen zu reduzieren.

Brain.ai-Chef Jerry Yue bezeichnete das als "Large Action Model". Das Natural-Interface an sich ist weder neu noch Telekom-exklusiv. Brain.ai hat es schon im Sommer 2021 vorgestellt, im App Store kann die Anwendung sogar schon heruntergeladen werden.

Bisher ist die KI-Anwendung jedoch nur für zwei Szenarien ausgelegt: Reisen buchen und Online-Käufe tätigen. Die Telekom hat noch keine konkreten Pläne angekündigt, ein Mobiltelefon mit Natural auf den Markt zu bringen. Die Anwendung könnte jedoch in Zukunft auf verschiedenen Geräten laufen und möglicherweise weitere Einsatzszenarien abdecken.

Eine Umfrage des IT-Unternehmens Splunk zeigt ein gemischtes Bild der Einstellungen zu KI in Deutschland. Die Mehrheit der Befragten erkennt das Potenzial von KI für Wirtschaft und Gesellschaft, befürchtet aber, dass Deutschland bei der Nutzung der Vorteile hinterherhinkt. 57 Prozent der Befragten glauben, dass KI die IT- und Cybersicherheitsbranche stärker beeinflusst als andere Branchen. 84 Prozent der Befragten halten KI für eine oder mehrere Branchen für nützlich. 40 Prozent sind der Meinung, dass Deutschland bei der Einführung generell zu risikoscheu ist.

Sicherheitsbedenken werden von 52 Prozent als Grund genannt, während 40 Prozent ein mangelndes Verständnis für KI in der Bevölkerung sehen. Die Umfrage zeigt auch Bedenken der Bürgerinnen und Bürger: 56 Prozent der Befragten befürchten, dass der vermehrte Einsatz von KI zu einer Zunahme von Identitätsdiebstahl und Desinformation führen könnte, 52 Prozent machen sich Sorgen über mögliche automatisierte Cyberangriffe.

Die Umweltkosten generativer KI sind höher als angenommen, warnt Kate Crawford von der USC Annenberg und Microsoft Research. Generative KI-Systeme benötigen viel Energie und Frischwasser für Kühlung und Stromerzeugung. Crawford schätzt, dass der globale Wasserverbrauch für KI bis 2027 die Hälfte des Verbrauchs von Großbritannien erreichen könnte. So verbrauchte ein einziges Rechenzentrum für OpenAIs GPT-4 in Iowa etwa 6 Prozent des Wasserbedarfs des Bezirks. Zudem verzeichneten Google und Microsoft einen Anstieg des Wasserverbrauchs um 20 bzw. 34 Prozent innerhalb eines Jahres.

Crawford fordert pragmatische Maßnahmen statt der Hoffnung auf neue Technologien wie Kernfusion. Dazu gehören die Priorisierung von Energieeffizienz, der Bau effizienterer Modelle und die Neugestaltung von Rechenzentren. "Anstatt von technologischen Errungenschaften zu träumen, benötigen wir jetzt pragmatische Maßnahmen, um die Umweltauswirkungen von KI zu begrenzen", so die Forscherin.

Die Umweltauswirkungen von KI sind oft Betriebsgeheimnisse, und die begrenzt verfügbaren öffentlichen Daten geben nur ein unvollständiges Bild. Crawford hofft auf einen Anfang Februar von US-Demokraten vorgestellten Gesetzesentwurf, der Standards zur Bewertung von Umweltauswirkungen fordert.

(igr)