KI-Update kompakt: LLMs fĂĽr Malware, Anti-Human-Bias, Sutton, Chatbots

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Russische Geheimdienste nutzen erstmals nachweislich Large Language Models, um Spionagesoftware zu entwickeln. Die im Juli von ukrainischen Behörden und mehreren Cybersicherheitsunternehmen entdeckte Malware durchsucht Computer vollständig autonom nach sensiblen Daten und überträgt diese nach Moskau. Die Angreifer verschicken Phishing-E-Mails mit einem KI-Programm im Anhang, das deutlich zielgerichteter arbeitet als herkömmliche Schadsoftware.

Das Cybersicherheitsunternehmen CrowdStrike bestätigt den wachsenden Trend: Chinesische, russische und iranische Hacker setzen verstärkt auf KI-Tools. Experten warnen besonders vor KI-Agenten, die komplexe Aufgaben eigenständig ausführen und dafür weitreichende Befugnisse in Unternehmen benötigen. Google nutzt sein Modell Gemini bereits zur Verteidigung und hat damit mindestens 20 wichtige Sicherheitslücken in der eigenen Software gefunden. Auch die US-Regierung setzt KI ein, um kleinen Unternehmen bei der Schwachstellensuche zu helfen.

Künstliche Intelligenz bevorzugt Texte anderer KI-Systeme gegenüber menschlichen Texten. Forscher der Karlsuniversität Prag testeten bekannte Modelle wie GPT-3.5, GPT-4 sowie Open-Weight-Modelle von Meta, Mistral und Alibaba. Die Systeme sollten zwischen Produktbeschreibungen, wissenschaftlichen Texten und Filmzusammenfassungen wählen, ohne zu wissen, ob diese von Menschen oder Maschinen stammten. In allen drei Kategorien bevorzugten die LLMs KI-generierte Inhalte deutlich häufiger als menschliche Probanden in Vergleichsstudien.

Die Wissenschaftler sehen diese Entwicklung besonders bei agentischen Systemen kritisch. KI-Systeme könnten bei wirtschaftlichen Entscheidungen zugunsten anderer KI-Systeme und gegen den Einsatz von Menschen raten. Möglicherweise reagieren LLMs auf stilistische Marker in den Texten. Die Forscher raten Unternehmen und Institutionen, diese systematische Verzerrung bei Personalauswahl, Forschungsförderung oder Marktplatz-Algorithmen zu berücksichtigen.

Der japanische Konzern Softbank erwirbt fĂĽr zwei Milliarden US-Dollar Aktien des kriselnden Chipherstellers Intel. Die Anteile werden zu 23 US-Dollar pro Aktie ĂĽbernommen, was etwas unter dem jĂĽngsten Schlusskurs, aber 20 Prozent ĂĽber dem Monatsanfang liegt. Softbank ist bereits Mehrheitseigner von ARM, dem KI-Chipentwickler Graphcore und Ampere Computing.

Bloomberg berichtet, dass die US-Regierung unter Donald Trump zehn Prozent der Intel-Anteile übernehmen will, also fünfmal so viel wie Softbank. Damit würden die USA zum größten Anteilseigner. Mit dem Geld soll der Bau einer Intel-Fabrik im US-Bundesstaat Ohio vorangetrieben werden, der sich zuletzt immer wieder verzögert hatte. Die Regierung erwägt, dafür Mittel aus dem US Chips Act zu nutzen, die eigentlich direkt an Intel gehen sollten.

Softbank und der taiwanische Auftragsfertiger Foxconn produzieren künftig gemeinsam Rechenzentrumsausrüstungen in einer ehemaligen Elektrofahrzeugfabrik in Lordstown, Ohio. Softbank hatte das Autowerk im August von Foxconn gekauft. Foxconn-Chef Young Liu teilte mit, sein Unternehmen werde das Werk als Produktionsstätte für KI-Server im Rahmen des milliardenschweren "Stargate Project" weiterbetreiben.

Softbank beliefert die Gemeinschaftsunternehmung mit ProduktionsausrĂĽstung. Die Fabrik soll Server fĂĽr die wachsende KI-Infrastruktur in den USA herstellen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Richard Sutton, Turing-Preisträger und Reinforcement-Learning-Pionier bei Google Deepmind, kritisiert die aktuelle KI-Entwicklung scharf. Die Industrie habe ihren Weg verloren, seit sie zu einem Milliardengeschäft geworden sei. Statt immer größere Sprachmodelle zu trainieren, müsse sich die Forschung auf kontinuierliches Lernen konzentrieren. Agenten müssten aus eigener Erfahrung lernen, Weltmodelle entwickeln und planen können.

Sutton verweist auf sein Papier "Bitter Lesson" aus 2019: Langfristig setzten sich immer allgemeine Methoden durch, die mit Rechenleistung skalieren. Vordefiniertes menschliches Wissen führe in die Sackgasse. Seine Lösung heißt Oak-Architektur (Options and Knowledge): Der Agent startet ohne Vorwissen, lernt durch direkte Interaktion mit seiner Umgebung und reduziert jedes Ziel auf eine einfache Belohnung. Allerdings fehle noch ein entscheidender Baustein: Algorithmen für zuverlässiges, kontinuierliches Lernen ohne Wissensverlust existieren noch nicht.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Stuart Russell warnt vor einer KI-Blase, die abrupt platzen könnte. Der renommierte KI-Forscher vergleicht die Situation mit dem KI-Winter der 1980er Jahre, als die Systeme kein Geld einbrachten und es zu wenige wertvolle Anwendungen gab. Pikant ist Russells Warnung, weil er 2023 den Pause-Brief unterzeichnete, der ein Moratorium für die KI-Entwicklung forderte. Damals ging angeblich alles zu schnell, heute warnt er vor dem Gegenteil.

Die Debatte über stagnierende Fortschritte hat durch GPT-5 neuen Schub erhalten. Das Modell liefert erwartbare Verbesserungen, enttäuscht aber viele. Selbst OpenAI-Chef Sam Altman räumt ein, man befinde sich wohl in einer Blase. Russell fordert echte Marktdurchdringung und robuste Anwendungsfälle, die die Milliardeninvestitionen rechtfertigen.

Der texanische Generalstaatsanwalt Ken Paxton untersucht, ob Metas Chatbots und die KI-Personas von Character.ai für Kinder und Jugendliche gefährlich sind. Er wirft den Unternehmen vor, ihre Chatbots könnten sich als psychologische Berater oder Therapeuten ausgeben und vermeintliche Gesundheitstipps geben. Paxton spricht von "irreführenden Geschäftspraktiken" und beschuldigt beide Firmen, sensible Daten für Werbung oder Algorithmenentwicklung zu nutzen.

Paxton stĂĽtzt sich auf das texanische Verbraucherschutzrecht, das betrĂĽgerische Behauptungen und falsche Datenschutzangaben verbietet. Der Folkrock-Star Neil Young hat seinen RĂĽckzug aus Facebook und Instagram verkĂĽndet.

Sprachmodelle, die auf wärmere Antworten trainiert wurden, machen systematisch mehr Fehler. Forscher der University of Oxford testeten fünf Modelle und stellten fest: Die Fehlerquote stieg um 10 bis 30 Prozent. Die freundlichen Modelle unterstützten häufiger Verschwörungstheorien, gaben falsche Informationen weiter und erteilten problematische medizinische Ratschläge. Sie stimmten Nutzern rund 40 Prozent häufiger bei falschen Annahmen zu. Bei traurigen Nutzern verdoppelte sich die Fehlerquote fast.

Zur Kontrolle trainierten die Forscher Modelle auf einen kalten Stil. Diese zeigten stabile oder verbesserte Zuverlässigkeit. Das bestätigt, dass speziell die Wärme-Optimierung die Probleme verursacht. Die Studie zeigt einen Zielkonflikt: Die Optimierung auf eine positive Eigenschaft kann andere verschlechtern.

Nutzer der freien Office-Suite LibreOffice können jetzt direkt Bilder mittels generativer KI erzeugen lassen. Dafür muss eine Erweiterung installiert und ein kostenloser, pseudonymer Schlüssel beantragt werden. In der Textverarbeitung Writer sowie der Präsentationssoftware Impress lassen sich dann Prompts eingeben, um Bilder zu bestellen.

Die Bilder werden gebührenfrei durch Stable Diffusion auf der Infrastruktur der AI Horde erzeugt, einem dezentralen Projekt, das Rechenzeit auf Computern Freiwilliger nutzt. Das Plugin heißt Stable Diffusion for LibreOffice. Die Geschwindigkeit der Bildgenerierung hängt von der Komplexität der Aufgabe und der aktuellen Nachfrage ab.

Über 80 Prozent der Python-Entwickler nutzen ChatGPT für Coding oder andere entwicklungsrelevante Tätigkeiten. Das zeigt der achte "Python Developers Survey", an dem zwischen Oktober und November 2024 über 25.000 Entwickler weltweit teilnahmen. GitHub Copilot folgt mit 39 Prozent, Google Gemini mit 23 Prozent.

Unter den seltener genannten Tools finden sich der JetBrains AI Assistant und benutzerdefinierte, lokale KI-Tools. Die Umfrage zeigt einen deutlichen Trend zur KI-Nutzung beim Programmieren.

(igr)