Technikverband: Deutschland soll mit energiesparender KI an die Weltspitze
Der VDE hält Fortschritte bei energieeffizienter Hardware für wichtig, um große KI-Modelle bleibend erfolgreich zu machen. Das sei eine Chance für Deutschland.
(Bild: IM Imagery/Shutterstock.com)
"Insgesamt bieten große Sprachmodelle wie GPT-4 eine Vielzahl an Möglichkeiten, die derzeit wirtschaftlich weiter erschlossen werden. Es ist jedoch von entscheidender Bedeutung, die damit verbundenen Herausforderungen zu bewältigen", schreibt die Informationstechnische Gesellschaft (ITG) im Elektrotechnik- und IT-Verband VDE in einem jetzt veröffentlichten Positionspapier. Nur so könne der Nutzen der aktuellen Treiber im Bereich Künstliche Intelligenz auf nachhaltige Weise maximiert werden.
Generell gehe es bei generativer KI mit Assistenten wie ChatGPT von OpenAI, Gemini von Google oder Claude von Antrophic nicht nur um die Entwicklung von Algorithmen und Software für bahnbrechende neue Anwendungen, hebt die ITG in der Analyse hervor. Vielmehr spielten weitere Fortschritte im Bereich der energieeffizienten, digitalen Hardware und deren Zusammenspiel mit passender Software eine wesentliche Rolle.
"Es ist global die Rede davon, mehr Atomkraftwerke zu bauen, um den Energiehunger zu stillen", erklärt Damian Dudek, ITG-Geschäftsführer und Co-Autor des Papiers. "Wir sprechen davon, die Datenverarbeitung effizienter zu gestalten und die Energieaufnahme nach unten zu bringen, damit KI nachhaltig genutzt werden kann." Wenn Deutschland sich mit solchen Ansätzen an die Weltspitze setze, ließen sich "zum Nutzen der Gesellschaft völlig neue Marktpotenziale erschließen und die technologische Souveränität erhalten".
LLMs brauchen enorm viel Rechenkraft
Nur wer sich durch Innovation technologisch in eine führende Stellung bringt, hat nach Ansicht Verfasser die Möglichkeit, auch mit Blick auf ethische Anforderungen und Datensicherheit einen global akzeptierten Rahmen abzustecken. "Wir brauchen bei generativer KI eine agile Regulierung, die mit den Entwicklungen schritthält und Vertrauen in der Bevölkerung schafft", resümiert Dudek. "Damit machen wir uns wettbewerbsfähig und gestalten die Zukunft aktiv mit."
Das Trainieren großer Sprachmodelle (LLMs) und die entsprechende Übertragung in Anwendungen im großen Maßstab erfordere "enorme Rechenressourcen, die heutzutage durch dedizierte Multi-Core-Systeme bereitgestellt werden", schreibt die ITG. Diese setzten auf Grafikprozessoren mit speziellen Softwareumgebungen, "um eine hochparallele Verarbeitung mit großem Durchsatz und hoher Speicherbandbreite zu ermöglichen".
Neuromorphe Computing-Ansätze im Fokus
Neben der Reduzierung der Strukturgröße und der Erhöhung der Anzahl der Transistoren pro Chipfläche gemäß dem Mooreschen Gesetz gibt es laut den Autoren mehrere neue Ansätze, um die Einschränkungen der traditionellen Methode des Chipdesigns zu überwinden. Zu entsprechenden Forschungsfeldern zählen sie die mehrstufige Datenspeicherung in einem einzigen Gerät wie in Phasenwechselmaterialien, Mixed-Signal-Datenverarbeitungsschaltungen basierend auf modernster Technologie in der CMOS-Integration oder den Einbau von elektrisch-optischen Signalverarbeitungsgeräten in System-on-Chip-Architekturen (SoC).
Videos by heise
Für Erfolgsversprechend halten die Experten auch Ansätze für neuromorphes Computing, die von der Signalverarbeitung in biologischen Systemen inspiriert sind, sowie Quantenrechnen auf verschiedenen Hardwareplattformen. Deutschland sollte auf diesen Feldern "am Ball bleiben". Erst jüngst brachte die ITG auch Photonik ins Spiel, um den Energiebedarf vor allem von Rechenzentren zu senken. Das deutsche Startup Q.ant stellte im November einen energieeffizienten photonischen KI-Chip vor. Generell sollte die hiesige Forschergemeinde laut dem Verband die mit KI einhergehenden Herausforderungen "in Verantwortung für den gesellschaftlichen Nutzen und mit Weitblick auf die nationale und europäische wirtschaftliche Entwicklung und unsere technologische Souveränität angehen".
(nen)