AlertSicherheitslücken: Nvidia CUDA Toolkit lässt Schadcode passierenWichtige Sicherheitsupdates schließen mehrere Schwachstellen in Nvidia CUDA Toolkit.
Red Hat integriert Nvidia CUDA in Enterprise-Linux und OpenShiftRed Hat verteilt künftig Nvidias CUDA-Toolkit direkt über seine Plattformen. Das soll die Bereitstellung GPU-beschleunigter KI-Anwendungen vereinfachen.
heise+ JubiläumsspecialSichern Sie sich unser exklusives Aktionsangebot: heise+ 7 Monate für 7 € pro Monat lesen und zusätzlich zu allen Inhalten auf heise online unsere Magazin-Inhalte entdecken. Nur für kurze Zeit!
Endlich Open Source: Warp, das Python-Framework von Nvidia für CUDANach Kritik aus der Community hat sich Nvidia entschlossen, mit dem Warp-Framework in die Apache-2-Lizenz zu wechseln.
Praxis-Vergleich Chat GPT o3-mini high und DeepSeek R1 mit einem CUDA-KernelZwei KI-Modelle sollen eine mathematische Software-Bibliothek modernisieren – zumeist erstaunlich erfolgreich – an einer Aufgabe scheiterten sie jedoch.
Komprimierte KI: Wie Quantisierung große Sprachmodelle verkleinertWir erklären die wichtigsten Quantisierungsmethoden, mit denen Sprachmodelle wie ChatGPT Energie und Kosten sparen und sogar lokal auf Smartphones laufen.
Amazon: Kostenlose Rechenleistung für KI-ForscherKI-Entwickler, die Amazons Trainium-Chips statt Nvidia-Chips für ihre KI-Modelle nutzen, erhalten freien Zugang zu den Cloud-Rechenzentren des Konzerns.
TensorFlow 2.18 wechselt zu NumPy 2 und Hermetic CUDADas ist neu: TensorFlow 2.18 bindet die aktuelle Version 2.0 von NumPy ein und verzichtet mit Hermetic CUDA künftig beim Build auf lokale CUDA-Bibliotheken.
KI: Französische Kartellbehörde eröffnet Ermittlungen gegen NvidiaDer Präsident der französischen Autorité de la concurrence hat bestätigt, dass die Behörde Ermittlungen gegen Nvidia eingeleitet hat.
Python-Bibliothek für Cuda-X beschleunigt Berechnungen von Matrizen und VektorenPyhton-Projekte können mit der neuen Nvidia-Bibliothek für Cuda-X schnelle algebraische Berechnungen bei geringem Overhead ausführen.
Der erste Dominostein gegen Nvidias Dominanz: Frankreich prescht gegen CUDANvidia kommt in einem Bericht der französischen Kartellbehörde schlecht weg. Angeblich werden bereits Maßnahmen vorbereitet.
Parallelisierte Rechenpower fürs maschinelle LernenMassiv paralleles Rechnen ist die Paradedisziplin von GPUs. Nicht nur aus diesem Grund kommt Machine Learning nicht ohne sie aus.
New Language for AI Development: Mojo builds on Python with the Power of CA new programming language for ML is emerging: Mojo is a Python superset with additional functions. Chris Lattner, the creator of Swift and LLVM, is behind it.
Jenseits von Python: Mojo baut Brücke zwischen Python und C für Machine LearningEine neue Programmiersprache für ML entsteht: Mojo ist ein Python-Superset mit zusätzlichen Funktionen. Dahinter steht Chris Lattner, der Schöpfer von Swift.
AlertSicherheitspatches: Angreifer könnten Nvidia Cuda, DGX-1 & Co. attackierenNvidia hat wichtige Sicherheitsupdates für verschiedene Produkte veröffentlicht. Admins sollten schnell handeln.
Nvidia passt CUDA 11.8 an Hopper- und Ada-Lovelace-Beschleuniger anMit Version 11.8 richtet Nvidia seine Programmierplattform CUDA schrittweise auf die spezifischen Fähigkeiten der GPU-Plattformen Hopper und Ada Lovelace aus.
Nvidia erweitert CUDA 11.7 mit "Lazy Loading"Nvidia hat die Verfügbarkeit der CUDA-Version 11.7 bekanntgegeben, die neben neuen Open GPU Kernel-Modulen jetzt auch das "Lazy Loading" zu bieten hat.
CUDA 11.6 ist einsatzbereit für 128-Bit-GanzzahlwerteMit dem Update der Programmierplattform CUDA reicht Nvidia auch neue Funktionen für den Cooperative Groups Namespace nach.
Nvidia erweitert das Programmiermodell in CUDA 11.5Das Update der Programmierplattform CUDA ermöglicht den erweiterten Einsatz verschiedener Datentypen und bietet über CUDA Python direkteren Zugriff auf APIs.
Machine Learning: PyTorch 1.10 bringt CUDA Graph APIs und neues SDK TorchXDie ML-Bibliothek PyTorch hat in Version 1.10 Breaking Changes im Gepäck. Gleichzeitig veröffentlichte Microsoft die erste Preview für PyTorch-DirectML.
Machine Learning: Programmiersprache Triton von OpenAI ist für GPUs optimiertDie Open-Source-Programmiersprache zum Erstellen von Deep-Learning-Anwendungen setzt auf Python und automatisiert die Optimierung der GPU-Architektur.
Build-Werkzeug: CMake 3.21 versteht den C++-Dialekt HIPDas Heterogeneous-Computing Interface for Portability konvertiert CUDA-Anwendungen in portierbaren C++-Code und ist Bestandteil des aktuellen CMake-Release.
Open CL: Portable Computing Language 1.6 unterstützt LLVM/Clang 11Das neue Release der quelloffenen Implementierung des OpenCL-Standards verspricht höhere Leistung für CUDA und erweiterte Paketierungsoptionen.