Beschleunigung von Mamba2 durch Kernel-Fusion In diesem Beitrag zeigen wir, wie wir das Mamba‑2 State‑Space Dual (SSD) Modul mit einem zusammengeführten Triton‑Kernel optimiert haben. Durch die Fusion der Kernels konnten wir die Ausführungszeit drastisch reduzieren und beeindruckende Geschwindigkeitssteigerungen von 1,50‑ bis 2,51‑fach erreichen – und das auf den neuesten NVIDIA‑GPUs A100 und H100. PyTorch – Blog 06.02.2026 22:48
LLM feinabstimmen auf NVIDIA GPUs mit Unsloth – Schnell und effizient Moderne Arbeitsabläufe zeigen die grenzenlosen Möglichkeiten von generativer und agentischer KI direkt auf dem PC. Dabei reicht es von der Feinabstimmung eines Chatbots für Produkt‑Support bis hin zum Aufbau eines persönlichen Assistenten, der Termine verwaltet. NVIDIA – Blog 15.12.2025 14:00
Nvidia‑GPUs kosten mehr als Gold – doch Gold bleibt günstiger pro Unze November ist seit Jahrzehnten das Herzstück der Hochleistungsrechnerwelt. In diesem Monat werden die neuesten Entwicklungen im Bereich Supercomputing vorgestellt, und die GPUs von Nvidia stehen dabei immer im Rampenlicht. Diese Hochleistungsprozessoren sind zwar teuer – oft mehrere tausend Dollar pro Stück – und werden von Forschern, Unternehmen und KI‑Entwicklern gleichermaßen geschätzt. The Register – Headlines 28.11.2025 12:57
Digitaler Zoo: KI erkennt über 1 Million Arten – NVIDIA‑GPUs im Einsatz Tanya Berger‑Wolf, Direktorin des Translational Data Analytics Institute und Professorin an der Ohio State University, hat mit einem einfachen Wetteinsatz begonnen: Sie wollte beweisen, dass ein KI‑Modell Zebras schneller erkennen kann als ein Zoologe. Das Experiment lief nicht nur erfolgreich, sondern legte den Grundstein für ihr bisher größtes Projekt. NVIDIA – Blog 20.11.2025 14:00
Cadence lädt ein: Mit Nvidias Top‑GPU im Datacenter‑Simulator testen Cadence Systems bietet Datacenter‑Betreibern die Möglichkeit, Nvidias leistungsstarke GPUs in einem Simulationsspiel auszuprobieren, bevor sie Milliarden in neue Hardware investieren. Das Tool simuliert, ob die geplante GPU‑Architektur die steigenden Anforderungen der generativen KI bewältigen kann. Durch die virtuelle Testumgebung können Unternehmen potenzielle Engpässe frühzeitig erkennen und ihre Investitionsentscheidungen optimieren. The Register – Headlines 10.09.2025 22:00
DeepSeek kehrt nach NVIDIA zurück: R2-Modell wegen Huawei-Chip-Ausfall verzögert DeepSeek hatte ursprünglich geplant, sein neues KI-Modell R2 auf den Huawei‑Ascend‑Chips zu trainieren. Die Hardware‑Probleme haben das Vorhaben jedoch zum Scheitern gebracht, sodass das Unternehmen nun auf NVIDIA‑Grafikkarten zurückgreift. Dadurch verzögert sich die Markteinführung des Modells erheblich. AI News (TechForge) 14.08.2025 17:04