QeRL: NVFP4-Quantized Reinforcement Learning (RL) Brings 32B LLM Training to a Single H100—While Improving Exploration
Anzeige
Ähnliche Artikel
VentureBeat – AI
•
Nvidia researchers unlock 4-bit LLM training that matches 8-bit performance
MarkTechPost
•
NVIDIA präsentiert KVTC: 20-fache Kompression von KV-Caches für LLM-Serving
arXiv – cs.LG
•
TurboBoA: Schnellere, genaue Attention-Quantisierung ohne Backpropagation
arXiv – cs.LG
•
BPDQ: Quantisierung für Sprachmodelle – 2‑Bit‑Perfektion auf RTX 3090
MarkTechPost
•
NVIDIA präsentiert VIBETENSOR: KI-generierte Deep-Learning-Umgebung
MarkTechPost
•
NVIDIA stellt Nemotron-3-Nano-30B in NVFP4 mit QAD für effiziente Inferenz vor