Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “LLM inference”
Forschung

<h1>Sketch-and-Walk: Sparsere Attention für schnellere LLM‑Inferenz</h1> <p>Die Selbstaufmerksamkeit ist der Hauptfaktor, der die Rechen- und Speicher­kosten bei der Inferenz von großen Sprachmodellen (LLMs) mit langen Kontexten bestimmt. Sowohl die Vor‑ als auch die Decodierungsphase sind dadurch stark belastet.</p> <p>Um dieses Problem zu lösen, wurde Sketch&Walk Attention entwickelt – ein sparsames Aufmerksamkeitsverfahren, das ohne Training auskommt. Es nutzt Hadamard‑Sketching, um kostengünstige Schätz

arXiv – cs.LG
Praxis

<h1>Tencent Hunyuan stellt HPC‑Ops vor – Hochleistungs-Operatorbibliothek für LLM</h1> <p>Tencent Hunyuan hat die Open‑Source-Bibliothek HPC‑Ops veröffentlicht, die speziell für die Inferenz von großen Sprachmodellen (LLM) entwickelt wurde. Die Bibliothek bietet eine produktionsreife Sammlung von Operatoren, die direkt auf den Hardware‑Architekturen von LLM‑Inference‑Geräten laufen.</p> <p>HPC‑Ops konzentriert sich auf effiziente CUDA‑Kernels für Kernoperatoren wie Attention, Grouped GEMM und Fused MoE. Dur

MarkTechPost