Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “CUDA”
Forschung

<p>OptiML: KI-gestütztes Framework optimiert CUDA-Kernel automatisch</p> <p>Mit dem neuen End‑to‑End-Framework OptiML können Entwickler:innen nun entweder eine natürliche Sprachbeschreibung oder vorhandenen CUDA-Code eingeben und sofort einen leistungsstarken, hardwareoptimierten Kernel erhalten. Das System nutzt ein Mixture‑of‑Thoughts‑Modell, um erste Implementierungsstrategien zu generieren, und verfeinert diese anschließend mithilfe eines Monte‑Carlo‑Tree‑Search‑Optimierers.</p> <p>Jede vorgeschlagene T

arXiv – cs.AI
Praxis

<h1>Tencent Hunyuan stellt HPC‑Ops vor – Hochleistungs-Operatorbibliothek für LLM</h1> <p>Tencent Hunyuan hat die Open‑Source-Bibliothek HPC‑Ops veröffentlicht, die speziell für die Inferenz von großen Sprachmodellen (LLM) entwickelt wurde. Die Bibliothek bietet eine produktionsreife Sammlung von Operatoren, die direkt auf den Hardware‑Architekturen von LLM‑Inference‑Geräten laufen.</p> <p>HPC‑Ops konzentriert sich auf effiziente CUDA‑Kernels für Kernoperatoren wie Attention, Grouped GEMM und Fused MoE. Dur

MarkTechPost