DART: Difficulty-Adaptive Reasoning Truncation for Efficient Large Language Models
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
PolyBench: KI-Benchmark für Polymerdesign – Kleine Modelle schlagen Giganten
arXiv – cs.AI
•
Student Guides Teacher: Spectral Orthogonal Exploration steigert LLM-Logik um 62 %
MarkTechPost
•
Nanbeige4-3B: 3B-Modell erreicht 30B-Klassenerkenntnisse durch optimierte Pipeline
arXiv – cs.AI
•
ReMe: Dynamisches Lernframework für Agenten, das Erfahrung nutzt
arXiv – cs.LG
•
TRIM‑KV: Intelligente Token‑Retention verbessert LLM‑Speicherleistung
arXiv – cs.AI
•
Enhancing LLM Efficiency: Targeted Pruning for Prefill-Decode Disaggregation in Inference