CAC-CoT: 2/3 kürzere Chain-of-Thought-Traces, ohne Genauigkeitsverlust
Anzeige
Das neue Verfahren CAC-CoT (Connector‑Aware Compact Chain‑of‑Thought) reduziert die Länge der Chain‑of‑Thought‑Spuren drastisch, ohne die Leistung zu beeinträchtigen. Durch die gezielte Beschränkung auf ein kleines Set von Verbindungssätzen führt das Modell zu prägnanten, gut strukturierten Erklärungen. In Tests mit Gemini‑2.0‑Flash erzielt CAC‑CoT rund 85 % bei GSM8K, etwa 40 % bei GPQA und behält gleichzeitig ca. 90 % bei S1‑Bench bei. Die durchschnittliche Spurenlänge beträgt nur etwa 300 Tokens – das ist ungefähr ein Drittel der üblichen Länge – und sorgt so für höhere Effizienz bei gleichbleibender Genauigkeit.
Ähnliche Artikel
Towards Data Science
•
Greedy-Boruta: Schnellere Merkmalsauswahl ohne Sensitivitätsverlust
arXiv – cs.LG
•
Dynamische Schwellenwerte beschleunigen Diffusions‑Sprachmodelle
arXiv – cs.LG
•
Neuer Ansatz für Korrelation-Clustering ohne Vorwissen
arXiv – cs.LG
•
Amortized Latent Steering: Low-Cost Alternative to Test-Time Optimization
arXiv – cs.AI
•
EXP3 in konstanter Zeit: Neue effiziente Algorithmen
KDnuggets
•
Effiziente Python‑Datenklassen schreiben – so geht's