Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Test-Time Scaling”
Forschung

<h1>Test‑Time‑Scaling: Mehr oder weniger Nutzen für Vision‑Language‑Modelle?</h1> <p>Test‑Time‑Scaling (TTS) hat sich als wirkungsvolles Verfahren etabliert, um die Rechenleistung von Large Language Models (LLMs) während der Inferenz zu erhöhen und dadurch die Problemlösungsfähigkeit zu verbessern. In der multimodalen Forschung, insbesondere bei Vision‑Language‑Modellen (VLMs), ist die Anwendung von TTS jedoch noch nicht vollständig erforscht.</p> <p>In einer systematischen Untersuchung wurden sowohl Open‑S

arXiv – cs.LG
Forschung

<p>LLMs im Testzeit-Scaling: Ein Überblick über Subproblem‑Strukturen</p> <p>In der neuesten Studie von arXiv:2511.14772v1 wird ein umfassender Überblick über Techniken zur Verbesserung der Vorhersagegenauigkeit vortrainierter Large Language Models (LLMs) gegeben, indem bei der Inferenz zusätzliche Rechenressourcen eingesetzt werden. Der Fokus liegt dabei auf der Art und Weise, wie ein Problem in Teilaufgaben zerlegt wird und wie diese Teilaufgaben topologisch organisiert sind – sei es sequenziell, parallel

arXiv – cs.AI
Forschung

Iterative Reward‑Guided Refinement: Testzeit‑Skalierung für diskrete Diffusion In der Welt der diskreten Diffusionsmodelle bleibt die Skalierung während der Testphase bislang weitgehend unerforscht, obwohl sie ein vielversprechender alternativer Ansatz darstellt. Forscher haben deshalb Iterative Reward‑Guided Refinement (IterRef) entwickelt, ein neues Verfahren, das gezielt die Qualität von generierten Texten und Bildern verbessern soll. IterRef nutzt ein belohnungsorientiertes Verfahren, bei dem währen

arXiv – cs.LG