Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Calibration”
Forschung

<p>Metakognitive Entropie-Kalibrierung verbessert verifizierbares RL-Reasoning</p> <p>In den letzten Jahren haben große Rechenmodelle für komplexe Aufgaben, wie Mathematik und Frage‑Antwort‑Systeme, enorme Fortschritte erzielt. Diese Modelle werden meist mit Reinforcement Learning und verifizierbaren Belohnungen (RLVR) trainiert. Dabei wird jedoch fast ausschließlich ein binäres Korrektheitssignal verwendet, während die inhärente Unsicherheit des Modells weitgehend ignoriert wird. Dieses „Uncertainty‑Reward

arXiv – cs.AI
Forschung

<p>AST-PAC: Syntaxbasierte Methode verbessert Auditing von Code‑Modellen</p> <p>In der Welt der Code‑Large‑Language‑Models (LLMs) entstehen durch die Nutzung großer, oft lizenzbeschränkter Datensätze erhebliche Herausforderungen im Bereich Daten­governance und Urheberrecht. Membership‑Inference‑Attacks (MIAs) bieten hier einen vielversprechenden Ansatz, um unautorisierte Datenverwendung aufzudecken.</p> <p>Während die klassische Loss‑Attack als Basis dient, bleibt die Polarized Augment Calibration (PAC) im

arXiv – cs.AI
Forschung

BED: KL‑Divergenz vs. Wasserstein‑Distanz – Welcher Ansatz ist besser?<br/><p>In der modernen Wissenschaft ist die gezielte Planung von Experimenten entscheidend, um komplexe physikalische Systeme effizient zu untersuchen. Bayesian Experimental Design (BED) bietet hierfür ein probabilistisches Rahmenwerk, das Planung und Inferenz miteinander verknüpft. Ein zentrales Problem bleibt jedoch die Wahl der Nutzenfunktion, die bestimmt, welche Experimente als wertvoll gelten.</p><p>Traditionell wird die Kullback–L

arXiv – cs.LG
Forschung

<p>ET-Agent: Trainingsrahmen zur Optimierung von Tool-Integrationsagenten</p> <p>Large Language Models (LLMs) können ihre Wissensgrenzen erweitern, indem sie das Tool-Integrated Reasoning (TIR)-Paradigma nutzen. Bisher konzentrieren sich die meisten Trainingsansätze jedoch vor allem auf die Genauigkeit der Antworten und vernachlässigen dabei die spezifische Ausrichtung der Verhaltensmuster. Das Ergebnis: Agenten zeigen häufig ineffiziente Handlungen bei TIR-Aufgaben, etwa unnötige oder zu wenige Tool-Aufruf

arXiv – cs.AI