Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Mathematik”
Forschung

<p>Metakognitive Entropie-Kalibrierung verbessert verifizierbares RL-Reasoning</p> <p>In den letzten Jahren haben große Rechenmodelle für komplexe Aufgaben, wie Mathematik und Frage‑Antwort‑Systeme, enorme Fortschritte erzielt. Diese Modelle werden meist mit Reinforcement Learning und verifizierbaren Belohnungen (RLVR) trainiert. Dabei wird jedoch fast ausschließlich ein binäres Korrektheitssignal verwendet, während die inhärente Unsicherheit des Modells weitgehend ignoriert wird. Dieses „Uncertainty‑Reward

arXiv – cs.AI
Forschung

Ontologie-gesteuerte Neuro-Symbolik: Sprachmodelle mit mathematischem Wissen Sprachmodelle stoßen in hochspezialisierten Bereichen häufig an ihre Grenzen: Sie neigen zu Halluzinationen, zeigen Schwankungen in der Zuverlässigkeit und fehlen formale Verankerungen. Ein neuer Ansatz untersucht, ob formale Fachontologien diese Schwächen mindern können, indem sie als Wissensbasis für Retrieval-gestützte Generierung dienen. Im Fokus steht die Mathematik, die als Testfeld dient. Durch die Integration der OpenMa

arXiv – cs.AI
Forschung

Große Sprachmodelle zeigen Schwächen bei Theory of Mind-Aufgaben Eine aktuelle Untersuchung aus dem arXiv‑Repository analysiert, ob die jüngsten Fortschritte bei Großen Rechenmodellen (LRMs) – die für Schritt‑für‑Schritt‑Rechnungen in Mathematik und Programmierung glänzen – auch auf sozialkognitive Fähigkeiten übertragen werden können. Dabei wurden neun hochentwickelte Große Sprachmodelle (LLMs) systematisch auf drei repräsentativen Theory of Mind (ToM)-Benchmarks getestet, wobei Modelle mit expliziter Re

arXiv – cs.AI