Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Delta”
Forschung

<p>Die neue 4/δ‑Grenze liefert für LLM‑Verifikationssysteme ein solides theoretisches Fundament: Sie garantiert die Terminierung und Konvergenz jeder Iteration, solange die Fehler‑Reduktionswahrscheinlichkeit δ positiv ist. Der dazu entwickelte LLM‑Verifier‑Konvergenztheorem modelliert die Interaktion zwischen Sprachmodell und Verifikator als diskrete Zeit‑Markov‑Kette und zeigt, dass die erwartete Anzahl an Durchläufen höchstens 4/δ beträgt.</p>

Um die Theorie zu prüfen, wurden über 90.000 Simulationen durchgeführt. Alle Runs erreichten erfolgreich den Verified‑Zustand, und die geme…
arXiv – cs.AI
Forschung

LLMs liefern präzises Planungsfeedback – weniger Belohnungsdesign nötig Neues Forschungsergebnis aus dem arXiv zeigt, dass große Sprach- und Vision‑Language‑Modelle (LLMs und VLMs) in der Lage sind, in verschiedensten Planungsumgebungen wertvolles Feedback zu geben. Dabei reicht die Unterstützung von einfachen binären Rückmeldungen über Präferenz‑ und Aktions‑Ratschläge bis hin zu Ziel‑ und Delta‑Aktions‑Feedback. Durch die Nutzung von Hintergrundwissen, das die Modelle bereits besitzen, kann der Bedarf

arXiv – cs.AI
Forschung

FedRP: Effiziente, datenschutzfreundliche Federated Learning-Methode Ein neues Verfahren namens FedRP kombiniert Random Projection mit dem Alternating Direction Method of Multipliers (ADMM), um die Privatsphäre bei federated learning (FL) zu stärken und gleichzeitig die Kommunikationskosten zu senken. Durch die Reduktion der Dimensionalität der Modellparameter vor dem Versand an einen zentralen Server wird die Menge der übertragenen Daten deutlich verringert. FedRP bietet eine starke $(\epsilon, \delta)$-Di

arXiv – cs.LG