Meta-Policy Reflexion: Reusable Reflective Memory and Rule Admissibility for Resource-Efficient LLM Agent
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
Learning When to Plan: Efficiently Allocating Test-Time Compute for LLM Agents
arXiv – cs.LG
•
LLM-Modelle extrahieren Kontext aus Nutzereingaben – sicherere Antworten
arXiv – cs.AI
•
A-LAMP: KI-Framework automatisiert MDP-Modellierung und Policy-Generierung
MarkTechPost
•
Nanbeige4-3B: 3B-Modell erreicht 30B-Klassenerkenntnisse durch optimierte Pipeline
arXiv – cs.AI
•
RIFT: Fault-Analyse beschleunigt Fehlerdiagnose LLM-Acceleratoren 2,2-fach
arXiv – cs.LG
•
ThreadWeaver: Mit adaptiver Parallelisierung LLMs schneller und genauso genau