Neue Flow‑Matching‑Methode für Offline‑RL mit diskreten Aktionen Forscher haben Flow Matching auf diskrete Aktionsräume ausgeweitet, um Offline‑Reinforcement‑Learning in breiteren Szenarien zu ermöglichen. Durch die Kombination von Diffusionsmodellen und Flow Matching entsteht ein leistungsstarkes generatives Verfahren, das bisher vor allem in kontinuierlichen Aktionsräumen erfolgreich war. arXiv – cs.LG 09.02.2026 05:00
CS-GBA: Sample-basierter Gradient-Backdoor-Angriff auf Offline RL Offline-Reinforcement‑Learning (RL) nutzt statische Datensätze, um Agenten zu trainieren, ist jedoch anfällig für Backdoor‑Angriffe. Bisherige Angriffsstrategien stoßen bei sicherheitsbeschränkten Algorithmen wie CQL an ihre Grenzen, weil sie auf ineffiziente Zufalls‑Poisoning‑Methoden und leicht erkennbaren Out‑of‑Distribution‑Triggern (OOD) setzen. arXiv – cs.LG 16.01.2026 05:00
RADAR beschleunigt LLM‑Inferenz dank RL‑basierter dynamischer Entwurfsbäume Die Ausführung moderner Large Language Models (LLMs) ist bislang teuer und langsam. Eine vielversprechende Lösung ist das sogenannte speculative sampling, bei dem ein „Draft“-Modell Kandidatentoken erzeugt. Allerdings ist die Anzahl der Aufrufe dieses Draft‑Modells ein festgelegter Hyperparameter, der wenig Flexibilität bietet. arXiv – cs.AI 17.12.2025 05:00
Offline‑RL als Subroutine für Online‑Lernen: Neue Studie zeigt Wirkung Eine aktuelle Untersuchung auf arXiv präsentiert einen innovativen Ansatz, bei dem Offline‑Reinforcement‑Learning‑Algorithmen als Subroutinen in rein online Lernprozesse integriert werden. Durch die Nutzung historischer Interaktionen eines Agenten als Offline‑Datensatz wird die Kombination von Offline‑ und Online‑Lernen möglich. arXiv – cs.LG 02.12.2025 05:00
SAM steigert Robustheit von Offline-RL bei Datenkorruption Offline-Reinforcement-Learning (RL) ist in der Praxis stark anfällig für Datenkorruption. Selbst die bislang robustesten Algorithmen scheitern, wenn Beobachtungen oder Mischungen von fehlerhaften Daten betroffen sind. arXiv – cs.LG 25.11.2025 05:00
Neue Methode verbessert Offline-zu-Online RL durch energiegeleitete Diffusion Die Überführung von Offline- zu Online-Reinforcement‑Learning stellt ein zentrales Problem dar, weil die Verteilung der Aktionen im Offline‑Datensatz von der sich im Online‑Training entwickelnden Policy abweicht. Trotz der Bekanntheit dieses Problems greifen nur wenige Ansätze darauf zurück, die Verteilungsstruktur der Offline‑Daten gezielt zu nutzen. arXiv – cs.LG 07.11.2025 05:00
Neuer Transformer für Offline RL: Präzise Zielausrichtung bei gewünschter Rendite Offline-Reinforcement-Learning hat in den letzten Jahren bemerkenswerte Fortschritte in Bereichen wie Robotik, autonomem Fahren und medizinischer Entscheidungsfindung erzielt. Dabei konzentrieren sich die meisten Ansätze darauf, aus vorhandenen Datensätzen Policies zu trainieren, die die kumulative Belohnung maximieren. In vielen praktischen Anwendungen ist jedoch eine genaue Steuerung der Leistungsniveaus der Policy wichtiger als das Erreichen der maximalen Rendite. arXiv – cs.LG 25.08.2025 05:00