RL für Mensch‑Roboter‑Kollaboration: Off‑Policy Evaluation ohne Live‑Interaktion
Reinforcement Learning (RL) verspricht, Entscheidungsprozesse in der realen Welt zu revolutionieren, indem autonome Agenten aus Erfahrung lernen. Doch die Umsetzung von RL in der Mensch‑Roboter‑Interaktion ist mit erheblichen Herausforderungen verbunden: Man muss geeignete Zustandsdarstellungen und Belohnungsfunktionen definieren, die entscheidend für die Lernleistung und die Qualität der erlernten Politik sind.