In‑Context Reinforcement Learning mit suboptimalen Daten: Neuer Transformer‑Ansatz liefert bessere Ergebnisse
Transformer‑Modelle haben in den letzten Jahren dank ihrer in‑Context‑Learning‑Fähigkeiten enorme Fortschritte erzielt. In einer neuen Studie wird ein autoregressiver Transformer für das sogenannte In‑Context Reinforcem…
- Transformer‑Modelle haben in den letzten Jahren dank ihrer in‑Context‑Learning‑Fähigkeiten enorme Fortschritte erzielt.
- In einer neuen Studie wird ein autoregressiver Transformer für das sogenannte In‑Context Reinforcement Learning (ICRL) eingesetzt.
- Dabei wird der Transformer zunächst mit einem Offline‑Datensatz trainiert, der Trajektorien aus verschiedenen RL‑Aufgaben enthält – und zwar aus suboptimalen Verhaltenss…
Transformer‑Modelle haben in den letzten Jahren dank ihrer in‑Context‑Learning‑Fähigkeiten enorme Fortschritte erzielt. In einer neuen Studie wird ein autoregressiver Transformer für das sogenannte In‑Context Reinforcement Learning (ICRL) eingesetzt. Dabei wird der Transformer zunächst mit einem Offline‑Datensatz trainiert, der Trajektorien aus verschiedenen RL‑Aufgaben enthält – und zwar aus suboptimalen Verhaltensstrategien.
Wenn man den Transformer einfach mit Standard‑Autoregressiv‑Training nutzt, entspricht das im Wesentlichen dem Imitation‑Learning und führt zu suboptimalen Leistungen. Um dem entgegenzuwirken, schlägt die Arbeit einen neuen Ansatz vor: den Decision Importance Transformer (DIT). Dieser Ansatz kombiniert die Prinzipien eines Actor‑Critic‑Algorithmus mit der In‑Context‑Methode.
Zuerst wird ein transformer‑basierter Wertfunktionstrainer entwickelt, der die Vorteilfunktionen der suboptimalen Verhaltenspolicies schätzt. Anschließend wird die Policy selbst mittels einer gewichteten Maximum‑Likelihood‑Schätzung trainiert, wobei die Gewichte aus der zuvor erstellten Wertfunktion abgeleitet werden. Dadurch wird die Policy gezielt von den suboptimalen Strategien zu optimalen geführt.
Um die Wirksamkeit zu prüfen, wurden umfangreiche Experimente an Bandit‑ und Markov‑Decision‑Process‑Problemen durchgeführt. Die Ergebnisse zeigen, dass DIT besonders dann die Leistung steigert, wenn der Offline‑Datensatz suboptimale Historien enthält. Damit liefert der neue Transformer‑Ansatz einen vielversprechenden Weg, um aus vorhandenen, nicht perfekten Daten effektive Reinforcement‑Learning‑Modelle zu bauen.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.