Reinforcement Learning zeigt: Feedback bei Geschwindigkeitskontrolle nicht entscheidend
In einer neuartigen Studie wurde ein genereller Reinforcement‑Learning‑Agent direkt an einen rotierenden Zylinder in einem Tischwasserkanal angeschlossen, um den Luft‑ oder Wasserwiderstand zu minimieren oder zu maximieren. Das Experiment nutzt ein physikalisches System mit chaotischem Strömungsverhalten, das schwer zu modellieren oder zu simulieren ist, und bietet damit eine realistische Testumgebung für die Erlernung von Fertigkeiten.
Der Agent konnte in nur wenigen Minuten reale Interaktion mit dem System nutzen, um hochleistungsfähige Drag‑Kontrollstrategien zu entwickeln. Dabei spielte die hochdimensionale Rückmeldung aus der Strömung eine entscheidende Rolle für die schnelle Lernphase. Sobald die erlernten Aktionen jedoch ohne weitere Rückmeldung wiederholt wurden, erreichte der Agent nahezu identische Leistungen – was darauf hinweist, dass das Feedback während der Ausführung nicht mehr nötig ist.
Die Ergebnisse zeigen, dass ein physikalisches Lernsetup, das sowohl kostengünstig als auch leicht reproduzierbar ist, wertvolle Einblicke in die Rolle von Feedback bei der Fertigkeitsentwicklung liefert. Gleichzeitig verdeutlichen sie, dass ein Agent, sobald er eine effektive Strategie erlernt hat, diese auch ohne kontinuierliche Rückmeldung zuverlässig umsetzen kann.