Neues fNIRS‑Dataset ermöglicht neuronale Rückmeldung für Reinforcement Learning
In einem wegweisenden Beitrag zur Reinforcement Learning from Human Feedback (RLHF) wird gezeigt, wie passive Brain‑Computer‑Interfaces (BCI) genutzt werden können, um Agenten aus impliziten Gehirnsignalen zu trainieren…
- In einem wegweisenden Beitrag zur Reinforcement Learning from Human Feedback (RLHF) wird gezeigt, wie passive Brain‑Computer‑Interfaces (BCI) genutzt werden können, um A…
- Das neue Forschungsprojekt liefert ein umfangreiches fNIRS‑Datenset, das von 25 Personen in drei unterschiedlichen Szenarien – einem Pick‑and‑Place‑Roboter, dem Lunar La…
- Die Autoren trainierten Klassifikatoren, die anhand von fNIRS‑Feature‑Vektoren die Leistungsstufe eines Agenten (optimal, sub‑optimal oder schlechteste Leistung) vorhers…
In einem wegweisenden Beitrag zur Reinforcement Learning from Human Feedback (RLHF) wird gezeigt, wie passive Brain‑Computer‑Interfaces (BCI) genutzt werden können, um Agenten aus impliziten Gehirnsignalen zu trainieren. Das neue Forschungsprojekt liefert ein umfangreiches fNIRS‑Datenset, das von 25 Personen in drei unterschiedlichen Szenarien – einem Pick‑and‑Place‑Roboter, dem Lunar Lander und dem Spiel Flappy Bird – erhoben wurde.
Die Autoren trainierten Klassifikatoren, die anhand von fNIRS‑Feature‑Vektoren die Leistungsstufe eines Agenten (optimal, sub‑optimal oder schlechteste Leistung) vorhersagen. Für die binäre Klassifikation erreichten sie einen durchschnittlichen F1‑Score von 67 % und für die Mehrklassen‑Aufgabe 46 %. Zusätzlich entwickelten sie Regressoren, die die Abweichung eines Agentenverhaltens von nahezu optimalen Strategien kontinuierlich messen.
Ein Schwerpunkt lag auf der Übertragbarkeit zwischen den Probanden. Durch das Feintuning vortrainierter Modelle mit nur wenigen, pro Subjekt spezifischen Daten konnten die F1‑Scores um 17 % bei der binären und um 41 % bei der Mehrklassen‑Aufgabe gesteigert werden. Diese Ergebnisse demonstrieren, dass fNIRS‑Signale zuverlässig mit Agentenleistung korrelieren und weiter optimiert werden können.
Die Studie legt damit die Grundlage für zukünftige brain‑driven RLHF‑Systeme, bei denen neuronale Rückmeldungen direkt in den Trainingsprozess von KI-Agenten einfließen. Der Ansatz eröffnet neue Möglichkeiten, menschliche Präferenzen auf einer tieferen, neurobiologischen Ebene zu berücksichtigen und KI‑Verhalten noch präziser zu steuern.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.