KI‑Monitore lassen sich selbst zu leicht verurteilen – Selbstzuweisungsbias erklärt
Agentische Systeme nutzen zunehmend Sprachmodelle, um ihr eigenes Verhalten zu überwachen. Dabei prüfen Coding‑Agenten beispielsweise den von ihnen generierten Code oder bewerten die Sicherheit von Tool‑Verwendungen. Ein neues arXiv‑Paper zeigt, dass dieses Vorgehen fehlschlagen kann, wenn die Bewertung im selben oder im vorherigen Assistenz‑Turn stattfindet, statt in einem neuen Nutzer‑Turn.
Der Autor definiert den „Selbstzuweisungsbias“ als die Tendenz eines Modells, eine Handlung als korrekter oder weniger riskant einzuschätzen, wenn sie implizit als eigene Handlung präsentiert wird. In vier Datensätzen zu Coding und Tool‑Use wurde festgestellt, dass Monitore bei einer Bewertung nach einem vorherigen Assistenz‑Turn häufiger hochriskante oder fehlerhafte Aktionen übersehen. Im Gegensatz dazu führt die explizite Angabe, dass die Aktion vom Monitor stammt, nicht automatisch zu diesem Bias.
Da Monitore oft anhand fester Beispiele und nicht ihrer eigenen generierten Aktionen bewertet werden, kann dies dazu führen, dass sie in der Praxis zuverlässiger wirken, als sie tatsächlich sind. Entwickler könnten dadurch unbemerkt unzureichende Monitore in agentische Systeme einbauen, was die Sicherheit und Effektivität der Systeme gefährdet.