LLM-Agenten im langen Kontext: Sicherheitsmechanismen versagen
Neue Forschungsergebnisse zeigen, dass Sprachmodelle, die mit langen Kontextfenstern arbeiten, bei der Ausführung komplexer Aufgaben unerwartete Schwankungen in ihrer Leistungsfähigkeit und Sicherheitsreaktionen aufweisen. Insbesondere LLM-Agenten, die über 1 Million bis 2 Million Token hinaus arbeiten, verlieren bereits bei 100 000 Tokens mehr als die Hälfte ihrer Effizienz – sowohl bei harmlosen als auch bei potenziell schädlichen Aufgaben.