LLMs priorisieren Anweisungen hierarchisch – Sicherheit steigt
In der heutigen Zeit, in der große Sprachmodelle (LLMs) immer häufiger in entscheidungsrelevanten Bereichen eingesetzt werden, ist es entscheidend, dass sie widersprüchliche Anweisungen aus unterschiedlichen Quellen – etwa von Entwicklern, Nutzern und unterstützenden Tools – zuverlässig verarbeiten können. Ein neues Verfahren, das die Hierarchie von Anweisungen als logisches Denkproblem betrachtet, zeigt, wie LLMs lernen können, höhere Prioritäten zu erkennen und zu befolgen.
Forscher haben ein spezielles Datenset namens VerIH entwickelt, das Aufgaben mit klaren, überprüfbaren Antworten enthält und sowohl abgestimmte als auch widersprüchliche System‑ und Nutzeranweisungen abbildet. Durch leichtgewichtiges Reinforcement‑Learning wird das generelle Denkvermögen des Modells auf die Priorisierung von Anweisungen übertragen. Die feinabgestimmten Modelle erzielen dadurch konsistente Verbesserungen bei Standard‑Benchmarks für Anweisungsbefolgung und Hierarchie‑Aufgaben.
Das Besondere an dieser Methode ist ihre Übertragbarkeit auf sicherheitskritische Szenarien. Indem Sicherheitsprobleme als Konflikte zwischen feindlichen Nutzeranfragen und vordefinierten, höheren Richtlinien behandelt werden, wird die Widerstandsfähigkeit gegen sogenannte Jailbreak‑ und Prompt‑Injection‑Angriffe deutlich erhöht. Diese Ergebnisse unterstreichen, dass ein systematisches Denken über Anweisungshierarchien die Zuverlässigkeit und Kontrolle von LLMs nachhaltig stärkt.