Neues Verfahren verhindert SQL-Abfragen – LatentRefusal steigert Sicherheit
In der Welt der großen Sprachmodelle (LLMs) stellen unklare oder unlösbare Text‑zu‑SQL‑Abfragen ein ernstes Sicherheitsrisiko dar. Solche Anfragen können nicht nur falsche Antworten liefern, sondern auch ausführbare Programme erzeugen, die irreführende Ergebnisse zurückgeben oder sogar Sicherheitsrichtlinien verletzen.
Traditionelle Methoden, die auf der Ausgabebewertung oder der Schätzung von Unsicherheit beruhen, sind oft fehleranfällig und erhöhen den Rechenaufwand. Das neue Verfahren LatentRefusal geht einen anderen Weg: Es nutzt latente Signale aus den Zwischenschichten eines LLM, um die Beantwortbarkeit einer Anfrage bereits im Vorfeld zu erkennen.
Der Schlüssel liegt im Tri‑Residual Gated Encoder, einer schlanken Probearchitektur, die Rauschen im Datenbankschema unterdrückt und gleichzeitig gezielte Hinweise auf ein Missverhältnis zwischen Frage und Schema hervorhebt. Dadurch kann das System unanswerable Anfragen zuverlässig ablehnen, bevor sie ausgeführt werden.
Umfangreiche Tests auf vier unterschiedlichen Benchmarks zeigen, dass LatentRefusal die durchschnittliche F1‑Score um 88,5 % steigert – sowohl bei kleinen als auch bei großen Modellen – und dabei lediglich etwa 2 Millisekunden Probezeit hinzufügt. Damit bietet es eine effiziente, anpassbare Sicherheitsschicht für Text‑zu‑SQL‑Systeme.