Forschung arXiv – cs.LG

PromptPort: Zuverlässige strukturierte Extraktion über Modelle hinweg

In der Praxis scheitert die strukturierte Extraktion mit großen Sprachmodellen nicht an fehlendem Verständnis, sondern an unzuverlässiger Ausgabeformatierung. Ein Prompt, der bei GPT‑4 sauberes JSON liefert, kann bei Ll…

≈1 Min. Lesezeit Originalquelle
Visuelle Illustration fuer KI-Kontext
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In der Praxis scheitert die strukturierte Extraktion mit großen Sprachmodellen nicht an fehlendem Verständnis, sondern an unzuverlässiger Ausgabeformatierung.
  • Ein Prompt, der bei GPT‑4 sauberes JSON liefert, kann bei Llama zu gefesseltem, prosa­artig verpacktem oder sogar fehlerhaftem Output führen, sodass strenge Parser die a…
  • Dieses Phänomen, das die Autoren als „Format Collapse“ bezeichnen, wurde systematisch untersucht.

In der Praxis scheitert die strukturierte Extraktion mit großen Sprachmodellen nicht an fehlendem Verständnis, sondern an unzuverlässiger Ausgabeformatierung. Ein Prompt, der bei GPT‑4 sauberes JSON liefert, kann bei Llama zu gefesseltem, prosa­artig verpacktem oder sogar fehlerhaftem Output führen, sodass strenge Parser die ansonsten korrekten Ergebnisse ablehnen. Dieses Phänomen, das die Autoren als „Format Collapse“ bezeichnen, wurde systematisch untersucht.

Zur Messung der Zuverlässigkeit wurde ein zweistufiges Evaluationsframework eingeführt: ROS (Reliability of Strict Parsing) bewertet die operative Zuverlässigkeit, während CSS (Canonical Semantic Score) die semantische Qualität nach einer Standardisierung misst. Auf einem Benchmark von 37.346 Kameradatenbeispielen über sechs Modellfamilien zeigte sich ein drastischer Format‑Collapse, etwa bei Gemma‑2B (ROS 0.116 vs. CSS 0.246). Zudem lagen die Portabilitätsgaps zwischen Modellen bei 0,4 bis 0,6 F1‑Punkten.

Die Lösung ist PromptPort, eine leichte, aber effektive Schicht, die deterministische Canonicalisierung mit einem DistilBERT‑Verifikator und einer Safe‑Override‑Policy kombiniert. PromptPort behebt Formatfehler um 6 bis 8 F1‑Punkte, fügt eine semantische Auswahl hinzu, die weitere 14 bis 16 F1‑Punkte bringt, und erreicht nahezu die Leistung eines Feld‑Orakels (0,890 vs. 0,896 im Zero‑Shot‑Modus). Die Methode generalisiert auf bislang nicht getestete Modellfamilien und bietet bei Unsicherheit eine explizite Abstention, was die Zuverlässigkeit in produktiven Deployments deutlich erhöht.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Sprachmodelle
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Format Collapse
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Reliability of Strict Parsing
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen