JetFormer: Skalierbarer Transformer für Jet-Tagging von Offline bis FPGA-Trigger

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Der neue Transformer‑Ansatz JetFormer wurde entwickelt, um die Erkennung von Teilchenjets am Large Hadron Collider (LHC) sowohl in hochpräzisen Offline‑Analysen als auch in Echtzeit‑Trigger‑Systemen zu optimieren. Im Gegensatz zu bisherigen Modellen, die oft nur für einen bestimmten Einsatzbereich geeignet sind, arbeitet JetFormer mit variablen Partikelmengen und benötigt keine expliziten Paarinteraktionen, wodurch die Rechenlast reduziert wird.

Auf dem umfangreichen JetClass‑Datensatz erreicht JetFormer eine Genauigkeit, die dem interaktionsreichen ParT‑Modell innerhalb von 0,7 % entspricht, jedoch 37,4 % weniger FLOPs verbraucht. In Benchmark‑Tests mit HLS4ML‑150P‑Datensätzen übertrifft JetFormer bestehende Modelle wie MLPs, Deep Sets und Interaction Networks um 3–4 % in der Genauigkeit. Diese Leistungen zeigen, dass JetFormer sowohl leistungsfähig als auch effizient ist.

Um die Hardware‑Implementierung zu erleichtern, wurde ein hardware‑bewusster Optimierungs‑Pipeline eingeführt, die auf mehrzieliger Hyperparameter‑Suche basiert. Durch diese Methode entstehen kompakte Varianten wie JetFormer‑tiny, die für FPGA‑basierte Trigger‑Systeme mit sub‑Mikrosekunden‑Latenz geeignet sind. Zusätzlich ermöglichen strukturiertes Pruning und Quantisierung eine aggressive Kompression des Modells mit minimalem Genauigkeitsverlust.

JetFormer vereint damit hochleistungsfähige Modellierung und praktische Deployability in einer einzigen Architektur und bietet damit einen klaren Weg für die Integration von Transformer‑Modellen in die nächste Generation von LHC‑Trigger‑Systemen.

Ähnliche Artikel