Open-Source-Modelle für Cybersicherheit: Foundation‑Sec‑8B‑Reasoning setzt Maßstäbe

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Ein neues Kapitel in der Cybersicherheitsforschung hat begonnen: Das Modell Foundation‑Sec‑8B‑Reasoning ist das erste Open‑Source‑Reasoning‑System, das speziell für Sicherheitsaufgaben entwickelt wurde.

Das System baut auf der Basis von Llama‑3.1‑8B‑Base auf und wurde in zwei Schritten trainiert. Zunächst erfolgte ein supervised fine‑tuning (SFT), gefolgt von reinforcement learning with verifiable rewards (RLVR). Dabei wurden proprietäre Daten zu Cyber‑Security‑Analyse, Instruktionsbefolgung und mathematischem Denken eingesetzt.

In Tests an zehn Cybersicherheits‑Benchmarks und zehn allgemeinen Aufgaben zeigte das Modell eine Leistung, die mit deutlich größeren Modellen auf Sicherheitsaufgaben konkurriert, während es gleichzeitig starke allgemeine Fähigkeiten beibehält.

Besonders beeindruckend ist die Fähigkeit des Modells, komplexe Mehr‑Sprung‑Reasoning‑Aufgaben zu lösen, und seine hohe Sicherheit bei Einsatz mit geeigneten System‑Prompts und Schutzmechanismen.

Diese Ergebnisse beweisen, dass domänenspezifische Reasoning‑Modelle exzellente Leistungen in spezialisierten Bereichen erbringen können, ohne die Vielseitigkeit zu verlieren. Das Modell steht frei zur Verfügung unter https://huggingface.co/fdtn-ai/Foundation-Sec-8B-Reasoning.

Ähnliche Artikel