Temperatur in SLMs: Einfluss auf Incident-Kategorisierung On-Premises

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Sicherheitsoperationen und Incident Response Teams stehen vor der Herausforderung, Vorfälle immer schneller zu klassifizieren. Der Einsatz von cloudbasierten großen Sprachmodellen (LLMs) bringt dabei Kosten, Latenz und Datenschutzprobleme mit sich. In einer neuen Studie wurde untersucht, ob lokal ausgeführte Sprachmodelle (SLMs) diese Anforderungen erfüllen können. Dabei wurden 21 Modelle mit 1 bis 20 Milliarden Parametern getestet, die Temperatur als Hyperparameter variiert und sowohl die Ausführungszeit als auch die Präzision gemessen. Die Ergebnisse zeigen, dass die Temperatur kaum Einfluss auf die Leistung hat, während die Modellgröße und die GPU‑Kapazität entscheidend sind.

Ähnliche Artikel