<p>Alignment-Aware Probe Pruning: 50 % mehr Sicherheit bei dynamischem LLM‑Pruning</p> <p>Große Sprachmodelle (LLMs) benötigen enorme Rechenleistung, was ihre praktische Nutzung erschwert. Dynamisches Pruning, bei dem während der Inferenz nur die nötigsten Schaltkreise aktiviert werden, bietet hier einen deutlichen Effizienzgewinn. Allerdings kann diese Technik die „Alignment“-Qualität – also die Einhaltung von Sicherheits- und Ethikstandards – gefährden, weil sie nur auf Eingabe‑abhängige, sicherheitskriti
Anzeige