MoE-LLMs: Gefahr unautorisierter Kompression durch gezieltes Pruning
Modulare Mixture-of-Experts-Architekturen werden immer häufiger in großen Sprachmodellen eingesetzt, weil sie Skalierbarkeit und Effizienz kombinieren. Gleichzeitig eröffnen sie jedoch ein neues Sicherheitsrisiko: Angre…