Effiziente Fakten‑Speicher‑MLPs für Transformer: Neuer Ansatz
In der neuesten Veröffentlichung auf arXiv (2512.00207v1) wird ein innovatives Framework vorgestellt, das die Art und Weise, wie große Sprachmodelle (LLMs) Fakten in ihren MLP‑Parametern speichern, grundlegend verbesser…