Multi-Value Alignment: Mehr Sicherheit für große Sprachmodelle
Mit dem rasanten Fortschritt großer Sprachmodelle (LLMs) wird die Aufgabe, sie an menschliche Werte anzupassen, immer wichtiger. Dabei gilt es nicht nur einen einzelnen Wert zu berücksichtigen, sondern mehrere, die sich manchmal widersprechen können. Dieses „Multi‑Value Alignment“ stellt ein zentrales Problem für Sicherheit und Ethik dar.