Forschung
Multi-Value Alignment: Mehr Sicherheit für große Sprachmodelle
Mit dem rasanten Fortschritt großer Sprachmodelle (LLMs) wird die Aufgabe, sie an menschliche Werte anzupassen, immer wichtiger. Dabei gilt…
arXiv – cs.LG