FIRM: Federated In-client Multi-objective Alignment für LLMs – effizienter Ansatz
In einer Zeit, in der große Sprachmodelle (LLMs) immer stärker in den Alltag integriert werden, stellt die Abstimmung dieser Modelle auf menschliche Werte eine enorme Herausforderung dar. Dabei müssen oft widersprüchliche Ziele wie Hilfsbereitschaft und Unbedenklichkeit gleichzeitig berücksichtigt werden. Der klassische Ansatz, diese Modelle zentral zu trainieren, ist nicht nur rechenintensiv, sondern wirft auch erhebliche Datenschutzbedenken auf.