Einheitliche Sprachrepräsentationen: Schlüssel zur besseren LLM-Übersetzung
Wissenschaftler haben ein neues Experiment entwickelt, das erklärt, warum große Sprachmodelle (LLMs) bei der Übertragung von Wissen zwischen Sprachen oft Fehler machen. Durch das Training kleiner Transformer‑Modelle auf künstlich generierten mehrsprachigen Datensätzen konnten die Forscher einen entscheidenden Lernabschnitt identifizieren, in dem das Modell entweder getrennte oder einheitliche Repräsentationen derselben Fakten in den verschiedenen Sprachen bildet.