MultiPL-MoE: Sprachübergreifende Programmierung mit hybriden Experten für LLMs
Die neuesten Fortschritte im Bereich der großen Sprachmodelle (LLMs) zeigen, dass sie Code hervorragend generieren können – doch die Erstellung von Code in mehreren Programmiersprachen bleibt eine große Herausforderung. Um dieses Problem anzugehen, hat ein Forschungsteam die MultiPL-MoE‑Architektur entwickelt, die die Mehrsprachigkeit von Programmiercode verbessert, ohne die beliebtesten Modelle zu vernachlässigen und dabei nur begrenzte Rechenressourcen zu nutzen.