LLMs beschleunigen Brettspiel-Programmierung – Studie liefert Ergebnisse
In einer neuen Veröffentlichung auf arXiv (Arbeitstitel: „LLMs beschleunigen die Programmierung von Brettspielen“) wird untersucht, wie gut große Sprachmodelle (LLMs) bei der Erstellung von Code für Brettspiele und deren Varianten funktionieren. Die Autoren betonen, dass die Entwicklung von Programmen zur Darstellung von Brettspielen oft sehr zeitaufwendig ist und LLMs als vielversprechendes Werkzeug gelten, weil sie Code aus einfachen Kontextangaben generieren können.
Zur Bewertung der Leistungsfähigkeit haben die Forscher drei prominente LLMs – Claude, DeepSeek und ChatGPT – ausgewählt und ein Testverfahren entwickelt, das die Fähigkeit der Modelle misst, komplette Spielprogramme zu erzeugen sowie neue Varianten bestehender Spiele zu programmieren. Das Verfahren liefert strukturierte Ergebnisse, die es ermöglichen, die Stärken und Schwächen der einzelnen Modelle systematisch zu vergleichen.
Die Studie liefert damit einen wichtigen Beitrag für Entwickler und Forschende, die Brettspiele digitalisieren wollen, und zeigt, dass LLMs bereits heute einen bedeutenden Teil des Programmieraufwands übernehmen können. Gleichzeitig verdeutlicht die Arbeit, dass noch Verbesserungen nötig sind, um die Qualität und Zuverlässigkeit der generierten Codebasis zu erhöhen.