Modulare NPC-Dialoge: Kleine Sprachmodelle mit Speicher für Spiele auf jedem PC

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In einer neuen Studie zeigen Forscher, wie kleine Sprachmodelle (SLMs) in Videospielen eingesetzt werden können, ohne die Leistung zu beeinträchtigen. Durch die Kombination von feinabgestimmten Modellen mit austauschbaren Speicher‑Modulen lassen sich NPC‑Persönlichkeiten präzise darstellen und gleichzeitig kontextabhängige Gespräche über längere Zeiträume führen.

Die Autoren haben drei Open‑Source‑SLMs – DistilGPT‑2, TinyLlama‑1.1B‑Chat und Mistral‑7B‑Instruct – auf synthetisch generierten, persona‑ausgerichteten Daten trainiert. Anschließend wurden die Modelle in ein modular aufgebautes Dialogsystem integriert, das während des Spiels dynamisch Speicher‑Module laden und entladen kann, ohne das Modell neu zu laden oder zu trainieren.

Die Tests wurden auf handelsüblichen PCs durchgeführt, was zeigt, dass selbst leistungsstarke, aber nicht überdimensionierte Hardware ausreicht, um flüssige, kontextreiche NPC‑Interaktionen zu ermöglichen. Die Ergebnisse deuten darauf hin, dass diese Architektur nicht nur für Spiele, sondern auch für virtuelle Assistenten, Kundensupport‑Bots und interaktive Lernplattformen geeignet ist.

Ähnliche Artikel