LLMs zeigen schwache Zufälligkeit: Studie enthüllt Grenzen bei Randomness‑Tasks
Die rasante Entwicklung von großen Sprachmodellen (LLMs) hat zahlreiche Anwendungen hervorgebracht, die auf Zufälligkeit angewiesen sind – von stochastischen Entscheidungen über Spiele bis hin zu kryptografischen Aufgaben. Trotz dieser breiten Einsatzmöglichkeiten bleibt unklar, wie gut LLMs tatsächlich mit Zufallszahlen umgehen können.