Wiederholung des Eingabe-Prompts steigert Leistung von LLMs ohne mehr Tokens
Ein neuer arXiv-Preprint (2512.14982v1) hat gezeigt, dass die Wiederholung des Eingabe-Prompts die Leistung von großen Sprachmodellen erheblich verbessert – und das ohne zusätzliche Token oder erhöhte Latenz. Die Studie…