LLM-Schritte prüfen: Unsicherheitsköpfe liefern schnelle Verifikation
In einer neuen Studie wird ein schlanker Ansatz vorgestellt, mit dem große Sprachmodelle (LLMs) ihre eigenen Rechenschritte zuverlässig prüfen können. Anstelle auf teure, domänenspezifische Modelle zurückzugreifen, nutzen die Forscher sogenannte Unsicherheitsköpfe (UHeads), die die internen Zustände eines eingefrorenen LLMs analysieren, um die Unsicherheit einzelner Schritte zu schätzen.