TextBFGS: Quasi-Newton-Optimierung für diskrete Texte via Gradient-Operator
Die neueste Veröffentlichung auf arXiv (2602.00059v1) stellt TextBFGS vor – ein Quasi-Newton-Framework, das die Optimierung von diskreten, ausführbaren Texten wie Prompt- und Codefragmenten revolutioniert. Im Gegensatz zu bisherigen Verfahren, die sich auf stochastische Gradientenabstiegsverfahren beschränken, nutzt TextBFGS eine zweite‑Ordnungsmethode, die die semantische Krümmung des Optimierungsraums berücksichtigt.