Unverzerrter Gradient mit einer Abfrage für kombinatorische Optimierung
In der probabilistischen Neuauslegung kombinatorischer Probleme steht häufig die Optimierung über einen Hyperwürfel im Fokus, der den Bernoulli‑Parameter für jede binäre Variable repräsentiert. Für die exakte Berechnung des Gradienten sind traditionell mehrere Funktionsabfragen nötig – ein Aufwand, der bei großen Problemen schnell unpraktisch wird. Das neue Verfahren liefert einen stochastischen, unverzerrten Gradient, der lediglich eine einzige Abfrage der kombinatorischen Zielfunktion erfordert. Damit vereint es die bekannte REINFORCE‑Methode (durch Importance‑Sampling) mit einer ganzen Klasse bislang unbekannter, effizienter Gradientenschätzungen. Die Ergebnisse zeigen, dass die Methode sowohl theoretisch sauber als auch praktisch vielversprechend ist, und eröffnen damit neue Wege für die Lösung komplexer kombinatorischer Optimierungsaufgaben.