Neuer Ansatz: Knowledge Gradient für Präferenzlernen in Bayesianischer Optimierung

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Der Knowledge Gradient (KG) gilt als eine der führenden Akquisitionsfunktionen in der Bayesianischen Optimierung (BO) und wird häufig eingesetzt, um schwarze Box-Funktionen mit verrauschten Messungen zu optimieren. In vielen praktischen Anwendungen stehen jedoch nur Paarvergleichsfragen zur Verfügung, sodass direkte Funktionsauswertungen nicht möglich sind. Dieses Szenario führt zu einem Präferenz-BO-Problem, das bislang schwer zu adressieren war.

Die Hauptschwierigkeit bei der Übertragung des KG auf Präferenz-BO liegt im Look‑Ahead-Schritt: Hier muss ein nicht‑gaussischer Posterior berechnet werden, was als intransparenter Rechenaufwand galt. Die Autoren dieses Papers haben dieses Hindernis überwunden, indem sie eine exakte und analytische Form des Knowledge Gradient für Präferenz-BO ableiten.

Die neue Methode zeigt in einer Reihe von Benchmark‑Tests starke Leistungen und übertrifft häufig etablierte Akquisitionsfunktionen. Zusätzlich wird in einer Fallstudie aufgezeigt, unter welchen Bedingungen der Knowledge Gradient an seine Grenzen stößt, was wichtige Hinweise für die praktische Anwendung liefert.

Ähnliche Artikel