KI-gestützte Optimierungsprobleme: Benchmark-Bibliothek mit kontrollierbaren Merkmalen
In der Welt der kontinuierlichen Black‑Box‑Optimierung stoßen Forscher seit langem an die Grenzen herkömmlicher Test-Suiten wie BBOB, die nur begrenzte strukturelle Vielfalt bieten. Ein neues Projekt nutzt große Sprachmodelle (LLMs) in einem evolutionären Loop, um Optimierungsaufgaben mit exakt definierten Landschaftsmerkmalen zu generieren. Durch die Kombination von natürlicher Sprachbeschreibung und LLM‑Code‑Generierung entstehen Funktionen, die gezielt Eigenschaften wie Multimodalität, Trennbarkeit, Homogenität der Basins, Homogenität des Suchraums sowie den Kontrast zwischen globalen und lokalen Optima aufweisen.
Der Kern des Ansatzes ist das LLaMEA‑Framework, das das LLM anleitet, Problemcode aus Textbeschreibungen zu erzeugen. Jede erzeugte Kandidatenfunktion wird anschließend mit ELA‑basierten Property‑Predictoren bewertet. Um die Vielfalt der Population zu erhöhen und redundante Landschaften zu vermeiden, wird ein Fitness‑Sharing‑Mechanismus im ELA‑Raum eingesetzt. Ergänzend dazu werden Basin‑of‑Attraction‑Analysen, statistische Tests und visuelle Inspektionen durchgeführt, um die Einhaltung der gewünschten Struktureigenschaften zu bestätigen.
Eine t‑SNE‑Einbettung zeigt, dass die neu generierten Funktionen den bestehenden BBOB‑Instanzraum erweitern, anstatt einen separaten Cluster zu bilden. Das Ergebnis ist eine breite, interpretierbare und reproduzierbare Bibliothek von Benchmark‑Problemen, die sich ideal für Landschaftsanalyse und nachgelagerte Aufgaben wie automatisierte Algorithmusauswahl eignet. Diese Entwicklung markiert einen bedeutenden Fortschritt in der Gestaltung von Optimierungsaufgaben und eröffnet neue Möglichkeiten für die Forschung im Bereich der kontinuierlichen Black‑Box‑Optimierung.