Neues Verfahren: Geometrische Optimierung zur Auswahl von GP‑Kernels
In der Welt der Gaussian‑Process‑Regressionen ist die Wahl des richtigen Kovarianz‑Kernels entscheidend für die Modellqualität. Ein neues Verfahren nutzt die Geometrie von „Kernel‑of‑Kernels“, um diesen Auswahlprozess zu beschleunigen und zu verbessern. Durch die Berechnung erwarteter Divergenzen zwischen GP‑Prioren entsteht ein Abstandsmatrix, die mit multidimensionaler Skalierung (MDS) in einen kontinuierlichen euklidischen Raum eingebettet wird. So wird ein diskreter Kernelliteratur‑Katalog in ein glattes, kontinuierliches Manifold überführt, das für die Bayesianische Optimierung (BO) ideal ist.
Die Eingabedaten für die Optimierung bestehen aus Kombinationen von Kerneln, während die Zielfunktion die logarithmische marginale Likelihood ist. Die MDS‑Koordinaten dienen als Feature‑Darstellung. Wenn die Divergenz ein gültiges Metrik‑Kriterium erfüllt, bleibt die Geometrie erhalten und das BO‑Landschaft wird stabil. Das Verfahren wurde an synthetischen Tests, realen Zeitreihen und einer Fertigungsstudie zur Vorhersage von Schmelzpool‑Geometrien erprobt. In allen Fällen erzielte es bessere Vorhersagegenauigkeit und eine präzisere Unsicherheitsabschätzung als herkömmliche Baselines, einschließlich solcher, die auf großen Sprachmodellen basieren.
Damit liefert das neue Framework eine wiederverwendbare, probabilistische Geometrie für die Kernelsuche, die sowohl für klassische GP‑Modelle als auch für Deep‑Kernel‑Learning‑Ansätze von Bedeutung ist.