Effizientes Lernen von Gaußschen Prozessen durch Unterraumprojektionen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In einer neuen Veröffentlichung auf arXiv wird ein innovatives Trainingsziel für Gaußsche Prozesse vorgestellt, das auf niedrigdimensionalen linearen Projektionen der Daten basiert. Das Konzept, als „projected likelihood“ (PL) bezeichnet, ermöglicht es, die Komplexität von GP‑Modellen deutlich zu reduzieren, ohne die Genauigkeit zu opfern.

Die Autoren liefern eine geschlossene Formel für den damit verbundenen Informationsverlust und zeigen experimentell, dass dieser Verlust durch zufällige Projektionen auf der Einheitskugel weiter minimiert werden kann. Im Vergleich zu herkömmlichen GP‑Trainingsmethoden und variationalen Ansätzen für spärliche GPs demonstriert PL sowohl höhere Genauigkeit als auch verbesserte Rechenleistung.

Die Ergebnisse gelten für verschiedene Optimierer, Kernel und Datensätze mittlerer Größe, was die Vielseitigkeit und Praxisrelevanz des Ansatzes unterstreicht. Diese Fortschritte könnten die Anwendung von Gaußschen Prozessen in datenintensiven Bereichen erheblich beschleunigen.

Ähnliche Artikel