R²-HGP: Doppelt regularisierter Gaußprozess für heterogenes Transfer‑Learning
In der Welt der Multi‑Output‑Gaussian‑Prozesse (MGP) hat sich ein neues Modell namens R²‑HGP etabliert, das die Grenzen des heterogenen Transfer‑Learnings sprengt. MGP‑Modelle sind bereits für ihre Flexibilität und die präzise Unsicherheitsabschätzung bekannt, doch sie stoßen bei der Übertragung von Wissen zwischen unterschiedlichen Quellen und Zieldomänen an ihre Grenzen.
Die Hauptprobleme liegen in drei Bereichen: Erstens sind die Eingaberaumstrukturen der Quell‑ und Zieldomains oft unterschiedlich, was einen direkten Wissensaustausch erschwert. Zweitens werden wichtige Vorwissen‑ und physikalische Informationen häufig ignoriert, was zu instabilen Abbildungen führt. Drittens kann ein unangemessener Informationsaustausch zwischen Ziel und Quellen leicht zu negativem Transfer führen.
R²‑HGP begegnet diesen Herausforderungen mit einem innovativen Ansatz. Zunächst wird ein lernbarer Prior‑Wahrscheinlichkeits‑Mapping‑Modell entwickelt, das die heterogenen Eingabedomänen aufeinander abstimmt. Die daraus resultierenden ausgerichteten Eingaben werden als latente Variablen behandelt und bilden die Basis für ein Multi‑Source‑Transfer‑GP‑Modell. Dieses wird in ein neuartiges Conditional Variational Autoencoder (CVAE) eingebettet, wodurch die gesamte Struktur nahtlos integriert wird.
Ein weiterer Meilenstein ist die Einbindung physikalischer Erkenntnisse als Regularisierungsterm. Dadurch wird sichergestellt, dass die Ausrichtungsergebnisse mit bekannten physikalischen Gesetzen übereinstimmen. Im Inneren des Multi‑Source‑Transfer‑GP-Modells wird zudem ein Sparsity‑Penalty angewendet, um die Informationsweitergabe gezielt zu steuern und negative Transfer‑Effekte zu minimieren.
R²‑HGP kombiniert also Domain‑Alignment, physikalische Regularisierung und sparsames Transfer‑Learning in einem einzigen, kohärenten Rahmen. Diese Fortschritte eröffnen neue Möglichkeiten für robuste, zuverlässige Transfer‑Learning‑Anwendungen in heterogenen Datenumgebungen.