Finetune‑Informed Pretraining steigert Leistung multimodaler Modelle

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der Forschung zu multimodalen Modellen hat sich das Pretraining als Schlüssel zur Entwicklung vielseitiger Repräsentationen etabliert. Doch in vielen realen Anwendungen wird meist nur eine einzige Modalität – etwa Text, Bild oder Signal – intensiv genutzt. Traditionelle Pretraining‑Ansätze behandeln sämtliche Modalitäten gleich, was zu suboptimalen Darstellungen für die tatsächlich wichtige Modalität führen kann.

Um diesem Problem zu begegnen, stellt die neue Methode Finetune‑Informed Pretraining (FIP) vor, die das Lernen gezielt auf die Zielmodalität ausrichtet. FIP erhöht die Maskierungs­schwierigkeit, gewichtet den Verlust stärker und erweitert die Decoder‑Kapazität für die gewünschte Modalität, ohne den gemeinsamen Encoder zu verändern oder zusätzliche Supervision zu benötigen.

In einem Anwendungsbeispiel mit maskiertem Modellieren von Konstellationsdiagrammen für drahtlose Signale zeigte FIP konsequent verbesserte Ergebnisse beim nachfolgenden Fine‑Tuning – und das ohne zusätzliche Daten oder Rechenleistung. Die Methode ist einfach zu implementieren, architekturkompatibel und lässt sich breit in multimodalen Masking‑Pipelines einsetzen.

Ähnliche Artikel