FIRE: Neue Multi‑Fidelity‑Regression mit tabellarischen Grundmodellen
In der Welt der Multi‑Fidelity‑Regression, wo Daten oft stark unausgewogen sind, hat ein neues Verfahren namens FIRE die Messlatte höher gelegt. FIRE nutzt tabellarische Grundmodelle (TFMs), um ohne zusätzliche Trainingsschritte eine Zero‑Shot‑Bayessche In‑Context‑Inference durchzuführen. Dabei wird ein Hoch‑Fidelity‑Korrekturmodell auf die posterioren Vorhersageverteilungen des Low‑Fidelity‑Modells konditioniert, sodass heteroskedastische Fehler direkt erfasst werden.
Durch die Übertragung von Informationen über Verteilungssummen ermöglicht FIRE robuste Residual‑Lernprozesse, ohne dass das Modell neu trainiert werden muss. Auf 31 Benchmark‑Aufgaben – von synthetischen Tests bis hin zu realen Anwendungen wie DrivAerNet und LCBench – übertrifft FIRE sieben führende GP‑basierte und Deep‑Learning‑Methoden. Es erzielt nicht nur höhere Genauigkeit und bessere Unsicherheitsabschätzungen, sondern bietet auch erhebliche Laufzeitvorteile.
Die Hauptbeschränkungen liegen in der Größe des Kontextfensters und in der Abhängigkeit von der Qualität der vortrainierten TFMs. Trotz dieser Grenzen setzt FIRE neue Maßstäbe für effiziente und verlässliche Multi‑Fidelity‑Regression in der Praxis.