Generative KI optimiert probabilistisches Multi‑Fidelity Surrogatmodell

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der heutigen Zeit sind KI‑gestützte Surrogatmodelle ein zentrales Werkzeug, um komplexe Ingenieurprobleme schnell zu lösen. Ihre Leistungsfähigkeit hängt jedoch stark von der Qualität und Menge der verfügbaren Daten ab. Hochpräzise (HF) Daten sind selten und kostenintensiv, während niedrigpräzise (LF) Daten zwar reichlich vorhanden, aber weniger zuverlässig sind.

Um dieses Datenknappheitsproblem zu überwinden, wurde ein probabilistisches Multi‑Fidelity‑Framework entwickelt, das generatives Transferlernen nutzt. Im Kern steht ein Normalizing‑Flow‑Modell, das in zwei Schritten trainiert wird: Zunächst wird es auf einem großen LF‑Datensatz vortrainiert, um ein probabilistisches Vorhersagemodell zu erlernen. Anschließend wird das vortrainierte Modell mit einem kleinen HF‑Datensatz feinjustiert, wodurch die Diskrepanz zwischen LF und HF durch Wissensübertragung korrigiert wird.

Die Architektur kombiniert dimensionserhaltende Coupling‑Blöcke mit surjektiven, dimensionsreduzierenden Schichten. Dadurch kann das Modell die Dimensionalität lernen und gleichzeitig exakte Likelihood‑Berechnungen durchführen. Das Ergebnis ist ein Surrogat, das schnelle probabilistische Vorhersagen liefert, Unsicherheiten quantifiziert und die Leistung von reinen LF‑Modellen deutlich übertrifft – und das bei deutlich weniger HF‑Evaluierungen.

Die Wirksamkeit des Ansatzes wurde an einem Benchmark für Betonplatten getestet, bei dem viele grobkörnige (LF) Simulationen mit einer begrenzten Anzahl feinkörniger (HF) Simulationen kombiniert wurden. Das Modell erreichte HF‑Genauigkeit bei probabilistischen Vorhersagen und demonstriert damit einen praktikablen Weg zu daten‑effizienten, KI‑gestützten Surrogaten für komplexe technische Systeme.

Ähnliche Artikel