Deep Learning erzeugt Kernkraft-Daten: Fortschritt bei kritischem Wärmefluss
In einem wegweisenden Beitrag aus dem arXiv-Repository wird gezeigt, wie Deep‑Generative‑Modelle, insbesondere Diffusionsmodelle, die Datenknappheit in der Kernenergie überwinden können. Durch das Erlernen der zugrunde liegenden Wahrscheinlichkeitsverteilung eines öffentlichen Datensatzes zu kritischem Wärmefluss (CHF) lassen sich synthetische Stichproben erzeugen, die statistisch den realen Messungen entsprechen.
Der Artikel präsentiert ein kontextsensitives Diffusionsmodell, das gezielt CHF‑Daten unter vorgegebenen thermo‑hydraulischen Bedingungen generieren kann. Im Gegensatz zu klassischen Diffusionsmodellen, die zufällige Samples erzeugen, ermöglicht die bedingte Variante die gezielte Erweiterung des Datensatzes für spezifische Betriebszustände von Kernreaktoren.
Die Leistungsfähigkeit des Modells wurde anhand der Erfassung empirischer Feature‑Verteilungen, paarweiser Korrelationen und physikalischer Konsistenz bewertet. Die Ergebnisse zeigen, dass sowohl das generische als auch das bedingte Modell realistische und physikalisch konsistente CHF‑Daten erzeugen. Zusätzlich wurde eine Unsicherheitsquantifizierung durchgeführt, um die Zuverlässigkeit der synthetischen Daten zu bestätigen.
Diese Arbeit demonstriert, dass Deep‑Learning‑basierte Datenaugmentation ein effektives Mittel darstellt, um die Robustheit von Vorhersagemodellen in der Kernenergie zu erhöhen und gleichzeitig die Kosten und den Aufwand für experimentelle Datenerhebung zu reduzieren.