Neues Lernverfahren nutzt Energieverlustfunktionen für physikalische Systeme
Ein neues arXiv-Posting präsentiert einen innovativen Ansatz, bei dem physikalisches Wissen direkt in die Verlustfunktion von Machine‑Learning-Modellen einfließt. Statt sich ausschließlich auf architektonische Anpassungen zu verlassen, nutzt die Methode die thermische Gleichgewichtsbasis eines Systems und setzt die umgekehrte Kullback–Leibler‑Divergenz mit einer Boltzmann‑Verteilung ein. Das Ergebnis ist eine Energie‑Loss‑Funktion, die die Differenz zwischen den Daten und den Modellvorhersagen misst und damit Gradienten liefert, die stärker mit gültigen physikalischen Zuständen übereinstimmen.