Dynamische Cutoffs beschleunigen ML-Interatomische Potentiale
Maschinelles Lernen hat die Simulation von Atomen revolutioniert, doch die Geschwindigkeit und der Speicherbedarf von ML‑Interatomischen Potentialen (MLIPs) bleiben die größten Hindernisse für großskalige Anwendungen. In einer neuen Studie wird dieses Problem mit einer völlig neuen Idee angegangen: Statt eines festen Cutoff‑Radius wird ein dynamischer Cutoff eingeführt, der die Anzahl der Nachbarn pro Atom gezielt begrenzt.
Durch diese gezielte Sparsifizierung des Atomgraphen sinkt der Speicherverbrauch drastisch und die Inferenzzeit verkürzt sich um mehr als das Doppelte. Die Methode wurde auf vier führende MLIP‑Modelle – MACE, Nequip, Orbv3 und TensorNet – angewendet und erzielte bis zu 2,26‑fachen Speicherersparnis und 2,04‑fachen Geschwindigkeitsgewinn, je nach Modell und System.
Eine umfangreiche Fehleranalyse zeigt, dass die dynamischen Cutoff‑Modelle die Genauigkeit nahezu unverändert lassen. Alle Implementierungen und Trainingscodes werden vollständig Open Source bereitgestellt, sodass die Forschungsgemeinschaft sofort von den Verbesserungen profitieren kann.