Neues Framework komprimiert und quantisiert PINNs für Edge-Devices
Physik-Informed Neural Networks (PINNs) haben sich als vielversprechende Methode etabliert, um partielle Differentialgleichungen (PDEs) zu lösen, indem physikalische Gesetze direkt in die Trainingsziele der Netzwerke eingebettet werden. Ihre Anwendung auf ressourcenbeschränkten Geräten bleibt jedoch durch hohe Rechen- und Speicheranforderungen, insbesondere bei hochgradiger automatischer Differenzierung und vollem Präzisionsarithmetic, stark eingeschränkt.
In einer kürzlich veröffentlichten Arbeit (ArXiv:2512.09202v1) wird ein neues Framework vorgestellt, das PINNs skalierbar und energieeffizient auf Edge‑Devices trainieren lässt. Das Konzept kombiniert vollständig quantisiertes Training, die Residualverlustberechnung mittels Stein’scher Schätzer (SE) und die Tensor‑Train‑(TT)‑Decomposition zur Gewichtskompression. Drei Kerninnovationen machen das Verfahren besonders leistungsfähig: Erstens nutzt es ein Mixed‑Precision‑Training mit dem quadratischen Block‑MX‑Format, um Datenduplizierung während des Back‑Propagationsschritts zu vermeiden. Zweitens führt es ein differenzbasiertes Quantisierungsschema für den Stein’schen Schätzer ein, das Unterlaufprobleme reduziert. Drittens setzt es eine Partial‑Reconstruction‑Strategie (PRS) für TT‑Layer ein, um die Akkumulation von Quantisierungsfehlern zu minimieren.
Um die Vorteile des Frameworks voll auszuschöpfen, wurde der hardware‑skalierbare Accelerator PINTA entwickelt. Dieser ist speziell auf die Anforderungen von quantisierten PINNs zugeschnitten und ermöglicht eine effiziente Ausführung auf modernen Edge‑Plattformen.
Die Experimente, die an der 2‑D‑Poisson‑Gleichung, der 20‑D‑Hamilton‑Jacobi‑Bellman‑Gleichung und der 100‑D‑Heat‑Gleichung durchgeführt wurden, zeigen, dass das neue Verfahren die Genauigkeit von Vollpräzisions‑, unkomprimierten Baselines erreicht oder sogar übertrifft. Gleichzeitig erzielt es beeindruckende Leistungssteigerungen von 5,5‑ bis 83,5‑fach und Energieeinsparungen von 159,6‑ bis 2324,1‑fach im Vergleich zu herkömmlichen Ansätzen.