Kompakte Modelle übertreffen große Lehrer: DLNet für Batteriezustandsprognosen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In modernen Batteriemanagementsystemen wird immer mehr Wert auf präzise Gesundheitsprognosen gelegt, die gleichzeitig auf Geräten mit begrenzten Ressourcen laufen müssen. Das neue Framework DLNet löst dieses Problem, indem es ein großes, leistungsfähiges Modell in kompakte, auf dem Edge-Gerät einsetzbare Varianten überführt.

DLNet beginnt mit einer Euler‑Diskretisierung, um die dynamischen Eigenschaften von flüssigen neuronalen Netzwerken für eingebettete Systeme anzupassen. Anschließend wird ein zweistufiger Knowledge‑Distillation-Prozess eingesetzt, um das zeitliche Verhalten des Lehrermodells zu übertragen und nach einer weiteren Kompression wiederherzustellen. Durch eine Pareto‑orientierte Auswahl, die Fehler und Kosten gleichzeitig berücksichtigt, werden die besten Schülermodelle ausgewählt, die Genauigkeit und Effizienz optimal ausbalancieren.

Die Evaluation auf einem etablierten Datensatz und die praktische Umsetzung auf einem Arduino Nano 33 BLE Sense zeigen beeindruckende Ergebnisse: Das finale Schülermodell erreicht einen Fehler von 0,0066 bei der Vorhersage des Batteriezustands über die nächsten 100 Zyklen – 15,4 % besser als das Lehrermodell. Gleichzeitig schrumpft die Modellgröße von 616 kB auf 94 kB, was einer Reduktion um 84,7 % entspricht, und die Inferenzzeit beträgt lediglich 21 ms.

Diese Ergebnisse bestätigen die These, dass ein kleineres Modell mit richtiger Anleitung und Auswahl die Leistung eines großen Lehrers übertreffen kann. DLNet ist damit nicht nur für Batteriezustandsprognosen geeignet, sondern lässt sich auch auf andere industrielle Analyseaufgaben mit strengen Hardwarebeschränkungen übertragen.

Ähnliche Artikel