Erklärbares Deep Learning verbessert Schiffswegvorhersage in Binnengewässern
Die sichere Navigation auf stark frequentierten Binnengewässern hängt von präzisen Vorhersagen der Schiffsbewegungen ab. Durch den Einsatz moderner Deep‑Learning‑Modelle lassen sich die Genauigkeit und Zuverlässigkeit dieser Prognosen deutlich steigern.
Ein zentrales Problem bleibt jedoch die Erklärbarkeit der Modelle. Während die Schiffs‑zu‑Schiff‑Bewusstseinsfunktionen zunehmend verbessert werden, wird die nachvollziehbare Logik hinter den Vorhersagen oft vernachlässigt. In dieser Studie wird ein LSTM‑basiertes Vorhersagemodell untersucht, das trainierte Schiffsdomänenparameter nutzt, um die Aufmerksamkeit auf die versteckten Zustände der beteiligten Schiffe zu fokussieren.
Obwohl ähnliche Ansätze bereits im maritimen Bereich erforscht wurden, eröffnet die höhere Vielfalt und Komplexität der Begegnungen in Binnengewässern eine tiefere Analyse der Interpretierbarkeit. Die Leistung des Modells wird anhand standardisierter Verschiebungsfehlerstatistiken bewertet, während die Plausibilität der generierten Schiffsdomänenwerte separat untersucht wird.
Mit einem durchschnittlichen Verschiebungsfehler von rund 40 Meter über einen Vorhersagehorizont von fünf Minuten erreicht das Modell eine Leistung, die mit vergleichbaren Studien übereinstimmt. Die Schiffs‑zu‑Schiff‑Aufmerksamkeitsarchitektur erhöht zwar die Genauigkeit, jedoch weisen die zugewiesenen Gewichte für die beteiligten Schiffe Abweichungen von den Erwartungen auf. Die beobachteten Genauigkeitssteigerungen lassen sich daher nicht ausschließlich auf eine kausale Beziehung zwischen der vorhergesagten Route und den Nachbarschaftsbewegungen zurückführen.