Echoless-LP: Speicher- und Effizienzsteigerung bei heterogenen Graphen
Heterogene Graph Neural Networks (HGNNs) sind das Rückgrat moderner Deep‑Learning‑Anwendungen auf komplexen Netzwerken. Traditionelle End‑to‑End‑Modelle führen jedoch während des Trainings wiederholte Nachrichtenweitergaben durch, was bei großen, realen Graphen die Effizienz stark einschränkt. Durch Vor‑Berechnung kann das Problem gemildert werden: Nachrichten werden einmalig im Pre‑Processing zusammengefasst und in reguläre Tensoren überführt, sodass Mini‑Batch‑Training deutlich schneller läuft.