Riemannsche Metrik: Skalierung erklärt – Auswirkungen auf Optimierung Ein neues arXiv‑Paper beleuchtet die konsequente Skalierung einer Riemannschen Metrik – ein Thema, das in vielen numerischen Verfahren auftaucht, aber oft missverstanden wird. Die Autoren zeigen, wie ein globaler Skalierungsparameter die Berechnungen beeinflusst, ohne die zugrunde liegende Geometrie zu verändern. arXiv – cs.LG 19.01.2026 05:00
Neues Verfahren: DM‑KRR – Diffusion Maps Kernel Ridge Regression für langfristige Systemvorhersagen Wissenschaftler haben ein neues, einfaches Modell entwickelt, das die langfristige Vorhersage komplexer dynamischer Systeme deutlich verbessert. Das Verfahren, genannt Diffusion Maps Kernel Ridge Regression (DM‑KRR), kombiniert die klassische Kernel Ridge Regression mit einem datengetriebenen Kernel, der aus Diffusion Maps abgeleitet wird. arXiv – cs.LG 22.12.2025 05:00
Intelligente Systeme kollabieren: Entropie-Desaster als universelles Versagen In der Forschung wird seit langem davon ausgegangen, dass intelligente Systeme durch Lernen, Koordination und Optimierung stetig besser werden. Neue Erkenntnisse zeigen jedoch, dass gerade in fortgeschrittenen Phasen häufig ein paradoxes Gegenteil einsetzt: Systeme werden steifer, verlieren ihre Anpassungsfähigkeit und scheitern unerwartet. arXiv – cs.AI 16.12.2025 05:00
Neural Networks als globale Gleichungen: Manifold‑Theorie erklärt Lernfähigkeit Ein neues arXiv‑Veröffentlichung (2512.06563v1) präsentiert eine mathematische Sichtweise auf neuronale Netzwerke, die globale Gleichungen über gestapelte, stückweise manifolds, Fixpunkt‑Theorie und Randbedingte Iteration nutzt. arXiv – cs.LG 09.12.2025 05:00
RNNs führen Aufgaben durch dynamisches Verformen neuronaler Darstellungen aus Neurale Netzwerke sind nicht nur statische Rechenmaschinen – sie verändern ihre inneren Darstellungen ständig, um Aufgaben zu lösen. In einer neuen Studie von Forschern, die sich auf die Geometrie neuronaler Aktivierungen spezialisiert haben, wird gezeigt, dass rekurrente neuronale Netzwerke (RNNs) ihre Berechnungen durch ein dynamisches „Verformen“ ihrer Repräsentationen von Aufgabenvariablen durchführen. arXiv – cs.LG 05.12.2025 05:00
GeoGNN reduziert semantischen Drift in Text-Graphen – neue Methode überzeugt Graph Neural Networks (GNNs) arbeiten häufig mit Text‑Attributed Graphs (TAGs), indem sie die Texte von Knoten mit vortrainierten Sprachmodellen (PLMs) kodieren und die resultierenden Einbettungen linear über Nachbarschaften aggregieren. Doch die Repräsentationsräume moderner PLMs sind hochgradig nichtlinear und geometrisch strukturiert – die Text‑Embeddings liegen auf gekrümmten semantischen Manifolds statt in flachen euklidischen Räumen. Lineare Aggregation auf solchen Manifolds verfälscht die Geometrie und führt zu semantischem Drift, bei dem die aggregierten Vektoren vom eigentlichen Manifold abweichen und semantische Präzision sowie Ausdruckskraft verlieren. arXiv – cs.LG 13.11.2025 05:00
UMATO: Lokale und globale Strukturen für zuverlässige Visualisierung Bei der Analyse hochdimensionaler Daten stoßen klassische Dimensionsreduktionstechniken an ihre Grenzen: Während lokale Verfahren die Nachbarschaftsstruktur betonen, fokussieren globale Methoden auf die Erhaltung von Abständen zwischen allen Punkten. Beide Ansätze können jedoch zu irreführenden Interpretationen führen, indem sie entweder die Kompaktheit einzelner Manifold-Cluster überbetonen oder gut getrennte Cluster im Originalraum nicht mehr unterscheiden. arXiv – cs.LG 25.08.2025 05:00