FloydNet: Neues Lernparadigma für globale graphbasierte Schlussfolgerungen In der künstlichen Intelligenz gilt die Entwicklung von Modellen, die komplexe, mehrstufige Schlussfolgerungen durchführen können, als zentrales Ziel. Traditionelle Graph Neural Networks (GNNs) nutzen ein Nachrichtenübertragungsverfahren, das jedoch durch lokale Engpässe begrenzt ist und damit die globale, ganzheitliche Analyse erschwert. arXiv – cs.LG 28.01.2026 05:00
Bellman-Residual-Minimierung: Neue Einsichten zu Markov-Entscheidungsproblemen Eine aktuelle Veröffentlichung auf arXiv beleuchtet die Bellman-Residual-Minimierung als vielversprechende Alternative zur klassischen dynamischen Programmierung bei Markov-Entscheidungsproblemen. Während die meisten Ansätze auf der Optimierung von Wertfunktionen über Rekursionen beruhen, zielt die Residual-Methode direkt darauf ab, die quadratische Abweichung der Bellman-Gleichung zu minimieren. arXiv – cs.LG 28.01.2026 05:00
Optimiertes Learned Count-Min Sketch beschleunigt Datenfrequenzschätzungen Eine neue Veröffentlichung auf arXiv präsentiert das Optimized Learned Count‑Min Sketch (OptLCMS), eine Weiterentwicklung des beliebten Count‑Min Sketch (CMS). OptLCMS nutzt maschinelles Lernen, um die Schätzgenauigkeit bei gleicher Speichergröße zu erhöhen, und löst gleichzeitig die langsame Bauzeit und fehlende theoretische Fehlergrenzen des bisherigen Learned Count‑Min Sketch (LCMS). arXiv – cs.LG 16.12.2025 05:00
Kontrastives Lernen verbessert semi-supervised Deep Regression Ein neues Verfahren aus der Forschung auf arXiv erweitert die Möglichkeiten des kontrastiven Lernens für Regressionsmodelle, indem es unlabeled Daten in einem semi-supervised Setting nutzt. Durch die Konstruktion einer Feature‑Ähnlichkeitsmatrix, die sowohl gelabelte als auch ungelabelte Stichproben enthält, werden die Beziehungen zwischen den Datenpunkten besser erfasst. arXiv – cs.LG 11.12.2025 05:00
Non‑stationäre MDPs mit variabler Diskontierung: Ein neues Lern‑Framework In einer kürzlich veröffentlichten Arbeit auf arXiv wird das NVMDP‑Framework vorgestellt, das klassische Markov‑Entscheidungsprozesse (MDPs) auf nicht‑stationäre Umgebungen erweitert und die Diskontierungsrate flexibel mit Zeit und Übergängen variieren lässt. Dadurch werden sowohl unendliche‑horizontale, stationäre MDPs als auch endliche‑horizontale Modelle als Spezialfälle abgedeckt, ohne die Zustands‑, Aktions‑ oder Belohnungsstruktur zu verändern. arXiv – cs.LG 25.11.2025 05:00
Schnellere Marginalisierung in Netzwerken mit probabilistischen Schaltkreisen Ein neues arXiv-Veröffentlichung (2511.14001v1) präsentiert einen innovativen Ansatz zur Strukturermittlung von Bayesianischen Netzwerken. Der Autor schlägt vor, die bisher üblichen dynamischen Programmiermethoden zu umgehen und stattdessen probabilistische Schaltkreise einzusetzen, um die Marginalisierung von Wahrscheinlichkeitsverteilungen zu beschleunigen. arXiv – cs.LG 19.11.2025 05:00
Parameterisierte Komplexität eröffnet Lösbarkeit von Pearl's Kausalhierarchie Die Pearl's Causal Hierarchy (PCH) bildet das Rückgrat moderner kausaler Analyse, doch die Frage, ob eine gegebene PCH-Formel erfüllbar ist, gilt in nahezu allen klassischen Szenarien als rechnerisch unlösbar. In einer neuen Veröffentlichung wird dieses Problem aus der Perspektive der parametrisierten Komplexität neu beleuchtet und die ersten Wege zur Trägerschaft von Lösbarkeit aufgezeigt. arXiv – cs.AI 12.11.2025 05:00