BayesFlow: Bayesian-Ansatz revolutioniert Workflow-Generierung Die automatische Erstellung komplexer Arbeitsabläufe – bestehend aus LLM-Aufrufen, Tool‑Invokationen und Nachbearbeitungsschritten – wurde bislang vorwiegend als Optimierungsproblem behandelt. Mit dem neuen Bayesian Workflow Generation (BWG)‑Framework wird diese Aufgabe jedoch als Bayessche Inferenz über die Posteriorverteilung von Workflows neu formuliert. arXiv – cs.LG 02.02.2026 05:00
Poisson‑Hyperflächenprozesse revolutionieren ReLU‑Netzwerke Neural‑Netzwerke haben in den letzten Jahren bahnbrechende Erfolge in Klassifikations‑ und Regressionsaufgaben erzielt. Besonders die Rectified‑Linear‑Unit (ReLU) wird häufig als Aktivierungsfunktion in den versteckten Schichten eingesetzt. In einer neuen Studie wird nun gezeigt, dass Poisson‑Hyperflächenprozesse (PHP) mit einer Gauß‑Priorität eine völlig alternative probabilistische Darstellung zweischichtiger ReLU‑Netzwerke bieten. arXiv – cs.LG 12.01.2026 05:00
Monte‑Carlo‑Dropout liefert unzuverlässige Unsicherheitsabschätzungen Die präzise Abschätzung von Unsicherheiten ist für maschinelles Lernen von entscheidender Bedeutung, insbesondere in sicherheitskritischen Bereichen. Während die exakte Bayessche Inferenz einen theoretisch fundierten Ansatz bietet, ist sie bei tiefen neuronalen Netzen oft zu rechenintensiv. arXiv – cs.LG 18.12.2025 05:00
Geometrisches Modell verhindert Halluzinationen bei policybasierten Interpretationen Ein neues geometrisches Konzept für die semantische Interpretation, das durch explizite Richtlinienbeschränkungen Halluzinationen in hochriskanten Bereichen verhindert, wurde vorgestellt. Dabei wird die Bedeutung als Richtung auf einer Einheitskugel dargestellt, Beweise als Mengen von Zeugenvektoren modelliert und zulässige Interpretationen als sphärische konvexe Regionen definiert. arXiv – cs.AI 18.12.2025 05:00
SVGP KAN: Neue Methode für Unsicherheitsquantifizierung in wissenschaftlichem ML Kolmogorov‑Arnold‑Netze (KAN) haben sich als interpretierbare Alternativen zu klassischen Multi‑Layer‑Perceptrons etabliert. In ihrer Standardform fehlt jedoch eine systematische Möglichkeit, Unsicherheiten zu quantifizieren – ein entscheidendes Feature für viele wissenschaftliche Anwendungen. Mit dem neuen Ansatz Sparse Variational Gaussian Process Kolmogorov‑Arnold Networks (SVGP KAN) wird dieses Problem gelöst. arXiv – cs.LG 08.12.2025 05:00
Neue Algorithmen für Zustandsabschätzung in nichtlinearen Modellen Wissenschaftler haben einen neuen Ansatz zur Zustandsabschätzung in nichtlinearen, nicht-gauss'schen Zustandsraummodellen vorgestellt. Der Kern des Verfahrens ist eine variationale Lagrange-Formulierung, die die Bayessche Inferenz als Folge von entropischen Vertrauensbereich-Updates unter dynamischen Nebenbedingungen interpretiert. arXiv – cs.LG 20.11.2025 05:00
Agenten lernen Vertrauen: Bayesianische Anpassung an wechselnde Vorschläge Autonome Systeme, die in sequentiellen Entscheidungsprozessen arbeiten, können von externen Handlungsvorschlägen profitieren, deren Zuverlässigkeit jedoch stark variieren kann. Traditionelle Ansätze gehen davon aus, dass die Qualität der Vorschläge konstant und bekannt ist – ein Modell, das in der Praxis oft nicht zutrifft. arXiv – cs.AI 18.11.2025 05:00
Sprachliche Anleitung beschleunigt Lernen: Neues Modell für soziales Lernen Ein neues Forschungsmodell aus dem Bereich der künstlichen Intelligenz zeigt, wie sprachliche Hinweise und persönliche Erfahrung gemeinsam das Lernen in komplexen Aufgaben beschleunigen können. Durch die Kombination von Sprachdaten und sensorischer Wahrnehmung entsteht ein probabilistisches Weltmodell, das sowohl menschliche Ratschläge interpretiert als auch selbst generiert. arXiv – cs.AI 03.09.2025 05:00
Aktive Inferenz: Wie Agenten ohne Aktionsbewusstsein handeln In der neuesten Veröffentlichung auf arXiv (2508.12027v1) wird die aktive Inferenz als ein formales Rahmenwerk vorgestellt, das kognitive Prozesse als eine Art approximative Bayessche Inferenz beschreibt. Dabei minimieren adaptive Agenten die variationale und die erwartete freie Energie, um Wahrnehmung, Lernen und Handlungswahl zu steuern. arXiv – cs.AI 19.08.2025 05:00
Entropisches Potential von Ereignissen: Neue KI-Unsicherheitsmethode Eine neue Studie aus dem arXiv-Repository präsentiert ein innovatives Konzept, das die Unsicherheitsbewertung in künstlicher Intelligenz (KI) revolutionieren könnte. Das „entropische Potential von Ereignissen“ misst, wie einzelne Aktionen, Beobachtungen oder andere diskrete Ereignisse die erwartete zukünftige Entropie eines Systems beeinflussen. arXiv – cs.AI 15.08.2025 05:00