TabPFN revolutioniert Shapley-Werte: Schneller, genauer, ohne Retraining Shapley-Werte sind ein zentraler Bestandteil erklärbarer KI, doch ihre Berechnung ist besonders bei abhängigen Merkmalen rechenintensiv. Traditionell erfordert die Abschätzung vieler bedingter Erwartungen Monte-Carlo-Integration oder Regressionsmodelle, wobei letztere für jedes bedingte Erwartungsmaß neu trainiert werden müssen – ein Prozess, der viel Zeit kostet. arXiv – cs.AI 11.02.2026 05:00
TabularMath: Benchmark prüft, ob Tabellenmodelle Computation extrapolieren können In der Welt der tabellarischen Daten konzentrieren sich die meisten Benchmarks bislang auf die Fähigkeit von Modellen, Werte innerhalb eines Datenraums zu interpolieren. Doch viele wertvolle Anwendungsbereiche – etwa Finanzmodelle oder physikalische Simulationen – beruhen auf deterministischen Berechnungen, bei denen Genauigkeit und Extrapolation entscheidend sind. arXiv – cs.LG 04.02.2026 05:00
TabPFN im Fokus: Aufdeckung der inneren Funktionsweise tabellarischer Modelle Eine neue Untersuchung von TabPFN, einem führenden tabellarischen Foundational Model, liefert erstmals tiefe Einblicke in die Art und Weise, wie das Modell Daten verarbeitet und Entscheidungen trifft. Die Studie richtet sich an Fachleute, die die Black-Box-Natur solcher Modelle hinterfragen und deren Vertrauenswürdigkeit erhöhen wollen. arXiv – cs.LG 14.01.2026 05:00
TiCard: KI-basierte Korrektur für Kardinalitätsabschätzungen ohne Integration Die Genauigkeit der Kardinalitätsabschätzung ist ein entscheidender Engpass bei der kostenbasierten Optimierung von Datenbankabfragen. Klassische Schätzer vernachlässigen oft Korrelationen, während lernbasierte Modelle häufig auf aufwändige, work‑load‑spezifische Trainingspipelines und invasive Optimizer‑Integration angewiesen sind. TiCard löst dieses Problem mit einem leichtgewichtigen, korrigierenden Ansatz, der die native Schätzung eines Datenbanksystems lediglich ergänzt. arXiv – cs.AI 17.12.2025 05:00
Foundation‑Modelle schlagen klassische ML‑Methoden bei der Insolvenzvorhersage Eine neue Studie aus dem arXiv-Repository (ArXiv:2511.16375v1) untersucht, ob moderne Foundation‑Modelle wie Llama‑3.3‑70B‑Instruct bei der Vorhersage von Unternehmensinsolvenzen wirklich die Nase vorn haben. Die Forscher haben die Modelle gegen etablierte Machine‑Learning‑Baselines wie XGBoost und CatBoost auf einem riesigen, stark unausgeglichenen Datensatz von über einer Million Firmenakten aus der Visegrád‑Gruppe getestet. arXiv – cs.LG 21.11.2025 05:00
Tabellarische ICL-Modelle: Layer-Analyse zeigt Redundanz und Kompression Ein brandneues arXiv‑Veröffentlichung (ArXiv:2511.15432v1) beleuchtet, wie einzelne Schichten in tabellarischen In‑Context‑Learning‑Modellen (ICL) zur Vorhersage beitragen. Trotz der architektonischen Ähnlichkeit zu großen Sprachmodellen (LLMs) blieb bislang wenig über die Rolle einzelner Layer bekannt. arXiv – cs.LG 20.11.2025 05:00
Prior Labs präsentiert TabPFN-2.5: Mehr Skalierbarkeit für tabellarische Modelle Tabellarische Daten sind nach wie vor das Rückgrat zahlreicher Produktionsmodelle in Bereichen wie Finanzen, Gesundheitswesen, Energie und Industrie. Unternehmen arbeiten täglich mit umfangreichen Tabellen, die Zeilen und Spalten enthalten, anstatt mit Bildern oder langen Texten. MarkTechPost 08.11.2025 10:44
TabPFN v2: Mit Chunked-TabPFN Längere Tabellendaten ohne Vorverarbeitung meistern Die neueste Version von TabPFN, genannt v2, übertrifft herkömmliche baumbasierte Modelle bei mehreren tabellarischen Benchmarks – ein bemerkenswertes Ergebnis, da Baumalgorithmen üblicherweise die beste Wahl für solche Daten sind. arXiv – cs.LG 03.09.2025 05:00
LLMs für Datenanpassung: Sensitivität gegenüber irrelevanten Änderungen Forscher haben herausgefunden, dass große Sprachmodelle (LLMs) zwar erstaunlich gut bei der Vorhersage von tabellarischen Daten sind, aber gleichzeitig extrem empfindlich auf scheinbar unbedeutende Änderungen in der Datenrepräsentation reagieren. arXiv – cs.LG 28.08.2025 05:00
Neues Modell NIAQUE verbessert probabilistische Regression durch Transfer Learning Die neueste Veröffentlichung auf arXiv (2508.16355v1) stellt NIAQUE vor – ein neuronales Modell, das probabilistische Regression mit Transfer Learning kombiniert. Durch die Nutzung von Permutationsinvarianz kann NIAQUE auf einer Vielzahl von Datensätzen vortrainiert werden, bevor es auf ein spezifisches Ziel-Dataset feinjustiert wird. Dieser Ansatz führt zu einer deutlichen Leistungssteigerung bei einzelnen Regressionsaufgaben. arXiv – cs.LG 25.08.2025 05:00