AuditCopilot: LLMs revolutionieren die Betrugserkennung in der doppelten Buchführung
Anzeige
AuditCopilot nutzt große Sprachmodelle, um Anomalien in der doppelten Buchführung zuverlässig zu erkennen. In einer Studie wurden die neuesten LLMs – LLaMA und Gemma – auf synthetischen und anonymisierten realen Konten getestet und mit traditionellen Journal Entry Tests (JETs) sowie klassischen Machine‑Learning‑Modellen verglichen. Die Ergebnisse zeigen, dass die LLMs die Fehlerrate deutlich senken und gleichzeitig verständliche, sprachbasierte Erklärungen liefern, die die Nachvollziehbarkeit erhöhen. Damit demonstriert AuditCopilot, wie KI‑unterstützte Prüfungen die finanzielle Integrität stärken können, indem menschliche Prüfer und Basis‑Modelle zusammenarbeiten.
Ähnliche Artikel
arXiv – cs.LG
•
LLMs können Aktivierungsmonitore umgehen – neue Studie zeigt „neuronale Chamäleons“
arXiv – cs.LG
•
LLM-gestützte Konfounder-Erkennung verbessert Brustkrebsvorhersage
Towards Data Science
•
8 Jahre ML: Erkenntnisse aus Deep Work, Überidentifikation, Sport & Blogging
arXiv – cs.AI
•
Der Forecast Critic: LLMs überwachen Prognosen und erkennen schlechte Vorhersagen
arXiv – cs.LG
•
Neue Sensitivitätsanalysen mit ICE‑Kurven für Engineering‑Modelle
AWS – Machine Learning Blog
•
SageMaker HyperPod erweitert: Elastisches Training für effiziente Modellentwicklung