Von Erklärbarkeit von Features zu Aktionen: statisch vs agentisch Eine neue Arbeit, veröffentlicht auf arXiv (2602.06841v1), beleuchtet die Erklärbarkeit von KI-Systemen, die über mehrere Schritte hinweg handeln. Während die Forschung in den letzten zehn Jahren vor allem einzelne Vorhersagen interpretierte, ermöglichen moderne große Sprachmodelle (LLMs) agentische KI, deren Erfolg von einer gesamten Entscheidungssequenz abhängt. arXiv – cs.AI 09.02.2026 05:00
Neue Methode enthüllt innere Treiber von KI-Agenten – Mehr Transparenz In einer wegweisenden Studie aus dem arXiv-Repository wird ein neues Verfahren vorgestellt, das die inneren Motivationen von großen Sprachmodell‑basierten Agenten aufdeckt. Durch die Analyse von Agenten, die in Bereichen wie Kundenservice, Web‑Navigation und Softwareentwicklung eingesetzt werden, soll die Transparenz von Entscheidungen erhöht werden. arXiv – cs.AI 22.01.2026 05:00
CAP Hybrid: Bessere Erklärbarkeit und Robustheit für kleine Sprachmodelle In der heutigen KI-Landschaft sind kleine Sprachmodelle (SLMs) besonders beliebt, weil sie geringe Latenzzeiten und leichte Bereitstellung ermöglichen. Gleichzeitig wächst die Nachfrage nach erklärbaren und robusten Modellen. Erklärungsgesteuertes Lernen, das Attribution-basierte Supervision nutzt, hat sich als vielversprechender Ansatz erwiesen – jedoch fehlt bislang ein zuverlässiger Ansatz zur Erzeugung von Attribution-Priors. arXiv – cs.AI 18.12.2025 05:00
CAGE: Graphbasierte Erklärungen für die Logik großer Sprachmodelle Neues Forschungspapier aus dem arXiv präsentiert CAGE, ein innovatives Framework, das die Entscheidungsprozesse von großen Sprachmodellen (LLMs) transparent macht. Durch die Kombination von Attribution-Methoden mit einem gerichteten Graphen können Forscher nun genau nachvollziehen, wie einzelne Tokens von der Eingabe und von vorherigen Generationen beeinflusst werden. arXiv – cs.AI 18.12.2025 05:00
Neues arXiv-Papier: Automatisierte Quellenangabe für Analysten In einem brandneuen Beitrag auf arXiv (2511.08589v1) wird ein innovativer Ansatz vorgestellt, der Analysten dabei unterstützt, ihre Zusammenfassungen zuverlässig zu belegen. Analysten brauchen klare Quellenangaben, denn ohne sie können keine Fakten veröffentlicht werden. arXiv – cs.AI 13.11.2025 05:00
RADAR: Neues Framework macht KI-Analyse von Diagrammen nachvollziehbar Diagramme und Grafiken sind unverzichtbare Werkzeuge für quantitative Analysen und Entscheidungen in allen Fachbereichen. Sie erfordern jedoch eine präzise Interpretation und mathematisches Denken, was bei automatisierten Systemen oft schwierig ist. arXiv – cs.AI 26.08.2025 05:00
Mehrdimensionale Attribution verbessert Conversion‑Rate‑Vorhersagen Die Vorhersage der Conversion‑Rate (CVR) ist ein zentrales Element moderner Online‑Werbung. Dabei bestimmen die Attribution‑Mechanismen – die Regeln, wie Konversionspunkte den einzelnen Nutzer‑Touchpoints zugeordnet werden – die Labels, mit denen die Modelle trainiert werden. arXiv – cs.LG 22.08.2025 05:00