VeriTime: KI-Framework verbessert Zeitreihen-Analyse durch Prozessverifikation Die Analyse von Zeitreihen ist in vielen Bereichen unverzichtbar, doch bisher konnten große Sprachmodelle (LLMs) ihr volles Potenzial in diesem Feld nicht ausschöpfen. Der Grund liegt vor allem in fehlenden, sorgfältig kuratierten Daten für das sogenannte Chain‑of‑Thought (CoT) Reasoning sowie in ineffizienten Trainingsstrategien. arXiv – cs.AI 10.02.2026 05:00
ReThinker: KI-Framework revolutioniert wissenschaftliches Denken ReThinker ist ein neues, auf Vertrauen basierendes Agenten-Framework, das die Art und Weise, wie große Sprachmodelle wissenschaftlich denken, grundlegend verändert. Durch die Kombination von Retrieval, Tool‑Nutzung und mehrschichtigem Multi‑Agenten‑Denken liefert es eine dynamische, kontextabhängige Lösung für komplexe Aufgaben. arXiv – cs.AI 05.02.2026 05:00
Neue Methode steigert Training von Computer‑Use‑Agents durch Filterung In einer wegweisenden Veröffentlichung präsentiert ein Forschungsteam einen skalierbaren Ansatz zur Datensynthese für Computer‑Use‑Agents (CUAs). Durch die gezielte Filterung einzelner Handlungsschritte aus verrauschten Rollouts lassen sich hochwertige Trainingsdaten ohne menschliche Annotation erzeugen. arXiv – cs.AI 15.12.2025 05:00
Neue Studie enthüllt Schwächen von Vision‑Language‑Modellen bei räumlichem Denken Eine kürzlich veröffentlichte Arbeit auf arXiv (2511.13782v1) untersucht die räumlichen Denkfähigkeiten moderner Vision‑Language‑Modelle (VLMs) wie DeepSeek R1, OpenAI o3 und Gemini 2.5 Pro. Die Autoren stellen fest, dass trotz beeindruckender Leistungen in logischem Schließen und Problemlösen die Modelle bei Aufgaben, die mentale Rotation, Navigation oder die Erfassung räumlicher Beziehungen erfordern, deutlich hinter den Erwartungen zurückbleiben. arXiv – cs.AI 19.11.2025 05:00
Neuer Ansatz: Problemlösung durch gezielte Datensynthese für große Modelle In einer wegweisenden Veröffentlichung präsentiert ein Forschungsteam einen innovativen Ansatz zur Datensynthese, der große Rechenmodelle für komplexe Problemlösungen effizienter trainiert. Statt auf die herkömmliche, oft unkontrollierte Generierung von Aufgaben zurückzugreifen, nutzt der neue Generator gezielt logisches Denken, um die Richtung der Probleme vorab zu planen und deren Schwierigkeitsgrad an die Fähigkeiten des Lösers anzupassen. arXiv – cs.AI 14.11.2025 05:00
Hermes 4: Hybrid‑Reasoning‑Modelle mit breiter Befehlsausführung Der neueste Technical Report von Hermes 4 wurde auf arXiv veröffentlicht (Version 1, 25.08.2025). In dem Dokument wird die neue Modellfamilie vorgestellt, die strukturiertes, mehrstufiges Reasoning mit einer breiten Befehlsausführung kombiniert. arXiv – cs.AI 26.08.2025 05:00