Neue Methode nutzt Zeitreihen für robustere Testzeit‑Anpassung Testzeit‑Anpassung (TTA) erlaubt vortrainierten Modellen, sich an veränderte Datenverteilungen anzupassen, indem sie aus unbeschrifteten Teststreams lernen. Bisher wurden diese Streams jedoch meist als unabhängige Stichproben behandelt und die zeitliche Struktur ignoriert. Die neue Technik, Order‑Aware Test‑Time Adaptation (OATTA), nutzt genau diese zeitlichen Dynamiken. arXiv – cs.LG 30.01.2026 05:00
QL‑LSTM: Parameter‑sparende LSTM für stabile Langsequenz‑Modelle Recurrent Neural Networks wie LSTM und GRU sind nach wie vor die bevorzugte Wahl für Sequenz‑Modelle, doch sie leiden an zwei zentralen Schwächen: zu vielen gate‑spezifischen Parametern und einer eingeschränkten Fähigkeit, Informationen über lange Zeiträume hinweg zu speichern. arXiv – cs.LG 09.12.2025 05:00
KI-gestützte Bewertung von Teambeiträgen: neues Tool zur Konfliktlösung Ein neues KI-gestütztes Tool verspricht, die Bewertung individueller Beiträge in Teams zu revolutionieren. Das System sammelt und strukturiert heterogene Daten – von Code‑ und Textdateien über Chat‑ und E‑Mail‑Kommunikation bis hin zu Meeting‑Protokollen, Aufgabenlisten und Peer‑Bewertungen – und ordnet sie in drei Dimensionen ein: Beitrag, Interaktion und Rolle. arXiv – cs.AI 12.11.2025 05:00
Thomson Reuters macht KI für alle zugänglich: Open Arena nutzt Amazon Bedrock Thomson Reuters hat mit Open Arena eine skalierbare, no‑Code‑KI-Plattform entwickelt, die auf Amazon Bedrock und weiteren AWS‑Diensten basiert. Durch die Kombination von Amazon OpenSearch, S3, DynamoDB und Lambda können Anwender ohne Programmierkenntnisse komplexe KI‑Aufgaben lösen. AWS – Machine Learning Blog 07.11.2025 21:51
KI‑Customer‑Intelligence: Der komplette Leitfaden für Produktteams Unternehmen sammeln täglich riesige Mengen an Kundenfeedback. Mit moderner KI können sie diese Daten in Echtzeit auswerten und sofort wertvolle Erkenntnisse gewinnen. Aakash Gupta – AI & Product 14.10.2025 22:33
Konforme Datenaugmentation: Mehr Vertrauen, bessere Ergebnisse In einer neuen Studie auf arXiv wird gezeigt, dass synthetische Datenaugmentation, die bisher vielversprechende Ergebnisse in vielen Bereichen erzielt hat, noch zuverlässiger werden kann, wenn sie mit konformer Vorhersage kombiniert wird. Durch die gezielte Filterung von generierten Beispielen wird die Varianz des Estimators reduziert, während der Bias minimal bleibt. arXiv – cs.LG 29.09.2025 05:00
Transformers in spaCy: Mit HuggingFace NLP auf das nächste Level bringen In der vierten Folge der Serie „Mastering NLP with spaCy“ wird gezeigt, wie Transformer‑Modelle von HuggingFace nahtlos in spaCy integriert werden können. Der Beitrag erklärt Schritt für Schritt, wie man vortrainierte Modelle lädt, sie in spaCy‑Pipeline‑Komponenten einbindet und anschließend für Aufgaben wie Textklassifikation, Named Entity Recognition oder Sentiment‑Analyse nutzt. Towards Data Science 15.09.2025 14:30