SCONE: Plug‑In für effiziente DNA‑Speicherung mit lernbasierten Latenten Die DNA‑Speicherung hat sich vom Konzept zum praktischen Einsatz entwickelt, doch die Verbindung zu neuronalen Kompressionspipelines bleibt ineffizient. Frühere DNA‑Encoder setzten auf stark redundante Schichten, die auf rohe Binärdaten angewiesen waren – funktional, aber rudimentär. arXiv – cs.LG 09.02.2026 05:00
EEG-DLite: Datenverdichtung für effizientes Training großer EEG-Modelle Ein neues Verfahren namens EEG‑DLite verspricht, das Training großer EEG‑Fundamentmodelle deutlich ressourcenschonender zu gestalten. Durch gezielte Entfernung von Rauschen und redundanten Proben aus riesigen EEG‑Datensätzen wird die Datenmenge drastisch reduziert, ohne die Vielfalt zu verlieren. arXiv – cs.LG 16.12.2025 05:00
Neuer Fairness-Regularizer: Cauchy-Schwarz verbessert Gerechtigkeit in ML In der Welt des maschinellen Lernens wird Gerechtigkeit häufig durch einen Regularizer sichergestellt, der die Abhängigkeit zwischen Modellvorhersagen und sensiblen Merkmalen reduziert. Bisher basieren diese Regularizer jedoch auf heterogenen Distanzmaßen und Designentscheidungen, was ihr Verhalten schwer nachvollziehbar macht und die Leistung je nach Aufgabe stark variiert. arXiv – cs.LG 11.12.2025 05:00
N-GLARE: Effizienter, nicht-generativer LLM‑Sicherheitsprüfer Die Sicherheit von großen Sprachmodellen (LLMs) ist entscheidend für deren Einsatz. Traditionelle Red‑Team‑Methoden beruhen auf Online‑Generierung und Analyse von Ausgaben, was hohe Kosten und lange Feedback‑Latenzen verursacht. Diese Einschränkungen machen sie ungeeignet für schnelle Diagnosen nach dem Training neuer Modelle. arXiv – cs.LG 19.11.2025 05:00
Aurora-Encoder zeigt physikalisch konsistente Merkmale – Quantitative Studie Die Wettervorhersage‑Engine Aurora liefert beeindruckende Genauigkeit, doch ihre internen Darstellungen bleiben weitgehend undurchsichtig. Diese „Black‑Box“-Natur erschwert die Akzeptanz in hochriskanten Einsatzbereichen, in denen Transparenz entscheidend ist. arXiv – cs.LG 12.11.2025 05:00
Meta-Lernen für strukturbeibehaltende Dynamikmodelle Strukturbeibehaltende Ansätze zur Modellierung von Dynamiken haben sich als äußerst vielversprechend erwiesen, weil sie durch starke induktive Voreinstellungen physikalische Gesetze wie Energieerhaltung und Dissipation automatisch einhalten. In der Praxis werden diese Modelle jedoch meist für eine feste Systemkonfiguration trainiert, was die Kenntnis aller Systemparameter erfordert und bei jeder Parameteränderung ein aufwändiges Neutrainieren nötig macht. arXiv – cs.LG 18.08.2025 05:00