Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Memori”
Forschung

<p>Diffusionsmodelle: Geometrische Analyse zeigt, wann Daten aus Training ausspucken</p> <p>Neues Forschungspapier auf arXiv beleuchtet, wie Diffusionsmodelle – die Algorithmen, die für die Erzeugung hochqualitativer Bilder und Texte bekannt sind – ungewollt Trainingsdaten ausspucken können. Die Autoren stellen fest, dass das Risiko des Ausspuckens von privaten Daten stark von der Stufe des Rauschens abhängt, das während des Trainingsprozesses eingesetzt wird.</p> <p>Durch die Einteilung des Rauschens in dr

arXiv – cs.LG
Forschung

<h1>Spurious Rewards Paradox: RLVR lässt LLMs auf Kurzschluss zurückgreifen</h1> <p>Reinforcement Learning with Verifiable Rewards (RLVR) gilt als leistungsstarkes Verfahren zur Verbesserung der Argumentationsfähigkeit großer Sprachmodelle. Neueste Untersuchungen zeigen jedoch, dass Modelle wie Qwen 2.5 erhebliche Leistungssteigerungen erzielen, selbst wenn die Belohnungen falsch oder irreführend sind.</p> <p>Die Autoren beschreiben ein „Perplexity Paradox“, bei dem die Perplexität der Antwort‑Tokens sinkt,

arXiv – cs.LG
Forschung

<h1>Gradient-Projektion verhindert gezielte Memorierung in Diffusionsmodellen</h1> <p>In der Welt der text‑zu‑Bild‑Diffusionsmodelle stellt die unkontrollierte Memorierung von sensiblen Inhalten ein ernstes Sicherheitsrisiko dar. Durch das Auslesen von Attributen können Angreifer proprietäre Informationen extrahieren oder unerlaubt reproduzieren. Traditionelle Gegenmaßnahmen wie Regularisierung oder Datenfilterung verhindern zwar ein Überanpassen an einzelne Beispiele, greifen jedoch nicht konsequent gegen

arXiv – cs.LG