Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Pruning”
Forschung

<h1>Kontrastives Lernen bei unausgeglichenen Daten: Theoretische Analyse und Pruning‑Lösung</h1> <p>Kontrastives Lernen gilt als ein äußerst wirkungsvolles Verfahren zur Erzeugung generalisierbarer Repräsentationen. Trotz seiner praktischen Erfolge fehlt bislang ein umfassendes theoretisches Verständnis, insbesondere wenn die Trainingsdaten stark unausgeglichen sind – ein Szenario, das in vielen realen Anwendungen vorherrscht.</p> <p>In der vorliegenden Arbeit wird ein neues theoretisches Rahmenwerk vorgest

arXiv – cs.LG
Forschung

<h1>HQP: Hybrid-Quantisierung & Pruning für Ultra‑Low‑Latency Edge AI</h1> <p>Die steigende Nachfrage nach hochpräziser, Echtzeit‑Inference in verteilten Edge‑Cloud‑Umgebungen zwingt Entwickler zu aggressiven Optimierungen, um die strengen Latenz‑ und Energiegrenzen zu überwinden. In diesem Kontext präsentiert der neue HQP‑Framework einen integrierten Ansatz, der Hybrid‑Quantisierung und strukturiertes Pruning kombiniert, um Modelle gleichzeitig zu beschleunigen und Qualitätsstandards einzuhalten.</p> <p>De

arXiv – cs.AI
Forschung

<p>Topology-Aware Revival steigert Effizienz im sparsamen Training um bis zu 38 %</p> <p>Im Bereich des sparsamen Lernens wird häufig ein statisches Maskenmuster verwendet, um die Rechenlast zu reduzieren. Diese feste Struktur kann jedoch die Robustheit des Modells stark einschränken, da frühzeitige Pruning-Entscheidungen das Netzwerk in eine brüchige Architektur sperren. Besonders in tiefen Reinforcement‑Learning‑Umgebungen, wo sich die Policy kontinuierlich verändert und damit die Trainingsverteilung vers

arXiv – cs.LG