Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Knowledge Distillation”
Forschung

<p>Forscher haben eine neue Technik entwickelt, um Sprachmodelle vor unerlaubter Distillation zu schützen.</p> <p>Knowledge Distillation ist ein weit verbreitetes Verfahren, bei dem große Sprachmodelle ihr Wissen an kleinere, effizientere Modelle übergeben. Doch wenn diese Technik ohne Genehmigung eingesetzt wird, profitiert man unrechtmäßig von den enormen Entwicklungsaufwendungen und Kosten, die in die Schaffung hochentwickelter Modelle geflossen sind.</p> <p>Die neue Methode nutzt „Trace‑Rewriting“, um d

arXiv – cs.AI
Forschung

<p>Gezielte Distillation: Domänenexperten aus großen ML-Modellen extrahieren</p> <p>In der Welt der künstlichen Intelligenz geht es oft darum, die Leistungsfähigkeit großer, komplexer Modelle – die sogenannten „Lehrer“ – auf kleinere, ressourcenschonende Varianten zu übertragen. Diese Technik, bekannt als Knowledge Distillation, ist besonders wichtig, wenn Modelle in Umgebungen mit begrenzter Rechenleistung eingesetzt werden sollen.</p> <p>Ein häufiges Problem dabei ist, dass nur ein kleiner Teil der gesamt

arXiv – cs.LG