Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Wissensdistillation”
Forschung

<h1>KI-Modell für UAV-Steuerung: Hybrid-Distillation mit Chain-of-Thought</h1> <p>Mit dem rasanten Fortschritt großer Sprachmodelle im Code‑Generierungsbereich steht nun die Herausforderung im Vordergrund, diese Fähigkeiten auf ressourcenbeschränkte Drohnen zu übertragen. Ein neues Verfahren kombiniert gezielte Wissensdistillation, Chain‑of‑Thought‑Guidance und supervised fine‑tuning, um die komplexen Denkprozesse in kompakte Modelle zu verlagern.</p> <p>Im Kern steht ein sorgfältig erstelltes Datenset, das

arXiv – cs.AI
Forschung

HINT: Hierarchische Distillation beschleunigt Multi-Agenten-Verstärkungslernen Die Wissensdistillation (KD) gilt als vielversprechende Methode, um Multi-Agenten-Verstärkungslernen (MARL) zu beschleunigen, indem ein zentraler Lehrer dezentralen Agenten Wissen vermittelt. In der Praxis stoßen jedoch drei zentrale Hindernisse an: die Erzeugung leistungsfähiger Lehrstrategien in komplexen Umgebungen, die Notwendigkeit, in Zuständen außerhalb des Trainingsbereichs (OOD) zu agieren, und die Diskrepanz zwischen

arXiv – cs.LG