TED: Training‑freie Distillation für multimodale Logik
In einer neuen Studie von ArXiv (2603.26778v1) wird TED vorgestellt – ein völlig training‑freies Distillationsverfahren, das die klassische Übertragung von Wissen aus einem Lehrer‑Modell in die Parameter eines Schülers…