<h1>HHNAS-AM: Hierarchische Hybrid‑NAS mit adaptiven Mutationsstrategien</h1> <p>Neural Architecture Search (NAS) hat sich als leistungsstarke Methode etabliert, um Modelle zu finden, die bei Textklassifikation und anderen Sprachaufgaben besser abschneiden als manuell entworfene Architekturen. Trotz dieser Erfolge fehlt den bisherigen NAS‑Ansätzen oft eine hierarchische, hybride Struktur, wodurch die Suchräume enorm groß und stark redundant werden. Das führt dazu, dass Reinforcement‑Learning‑Modelle die Lan
Anzeige