Effizientes Black-Box-Tuning von LLMs mit minimalen API-Aufrufen
In einer kürzlich veröffentlichten Studie auf arXiv wird ein neues Verfahren vorgestellt, das große Sprachmodelle (LLMs) ohne direkten Zugriff auf deren Parameter anpasst. Das Konzept des Black-Box‑Tunings gewinnt an Bedeutung, weil es möglich ist, gewünschte Verhaltensweisen zu erreichen, ohne die internen Gewichte zu verändern.