K-Means & RBF: Gleichwertige Optimierung via Variations-Gradienten
Eine neue Studie aus dem arXiv-Repository zeigt, dass der klassische K‑Means‑Algorithmus und differenzierbare Radial Basis Function (RBF)-Netzwerke mit glatten Verantwortlichkeiten exakt gleichwertig sind. Durch eine Neuparameterisierung des K‑Means‑Ziels und die Einbettung seiner Distortion-Funktion in einen glatten, gewichteten Verlust beweist die Arbeit, dass das RBF‑Objektiv im Grenzfall, wenn die Temperaturparameter σ gegen Null gehen, zum K‑Means‑Lösungsraum konvergiert.
Darüber hinaus demonstriert die Analyse, dass die Gradientenupdates der RBF‑Zentren exakt die klassische K‑Means‑Centroid‑Update-Regel reproduzieren und identische Trainingspfade im Grenzfall erzeugen. Um die numerische Instabilität der Softmax‑Transformation bei niedrigen Temperaturen zu beheben, schlägt die Studie die Integration von Entmax‑1.5 vor. Diese sorgt für stabile polynomielle Konvergenz und erhält gleichzeitig die zugrunde liegende Voronoi‑Partitionsstruktur.
Die Ergebnisse schließen die Kluft zwischen diskreter Partitionierung und kontinuierlicher Optimierung und ermöglichen es, K‑Means direkt in tiefen Lernarchitekturen zu verankern. So können Repräsentationen und Cluster gleichzeitig optimiert werden. Empirische Tests an verschiedenen synthetischen Geometrien zeigen, dass sich weiche RBF‑Zentren monotone zu den festen Punkten von K‑Means zusammenziehen, was einen einheitlichen Rahmen für end‑to‑end differenzierbare Clusterbildung schafft.