Softmax als Lagrange- und Legendrian-Seam: ML trifft Differentialgeometrie
In einer bahnbrechenden Veröffentlichung verbindet ein neues Papier die Welt des maschinellen Lernens mit der modernen Differentialgeometrie. Der bekannte Softmax-Schritt, der Logits in Wahrscheinlichkeiten umwandelt, wird als geometrische Schnittstelle dargestellt, die zwei konservative Beschreibungen – die negative Entropie und die Log‑Sum‑Exp‑Funktion – auf einer Legendrian‑Naht im Wahrscheinlichkeits‑Simplex zusammenführt.