Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Schichtweise”
Forschung

Multimodale Transformer: Vision, Sprache und Synergie im Detail analysiert Eine neue Studie auf arXiv untersucht, wie multimodale Transformer – also Modelle, die Text und Bild gleichzeitig verarbeiten – ihre Vorhersagen treffen. Dabei wird genau analysiert, ob die Antwort vor allem von visuellen Hinweisen, sprachlichen Argumenten oder einer echten Kombination aus beiden abhängt und wie sich diese Abhängigkeiten in den einzelnen Schichten des Modells verändern. Zur Untersuchung wird ein schichtweises Ver

arXiv – cs.AI
Forschung

Exakte geschlossene Formel für Gaußsche Momente in Residual-Netzen In einer neuen Veröffentlichung auf arXiv wird ein langjähriges Problem der KI-Forschung gelöst: Die exakte Berechnung von Mittelwert und Kovarianz einer beliebigen multivariaten Gaußschen Verteilung, wenn sie durch ein tiefes Residual-Netzwerk propagiert wird. Durch schichtweise Momentenabgleich wird die Unsicherheit in den Eingaben präzise nachverfolgt. Der Beitrag liefert erstmals geschlossene Formeln für die Momentenabgleichverfahren

arXiv – cs.LG
Forschung

<h1>Wann profitieren Deep‑Learning‑Modelle von spektralen Gradientenupdates?</h1> <p>In der Welt des Deep Learning haben spektrale Gradientenmethoden – darunter der neu aufgelegte Muon‑Optimizer – großes Interesse geweckt. Sie stellen eine Alternative zum klassischen euklidischen Gradientenabstieg dar, doch bislang war unklar, in welchen Situationen sie tatsächlich überlegen sind.</p> <p>Die neue Studie liefert dafür eine klare Antwort: Sie führt eine einfache, schichtweise Bedingung ein, die vorhersagt, wa

arXiv – cs.LG