Vibe AIGC: Neues Paradigma für KI-gestützte Inhaltserstellung Seit über zehn Jahren dominiert bei generativer KI ein modellzentrierter Ansatz, der vor allem auf Skalierungsgesetzen basiert. Trotz beeindruckender Fortschritte in der visuellen Qualität stößt dieses Modellmodell an eine „Usability‑Ceiling“, die sich in der sogenannten Intent‑Execution‑Gap äußert: die Kluft zwischen dem kreativen Intention eines Nutzers und der stochastischen, schwarzen Box-Natur aktueller Einmalmodelle. arXiv – cs.AI 05.02.2026 05:00
Breite statt Tiefe: Warum Transformer breiter, nicht tiefer sein sollten Eine neue Untersuchung aus dem arXiv‑Repository hat die Art und Weise, wie wir Transformer‑Architekturen skalieren, grundlegend überdacht. Die Forscher haben Architektur‑abhängige Skalierungsgesetze entwickelt, die zeigen, dass die optimale Tiefe und Breite eines Modells stark voneinander abhängen. arXiv – cs.LG 30.01.2026 05:00
Neue Skalierungsformeln für Energieeffizienz lokaler LLMs Die Veröffentlichung von arXiv:2512.16531v1 beleuchtet, wie lokale Sprach- und Vision‑Language‑Modelle auf Edge‑Geräten betrieben werden können, ohne dabei Genauigkeit und Energieverbrauch zu opfern. Während Grafikprozessoren die meisten KI‑Deployments dominieren, nutzen die meisten Konsumentengeräte – von Laptops über Desktops bis hin zu eingebetteten Systemen – ausschließlich CPUs. Trotz dieser Dominanz sind die Rechengesetze für CPU‑nur‑Inference bei lokalen Sprach- und Vision‑Modellen bislang kaum erforscht. arXiv – cs.AI 19.12.2025 05:00
NVIDIA treibt die industrielle Revolution mit GPU-Computing voran NVIDIAs beschleunigte Rechenplattform setzt neue Maßstäbe im Supercomputing und hat die CPU-dominierten Benchmarks längst übertroffen. Durch die Kombination aus Hochleistungs-GPUs und fortschrittlicher Software ermöglicht NVIDIA KI, wissenschaftliche Forschung, Geschäftsprozesse und die allgemeine Rechenleistung weltweit effizienter denn je. NVIDIA – Blog 10.12.2025 18:35
Neues Spektralmodell erklärt Skalierung und Kompression von neuronalen Netzen Wissenschaftler haben ein neues, umfassendes Spektralmodell vorgestellt, das die bekannten Skalierungsgesetze für neuronale Netzwerke mit den bislang getrennt betrachteten Kompressionsverhalten verbindet. Das Modell beschreibt, wie Testverluste und andere Leistungskennzahlen von Modellgröße, Datensatzgröße und Rechenleistung abhängen und liefert gleichzeitig einen theoretischen Rahmen für die Effekte von Modellkompression. arXiv – cs.LG 12.11.2025 05:00
Neuer NTK-Ansatz verbindet tiefe neuronale Netze mit Deep Neural Kernels Ein neues Forschungsergebnis aus dem Bereich des Deep Learning eröffnet einen wichtigen Schritt zur theoretischen Fundierung von überparametrisierten neuronalen Netzwerken. Der Ansatz, der als „depth‑induced NTK“ bezeichnet wird, nutzt eine Shortcut‑basierte Architektur, um die Tiefe eines Netzes in die Berechnung des Neural Tangent Kernel (NTK) einzubeziehen. arXiv – cs.LG 11.11.2025 05:00