Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “VR”
Forschung

Video‑Skripte lenken Blick in 360° VR‑Touren – Studie zeigt Wirkung <p>In der Welt der virtuellen Realität ermöglichen 360°‑Videos ein vollständig immersives Erlebnis, bei dem Zuschauer das virtuelle Umfeld aus jedem Blickwinkel erkunden können. Trotz dieser beeindruckenden Immersion fehlt bislang ein effektiver Mechanismus, um die Aufmerksamkeit der Nutzer gezielt auf relevante Objekte zu lenken.</p> <p>Die vorliegende Studie kombiniert die Modelle Grounding Dino und Segment Anything (SAM), um mithilfe

arXiv – cs.AI
Forschung

<p>RADAR: Neuronale Lösung für asymmetrische Fahrzeug‑Routing‑Probleme</p> <p>Ein brandneuer Ansatz namens RADAR verspricht, die Grenzen herkömmlicher neuronaler Solver für Fahrzeug‑Routing‑Probleme (VRPs) zu sprengen. Während bisherige Modelle meist symmetrische Euclidische Entfernungen annehmen, kann RADAR asymmetrische Distanzen zuverlässig verarbeiten – ein entscheidender Schritt, um reale Einsatzszenarien abzubilden.</p> <p>Das Hauptproblem liegt darin, die komplexen relationalen Merkmale asymmetrische

arXiv – cs.LG
Forschung

HVR-Met: Agentensystem revolutioniert Diagnose extremer Wetterereignisse Mit dem neuen System HVR-Met setzen Forscher einen Meilenstein in der meteorologischen Diagnostik. Das Agenten-basiertes Modell kombiniert tiefgreifendes Expertenwissen mit einem geschlossenen „Hypothese‑Verifikation‑Neuplanen“-Mechanismus, um komplexe Wetterphänomene Schritt für Schritt zu analysieren. Traditionelle Deep‑Learning‑Ansätze liefern zwar präzise Vorhersagen, stoßen jedoch bei der Erkennung und Erklärung extremer Wette

arXiv – cs.AI
Forschung

<p>Metakognitive Entropie-Kalibrierung verbessert verifizierbares RL-Reasoning</p> <p>In den letzten Jahren haben große Rechenmodelle für komplexe Aufgaben, wie Mathematik und Frage‑Antwort‑Systeme, enorme Fortschritte erzielt. Diese Modelle werden meist mit Reinforcement Learning und verifizierbaren Belohnungen (RLVR) trainiert. Dabei wird jedoch fast ausschließlich ein binäres Korrektheitssignal verwendet, während die inhärente Unsicherheit des Modells weitgehend ignoriert wird. Dieses „Uncertainty‑Reward

arXiv – cs.AI