Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “ICU”
Forschung

<h1>LLMs schätzen Schwierigkeitsgrad von Visualisierungsfragen – GPT‑4.1 Modell</h1> <p>Ein neues Forschungsprojekt auf arXiv untersucht, wie große Sprachmodelle (LLMs) die Schwierigkeit von Fragen zur Datenvisualisierung vorhersagen können. Dabei wird speziell das Modell GPT‑4.1‑nano eingesetzt, um aus dem Text der Frage, den Antwortoptionen und dem zugehörigen Bild Informationen zu extrahieren und daraus die Erfolgsquote bei US‑Erwachsenen zu schätzen.</p> <p>Die Studie vergleicht drei unterschiedliche Fe

arXiv – cs.AI
Forschung

<p>LLM-Agenten lernen, Tool‑Beschreibungen ohne Ausführungsspur zu nutzen</p> <p>Eine neue Methode namens Trace‑Free+ ermöglicht es großen Sprachmodellen, Tool‑Schnittstellen ohne vorherige Ausführungsspur zu verstehen und zu nutzen. Durch ein schrittweises Curriculum überträgt das System Wissen von reichlich dokumentierten Szenarien auf reale Einsatzbedingungen, in denen keine Trace‑Daten verfügbar sind.</p> <p>Das Team hat ein umfangreiches Datenset hochwertiger Tool‑Interfaces erstellt und die Technik an

arXiv – cs.AI
Forschung

<h1>CoT-Distillation: Curriculum Learning mit strukturiertem Maskieren & GRPO</h1> <p>Die Übertragung von Chain‑of‑Thought‑(CoT)‑Logik aus großen Sprachmodellen in kompakte Nachschreibermodelle stellt ein zentrales Problem dar: die ausführlichen Begründungen der Lehrermodelle sind für kleinere Modelle oft zu umfangreich, um sie exakt zu replizieren. Traditionelle Ansätze reduzieren die Logik auf einen einzigen Schritt, wodurch die wertvolle Interpretierbarkeit verloren geht.</p> <p>In der neuen Studie wird

arXiv – cs.AI