Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Language Models”
Forschung

<p>DBC-Benchmark: Neue Governance-Schicht senkt Risiko bei LLMs um 36,8 %</p> <p>In einer neuen Studie wurde der Dynamic Behavioral Constraint (DBC) Benchmark vorgestellt – das erste empirische Verfahren, um die Wirksamkeit einer strukturierten, 150‑Kontroll‑Governance‑Schicht für große Sprachmodelle (LLMs) zu messen. Die Schicht, genannt MDBC (Madan DBC), wird während der Inferenz angewendet und ist unabhängig vom Modell, lässt sich an verschiedene Rechtsordnungen anpassen und ist auditierbar.</p> <p>Der D

arXiv – cs.AI
Forschung

<h1>LLMs schätzen Schwierigkeitsgrad von Visualisierungsfragen – GPT‑4.1 Modell</h1> <p>Ein neues Forschungsprojekt auf arXiv untersucht, wie große Sprachmodelle (LLMs) die Schwierigkeit von Fragen zur Datenvisualisierung vorhersagen können. Dabei wird speziell das Modell GPT‑4.1‑nano eingesetzt, um aus dem Text der Frage, den Antwortoptionen und dem zugehörigen Bild Informationen zu extrahieren und daraus die Erfolgsquote bei US‑Erwachsenen zu schätzen.</p> <p>Die Studie vergleicht drei unterschiedliche Fe

arXiv – cs.AI
Forschung

<p>LLMs im Stil: Neue, leichte Methode zur präzisen Stilsteuerung</p> <p>Die Steuerung von Stilmerkmalen in großen Sprachmodellen (LLMs) ist seit langem ein schwieriges Problem. Traditionelle Ansätze setzen entweder auf komplexe Prompt-Engineering-Strategien oder auf nachträgliche Ausrichtungsprozesse, die viel Rechenaufwand erfordern. In einer kürzlich veröffentlichten Studie wird ein völlig anderer Ansatz verfolgt: die Analyse der internen Repräsentationen der Modelle.</p> <p>Die Autoren gehen davon aus,

arXiv – cs.AI
Forschung

<h1>LLM-gestützte Schiffswegvorhersage: ShipTraj‑R1 setzt neue Maßstäbe</h1> <p>Durch die jüngsten Fortschritte im Bereich der Verstärkungsoptimierung von Sprachmodellen hat sich die Fähigkeit großer Sprachmodelle (LLMs) zur logischen Problemlösung deutlich verbessert. Besonders die Methode des Group Relative Policy Optimization (GRPO) hat in verschiedenen Anwendungsfeldern starke Ergebnisse erzielt.</p> <p>Die Anwendung von LLMs auf die Vorhersage von Schiffsrouten blieb bislang weitgehend unerforscht. In

arXiv – cs.AI
Forschung

<h1>LLMs optimieren Hochfrequente Entscheidungen: Normalisierte Belohnungsstrategie</h1> <p>Large Language Models (LLMs) sind das Rückgrat moderner Agenten für sequenzielle Entscheidungen, doch ihre Leistungsfähigkeit lässt bei hochfrequenten Aufgaben nach. In der Regel konzentriert sich die Forschung auf diskrete, eingebettete Szenarien mit seltenen, stark semantisch unterschiedlichen Zuständen – etwa bei der Hausplanung. Solche Ansätze zeigen bei Aufgaben, bei denen sich numerische Zustände ständig, aber

arXiv – cs.AI