Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “language model”
Forschung

<p>DBC-Benchmark: Neue Governance-Schicht senkt Risiko bei LLMs um 36,8 %</p> <p>In einer neuen Studie wurde der Dynamic Behavioral Constraint (DBC) Benchmark vorgestellt – das erste empirische Verfahren, um die Wirksamkeit einer strukturierten, 150‑Kontroll‑Governance‑Schicht für große Sprachmodelle (LLMs) zu messen. Die Schicht, genannt MDBC (Madan DBC), wird während der Inferenz angewendet und ist unabhängig vom Modell, lässt sich an verschiedene Rechtsordnungen anpassen und ist auditierbar.</p> <p>Der D

arXiv – cs.AI
Forschung

<h1>LLMs schätzen Schwierigkeitsgrad von Visualisierungsfragen – GPT‑4.1 Modell</h1> <p>Ein neues Forschungsprojekt auf arXiv untersucht, wie große Sprachmodelle (LLMs) die Schwierigkeit von Fragen zur Datenvisualisierung vorhersagen können. Dabei wird speziell das Modell GPT‑4.1‑nano eingesetzt, um aus dem Text der Frage, den Antwortoptionen und dem zugehörigen Bild Informationen zu extrahieren und daraus die Erfolgsquote bei US‑Erwachsenen zu schätzen.</p> <p>Die Studie vergleicht drei unterschiedliche Fe

arXiv – cs.AI
Forschung

<p>LLMs im Stil: Neue, leichte Methode zur präzisen Stilsteuerung</p> <p>Die Steuerung von Stilmerkmalen in großen Sprachmodellen (LLMs) ist seit langem ein schwieriges Problem. Traditionelle Ansätze setzen entweder auf komplexe Prompt-Engineering-Strategien oder auf nachträgliche Ausrichtungsprozesse, die viel Rechenaufwand erfordern. In einer kürzlich veröffentlichten Studie wird ein völlig anderer Ansatz verfolgt: die Analyse der internen Repräsentationen der Modelle.</p> <p>Die Autoren gehen davon aus,

arXiv – cs.AI
Forschung

<h1>LLMs wählen Ziele anders als Menschen – Forschung warnt vor Ersatz</h1> <p>Eine neue Studie von Forschern auf arXiv zeigt, dass große Sprachmodelle (LLMs) bei der Auswahl von Zielen in offenen Aufgaben deutlich von menschlichem Verhalten abweichen.</p> <p>Die Untersuchung testete vier Top-Modelle – GPT‑5, Gemini 2.5 Pro, Claude Sonnet 4.5 und Centaur – in einem kontrollierten Lernexperiment, das aus der Kognitionswissenschaft stammt.</p> <p>Während Menschen allmählich verschiedene Ziele erkunden und dab

arXiv – cs.AI
Forschung

<p>LLM-MLFFN: Mehrschichtige Fusion von Fahrverhalten für autonome Fahrzeuge</p> <p>Ein neues Modell namens LLM-MLFFN nutzt große Sprachmodelle, um die Klassifizierung von Fahrverhalten autonomer Fahrzeuge zu verbessern. Durch die Kombination von numerischen Zeitreihen und semantischen Beschreibungen aus vortrainierten Sprachmodellen wird die Interpretierbarkeit und Robustheit in komplexen Verkehrsszenarien deutlich erhöht.</p> <p>Das System besteht aus drei Hauptkomponenten: Erstens extrahiert ein mehrschi

arXiv – cs.AI
Forschung

<h1>LLM-gestützte Schiffswegvorhersage: ShipTraj‑R1 setzt neue Maßstäbe</h1> <p>Durch die jüngsten Fortschritte im Bereich der Verstärkungsoptimierung von Sprachmodellen hat sich die Fähigkeit großer Sprachmodelle (LLMs) zur logischen Problemlösung deutlich verbessert. Besonders die Methode des Group Relative Policy Optimization (GRPO) hat in verschiedenen Anwendungsfeldern starke Ergebnisse erzielt.</p> <p>Die Anwendung von LLMs auf die Vorhersage von Schiffsrouten blieb bislang weitgehend unerforscht. In

arXiv – cs.AI