Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Große Sprachmodelle”
Forschung

<p>DBC-Benchmark: Neue Governance-Schicht senkt Risiko bei LLMs um 36,8 %</p> <p>In einer neuen Studie wurde der Dynamic Behavioral Constraint (DBC) Benchmark vorgestellt – das erste empirische Verfahren, um die Wirksamkeit einer strukturierten, 150‑Kontroll‑Governance‑Schicht für große Sprachmodelle (LLMs) zu messen. Die Schicht, genannt MDBC (Madan DBC), wird während der Inferenz angewendet und ist unabhängig vom Modell, lässt sich an verschiedene Rechtsordnungen anpassen und ist auditierbar.</p> <p>Der D

arXiv – cs.AI
Forschung

<h1>LLMs schätzen Schwierigkeitsgrad von Visualisierungsfragen – GPT‑4.1 Modell</h1> <p>Ein neues Forschungsprojekt auf arXiv untersucht, wie große Sprachmodelle (LLMs) die Schwierigkeit von Fragen zur Datenvisualisierung vorhersagen können. Dabei wird speziell das Modell GPT‑4.1‑nano eingesetzt, um aus dem Text der Frage, den Antwortoptionen und dem zugehörigen Bild Informationen zu extrahieren und daraus die Erfolgsquote bei US‑Erwachsenen zu schätzen.</p> <p>Die Studie vergleicht drei unterschiedliche Fe

arXiv – cs.AI
Forschung

<h1>LLM-Agenten erzeugen Propaganda – Wir testen Gegenmaßnahmen</h1> <p>In einer aktuellen arXiv‑Studie wird gezeigt, dass große Sprachmodelle (LLMs), die als Agenten in offenen Umgebungen eingesetzt werden, leicht manipulativ eingesetzt werden können. Die Forscher haben die Modelle gezielt mit Propagandazielen konfrontiert, um zu prüfen, wie stark sie in der Lage sind, manipulative Inhalte zu generieren.</p> <p>Zur Analyse der erzeugten Texte kamen zwei spezialisierte Modelle zum Einsatz: eines, das Texte

arXiv – cs.AI
Forschung

<h1>LLMs wählen Ziele anders als Menschen – Forschung warnt vor Ersatz</h1> <p>Eine neue Studie von Forschern auf arXiv zeigt, dass große Sprachmodelle (LLMs) bei der Auswahl von Zielen in offenen Aufgaben deutlich von menschlichem Verhalten abweichen.</p> <p>Die Untersuchung testete vier Top-Modelle – GPT‑5, Gemini 2.5 Pro, Claude Sonnet 4.5 und Centaur – in einem kontrollierten Lernexperiment, das aus der Kognitionswissenschaft stammt.</p> <p>Während Menschen allmählich verschiedene Ziele erkunden und dab

arXiv – cs.AI
Forschung

<p>LLM-MLFFN: Mehrschichtige Fusion von Fahrverhalten für autonome Fahrzeuge</p> <p>Ein neues Modell namens LLM-MLFFN nutzt große Sprachmodelle, um die Klassifizierung von Fahrverhalten autonomer Fahrzeuge zu verbessern. Durch die Kombination von numerischen Zeitreihen und semantischen Beschreibungen aus vortrainierten Sprachmodellen wird die Interpretierbarkeit und Robustheit in komplexen Verkehrsszenarien deutlich erhöht.</p> <p>Das System besteht aus drei Hauptkomponenten: Erstens extrahiert ein mehrschi

arXiv – cs.AI
Praxis

<p>TorchAO erweitert Quantization‑Aware Training für Edge‑LLMs</p> <p>In unserem letzten Blog‑Post haben wir den ersten Quantization‑Aware Training‑Flow (QAT) in TorchAO vorgestellt, der große Sprachmodelle für Edge‑Geräte mit ExecuTorch optimiert. Dieser Ansatz ermöglicht es, Modelle auf kleineren Plattformen einzusetzen, ohne dabei die Genauigkeit zu stark zu beeinträchtigen.</p> <p>Seitdem haben wir den Flow weiterentwickelt und zusätzliche Optimierungen integriert. Die neue Version unterstützt nun erwei

PyTorch – Blog