Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Evaluationsframework”
Forschung

Eine bahnbrechende Untersuchung hat gezeigt, dass große Sprachmodelle (LLMs) menschliche Persönlichkeit nicht exakt nachahmen können – selbst wenn sie mit Persönlichkeitsmerkmalen angesteuert werden. Forscher haben ein neues Evaluationsframework entwickelt, das menschliche und LLM-basierte Konfliktgespräche in Mediationen und Verhandlungen direkt vergleicht. Dabei werden die fünf Big‑Five‑Persönlichkeitsmerkmale herangezogen und mit klaren, interpretierbaren Metriken zu strategischem Verhalten und Konflik

arXiv – cs.AI
Forschung

Verborgene Instabilität in Vision‑Language‑Modellen: Neue Analyse <p>In einer aktuellen Studie von Forschern aus dem Bereich der Vision‑Language‑Modelle (VLMs) wurde eine bislang unentdeckte Instabilität aufgedeckt. Die Autoren stellen ein neues, repräsentations- und frequenzsensitives Evaluationsframework vor, das die inneren Abläufe von VLMs genauer unter die Lupe nimmt als bisherige, reine Output‑Metriken.</p> <p>Das Framework misst drei zentrale Aspekte: den Drift der internen Embeddings, die spektr

arXiv – cs.AI
Forschung

<h1>LLMs: Neue Methode trennt Halluzinationen und nutzt Aufmerksamkeitsmuster</h1> <p>In einer kürzlich veröffentlichten Studie auf arXiv wird ein innovatives Evaluationsframework vorgestellt, das zwischen extrinsischen und intrinsischen Halluzinationen in großen Sprachmodellen unterscheidet. Das Ziel ist es, die Erkennungsleistung gezielt zu verbessern, indem die unterschiedlichen Halluzinationstypen berücksichtigt werden.</p> <p>Die Autoren nutzen einen auf Aufmerksamkeitsmechanismen basierenden Ansatz zu

arXiv – cs.LG