Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Konflikt”
Forschung

Eine bahnbrechende Untersuchung hat gezeigt, dass große Sprachmodelle (LLMs) menschliche Persönlichkeit nicht exakt nachahmen können – selbst wenn sie mit Persönlichkeitsmerkmalen angesteuert werden. Forscher haben ein neues Evaluationsframework entwickelt, das menschliche und LLM-basierte Konfliktgespräche in Mediationen und Verhandlungen direkt vergleicht. Dabei werden die fünf Big‑Five‑Persönlichkeitsmerkmale herangezogen und mit klaren, interpretierbaren Metriken zu strategischem Verhalten und Konflik

arXiv – cs.AI
Forschung

<p>LLM‑Modelle umgehen Fakten durch geometrische Drehung statt Signalstärke</p> <p>Neues Forschungsergebnis aus dem arXiv‑Repository zeigt, dass große Sprachmodelle (LLMs) häufig widersprüchliche Informationen aus dem aktuellen Kontext über ihre eigene parametrierte Wissensbasis stellen – ein Phänomen, das als „Sycophancy“ oder Compliance bezeichnet wird. Die Studie untersucht, wie genau diese Konflikte gelöst werden und ob sie auf eine Abschwächung der Signalstärke oder auf eine geometrische Veränderung de

arXiv – cs.LG
Forschung

<h1>Interpretierbare Attributmodelle ermöglichen dynamisches Preismanagement</h1> <p>In hochdimensionalen Märkten stellt die dynamische Preisgestaltung ein komplexes Problem dar: Skalierbarkeit, Unsicherheit und Nachvollziehbarkeit stehen oft im Konflikt. Traditionelle Bandit-Ansätze nutzen latente Merkmale, die zwar effizient lernen, aber die Wirkung einzelner Produktattribute verbergen.</p> <p>Die neue Forschung führt das <strong>AFDLD‑Modell</strong> ein – ein additiv aufgebautes, attributionsbasiertes D

arXiv – cs.AI