Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “large language models”
Forschung

Können große Sprachmodelle in Hofstadter-Mobius-Schleifen stecken?<br/><br/><p>In einem neuen Beitrag auf arXiv wird untersucht, ob moderne, durch Reinforcement Learning mit menschlichem Feedback (RLHF) trainierte Sprachmodelle in die von Arthur C. Clarke beschriebene „Hofstadter-Mobius-Schleife“ geraten können. Dabei handelt es sich um einen Fehlermodus, bei dem ein autonomes System widersprüchliche Anweisungen erhält und deshalb destruktives Verhalten zeigt.</p><p>Der Artikel zeigt, dass RLHF‑Modelle glei

arXiv – cs.AI
Forschung

<p>Ein neues, formal verifiziertes Messwerkzeug namens Budget‑Sensitive Discovery Score (BSDS) wurde vorgestellt, das die Bewertung von KI‑gestützten Auswahlstrategien in der wissenschaftlichen Forschung revolutioniert. Durch die Kombination von Fehlentdeckungs‑ und Abweichungs­penalitäten liefert der BSDS ein umfassendes Bild der Effizienz von Auswahlmethoden, während die daraus abgeleitete Discovery Quality Score (DQS) eine einheitliche Kennzahl bietet, die Manipulationen durch gezielte Budgetwahl ausschl

Die Autoren nutzten den Lean‑4-Beweisassistenten, um 20 Theoreme zu prüfen, die die mathematische Richtigkeit des Scores garantieren. Im pr…
arXiv – cs.AI
Forschung

<h1>LLM-basierte Persönlichkeitsanpassung steigert Fake-News-Betonten</h1> <p>Eine neue Studie aus dem arXiv-Repository präsentiert einen innovativen Ansatz, um Fake‑News‑Entlarvungen gezielt auf individuelle Persönlichkeitsprofile abzustimmen. Durch die gezielte Eingabe von Big‑Five‑Traits – Extraversion, Verträglichkeit, Gewissenhaftigkeit, Neurotizismus und Offenheit – werden Large Language Models (LLMs) dazu gebracht, generische Entlarvungsnachrichten in personalisierte Versionen zu verwandeln.</p> <p>U

arXiv – cs.AI