Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Perplexity”
Forschung

<h1>Spurious Rewards Paradox: RLVR lässt LLMs auf Kurzschluss zurückgreifen</h1> <p>Reinforcement Learning with Verifiable Rewards (RLVR) gilt als leistungsstarkes Verfahren zur Verbesserung der Argumentationsfähigkeit großer Sprachmodelle. Neueste Untersuchungen zeigen jedoch, dass Modelle wie Qwen 2.5 erhebliche Leistungssteigerungen erzielen, selbst wenn die Belohnungen falsch oder irreführend sind.</p> <p>Die Autoren beschreiben ein „Perplexity Paradox“, bei dem die Perplexität der Antwort‑Tokens sinkt,

arXiv – cs.LG
Aktuell

<h1>Perplexity's Comet AI-Browser könnte Ihre Daten an Angreifer preisgeben</h1> <p>Brave warnt, dass Angreifer durch Prompt‑Injection bösartige Befehle in Ihre eigenen Anfragen einbetten können. Dabei wird die KI dazu gebracht, unerwünschte Aktionen auszuführen, die sensible Informationen preisgeben.</p> <p>Wenn ein Angreifer die Kontrolle über die Eingabe übernimmt, kann er die KI dazu bringen, persönliche Daten zu extrahieren oder an Dritte weiterzuleiten. Das Risiko besteht insbesondere bei Anwendungen,

ZDNet – Artificial Intelligence