Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “MAHL”
Forschung

<h1>LLMs wählen Ziele anders als Menschen – Forschung warnt vor Ersatz</h1> <p>Eine neue Studie von Forschern auf arXiv zeigt, dass große Sprachmodelle (LLMs) bei der Auswahl von Zielen in offenen Aufgaben deutlich von menschlichem Verhalten abweichen.</p> <p>Die Untersuchung testete vier Top-Modelle – GPT‑5, Gemini 2.5 Pro, Claude Sonnet 4.5 und Centaur – in einem kontrollierten Lernexperiment, das aus der Kognitionswissenschaft stammt.</p> <p>Während Menschen allmählich verschiedene Ziele erkunden und dab

arXiv – cs.AI
Forschung

<h1>Neues, optimierungsfreies Graph-Embedding verbessert Community-Erkennung</h1> <p>In der Welt der Graph-Embeddings, die sowohl Graph Neural Networks als auch Weisfeiler‑Lehman‑Methoden antreiben, ist das Phänomen des Over‑Smoothing – also die allmähliche Verschmelzung von Knotendistinktionen – seit langem ein Problem. Forscher haben nun gezeigt, dass zwei oft vernachlässigte Eigenschaften eines Netzwerks – die Verteilung der Knoten selbst und die Verteilung ihrer Gradzahlen – entscheidend für eine ausdru

arXiv – cs.LG
Praxis

<h1>Mehrstufiges Crescendo-Red-Teaming mit Garak zur LLM-Sicherheitsbewertung</h1> <p>In einem praxisnahen Tutorial wird gezeigt, wie man mit Garak eine mehrstufige Red‑Teaming‑Pipeline entwickelt, die große Sprachmodelle (LLMs) unter zunehmendem Gesprächsdruck testet. Dabei wird ein iteratives Probe‑Tool eingesetzt, das zunächst harmlose Anfragen stellt und diese allmählich zu sensiblen Themen eskaliert. Ein leichtgewichtiger Erkennungsmechanismus bewertet die Modellantworten in Echtzeit und prüft, ob das

MarkTechPost