Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Interpretability”
Forschung

<h1>Prompt‑spezifische Schaltkreise in Sprachmodellen entdeckt – neue Analysemethode</h1> <p>Die interne Funktionsweise von Sprachmodellen bleibt ein zentrales Rätsel der Mechanistic‑Interpretability. Traditionell werden Schaltkreise auf Aufgabenebene identifiziert, indem viele Prompts gemittelt werden. Diese Vorgehensweise setzt voraus, dass es pro Aufgabe nur ein stabiles Mechanismus‑Set gibt – ein Ansatz, der wichtige Strukturen verschleiert.</p> <p>In einer neuen Studie wird gezeigt, dass Schaltkreise t

arXiv – cs.LG
Forschung

Federated Learning nichtlineare Zeitreihen: Analyse mit Graph Attention <p>In modernen Industrieanlagen werden zahlreiche Subsysteme von verteilten Sensoren überwacht. Jedes Subsystem erzeugt hochdimensionale Zeitreihen, die oft stark miteinander verknüpft sind. Um die zeitlichen Muster eines Subsystems im Kontext der anderen zu verstehen, ist es entscheidend, die Interdependenzen zu erfassen – ein Ziel, das in dezentralen Umgebungen besonders schwierig ist, weil Rohdaten nicht geteilt werden dürfen und d

arXiv – cs.LG
Forschung

<h1>LLMs im Angesicht von „Adversarial Tales“: Neue Angriffe nutzen Cyberpunk‑Erzählungen</h1> <p>Die Sicherheitsmechanismen großer Sprachmodelle bleiben anfällig für Angriffe, die schädliche Anfragen in kulturell kodierte Strukturen einbetten. In einer neuen Studie wird die Technik „Adversarial Tales“ vorgestellt, ein Jailbreak, der gefährliche Inhalte in Cyberpunk‑Narrationen verpackt und die Modelle dazu bringt, diese als legitime Erzählinterpretationen zu analysieren.</p> <p>Durch die Umwandlung der Auf

arXiv – cs.AI
Forschung

Quantum-gestützte KI für O‑RAN: Hierarchische Bedrohungserkennung <p>Open Radio Access Networks (O‑RAN) bieten zwar mehr Modularität und detailliertere Telemetrie, öffnen aber gleichzeitig ein größeres Angriffs‑Viertel. Ein neues Forschungsprojekt präsentiert dafür ein dreistufiges Verteidigungsframework, das exakt auf die Telemetrie‑Schichten von O‑RAN abgestimmt ist. Die erste Ebene erkennt anomale Muster, die zweite bestätigt gezielt Angriffe und die dritte klassifiziert mehrere Angriffsarten gleichzei

arXiv – cs.AI
Forschung

<p>Ethik in LLM-Multi-Agent-Systemen: Mechanistische Interpretierbarkeit</p> <p>Große Sprachmodelle (LLMs) werden zunehmend als autonome Agenten eingesetzt, die in Multi-Agent-Systemen zusammenarbeiten. Diese Systeme versprechen zwar, die Leistungsfähigkeit zu steigern und komplexe Aufgaben zu lösen, bringen jedoch erhebliche ethische Fragen mit sich. In einem neuen Positionspapier wird ein Forschungsrahmen vorgestellt, der darauf abzielt, die ethische Verhaltensweise solcher Systeme zu sichern.</p> <p>Der

arXiv – cs.AI
Forschung

<p>EBM verbessert: Neue Methoden steigern Erklärbarkeit und Fairness</p> <p>Ein neues arXiv-Papier präsentiert drei gezielte Verbesserungen für das Explainable Boosting Machine (EBM), ein führendes Glasbox-Modell, das sowohl hohe Genauigkeit als auch vollständige Transparenz bietet. Die Autoren kombinieren bayessche Hyperparameter‑Optimierung, eine maßgeschneiderte Mehrzielfunktion zur Förderung von Fairness und ein selbstüberwachtes Pre‑Training für Kaltstart‑Szenarien.</p> <p>Die Ansätze wurden auf den St

arXiv – cs.LG