Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “DOE”
Forschung

**Answer to the question “What is the difference between a ‘good’ and a ‘bad’ user?”** | **Aspect** | **Good User** | **Bad User** | |------------|---------------|--------------| | **Purpose** | Uses the system to achieve a legitimate goal (e.g., retrieving data, submitting a form). | Attempts to exploit the system for malicious reasons (e.g., data theft, sabotage). | | **Behavior** | Follows the intended workflow, respects rate limits, and does not abuse resources. | Sends malformed requests, brute‑forces

arXiv – cs.AI
Forschung

KI-Agenten: Wie gut spiegeln sie die reale Arbeitswelt wider?<br/><p>In einer neuen Studie von arXiv (2603.01203v1) wird untersucht, inwieweit die Entwicklung von KI-Agenten tatsächlich die Vielfalt und den Umfang menschlicher Arbeit abbildet. Die Forscher haben 43 Benchmarks und über 72.000 Aufgaben analysiert und diese mit den 1.016 realen US-Berufen verglichen. Dabei zeigte sich ein deutlicher Mismatch: Die meisten Benchmarks konzentrieren sich stark auf Programmieraufgaben, während die meisten Arbeitspl

arXiv – cs.AI
Forschung

Multimodales Lernen in der Medizin: Wann lohnt sich die Fusion von EHR und Röntgen?<br/><p>Maschinelles Lernen verspricht, die klinische Entscheidungsunterstützung zu verbessern, doch bleibt unklar, wann multimodales Lernen in der Praxis tatsächlich Vorteile bringt – besonders wenn Daten fehlen oder Fairness-Bedenken bestehen.</p><p>In einer systematischen Benchmark wurden die Fusion von elektronischen Gesundheitsakten (EHR) und Röntgenaufnahmen (CXR) an standardisierten Kohorten aus MIMIC‑IV und MIMIC‑CXR

arXiv – cs.LG
Forschung

Distillation: Wie wichtig ist sie für chinesische LLMs? Anthropic hat kürzlich einen Beitrag veröffentlicht, in dem die Anfälligkeit von distillierten Modellen für sogenannte „Distillation Attacks“ beleuchtet wird. In diesem Kontext haben Fachleute aus China ihre Sichtweise dargelegt: Distillation bleibt ein zentraler Prozess, um große Sprachmodelle in kompaktere, ressourcenschonende Varianten zu überführen, die für den Einsatz in mobilen und eingebetteten Systemen geeignet sind. Die Experten betonen, d

Interconnects – Nathan Lambert
Forschung

Was kann das Bradley–Terry-Modell aus Paarvergleichsdaten wirklich extrahieren?<br/><p>In der aktuellen Forschung zur maschinellen Lernoptimierung steht das Pairwise Preference Learning im Fokus, insbesondere bei der Abstimmung von Sprachmodellen auf menschliche Vorlieben. Ein typisches Datenset besteht aus Tripeln \((x, y^+, y^-)\), wobei die Antwort \(y^+\) im Kontext \(x\) gegenüber \(y^-\) bevorzugt wird.</p><p>Das Bradley–Terry (BT) Modell ist dabei die dominierende Methode, die Präferenzwahrscheinlich

arXiv – cs.LG
Forschung

KI im Chaos: Wie skaliert Fehlanpassung mit Intelligenz und Aufgabenkomplexität?<p>Mit jeder neuen Generation von KI-Systemen übernehmen wir ihnen immer komplexere und weitreichendere Aufgaben. Gleichzeitig steigen die Risiken, wenn diese Systeme versagen – die Folgen können von kleineren Fehlfunktionen bis hin zu schwerwiegenden Industrieunfällen reichen. Deshalb ist es entscheidend, genau zu verstehen, wie hochintelligente Modelle scheitern.</p><p>Eine aktuelle Studie von Forschern auf arXiv untersucht, o

arXiv – cs.AI
Forschung

<h1>Graph-Strukturen beeinflussen Privatsphäre-Risiken bei Graph Neural Networks</h1> <p>Graph Neural Networks (GNNs) sind heute das bevorzugte Werkzeug, um komplexe Beziehungsdaten in kontinuierliche Repräsentationen zu überführen und damit die Genauigkeit bei Aufgaben wie Knotenkategorisierung und Linkvorhersage zu steigern. Gleichzeitig wächst die Besorgnis, dass bei sensiblen Anwendungen Trainingsdaten ungewollt preisgegeben werden könnten.</p> <p>Die bisherige Forschung zum Datenschutz bei GNNs orienti

arXiv – cs.LG