Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Forschungsergebnisse”
Forschung

<p>Physische Angriffe auf ML-Wahlmaschinen: Manipulation von Stimmzetteln</p> <p>Moderne Machine‑Learning‑Modelle können Wahlzettel mit über 99 % Genauigkeit klassifizieren. Gleichzeitig zeigen neue Forschungsergebnisse, dass diese Systeme durch gezielte, physisch gedruckte Angriffe ausgenutzt werden können. In einer kürzlich veröffentlichten Studie wird untersucht, wie ein Angreifer mithilfe von adversarialen Stimmzetteln ein US‑Wahlverfahren manipulieren könnte.</p> <p>Die Autoren entwickeln ein probabili

arXiv – cs.LG
Forschung

<h1>Große Rechenmodelle zeigen bei Mehrfachangriffen Schwächen</h1> <p>Neuste Forschungsergebnisse zeigen, dass große Rechenmodelle, die komplexe Schlussfolgerungen ziehen können, zwar Spitzenleistungen bei anspruchsvollen Aufgaben erbringen, aber unter mehrstufiger, gezielter Angriffsbelastung nicht automatisch robust bleiben. In einer umfassenden Studie wurden neun der fortschrittlichsten Rechenmodelle auf ihre Widerstandsfähigkeit gegen gezielte Angriffe getestet.</p> <p>Die Ergebnisse sind eindeutig: Mo

arXiv – cs.AI
Forschung

<h1>LLMs im Peer-Review: Keine Bevorzugung, sondern Qualitätsbias</h1> <p>Neue Forschungsergebnisse zeigen, dass große Sprachmodelle (LLMs) nicht nur bei der Erstellung wissenschaftlicher Arbeiten, sondern auch im Peer‑Review-Prozess eingesetzt werden. In einer umfassenden Analyse von über 125 000 Paper‑Review‑Paaren aus ICLR, NeurIPS und ICML wurde untersucht, ob LLM‑unterstützte Reviews LLM‑unterstützte Papers bevorzugen.</p> <p>Auf den ersten Blick scheint ein systematischer Interaktionseffekt zu bestehe

arXiv – cs.AI