Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Federated Learning”
Forschung

<p>Federated Learning ermöglicht datenschutzfreundliches Modelltraining, doch die geteilten lokalen Updates bleiben Angriffen ausgesetzt. Um diese Schwachstellen zu beheben, wurden sichere Aggregationsverfahren entwickelt, die die Privatsphäre der Clients schützen.</p> <p>Die bisher vorgeschlagene Quantum Secure Aggregation (QSA) nutzt einen einzigen globalen GHZ‑Zustand, um die Client‑Updates in die globale Phase mehrteiliger, verschränkter Zustände zu kodieren. Bei steigender Teilnehmerzahl verschlechtert

arXiv – cs.LG
Forschung

Federated Learning nichtlineare Zeitreihen: Analyse mit Graph Attention <p>In modernen Industrieanlagen werden zahlreiche Subsysteme von verteilten Sensoren überwacht. Jedes Subsystem erzeugt hochdimensionale Zeitreihen, die oft stark miteinander verknüpft sind. Um die zeitlichen Muster eines Subsystems im Kontext der anderen zu verstehen, ist es entscheidend, die Interdependenzen zu erfassen – ein Ziel, das in dezentralen Umgebungen besonders schwierig ist, weil Rohdaten nicht geteilt werden dürfen und d

arXiv – cs.LG
Praxis

<h1>Federated Learning: LoRA-Fine‑Tuning von LLMs mit Flower & PEFT</h1> <p>In einem neuen Tutorial wird gezeigt, wie das Feintuning eines großen Sprachmodells (LLM) federiert werden kann, ohne jemals private Textdaten zu zentralisieren. Durch den Einsatz von LoRA (Low‑Rank Adaptation) bleiben die Daten der einzelnen Organisationen lokal, während das Modell gemeinsam verbessert wird.</p> <p>Das Beispiel simuliert mehrere Organisationen als virtuelle Clients. Jeder Client passt das gemeinsame Basismodell lok

MarkTechPost