Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “privacy-preserving”
Praxis

<h1>Federated Learning: LoRA-Fine‑Tuning von LLMs mit Flower & PEFT</h1> <p>In einem neuen Tutorial wird gezeigt, wie das Feintuning eines großen Sprachmodells (LLM) federiert werden kann, ohne jemals private Textdaten zu zentralisieren. Durch den Einsatz von LoRA (Low‑Rank Adaptation) bleiben die Daten der einzelnen Organisationen lokal, während das Modell gemeinsam verbessert wird.</p> <p>Das Beispiel simuliert mehrere Organisationen als virtuelle Clients. Jeder Client passt das gemeinsame Basismodell lok

MarkTechPost
Forschung

Zero-Knowledge-Audit: Agentenkommunikation bleibt privat<p>In einer aktuellen Veröffentlichung auf arXiv wird ein innovatives Framework vorgestellt, das Agentenkommunikationen auditieren kann, ohne deren Inhalte preiszugeben. Das System nutzt Zero‑Knowledge‑Proofs in Kombination mit dem bereits etablierten Model Context Protocol (MCP), um die Einhaltung von Kommunikationsregeln zu verifizieren, ohne die Privatsphäre der beteiligten Agenten zu gefährden.</p><p>Traditionelle Audits erfordern oft den Zugriff a

arXiv – cs.AI
Forschung

<h1>Neues Verfahren: Federated Clustering mit privater Graphaggregation</h1> <p>Ein innovatives Verfahren namens Structural Privacy-Preserving Federated Graph Clustering (SPP‑FGC) löst das langjährige Problem, Muster aus dezentralen, unmarkierten Daten zu extrahieren, ohne die Privatsphäre zu gefährden. Während herkömmliche Ansätze zwischen Genauigkeit und Datenschutz abwägen müssen – Embedding‑Darstellungen können sensible Informationen preisgeben, während nur abstrakte Cluster‑Prototypen geteilt werden –

arXiv – cs.LG