NANOZK: Layerweise Zero-Knowledge-Beweise ermöglichen verifizierbare LLM-Inferenz
Wenn Nutzer proprietäre LLM‑APIs abfragen, erhalten sie Ergebnisse ohne kryptografische Garantie, dass tatsächlich das angegebene Modell verwendet wurde. Anbieter könnten teurere Modelle durch günstigere ersetzen, aggre…
- Wenn Nutzer proprietäre LLM‑APIs abfragen, erhalten sie Ergebnisse ohne kryptografische Garantie, dass tatsächlich das angegebene Modell verwendet wurde.
- Anbieter könnten teurere Modelle durch günstigere ersetzen, aggressive Quantisierung anwenden oder gecachte Antworten zurückgeben – und das bleibt für zahlende Kunden un…
- Mit METHOD, einem Zero‑Knowledge‑Proof‑System, wird die LLM‑Inference verifizierbar.
Wenn Nutzer proprietäre LLM‑APIs abfragen, erhalten sie Ergebnisse ohne kryptografische Garantie, dass tatsächlich das angegebene Modell verwendet wurde. Anbieter könnten teurere Modelle durch günstigere ersetzen, aggressive Quantisierung anwenden oder gecachte Antworten zurückgeben – und das bleibt für zahlende Kunden unauffindbar.
Mit METHOD, einem Zero‑Knowledge‑Proof‑System, wird die LLM‑Inference verifizierbar. Nutzer können kryptografisch nachweisen, dass die Ausgabe dem Rechenweg eines bestimmten Modells entspricht. Die Lösung nutzt die natürliche Aufteilung von Transformer‑Inference in unabhängige Layer‑Berechnungen und erzeugt für jeden Layer einen konstanten Beweis, unabhängig von der Modellbreite.
Durch Lookup‑Tabellen‑Approximationen für nicht‑arithmetische Operationen wie Softmax, GELU und LayerNorm entstehen keine messbaren Genauigkeitsverluste. Für Fälle, in denen das Beweisen aller Layer unpraktisch ist, wird eine Fisher‑Information‑gesteuerte Verifikation eingeführt. Auf Modellen bis zu d=128 liefert METHOD Layer‑Beweise von 5,5 KB (2,1 KB Attention + 3,5 KB MLP) und eine Verifikationszeit von 24 ms.
Im Vergleich zu EZKL sind die Beweise 70‑fach kleiner und das Beweis‑Erstellungs‑Zeit 5,7‑fach schneller bei d=128, während die formale Korrektheit (ε < 1e‑37) erhalten bleibt. Die Lookup‑Approximationen bewahren die Modell‑Perplexität exakt, sodass die Verifikation ohne Qualitätsverlust möglich ist.
Welche Linse du auf diese Meldung legen solltest
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.