NANOZK: Layerweise Zero-Knowledge-Beweise ermöglichen verifizierbare LLM-Inferenz
Wenn Nutzer proprietäre LLM‑APIs abfragen, erhalten sie Ergebnisse ohne kryptografische Garantie, dass tatsächlich das angegebene Modell verwendet wurde. Anbieter könnten teurere Modelle durch günstigere ersetzen, aggre…