1. 引言
ICME團隊開源的zkML項目:
- https://github.com/ICME-Lab/jolt-atlas(Rust)
zkML-JOLT(JOLT ‘Atlas’)構建在a16z Crypto團隊的JOLT研究和實現基礎上,其性能比其他zkML項目快了3到7倍。
a16z Crypto研究團隊最近發布了一項重磅成果,宣布了他們的6倍加速(見2025年8月14日博客Jolt gets a 6× speedup — and we’re just getting started),展示了JOLT基于lookup查找表的方案結合sumcheck協議如何在僅使用CPU的情況下,顯著超越其他SNARK構建。其 “Twist and Shout(見2025年論文《Twist and Shout: Faster memory checking arguments via one-hot addressing and increments》)”優化證明了,當你不再試圖將一切都算術化,而是開始采用查找和稀疏性時,奇跡就會發生:
- 減少審計的代碼。
- 更快的證明者。
- 幾乎是“證明者殺手”的證明。
2. 將JOLT用于zkML
如果將JOLT修改為適用于神經網絡推理呢?
- 神經網絡本身包含大量的非線性操作、稀疏性和矩陣乘法操作。
當a16z團隊忙于革新通用zkVM時,ICME團隊則專注于另一個問題:
- 使零知識機器學習在NovaNet中更具實用性。
事實證明,ML工作負載有一些非常特定的模式,與JOLT的lookup-heavy架構非常契合。在其他方法因ML操作的昂貴域運算而陷入困境時,JOLT的sumcheck+lookup組合能夠直接解決該問題。
傳統的基于電路的方法,在表示ReLU和SoftMax等非線性函數時,成本極其高昂。相比之下,lookup完全消除了電路表示的需求。Just One Lookup Table (JOLT) 從第一性原理開始設計,僅使用lookup argument。這一基礎性的設計選擇意味著,任何試圖將lookup集成到現有系統中的證明方案,都會在根本上處于劣勢。
在zkML JOLT (Atlas)中,消除了困擾其他方法的復雜性:
- 沒有商多項式、沒有字節分解、沒有grand product、沒有permutation check,最重要的是——沒有復雜的電路。
對于矩陣-向量乘法(機器學習中的主導成本),zkML-JOLT 利用JOLT的高效批量sumcheck協議,提供卓越的性能。盡管基于GKR的方法可以通過像SpaGKR(見2024年論文Sparsity-Aware Protocol for ZK-friendly ML Models: Shedding Lights on Practical ZKML)這樣的稀疏性框架進行改進,但JOLT 'Atlas’通過其以查找為中心的架構和稀疏多項式承諾,天然受益于稀疏性——無需額外的優化層。
另一個有趣的優勢是——JOLT從不將其完整的查找表物化,查找表是結構化的,而不是顯式存儲的。雖然其他zkML項目由于物化的表約束而被鎖定在特定的量化方案中,JOLT的方案理論上支持靈活的量化支持,且可以擴展到浮點運算,而不受競爭對手面臨的嚴格預處理限制。這只是一個旁注,因為目前正在考慮的大多數模型都是量化的。
另一個顯著的優勢——通過“Twist and Shout”,JOLT不再需要將操作分解為更小的子表。這為之前不可能實現的預編譯功能打開了大門。現在,只要其evaluation table評估表是MLE結構化的,操作可以作為原語指令(或虛擬序列)添加,而不需要更為嚴格的“可分解”屬性。這大大擴展了可以直接高效集成到JOLT Atlas指令集中的操作范圍。
舉個小例子,以下是ICME團隊進行的端到端測試,對一個多分類模型進行了zkML項目的測試。
# zkML lib benchmarks (multi-class model: preprocessing + proving + verification)zkml-jolt ~0.7s # fastest
mina-zkml ~2.0s # relatively fast
ezkl 4-5s # significantly slower
deep-prove N/A # doesnt support gather op
zk-torch N/A # doesnt support reduceSum op
由此可知:
- 良好的理論轉化為非常好的實踐結果。在測試的所有模型中,性能的數量級提升都得到了驗證。
3. 完整性與擴展性
目前,zkML-JOLT在CPU架構上運行,但GPU加速代表著下一個10倍性能提升的明確路徑。在評估競爭對手“1000倍加速”時,重要的是區分專用硬件的理論峰值性能與實際、可部署的實現。真正的性能比較應該在等效的硬件配置上進行。
此外,ICME團隊的研究揭示了zkML生態系統在完整性和正確性方面的顯著差距。許多聲稱支持ONNX的框架缺乏基本的組件,如內存一致性檢查——這是證明內存在執行過程中沒有被篡改的關鍵要求。如果沒有這些保障措施,這些實現無法合法地聲稱完全支持ONNX。
JOLT ‘Atlas’ 優先考慮性能和可驗證的正確性,確保其速度優勢不會以犧牲安全性或完整性為代價。盡管如此,zkML技術仍在持續進展中,請謹慎使用所有zkML!
4. 用例
ICME團隊正在將這項工作部署為其基于NIVC的證明者網絡(DeSCI for ZK)中的第一個專用證明者,NovaNet。NovaNet的姐妹項目Kinic已經利用這項技術創建了可移植且可驗證的AI內存,作為“AI的Plaid”——更多詳情可參見https://www.kinic.io/。
可驗證AI的更廣泛應用是具有變革性的。正如研究員Daniel Kang在2025年5月 zkSummit 13 ZK13: ZKTorch: Efficiently Compiling ML Models to Zero-Knowledge Proof Protocols - Daniel Kang中所概述的,用例涵蓋隱私保護的醫療推理、金融服務(包括貸款承保和算法交易),以及本地運行AI代理的驗證。每個用例都代表了一個信任和可審計性至關重要的市場,但當前的AI系統通常是黑箱操作。
zkML-JOLT通過提供實際部署所需的性能,同時保持數學上的正確性保證,使這些應用變得在實踐中可行。
愿意等待幾秒鐘,以便在你的個人AI代理轉賬2萬美元USDC之前進行zkML驗證嗎?ICME團隊認為,大多數人會看到可驗證機器學習在承擔更大責任的代理中的好處。
5. Folding JOLT
大多數zkVM和zkML項目是“簡潔可驗證的”,但不是“零知識的”——它們不能保留輸入/輸出、witness或中間計算的隱私。對于實際的、個人之間或公司間的AI代理,正確執行的加密證明必須與隱私保證結合。
ICME團隊的架構通過“Folding方案”實現了真正的零知識。可以使用2023年 HyperNova: Recursive arguments for customizable constraint systems論文中的技術來折疊JOLT驗證器,從而實現“零知識”隱私。這種方法還允許動態step size調整,使得在多種硬件配置上都能高效證明——無論是大型專用服務器硬件,還是個人計算機。
與其他需要大量內存和專用硬件的zkML框架不同,JOLT通過Folding實現的高效性使得能夠為特定的部署場景調整內存與速度的平衡。通過繼續folding,還可以用于大規模的zkML工作負載并行化。這種靈活性解鎖了以前在zkML領域中不切實際的用例——從消費級設備到資源受限的環境。
6. 展望
a16z Crypto團隊將繼續推進JOLT核心基礎設施的開發,發布包括:
- streaming流式JOLT
- 優化的Fiat-Shamir變換
- 增強sumcheck協議和GPU加速等內容
以提供更多數量級的性能提升。JOLT 'Atlas’將從這一研究工作中受益,并為其做出貢獻。
而ICME團隊的產品開發推動了基于格的多項式承諾方案(PCS)和folding方案(2025年論文Neo: Lattice-based folding scheme for CCS over small fields and pay-per-bit commitments)的具體研究重點。這些將實現pay-per-bit按位計費結構、更小的域運算、可行的后量子安全性、folding中使用的同態性,以及動態公共參數生成——這些能力對于大規模的分布式zkML部署至關重要。
這一雙軌道方法確保了JOLT 'Atlas’保持在前沿技術的同時,解決了來自構建可驗證AI用戶應用程序時出現的實際部署挑戰。
參考資料
[1] ICME團隊2025年8月25日博客 Sumcheck good. Lookups good. JOLT good. Particularly for zero-knowledge machine learning