一文了解 ZK 在推进链上 AI 的作用
全文来源于:Modulus Labs
编译程序:DeFi 之法
非常高兴终于能和你们共享我们自己的第一篇毕业论文,该文章是根据以太坊基金会的支助完成,它名字是《The Cost of Intelligence: Proving Machine Learning Inference with Zero-Knowledge》(或 paper0,这也是酷小朋友的称呼)。
没有错,这都是真数据!有数据图表!毕业论文还探讨了基础理论构造及其对性能产生的影响!实际上,paper0 是第一个跨通用性 AI 原语模块对 ZK 证明系统开展基准测试的科研工作,你今天就能够阅读文章整篇文章毕业论文。

而本文,你能将其视为毕业论文总结,相关详细资料,客户程序原毕业论文。
话不多说,使我们全面了解:
Paper0 : 我们自己的调研关键点
实际上,计算出来的今后将广泛使用繁杂的人工智能。看看我的文本编辑:

Notion 提示跟我说,他的 LLM 能让这话变得越来越好
但是,链中不存有多功能性神经元网络,就连最小强烈推荐系统或搜索算法根本不存在。真撞鬼!就连试验也没有一个……自然,缘故是非常明显的,因为这个太贵,终究,即便运作使用价值数十万 FLOP 计算(仅够在小型神经元网络上进行一次逻辑推理)成本都是上百万 gas,现阶段等同于数百美元。
那样,假如我们想把 AI 方式带到不用信赖世界,咱们应该怎么做?我们也会大型翻车(roll-over),随后舍弃(give up)吗?其实也不是…这些!Roll-over)……Giveup……
如果像 Starkware、Matter Labs 和其他企业这种 Rollup 服务项目,在使用零知识证明来规模性拓展测算,同时保持密码算法安全性,那样我们可以为 AI 做同样的事吗?
这种情况成为推动大家在 paper0 中相关工作的鼓励种籽。 搬文警报器,下列就是我们找到的:

“当代 ZK 证明系统的性能愈来愈高,而且更加多元化。他们早已可以支持成本费在一定程度上是合理的人工智能技术实际操作。
实际上,有一些系统在证明神经元网络层面比其它系统好很多。
但是,这所有的一切依然无法达到实践应用所需要的性能,而且对于奇妙的用例来讲是匮乏的。
也就是说,假如不进一步加快用以 AI 操控的 ZK 系统,用例就会变得很比较有限。“
paper0 汇总
这也是家喻户晓的隐秘:AI 性能基本上一直与模型尺寸成正比例。 这种趋势看上去都没有变缓。 只需这样的事情依然存在,其实对于我们这种 web3 中的人来讲,将会是尤其悲伤的。
终究,核算成本就是我们最后、不可避免的恶梦来源。

今日的 ZKP 早已可以支持小模型了,但中小型到大中型模型打破方式
标准:实验设计方案
针对 paper0,大家关心一切零知识证明系统里的 2 个基本指标:
- 证明生成时间:prover 建立 AI 逻辑推理的随着证明所需的时间,及其
- prover 内存使用最高值:证明者在证明期内的所有给出时长用以形成逻辑推理证明的最大内存;
主要是一个具体的挑选,而且是以大家搭建 Rockybot 积累的经验中所做出的(证明时间与内存使用是明确一切不用信赖人工智能技术用例可行性的立即优先选择事宜)。 除此之外,全部精确测量主要是针对证明生成时间所进行的,而且没有考虑到预备处理或 witness 形成。
自然,也有其他一些方面成本费必须追踪。 这包括验证者使用时间和证明尺寸。大家未来可能重新思考这些指标,但将他们视作 paper0 的范畴以外。
对于我们测试的具体证明系统,根据网络投票,大家确定了 6 个:

Paper0 测试证明系统明细表,及其帮助我们自己的作者
最终,大家创立了2套用以基准测试得多线形感知器(MLP)——值得关注的是,MLP 较为简单,主要是由线性运算构成。这包括一套伴随着主要参数数量增加而扩大的架构设计(较多 1800 万参数和 22 GFLOP),及其第二套伴随着叠加层数的增加拓展(较多 500 层)的架构设计。如下表所显示,每一个模块都尝试了证明系统通过不同方法拓展能力,并大概代表着从 LeNet5(6 万主要参数,0.5 MFLOP)到 ResNet-34(2200 万主要参数,3.77 GFLOP)的知名深度神经网络(ML)架构的经营规模。

参数和深度基准模块
结论:迅如雷电

针对之上 6 个证明系统的参数和深度区域范围证明生成时间结论

针对之上 6 个证明系统的参数和深度范围之内最高值运行内存结论
相关这种结论的一体化具体内容,及其对每一个系统内短板的详细分析,客户程序 paper0 第 4 节。
用例和最后关键点
行吧,以上就是一些十分简约的数据图表,而下列乃是关键点:
“在证明时长层面,Plonky2 是迄今为止表现最好的系统,因为他用了根据 FRI 的代数式服务承诺和 Goldilocks 域。 实际上,其实对于我们最大的一个标准架构设计,比 Halo2 快 3 倍。
但是,这要以 prover 运行内存耗费为明显代价,Plonky2 的性能自始至终较弱,有时候会让 Halo2 的最高值 RAM 需求量翻番。
在证明时间与运行内存层面,根据 GKR 的 zkCNN prover 好像比较适合解决大中型模型——即便没有改善的完成。”
那么这结合实际到底意味什么? 我们将要重点介绍 2 个实例:
1、Worldcoin:Worldcoin 已经搭建世界上第一个“个人隐私保护真实身份证明协议书”(或 PPPoPP),也就是说,可以将身份认证与一种非常独特的生物学特性(虹魔)结合起来去解决巫师进攻难题。这是一个疯狂的想法,它使用神经网络来缩小、变换和证明存储的虹魔数据信息。尽管他们现阶段设置涉及到 orb 硬件配置中安全性飞地里的可信计算自然环境,但他们想要改成应用 ZKP 来证明模型正确测算。这将会允许用户对自身的生物学特性信息进行防范意识,同时提供数据加密安全保障(只需在客户的硬件上予以处理,例如手机上)。
如今具体一点:Worldcoin 的模型具备 180 万参数和 50 层。 这也是区别 100 亿次不一样虹魔所必须的模型多元性。 哎哟!
尽管在预估改善的云 CPU 上证明 Plonky2 等系统,还可以在几分钟内为这类体量的模型形成逻辑推理证明,但证明者运行内存耗费将超过一切商业挪动硬件配置(数十 GB 的 RAM)。
实际上,没有一个检测系统可以在挪动硬件配置上证明这一神经元网络……
2. AI Arena:AI Arena 是一款类似《任天堂明星大乱斗》样式的链上服务平台格斗类游戏,它具有一个与众不同的特性:游戏玩家并非实际操作化身为即时开展抵抗,反而是令小伙伴们拥有的 AI 模型良性竞争和作战,没错,这听起来很帅。
随着时间推移,AI Arena 的优秀精英团队正努力把他们的游戏转为一个彻底不用信赖的公开赛方案。但是事实上,这涉及到认证每一次手机游戏总数令人惊讶的 AI 测算的考验。
赛事以每秒钟 60 帧速度运作,不断 3 分钟时间。这就意味着每轮比赛,2个游戏玩家模型间的逻辑推理结论超出 20000 个。以 AI Arena 的一个策略网络为例子,一个比较小的 MLP 必须大概 0.008 秒去执行一次精子活动率传送,应用 zkCNN 证明该模型必须 0.6 秒,即,每采用一次姿势就需要增加 1000 倍测算。
这也意味着核算成本将增加 1000 倍。伴随着模块经济发展对链上服务项目变得越来越重要,开发者务必均衡区块链技术安全价值和证明产生的计划成本。

https://aws.amazon.com/ec2/pricing/
不论是上边的事例,ZK-KYC,DALL-E 样式的图像生成,或是区块链智能合约里的大中型语言表达模型,ZKML 的世界里都存在一个完整的用例全球。但是,要从而实现这种,大家明显觉得 ZK prover 仍然需要很多改善。尤其是对于不断进取的区块链未来的发展。
那样,大家何去何从?
我们会有实际的表现数据信息,我们都知道在证明神经元网络时什么技术性通常主要表现最好是。自然,让我们一起来发觉各种各样用例,这种用例激励了大家不断进步的群体。

想要知道下面会有什么……
很快就为大家带来更多升级;)
来源:DeFi之法
- 免责声明
- 世链财经作为开放的信息发布平台,所有资讯仅代表作者个人观点,与世链财经无关。如文章、图片、音频或视频出现侵权、违规及其他不当言论,请提供相关材料,发送到:2785592653@qq.com。
- 风险提示:本站所提供的资讯不代表任何投资暗示。投资有风险,入市须谨慎。
- 世链粉丝群:提供最新热点新闻,空投糖果、红包等福利,微信:juu3644。

DeFi之道



