当前位置:首页>货币平台

漫游以太:过去、现在、未来

日期:2023-03-17

来源:玫瑰财经网

浏览:

    漫游以太:过去、现在、未来

    原文题目:《漫游以太:过去、现在、未来》

    原文作者:哈肯,w3。高地人;修订:伊夫林,W3。Hitchhiker

    一、以太网广场升级路线图M2SVPS

    The Merge

    在The Merge阶段,POW共识机制被过度用作POS,信号链合并在一起。为了帮助理解,我们将把太芳结构简化为下图。

    首先定义什么是碎片化。简单的理解是通过水平划分数据库来分配负载的过程

    转换到POS后:块提议者和块验证者分离后,POS工作流程如下(根据上图理解)。

    向Rollup提交交易

    证明者将事务添加到代码段块中

    信标链选择验证器来建议新块

    剩下的验证者组成了随机委员会,验证了零碎的提议

    区块和证明提议都需要在一个slot内完成,通常是12s。每32个slot组成一个epoch周期,每个epoch扰乱验证者顺序,重新选举委员会。

    合并后

    漫游以太:过去、现在、未来

    ,以太将为协议层实现提议者-建设者分离(PBS)。Vitalik认为,所有区块链的末端将是集中的区块生产和集中的区块验证。分割后的以太网块数据非常密集,因此对数据可用性的高要求要求使块生产的中心化成为可能。此外,还必须有一个方案来维护一组集中验证程序,以验证区块和执行数据可用性采样。

    矿工和区块验证分离。矿工们制作积木,然后把积木提交给验证者。向验证者投标,选择自己的块,然后验证者投票,确保块有效。

    分割是一种分割方法,可在P2P网络上分布计算任务和存储工作负载。这样,每个节点不负责处理整个网络的事务负载,只需要保留与该分区(或分区)相关的信息。每个片都有自己的验证者网络或节点网络。

    碎片的安全性问题:例如,如果整个网络有10条碎片链,破坏整个网络需要51%的计算力,则破坏单个碎片只需要5.1%的计算力。因此,后续改进包括有效防止51%算力攻击的SSF算法。据维塔利克说总之,向SSF的转变是多年的路线图,即使目前正在做很多工作,它也将是以太后期实施的重大变化之一,并将持续到以太的PoS证明机制、碎片、Verkle树全面引入之后。

    负责生成随机数、为碎片分配节点、捕获单个碎片的快照和其他多种功能、完成碎片之间的通信、协调网络同步的信标链。

    信号链的执行步骤如下:

    积木生产者一起约定了积木头和出价。

    如果信号链中的区块者(验证者)选择获胜的区块标头和投标,则无论区块包装者最终是否生成区块,都会无条件地收到中标费。

    委员会投票确认获得的块头。

    砌块包装者公开砌块本体。

    The Surge

    这条路线的主要目标是推进以Rollup为中心的扩张。Surge意味着添加Etherfang片段作为扩展解决方案。以太坊基金会进一步激活低gas费率的双层区块链,降低rollup或捆绑交易成本,并使用户能够轻松操作保护以太坊网络的节点。

    这幅画仍然可以通过以下示意图理解

    漫游以太:过去、现在、未来

    例如,ZKROLLLUP的工作原理。在ZKROLLLUP中,它分为排序者和聚合者,排序者对用户事务进行排序,将其打包并发送给批处理(batch)聚合者。聚合器执行事务,生成“前一状态根”、“后状态根”和“证明”,聚合器最后证明将前一状态根、后状态根和事务数据发送到L1的协议。

    但是,由于使用calldata的成本较高,整个EIP-4844协议(可随时更改)提出了将交易块的大小更改为1-2 MB,为以后的rollup和数据分区奠定坚实基础的方案。目前以太坊的块大小约为60KB ~100KB,以EIP-4844为例,可以提高约10 ~ 34X的块大小限制。这种块格式称为blob(也称为数据切片数据共享)。

    The Scourge

    此阶段Scourge是路线图的补充,主要用于解决MEV问题。那么什么是MEV

    MEV全称Miner Extractable Value/Maximal Extractable Value,该概念最初应用于工作量证明的背景中,最初被称为“矿工可提取值”。因为在工作量证明中,矿工掌握了交易的包含、排除、顺序等角色能力。但是,通过合并转换为股权证明后,证明人将承担这种作用,矿山将不再适用(此处描述的价值提取方法在转换后仍将保留,因此必须更改名称)。为了在保持相同基本含义的同时确保持续性,继续使用相同的首字母缩写,请使用“最大可提取值”作为更全面的替代。

    套利空间包括:

    压缩存储空间以获得gas成本的价格差异。

    抢劫裁判:在mempool中广泛搜索交易,机器在本地进行计算,以确定是否有利可图,如果有,用自己的地址开始相同的交易,使用更高的gas费用。

    寻找清算目标:机器人以最快的速度分析区块链数据,确定可以清算的借款人,然后提交清算交易,成为自己收取清算费的第一人。(阿尔伯特爱因斯坦)清算。

    三明治交易:搜索者监视内存池内DEX的大交易。例如,有人想使用DAI从Uniswap购买10,000 UNI。这些大规模交易对UNI/DAI有很大影响,可能会大幅提高UNI对DAI的价格。搜索者可以计算这笔大交易对UNI/DAI的大致价格影响,在大交易前立即运行最佳账单,低价购买UNI,然后在大交易后立即运行销售订单,以大订单带来的更高价格销售。

    MEV中的缺陷:

    一些形式的MEV(如三明治交易)会明显加剧用户的体验。夹在中间的用户面临着更高的滑点和更糟糕的交易执行。在网络层,一般掠夺者和他们经常参与的矿工费拍卖(当两个或更多的先行者逐渐增加自己交易的矿工费用,使他们的交易包装到下一个街区)、网络拥挤和其他试图执行正常交易的人的高矿工费。除了块内发生的情况外,MEV还会在块之间产生有害影响。如果一个区块中可用的MEV大大超过标准区块的奖励,矿工可能会重新开采区块,激励MEV捕获,从而使区块链的重组和共识不稳定。

    大多数MEV都是由名为“搜索者”的独立网络参与者提取的。搜索者对区块链数据运行复杂的算法,以检测盈利的MEV机会,机器人自动将这些收入交易提交给网络。以太的MEV问题与使用机器人进行网络交易有关,会造成拥堵和高额成本。

    The Verge

    Verge实现了“Verkle树”(数学证明)和“无状态客户端”。这种技术升级使用户无需在计算机上存储大量数据,即可成为网络认证者。这也是围绕rollup扩展的步骤之一。正如前面提到的ZK rollup的简单工作原理所说,收集器已经证明,第1层的验证协议只需要验证blob内的KZG承诺和生成的证明。这里简要介绍KZG的承诺,是确认所有交易都包括在内。因为Rollup可以提交部分交易,所以生成证明并使用KZG可以确保所有交易都包含在生成证明中。

    The Verge是保证验证非常简单。如果只下载n字节数据,则可以执行基本计算来验证rollup提交的证明。

    有趣的是,ZK rollup有很多方案,包括stark、snark和bulletproof。每个方案对证明和验证的方式不同,所以出现了折中。SNARKs现在比STARKs技术更容易上手,技术也更完善,所以很多项目一开始使用SNARKs,但随着STARKs技术上的迭代,最终将逐渐走向对抗双边攻击的STARKs。)感兴趣的人可以转到这句话。

    The Purge

    The Purge想减少在硬盘上存储ETH所需的空间量,简化以太网广场协议,不需要节点存储历史记录。这样可以大大提高网络的带宽。

    EIP-4444:

    客户端必须停止在P2P层提供一年以上的记录标头、正文和recipient。客户端可以在本地截断这些历史数据。我相信保存以太的历史是根本,为了实现这一点,有多种带外方式。历史数据可以通过torrent磁力链路或IPFS等网络打包和共享。此外,还可以使用Portal Network或The Graph等系统获取历史数据。客户端必须允许导入和导出历史数据。客户端可以提供收集/验证数据并自动导入数据的脚本。

    The Splurge

    此路径主要是零碎的优化修改,如帐户抽象、EVM优化和随机数方案VDF。

    这里提到的账户抽象(AA)一直是ZK系Layer 2首先要实现的目标。那么什么是账户抽象实现账户抽象后,智能合同账户也可以不依赖“元交易”机制,积极开始交易(EIP-4844中提出)。

    在以太坊内,账户分为合同账户和外部账户。目前,以太坊只有一种事务类型,必须以外部地址开始,合同地址不能主动开始事务。因此,合同本身的状态变化必须依赖于由一个外部地址发起的事务,即多签名账户、搅拌机或所有智能合同的配置变化。必须由至少一个外部帐户触发。

    无论使用以太坊的什么应用程序,用户都必须持有以太坊(并且要承担以太坊的价格变动风险)。其次,用户需要处理复杂的成本逻辑、gas定价、gas limit和事务拦截。这些概念对用户来说太复杂了。很多区块链钱包或应用程序都想通过产品优化提高用户体验,但效果甚微。

    以帐户为中心的方案的目标是为用户创建基于智能合同管理的帐户。实现账户抽象后的优点如下。

    目前合同持有ETH,可以直接提交包含所有签名的交易,用户不一定要为交易支付gas费用。完全取决于项目。

    因为进行了自定义加密,所以以后不需要使用ESCDA椭圆曲线签名,未来手机的指纹识别、人脸识别、生物识别等技术可以作为签名方式使用。

    这大大提高了用户与以太网之间的交互体验。

    其次,以太的模块化整体以太目前呈模块化趋势,执行层由第2层负责(如arbitrum、zksync、starknet、polygon zkevm等)。他们负责在L2进行用户的交易并提交证明。第2层通常使用OP技术/ZK技术。ZK技术理论上TPS比OP高得多。虽然现在有大量的生态系统在OP界,但随着ZK技术的改进,越来越多的应用将迁移到ZK界。本节对路线图进行了详细说明,并介绍了补充的原因和方法。

    目前以太只是剥离了执行层,实际上其他水平仍然混淆不清。在Celestia的愿景中,执行层只执行两项任务。也就是说,对于单个事务,执行事务并更改状态。对于同一批中的事务处理,计算批的状态根。目前,以太网执行层的部分任务已分配给我们熟悉的StarkNet、zkSync、Arbitrum和Optimism roll up。

    现在正在探索模块化道路,包括optimism、polygon、starknet和zksync。

    Optimism提出了bedrock/op stack,polygon也在开发polygon avail作为数据可用性层,supernets用于简化链的创建和共享验证器集。

    结算层:您可以理解主链中的Rollup合同验证上述以前的状态根、以后的状态根、证明的有效性(zkRollup)或欺诈证明(Optimistic Rollup)的过程。

    共识层:无论使用PoW、PoS还是其他共识算法,共识层都是为了就分布式系统中的某些事情达成一致。也就是说,这是为了就状态转换的有效性达成共识(计算之前的状态根后的状态根)。在模块化背景下,结算层和协议层的意义有些相似,所以一些研究者将结算层和协议层统一起来。

    数据可用性层:确保事务处理数据完全上载到数据可用性层,并确保节点可以通过该层的数据再现所有状态更改。

    这里需要区别的是数据可用性和数据存储之间的差异。

    数据可用性与数据存储有很大不同,数据存储侧重于发布在最新区块中的数据可用性,数据可用性是指安全地存储数据,并在需要时访问数据。

    1.从结算层的各种累计结算层来看,目前的累计焦点在ZK界。通过ZK系列的rollup,改善了ZK证明系统的大小、gas消耗和成本,并将递归和并行处理相结合,可以显着扩展TPS。那我就从ZK rollup开始吧。

    随着以太坊扩张的道路,零知识证明(ZKP)技术被认为是Vitalik有望成为扩张战争的终点的方案。

    ZKP的本质是让某人证明他们知道或拥有的东西。例如,我可以证明我没有拿出钥匙,而是有开门的钥匙。这项技术证明,不输入密码,不冒暴露的危险,知道一个账户的密码,对个人信息保护、加密、企业、甚至核裁军都有影响。通过姚百万富翁问题修订版加深了理解。这个问题和两个百万富翁爱丽丝讨论鲍勃。他们不想透露实际财富,想知道他们中哪个更富有。

    假设公寓的月租金为1000美元,那么要符合出租人的标准,至少要支付一个月租金的40倍。那么我们(租户)要证明我们的年收入在4万美元以上。但是房东不想让我们找到漏洞,所以决定不公开具体的租金。他的目的是测试我们是否符合标准,答案只是符合或不符合,对具体金额没有责任。

    现在有10个箱子,每箱增加1万美元,标为10 ~ 100k美元。每个都有钥匙和插槽。房东带着箱子走进房间,摧毁了9把钥匙,拿走了标有40k美元箱子的钥匙。

    租户年薪达7.5万美元,银行代理人监督发放资产证明的文件,不明确具体资金。这份文件的本质是银行的资产声明可以验证索赔文件。然后把这份文件放在10k~70k的箱子里。那么房东会使用40k的钥匙打开箱子,查看里面的可验证索赔文件,判断房客符合标准。

    这包括:申报人(银行)出具资产合规证明,验证人(房东)通过钥匙验证租户的资格。再次强调,核查结果只有两个选择:——有资格和没有资格,也不能对租户的特定资产金额提出要求。

    我们仍然能理解下图。交易在第2层执行,零碎地提交交易。第2层通常是rollup格式,在第2层将多个事务打包成一个批,然后提交给第1层的rollup智能协议。它包含新状态根和新状态根,第1层的协议将检查两个状态根是否匹配,如果匹配,主链中的旧状态根将替换为新状态根。如何确认批处理后获得的状态根是否正确optimistic rollup和ZK rollup是从这里派生的。分别使用欺诈证明和ZK技术进行交易确认和状态根验证。

    其中,layer 2(rollup)等同于上述例子中的声明(银行),一揽子工作就是用这个声明确认是否符合标准,而不声明具体数额。包装后提交给第1层的就是这个可索赔的声明。验证新旧状态的根源是房东通过钥匙确认自己期待的租户经济实力是否符合标准。状态根验证问题是银行提交的声明,如何声明才能相信问题。

    对于Optimistic(即基于欺诈证明的rollup),基本链中的Rollup协议记录了该Rollup内部状态根更改的完整记录,以及触发状态根更改的每个批次的散列。如果发现与批处理相对应的新状态管线不正确,则可以在主链中发布证明,证明该批处理生成的新状态管线不正确。合同会在验证回退该批处理后的所有批处理事务处理时验证证明。

    其中验证方式相当于声明者(银行)提交可验证的资产声明文件,然后将资产文件全部公开给链,数据也公开给链。其他挑战者根据原始数据确认可验证的资产文件是否存在错误或伪造,如果有问题,提出挑战,并在成功时向银行提出索赔。这里最重要的问题是,要给挑战者收集数据,确保检验该文件真实性的时间。

    对于使用零知识文库配置(Zero Knowledge Proof,ZKP)技术的Rollup,每个批处理都包括一个名为ZK-SNARK的加密证书。银行通过密码学证明技术生成资产声明文件。这样就不需要给挑战者预约时间,所以挑战者的角色不存在。

    2.目前ZK系Rollup没有预料到的原因是,现在polygon系列的hermez已经发布,zksync dev家庭网络、starknet家庭网络也已经在线。但是他们的交易速度在理论上似乎仍有很大差异。特别是starknet用户可以明显感觉到主网络速度慢。原因是零知识证明技术的生成仍然困难,成本负担仍然很高,需要与以太网方面的兼容性和对zkevm性能的权衡。Folygon团队还表示:“Polygon zkEVM的测试网络版本的吞吐量也有限。换句话说,这不是优化扩展系统的最终形式。”说

    3、数据可用性层以太网广场抽象执行步骤如下。

    在以太的去中心化过程中,也可以在The Merge路线图中看到——的中央验证器

    漫游以太:过去、现在、未来

    。其中最重要的是实现客户端的多样性,减少系统的进入阈值,从而增加认证人数。因此,一些机器不达标的验证者如果想加入网络,可以使用轻量级客户端。轻量节点通过相邻的整个节点请求块头,轻量节点只需下载并验证块头。如果轻节点不参与,则所有事务都需要整个节点来执行验证。因此,整个节点需要下载和验证块中的每个事务,随着事务量的增加,整个节点压力也越来越大,因此节点网络逐渐趋向于高性能、中心化。

    但是这里的问题是,恶意的整个节点可以提供缺失/无效的块头。但是光节点不能证明伪造。这个问题有两种方法。一开始,我们需要一个可靠的整体节点来使用欺诈证明和监控区块的效率。发现错误的区块后,如果构成欺诈证明,并且在一段时间内没有收到欺诈证明,则判断为有效的区块头。

    但是,这需要可靠的整个节点,即可靠的设置或诚实的假设。但是,区块生产者可以隐藏部分交易,欺诈证明将大大无效。诚实的节点也依赖于区块生产者的数据,如果数据本身被隐藏,信任的节点认为提交的数据是全部数据,所以自然不会生成欺诈证明。

    Mustarfa AI-Bassam和Vitalik在合著的论文中提出了新的解决方案——删除代码。使用删除代码解决数据可用性问题。例如,celestia,polygon avail使用Reed-Solomon删除代码。但是,如何确认传输的数据是完整的数据呢和KZG约定/欺诈证明一起就可以了。

    在KZG承诺/欺诈证明中,区块生产者发布全部数据,不隐瞒交易,通过删除码对数据进行编码,通过数据可用性采样,使光节点能够准确验证数据。

    聚合者在Rollup内提交的数据以calldata形式存储在链中。这是因为calldata数据比其他存储更便宜。

    call data cost in gas=transaction size 16 gas per byte

    每个事务的主要开销是calldata成本,因为占Rollup成本80%至95%的连锁存储成本非常昂贵。

    由于这个问题,提出了EIP-4844的新交易形式blob,增加了块容量,减少了提交给链所需的gas成本。

    4.数据可用性层的链和链下如何解决链中数据昂贵的问题有多种方法:

    首先是压缩上传到L1的calldata数据的大小。在这方面已经进行了很多优化。

    第二,减少在链中存储数据的成本,通过以太网房间的proto-danksharding和danksharding为rollup提供“大块”,增加数据可用性空间,并使用删除代码和KZG承诺解决轻节点问题。与EIP-4844相同。

    第三是将数据可用性放在链下。这一部分的一般方案包括celestia/polygon avail。

    数据可用性的存储位置如下图所示进行了划分。

    Validium的方案:如果将数据可用性放在链下,集中式操作员将维护事务数据,因此用户需要可靠的设置,但成本低,但安全性很低。之后,starkex和arbitrum nova提议成立负责存储交易数据的DAC。DAC会员都是有名的、在法律管辖区内的个人或组织,信任家庭是他们不勾结或作恶。

    Zkporter建议guardians(zksync token持有者)保持数据可用性,如果数据可用性失败,担保资金将被罚款。

    Volition由用户直接在链上/链下选择数据可用性,并根据需要在安全性和成本之间进行选择。

    这时celestia和polygon avail出现了。如果Validium对链下的数据可用性有需求,并且担心集中化程度低,引起横跨链桥的私钥攻击,则集中式通用DA方案可以解决这一问题。Celestia和polygon avail成为独立的链,为validium提供链下的DA解决方案。但是,单独的链可以提高安全性,但成本也会相应增加。

    Rollup的扩展实际上有两个部分。一个是聚合器的执行速度,另一个需要数据可用层的合作。当前聚合器作为集中式服务器运行。假设交易执行速度达到无限,主要的扩展困难是受基本数据可用性解决方案的数据吞吐量影响。Rollup要想最大限度地提高事务吞吐量,最大限度地提高数据可用性解决方案的数据空间吞吐量至关重要。

    从一开始就使用KZG承诺或欺诈证明来保证数据完整性,通过修改删除代码来扩展交易数据,使轻量级节点能够进行数据可用性采样,轻量级节点能够正确验证数据。

    您可能想知道KZG承诺是如何执行的,以确保数据完整性。也许可以回答一点。

    KZG承诺:证明特定位置的多项式值与指定值相匹配。

    KZG日程安排只是不指定特定消息就能确认消息的多项式日程安排之一。大致程序如下:

    通过多项式修改删除代码来扩展数据。使用KZG验证戴尔的扩展是否有效以及原始数据是否有效。然后,通过扩展,您可以使用reconstruct数据,最后执行数据可用性采样。

    提交者创建一个要绑定到消息的日程安排(commitment)。

    将绑定的消息传递给验证者。其中communication schema与“证明大小”(proof size)的大小相关。

    验证者,验证带来受限域的多个值验证是否仍然等于可用性采样过程(A)的基本原则是,验证次数越多,正确的概率就越大。

    Celestia需要向验证者下载整个区块,目前danksharding正在利用数据可用性采样技术。

    由于区块可能部分可用,因此在任何时候重新配置区块时都必须确保同步。当区块的实际部分可用时,通过节点之间的通信组合区块。

    KZG承诺与数据欺诈证明的比较:

    可以看出,KZG承诺要确保扩张和数据正确,欺诈证明是通过引入第三方来观察的。最明显的区别是,欺诈证明需要时间对观察者做出反应,然后报告欺诈。这种情况下,只有满足节点的直接同步,整个网络才能及时获得欺诈证明。KZG比欺诈证明快得多,使用数学方法确保数据准确,无需等待时间。

    它可以证明数据及其扩展是正确的。但是,由于一维KZG承诺需要更多的资源,以太选择了二维KZG承诺。

    例如,100行100列,即100,00个共享。但是每次取样都不是万分之一的保证。那么扩大4倍,就意味着在全部份额中至少有1/4的份额不能使用,只有抽到不能使用的份额,才能表明不能真正使用。因为无法恢复。只有1/4不可用的情况下才能恢复,真的是有效的发现错误,所以抽一次的概率约为1/4。可以得到10次以上、15次、99%的可靠性保障。现在请在15-20次范围内选择。

    5、在EIP-4844(Proto-DankSharding)Proto-DankSharding实现中,所有验证者和用户仍然需要直接验证整个数据的可用性。

    Proto-danksharding引入的主要特征是一种新的交易类型,称为携带blob的交易。携带Blob的交易与一般交易相似,但有其他的除外。水滴附加数据。blob非常大(~125 kB),比相似数量的调用数据便宜得多。但是,EVM无法访问这些blob(仅限于对blob的承诺)。还有Blob由共识层(信号链)存储,而不是执行层。这其实是数据碎片概念逐渐形成的开始。

    验证者和客户端仍然需要下载整个blob内容,因此proto-danksharding的数据带宽目标是每个插槽1 MB,而不是整个16 MB。但是,这些数据仍然可以获得巨大的可扩展性优势,因为它们不与现有以太网研讨会上交易的gas使用量竞争。

    实施整个片段(使用数据可用性采样等)是一项复杂的任务,proto-danksharding后仍然是一项复杂的任务,但这些复杂性将包含在商定级别。Proto-danksharding发布后,执行层客户端团队、rollup开发人员和用户不需要额外的工作即可完成到整个片的转换。Proto-danksharding还将blob数据与calldata分离,使客户端能够在更短的时间内轻松地存储blob数据。

    请注意,所有任务都将在共识层发生变化,不需要客户端团队、用户或Rollup开发人员的额外工作。

    由于EIP-4488和proto-danksharding,每个插槽(12秒)的长期最大代谢用量约为1 MB。这相当于每年约2.5 TB,远高于今天以太所需的增长率。

    对于EIP-4488,要解决此问题,是否需要历史过期建议EIP-4444(路线图部分提到)客户端不再需要存储超过一段时间的记录。

    6、数据片段将在这里,从尽可能多的小白角度,解释大家在以太坊扩张过程中讨论的问题。所以回到碎片化,我再强调一下碎片化的零碎概念。简单的理解是水平划分数据库以分散负载的过程。

    在这里,我们的数据片段有一个非常重要的问题。PBS中(要约人与区块生成器分离,路线图在The Merge中提及),片段中每个节点组只处理该片段内的交易,交易在片段之间相对独立,因此AB两个用户在不同的片段中,如何处理相互转移那么这里需要良好的交叉芯片通信能力。

    过去是数据可用性层碎片。每块都有单独的提案人和委员会。在验证器集中,每个验证器依次验证片段中的数据,并下载所有数据进行验证。

    缺点包括:

    需要严格的同步技术,以便在身份认证者之间在slot内同步。

    验证者必须收集所有Committee的投票,这里也可能出现延迟。

    而且,验证者完全下载数据也是一个负担。

    第二种方法是使用The Surge后期实施的数据可用性采样方法,而不是放弃整个数据验证。这里分为两种随机采样方法。1)区块随机采样,部分数据片段采样,验证通过后,认证者签字。但是这里的问题是,可能会发生交易遗漏。2)修改删除代码,将数据重新解释为多项式,然后在特定条件下使用多项式恢复数据的特性,以确保数据的完全可用性。

    “碎片化”的关键是验证者不负责下载所有数据。这就是为什么Proto-danksharding不被认为是“碎片化”的原因(尽管名字中有“碎片化sharding”)。Proto-danksharding要求每个验证者完全下载所有片blob以检查可用性。然后,Danksharding引入了样本,单个认证者只需下载水滴碎片即可。

    第三,以太坊的未来第3层被认为是以太坊,提出了扩展未来ZK系列第2层的zksync、starknet等第3层概念。简单的理解是第2层的第2层。

    以太坊的高交易成本正在推动L3进入L2的结算层。预计在不久的将来,随着交易成本的大幅降低、对DeFi工具的支持增加、L2提供的流动性增加,最终用户将在L2进行大部分活动,以太将逐渐成为结算层。

    L2降低了每笔交易的gas成本,提高了交易率,提高了可扩展性。同时,L2s保持集中化、共同逻辑和组合性的优势。但是,一些应用程序需要特定的定制,因此可以在新的独立层L3上提供更好的服务。

    L3与L2相关联,就像L2与L1相关联一样。只要L2能够支持验证者智能合同,L3就可以使用有效性证明来实现这一点。L2也成为非常优雅的迭代结构,在使用提交给L1的有效性证明时,L2证明的压缩优势乘以L3证明的压缩优势,就像StarkNet所做的那样。理论上,如果每个层实现1000倍的成本节约,L3可以比L1低1,000,000倍——倍,同时保持L1的安全性。这也是starknet引以为傲的递归证明的实际使用案例。

    这需要《数据可用性层的链上与链下》份知识。整个第3层包括:

    Rollup(链内数据可用性)、validium(链内数据可用性)。两者都对应不同的应用程序要求。对价格、数据敏感的web 2企业可以使用validium将数据放置在链下。这将大大降低链的gas成本。另外,可以在不公开用户数据的情况下实现隐私。企业可以确保对数据的控制,可以使用定制的数据格式,以前企业的数据业务模式仍然可以运行。

    L2是为了扩展,L3是为了隐私等定制功能。

    在这个愿景中,没有提供“二次可扩展性”的尝试。相反,该堆栈有一层可以帮助您扩展应用程序,您可以根据各种使用案例的自定义功能要求分离每一层。

    L2用于常规扩展,L3用于用户定义的扩展。

    自定义扩展是使用EVM以外的东西计算的专用应用程序,可以有多种形式,包括对特定应用程序的数据类型进行优化的rollup(包括将“数据”和“身份认证”分开,用每个数据块中的单个SNARK完全替换证书)进行压缩。

    L2用于信任扩展(rollup),L3用于弱信任扩展(validium)。

    Validium使用SNARK验证计算,但将数据可用性留给可靠的第三方或委员会。在我看来,Balidium(Balidium)最好能提供最佳服务,特别是很多“企业区块链”应用程序实际上运行validium证明者,定期将Hash提交给链的中心服务器。

    Validium的安全级别低于rollup,但可能会便宜得多。

    对于DApp开发人员,基础架构中提供了以下选项:

    自行开发Rollup(ZK Rollups或最佳Rollups)

    优点是可以继承以太的生态(用户)及其安全性。但是对一个dApp团队来说

    漫游以太:过去、现在、未来

    ,Rollup的开发成本太高。(阿尔伯特爱因斯坦,《北方司法》前情提要)。

    选择Cosmos、Polkadot或Avalanche

    开发成本会更低(例如dydx选择Cosmos),但你将失去以太的生态(用户)和安全。

    自己开发第一层区块链

    开发成本和难度较高,但可以拥有最高的控制权。

    让我们比较一下三种情况。

    难度/成本:Alt-layer 1 Rollup Cosmos

    安全性:Rollup Cosmos Alt-layer 1

    回显/用户:Rollup Cosmos Alt-layer 1

    控制权:Alt-layer 1 Cosmos Rollup

    作为DApp开发者,如果想继承以太的安全性和流量,就不能重新开发链条。只能选择rollup。但是,自己开发第2层rollup是昂贵的,适当的解决方案是使用第3层SDK开发自己的应用程序专用的Rollup(应用程序特定的Rollup)第3层。

    四、Layer 2 的未来发展由于以太坊是基于账户模型设计的,所有的用户均处在一整个状态树内,因此无法进行并行,因此以太坊本身的桎梏就让其需要剥离执行操作,将rollup 的多笔交易合成为一笔交易,作为结算层的存在。现在所有的问题就集中在layer 2 的吞吐量的提升上。不仅仅是用Layer 3 可以提高交易的吞吐量,还有在Layer 2 上实行并行处理,也可以极大提高整个网络的吞吐量。

    并行化问题starknet 也在积极探索,虽然目前证明算法仍然是桎梏,但是预计未来将不会成为阻力。潜在的瓶颈包括:

    排序器tx 处理:一些排序器的工作似乎天生就是串行的。

    带宽:多个排序器之间的互连将受到限制。

    L2 状态大小

    在starknet 社区中,成员也提出了aptos 的并行处理方式非常不错。就Starknet 而言,目前也在推进排序器内部tx 并行排序的能力。

    五、总结

    以太坊正在将执行层剥离,所有的行为都朝着其「全球」结算层愿景的方向前进。目前整个以太坊虽然进度缓慢,也就是由于其整体过于庞大,每次更新都牵扯了许多利益与权衡。但不可否认的是,以太坊正在经历重大变革,以太坊大量的链上活动、经济机制改进以及以太坊2.0 可扩展性,其引领的创新IC0、Defi、NFT 等很多东西值得以太坊社区兴奋与期待。相信伴随着越来越多国家部署以太坊的节点,比如阿根廷首都政府计划在2023 年部署以太坊验证节点,在不久的将来,以太坊真的能够实现其宏伟愿景。

    点击下载

    欧易交易所金融投资欧易交易所又称欧易OKX,是世界领先的数字资产交易所,主要面向全球用户提供比特币、莱特币、以太币等数字资产的现货和衍生品交易服务,通过使用区块链技术为全球交易者提供高级金融服务。这是一款非常老牌的数字货币交易平台,平台为我们提供安全、专业的数字货币交易体验,给新手提供完整的流程引导,让你可以轻松的进行上手,同时还有客服24小时在线为你解答疑惑,为你提供最优质的的服务。

相关文章阅读

Copyright (c) 2022 玫瑰财经网 版权所有

备案号:冀ICP备17019481号

玫瑰财经网发布此信息的目的在于传播更多信息,与本站立场无关。玫瑰财经网不保证该信息(包含但不限于文字、视频、音频、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。
相关信息并未经过本网站证实,不对您构成任何投资建议,据此操作,风险自担。