原文作者:StarkWare
原文编译:DeFi之道
Rollups的有效性不受限于L1的吞吐量,使得L2的TPS可以很高。
在StarkNet的性能路线图中,解决了系统中的一个关键因素——排序器。
性能的改进主要有以下几点:
排序器的并行化
为Cairo虚拟机提供Rust语境下的实现
在Rust语境下的排序器
证明者并不是瓶颈,他们可以处理比现在更多的东西。
简介
大约一年前,StarkNetAlpha正式上线了以太坊主网,这时,我们将重心放在了功能的构建上,现在,我们决定将重点转移到提高性能之上,并计划通过一系列的步骤来提高StarkNet上的用户体验。
在这篇文章中,我将解释为什么有很多优化措施只适用于有效性汇总,并分享StarkNet实施这些措施的计划和步骤,其中一些计划已经在StarkNetAlpha0.10.2中实现,在讨论具体的细节之前,让我们先来回顾一下限制链上性能的原因。
分析师:比特币将经历30%或更多的修正:加密货币分析师Michael van de Poppe表示,比特币将经历30%或更多的修正。对比特币的投资将转向中小市值的其他币种,在修正发生之前,Ether (ETH)、Polkadot (DOT)、Cosmos (ATOM)、Cardano (ADA)、VeChain (VET)、Zilliqa (ZIL)等币种的表现都很好。他还强调了日益增长的去中心化金融(DeFi)市场,但由于涉及的高风险,他对目前任何项目都持怀疑态度。(Cryptoglobe)[2021/1/6 16:34:37]
区块限制:ValidityRollups与L1
提高区块链可扩展性和TPS的方法之一是:在解除区块的限制同时,保持区块生成时间的不变。这需要区块生产者提供更高效的服务,因此就需要更有效地执行这些组件,因此,我们将重点转移到StarkNet排序器的优化之上,在下文会详述具体内容。
这里会有一个问题,为什么对排序器的优化仅仅对ValidityRollups有效,换句话说,为什么我们不能在L1上以相同的方法改进,避免有效性汇总有复杂性?在下一节内容中,对这一问题将进行回答。
为什么L1吞吐量有限
如果L1的区块限制被解除,会遇到一个很大的问题,因为链的高吞吐带来了链上区块的高增长率,为了确保不同的节点跟上最新的全链状态,就需要增加了更多的全节点。又由于L1全节点必须记录所有历史记录,区块大小的大幅增加会给全节点运营者带来巨大压力,并导致部分全节点因为机器性能落后而退出系统,结果,能够运营全节点的都是一些比较大的实体,最终就是用户无法以无信任的姿态验证状态并参与网络。
这也让我们明白,从某种意义上来说正是L1吞吐量的限制,成就了一个真正去中心化的和相对安全的网络系统。
上述问题为什么不会出现在ValidityRollups之上?
只有在考虑全节点的问题时,我们才能看到有效性汇总的优势。正常情况下,一个L1全节点需要重新执行整个链的历史以确保当前状态的正确性,而StarkNet节点只需要验证STARK证明,而且这种验证需要的计算资源呈指数级下降。重点是,链上全节点状态的验证同步没有涉及到执行;一个节点可以从另一个全节点那里接受当前状态的转储,只需通过STARK证明来验证这个状态是否有效即可。这让我们在增加网络的吞吐量的同时,不用增加全节点的数量。
因此,在L2上,通过对排序器的优化可以对整个系统的性能进行提升,但这在L1上不能实现的。
StarkNet的未来性能路线图
这一部分,我们将讨论目前有哪些计划用于对StarkNet排序器的优化。
排序器并行化
性能路线图的第一步是为交易执行引入并行化。这个提议是在StarkNetalpha0.10.2中正式引入的,该版本于11月29日在以太坊主网上发布,我们现在来深入探讨下什么是并行化。
一般来说,并行执行多个交易区块是不可以的,因为不同的交易可能是相互依赖的。以下方示例中进行说明,我们假设有一个包含来自同一用户的三笔交易的区块:
TxA:将USDC兑换ETH
TxB:为某款NFT支付ETH费用
TxC:将USDT兑换BTC
显然,交易A必须发生在交易B之前,但交易C完全独立于两者,是可以并行执行的。如果每个交易需要1秒执行,那么通过引入并行化处理之后,区块生产时间可以从3秒减少到2秒。
问题的关键在于,我们事先并不知道不同交易之间的依赖性。在实践中,只有当我们执行到示例中的TxB时,我们才会发现它是依赖于TxA所做的改变。更准确地说,这种依赖性源于TxB从TxA写入的存储单元中读取这一动作。我们可以把不同的Tx看成是一个依赖图,其中存在从交易A到交易B的一条边,当且仅当A写入一个由B读取的存储单元时,B才可能执行。下图显示了这种依赖之间的关系:
在上面的示例中,每一列都可以并行执行。
为了克服事先无法确定不同交易事件之间的依赖关系,我们根据AptosLabs推出的BLOCK-STM,将OP并行化引入到StarkNet排序器中。在这种模式下,会以乐观地方式并行地处理事务,并在发现碰撞时重新执行。比如在上述示例图中,我们可以并行执行TX?1-4?,但事后发现Tx4依赖于Tx?1?,因此这次执行是无效的,在这种情况下,将重新执行Tx?4?。
请注意,在上述这种乐观并行化的基础上我们也增加一些优化措施。例如,与其等待每个执行的结束,可以在发现一个使之运行结果无效的依赖关系时就中止执行。
另一个优化的例子是选择哪些事务来重新执行。假设由上述示例图的所有事务组成的区块被送入一个拥有五核CPU的排序器。首先,我们尝试并行执行tx1-5?,如果完成的顺序是Tx?2、Tx?3、Tx?4、Tx?1?,最后是Tx?5?,那么我们将在Tx?4已经执行后才发现依赖关系Tx?1?→Tx?4?,这表明它应该被重新执行。直观地说,考虑到Tx?4的重新执行,Tx?5也需要重新执行,然而,我们可以遍历由执行已经结束的事务构建的依赖图,只重新执行依赖于Tx?4的事务,而不是将失效Tx?4之后的事务都重新执。
Rust语境下的Cairo-VM实现
StarkNet中的智能合约是通过Cairo语言编写的,并在Cairo-VM虚拟机中执行。目前,排序器正在使用python语言在Cairo-VM上运行。为了优化虚拟机的实现性能,我们之前发起了用Rust重写Cairo-VM虚拟机的工作。
目前,cairo-rs可以执行原生Cairo代码,下一步是处理智能合约的执行和与pythonic排序器的集成,一旦与cairo-rs集成,排序器的性能有望进一步提高。
Rust语境下的排序器
通过python到rust的转变以提高网络性能,不仅限于Cairo-VM,StarkNet用Rust重写了排序器相关的代码。除了Rust的内部优势之外,这还为排序器的其他优化提供了可能,比如,可以集合cairo-rs的优势,而无需python-rust通信的开销,也可以完全重新设计状态的存储和访问方式。
证明者
在整篇文章中,没有提到有效性汇总中核心元素之一——证明者。作为可以说是架构中最复杂的组件,证明者算是瓶颈,也是优化的重点。但现在,StarkNet的瓶颈是更加「标准」的组件,特别是对于递归证明,可以将当前测试网/主网上的更多交易放入证明中。事实上,StarkNet区块与StarkEx交易一起得到有效的市场证明,后者有时会有数十万NFT的铸造事件。
总之,并行化、Rust等改进,都是为接下来StarkNet提升TPS所做的准备。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。