编者注:2022 年 1 月 7 日,以太坊基金会?(EF)?研究团队在 Reddit 上举行了第七次 AMA,内容涉及 L2、分片设计、更广泛的路线图、MEV、EIP-1559 等。ECN 对这次 AMA 的大部分问题进行了整理和编译。需要注意的是,基金会研发团队成员就某些话题存在个人的看法和推测,为避免曲解,请以原贴为准。
由于篇幅较长,本文分上下两期发布,本期主题包括 Layer2、路线图、分布式验证者、DAO、公共物品募资等。
点击阅读:以太坊基金会研究团队第七次 AMA (上)
Layer2
Liberosist 提问
由于以太坊上的 calldata 成本尤其昂贵,并且 EIP-4488 (降低 calldata 成本) 和数据分片要在比较久之后才能部署,因而 rollup 团队正转向链下数据可用性的替代方案。我还了解到一个 optimistic rollup 解决方案正计划将他们的交易数据存储在 IPFS (当然,这就不算是 "optimistic rollup" 了)。你们会担心这种趋势吗?而且如果 rollup/volition 方案的开发团队非要将数据可用性 (DA) 存储在链下,你们有什么建议?
以太坊基金会 Carl Beekhuizen 回复
短期来看,由于昂贵的 calldata 成本,某种类型的交易在链上发布它们的数据确实没有意义,我同意这一点。很不幸,链上数据是我们当前向 L2 迁移的难点之一,我们可能需要一些权宜之计来到达我们提出的 L2 乌托邦。
我认为在此期间,如何处理 DA 成为各个 L2 方案的产品差异之一。类似于 (按照信任程度由高到低的顺序排列):
成本更高的 L2,即将 calldata 存储在 L1 上
有些 L2 使用其他链存储数据可用性
部分 L2 使用 IPFS
有些 L2 直接无视 DA,并宣称 “请相信我们”
然后用户可以根据给定交易的特定需求选择他们的 L2 方案。
itsanew 提问
L1 的安全预算将如何随着 L2 的采用而扩大?如果/当 L2 达到逃逸速度时,有可能大部分的流动性将在二层上,很可能以非 ETH 代币计价并且支付给 L1 的 ETH 手续费将大大减少。在这种情况下,有什么机制可以确保质押的 L1 价值相对于正在保护的资产价值是可以接受的?
我听说过这个说法 “L1 将总是很昂贵”,但不清楚为什么会这样。如果 L2 能够以更低的交易成本实现几乎 L1 所有的功能。
未来有没有可能出现一种具有 EIP-4488 相反效果的东西,导致提高 L2 交易的 gas 价格?
以太坊基金会 Danny Ryan 回复
我相信存在一个 L1 安全预算值,它所能保护的价值在函数上是无限的。我也相信 L1 上会发生交易活动,以至于在那里进行交易是有价值的。所以我并不认为 “由于 L2 的存在,所有交易活动都会立即发生在 L2 上面,从而 L1 上没有交易活动发生”。相反,我认为受市场的主导,网络会出现一个交易活动频谱,直到 L1 基本上只负责敲定和登记 L2 的数据/状态迁移。当然这得等到网络上有许多 L2 形成高度竞争的局面才可能发生的情况了。
即便在 L1 被 L2 交易活动主导的情况下,用户仍然有在 L1 上做交易的需求。例如,做市商在不同的 L2 之间迁移/平衡流动性。在以太坊的设计中,L2 扎根于一个非常丰富的执行层上,各个 L2 之间有着一流的桥接方案。所以如果到时有许多繁荣的 L2 生态,桥接活动可能有很高的经济需求 (对于某种程度的市场参与者来说)。
以太坊基金会 Barnabé Monnot 补充
此外,L2 (如 rollup 或 commitchain) 在向 L1 发布用户交易的数据/状态根/证明时,需要给 L1 支付费用。他们发布包含这些数据的交易,交易以 ETH 的形式向 L1 支付打包费,费用市场基于 EIP-1559 机制。因此,另一个问题可以是:”L2 会不会因为 L2 向 L1 支付较少的费用而减少支付给 L1 的费用,并将支付费用的活动从 L1 转移到 L2?“
Rollup 提供更便宜的 gas 费意味着许多之前因成本高昂而没有做交易的用户现在可以参与了,也就是说网络的价值 (即网络为用户提供的整体效用) 增加了相同的数量。以前,假设我愿意支付 1 美元进行转账 (但是没办法以这个成本价成交),现在我有这个条件进行转账了,这就是网络提供的额外的 1 美元价值。网络所收取的费用上限总是等于网络所提供的总价值 (如果你支付的费用大于你所获得的利润,你通常宁愿不使用该网络)。事实上,网络的目标应该是在最小化交易费的同时实现价值最大化,但是往往会因为补偿网络运行者和有效地控制网络堵塞而提高交易费。
V神高度重视的这个以太坊重要升级,或将开启Web3大爆发时代:4月17日消息,以太坊联合创始人Vitalik Buterin3月曾发文称,自托管非常重要,社交恢复和多重签名是实现这一目标的好方法。并表示在加密支付方面使用ERC-4337账户抽象钱包会更加便利。[2023/4/17 14:08:29]
我的观点是,虽然 rollup/L2 提高了可扩展性,但是网络拥堵情况永远不可能消失,会有更多的用户从网络中获取价值,从而创造网络效应等等。所有这些活动都会通过交易数据的发布渗透到 L1 中。但是有了额外的可扩展性,至少每笔交易费可以下降。
Barnabé Monnot 继续回复
一些想法:
在 1559 部署之前,未销毁的较高费用意味着更多活跃的算力,因为那时会有更多的矿工加入,而其他条件不变。这种激励措施在 1559 之后大部分消失了,1559 销毁了交易费的可变部分,所以现在的安全模型中,费用已经没有完全计入安全预算里了。
在 EIP-1559 部署之前,交易费用的价值并没有被协议真正捕获,但 ETH 还是有价值的。EIP-1559几乎保证了 ETH 的底价与交易需求相称,但这可能仍不能说明 ETH 的大部分价值。所以 ETH 的价值 = ETH的费用。
另一个想法是重新定义这个问题:并不是说质押的总价值需要与 L2 上保护的总值相称,而是攻击的成本必须与攻击者所能获得的利润相当。PoS 能更好地抵御攻击,所以使攻击的成本增加/攻击的利润下降。然而,这是否足够抵御攻击取决于攻击的具体细节。
edmundedgar 追问
在 EIP-1559 部署之前,交易费用的价值并没有被协议真正捕获,但 ETH 还是有价值的。
大家都知道 PoS 已部署主网,而在 PoS 机制下,不管有没有 EIP-1559,所有的费用收入都由 ETH 持有者捕获 (因为质押者是 ETH 持有者的一个子集,你需要 ETH 来参与质押),所以假设对虚拟代币的估值是理性的,价值可能都来自预期的费用收入。
Barnabé Monnot 回复
如果你说”理性的“是指 ”价值 = 某种回报/回购的贴现总和“,那么你说的是对的。但是我们可以想到 ”理性的“ 价值模型同样也依赖于不同的假设 (或宣称所有 BTC 持有者为”非理性的“!) 但同意的是,质押者会在他们的收益预测中算入隐含的销毁费用,因此在某种程度上,费用仍然会算入其中。我认为重点依然是,PoS 的安全性并不是基于尽可能地提取更多的费用这个前提而设计的。
Justin Drake 回复
以太坊有一个具有保证的安全预算 (不像比特币),它是以代币发行的形式实现的 (网络有 100 万名验证者的前提下每年发行 100 万 ETH)
从历史上看,即使考虑上可扩展性,L1 费用总量也只会上升 (详见我对于 ”假设未来几年可扩展性增加 1000 倍,交易需求也相应增加 1000 倍“ 的回答)。我认为这种趋势会随着 rollup 的发展继续下去。
我听说过这个说法 “L1 将总是很昂贵”,但不清楚为什么会这样。如果 L2 能够以更低的交易成本实现几乎 L1 所有的功能。
原因是,L2 必须向 L1 支付存储数据可用性的费用。L2 扩容越成功,L1 的费用总量就越大。我认为的图景是会这样的:
L1 费用总量只会增加
L2 gas 价格只会减少
未来有没有可能出现一种具有 EIP-4488 相反效果的东西,导致提高 L2 交易的 gas 价格?
在未来,”数据“ 和 ”执行“ 很可能会分开定价 (请看文章 Multidimensional EIP-1559)。至于人为限制代币供应以增加交易费用 (如比特币所做的),以太坊不需要这样做 (因为我们有一个具有保证的安全预算),并且我不认为这是长期有效的 (因为用户会去其他地方)。
AllwaysBuyCheap 提问
似乎所有的公钥抗量子算法 (quantum-resistant algorithms) 都使用超过 1kb 大小的密钥,你认为实现这个会如何影响以太坊?
后量子加密技术确实倾向于拥有更大的加密材料 (以字节为单位)。我不担心这个问题,有这些原因:
1、通过 SNARKs,我们可以根据需要聚合和压缩密码材料。我们还在研究后量子密码学,如 lattices ——它本身就有聚合的机会 (例如在聚合签名或无状态客户端的聚合状态见证的背景下)。
2、带宽是一种计算资源,从根本上说它们是可以大规模可平行化的,并且很可能会在一到二十年内持续呈指数级增长 (根据尼尔森定律约每年增长 50%)。请注意,增长 50%/年大约是 50 倍/十年,因此 10 年后的 1kB 大约相当于今天的 20 字节。
Kraken以太坊质押Token ETH2.S对ETH的兑换比例为1:0.9757:2月10日消息,据Kraken交易页面数据显示,Kraken以太坊质押Token ETH2.S对ETH当前的兑换比例为1:0.9757。[2023/2/10 11:58:43]
AllwaysBuyCheap 追问
没错,带宽会提高很多,但这个问题不是主要关于存储和计算能力吗?带宽速度提高如何扩容以太坊?
带宽是扩容区块链的最终根本障碍。我们知道如何解决其他每一个共识层的计算瓶颈 (例如,磁盘输入/输出和存储可以利用无状态来解决,而计算可以利用递归 SNARKs 来解决)。
Hanzburger 追问
联系 Justin Drake 的回答,由于这需要新的地址,那么如果发生量子攻击,现有地址中的任何资金都将面临风险?
Vitalik 回复
已经使用过的地址 (即至少有一笔交易从该地址发出) 中的资金是有风险的,因为交易暴露了公钥,这容易受到量子计算机攻击。而如果某个地址没有被使用过,那么它就是安全的,并且如果受到量子计算攻击,我们将能够部署硬分叉,通过使用一个量子证明的 STARK 来证明用户拥有其密钥,从而让用户把这些资金转移到一个抗量子攻击的账户中。
TheStonkist 提问
随着以太坊过渡到成熟的 L1/L2 生态系统中 (即大部分交易活动会发生在 L2 上),一旦桥接成本比现在要高,EF 设想过如何解决桥接诸如 NFT、LP、ERC-20 代币此类资产吗?有没有可能一些用户的资产卡在了 L1 上,因为他们无法支付得起桥接这些资产到 L2 中?
随着以太坊过渡到成熟的 L1/L2 生态系统中 (即大部分交易活动会发生在 L2 上),一旦桥接成本比现在要高,EF 设想过如何解决桥接诸如 NFT、LP、ERC-20 代币此类资产吗?
很快,大多数用户的资产直接能在 L2 上使用而无需涉及 L1,甚至用户可以直接从某个 L2 直接桥接资产到另一个 L2。并且随着 rollup 技术的完善和数据分片的部署,这个操作将变得更便宜。
有没有可能一些用户的资产卡在了 L1 上,因为他们无法支付得起桥接这些资产到 L2 中?
有可能。但是无论有无桥接的需求,用户的资产都会因为 L1 gas 费太高而在 L1 上 ”卡住“ 啦。
consideritwon 提问
是否有在消费级的硬件/低成本 ASIC 上运行零知识证明的可能性,从而使得基于零知识基础层实现完全去中心化?
当然!我们现在有高效的 SNARK 递归技术 (如Halo 2 和 Nova),它允许互不信任和计算能力受限的 ”运行者“ 协作,并行地为大型语句构建证明。(这是通过将大型语句分割成较小的块,并将这些块分给运行者来完成的)。
像 Scroll 这样的项目旨在实现这种去中心化证明。我预计他们使用的硬件会像比特币工作量证明那样大致发展,从 CPU 到 GPU、到 FPGA 再到 ASIC。我知道有几个独立的项目正在构建 SNARK 证明的 ASIC —— 需要 2-4 年的时间才能实现,但这肯定能实现的。(如果你对 SNARK ASIC 的相关工作感兴趣,请私信我)。
GregFoley 提问
以 rollup 为中心的路线图足够好吗?既然在数据中心上运行着少数高度集权的证明者和定序者,你们如何抗中心化和抗审查?法院系统可以轻易地关停这些证明者和定序者,或者可以迫使他们审查交易,不是吗?
以 rollup 为中心的路线图足够好吗?既然在数据中心上运行着少数高度集权的证明者和定序者,你们如何抗中心化和抗审查?
我们最近设计了一些机制 (向 Francesco 致敬),基于这些机制,即使所有构建者都选择不将这些交易打包进他们的区块中,提议者也可以强制将交易打包到链上。
法院系统可以轻易地关停这些证明者和定序者,或者可以迫使他们审查交易,不是吗?
如上所述,审查问题可以利用 L1 上的一个加密经济小工具来解决。至于活性问题,如果所有有经验的区块构建器突然离线,提议者总是可以选择构建自己的区块,并退回到 ”简易“ 策略,即优先处理 mempool 中支付最高多小费的交易。
质押与分布式验证者 (DV)
MrQot 提问
对于改变最低 32 个 ETH 的押金,有没有什么长期的提案/思考?
我知道这旨在找到一个活跃验证者数的最佳平衡点,但考虑到所有其他相关的自我调整机制,有一个这样的固定数字有点奇怪。类似于以 220 或 219 个验证者为目标,然后当有太多或太少验证者的情况下,每几个 epoch 自动调整 MAX_EFFECTIVE_BALANCE ,这也是非常好的选择。
KingData监控:灰度ETC基金减持1007.94枚以太坊经典:据KingData数据显示,灰度ETC基金减持1007.94枚以太坊经典,基金持仓总规模变为1226.23万枚ETC。(注:灰度暂未开放赎回,小幅减持或因每股含币量微调、扣减管理费所致。)[2021/9/17 23:30:52]
Vitalik 回复
有一些想法正在被活跃研究,以减轻这个高额的最低存款额带来的害处。主要有两个方向:
减少每个验证者对链的负载,使得链可以处理更多的验证者。如果链可以以同样的负载处理 8 倍多的验证者,那么我们就可以支持最低 4 个 ETH 的存款额而不是 32 个。
使去中心化质押池变得更容易。
分布式验证者 (DV) 技术是后一种方向的主要探索。另一个重要部分是使快速的部分存款和提款变得更简单,这样个人用户可以很快地加入和离开质押池,而这些池子不需要有复杂的流动性基础设施。
而在第一种方向,有一些关于更有效的证明聚合技术研究,因为这似乎是目前最大的瓶颈。还有一种技术使在任何时候都只有一个验证者的子集参与验证。这两项技术都可以减少链的负载,要么减少每个验证者的负载,要么缩短最终敲定的时间 (尽管目前普遍认为缩短最终敲定时间是更优先的)。
Danny Ryan 回复
我想说的是,长期目标是随着全球计算、带宽和存储需求的减少而尽可能地减少这一数量。
我认为更有可能的是,网络/社区寻求通过硬分叉把这个数字减少至他们认为合理值,例如 3 年后减少到 16,可能 6 年后减少到8 等,而不是动态调整。
在动态调整会有更多复杂性——减少的话你要如何处理现有的质押金额?或者增加的时候就更糟糕?在我看来,对这些问题是没有简单答案的。
TinyDancingSnail 提问
分布式验证者似乎是在 EF 的支持下得到了发展的......你们给它提供了资助,我在 Vitalik 最近的路线图的顶部看到了它。但我很少从更广泛的社区听到关于它的消息。即使以太坊质押社区的很多意见领袖似乎都忽视或误解了这项技术。
所以,请你们谈谈为什么 DV 重要,以及你们认为这些项目对以太坊生态系统有什么价值?
Carl Beekhuizen 回复
我非常支持 DV,它们是我当年加入共识研究的原因。
我认为更广泛的社区需要对此感到更兴奋并更密切地关注这个问题,因为它们是链的长期健康发展的重要组成部分。
基本想法是由几个“共同验证者”分担验证者职责,这样从安全和在线时间上就不会有单点故障 (在个人验证者的情况里的信标节点/验证者客户端结合)。
DV 可以实现以下功能:
不需要依赖超额抵押的去中心化质押池
更稳健/安全的家庭设置
中心化质押提供商可以分散它们的 (也就是用户的) 风险
我认为 DV 对链的长期健康重要的原因是,它们使得高效的去中心化质押 & 降低中心化服务的风险 (和权力) 变得可能。如果我们看到像 stETH 这样的东西变成大部分 defi 的基础资产,那么以最小信任来处理这种底层质押是至关重要的。
就现在重要的参与者来说:
我和另外两名研究员正在写一份 DV 的规范,在未来几周会发布。它与共识规范相似,可以有多种实现
这个规范上的形式验证工作已经开始了 (我们要证明一个恶意的共同验证者不能破坏整个验证者,等)
Obol 正在开发这规范的一个实现
SSV.network/Blox 也在开发它们自己的 DV 实现,不确定会不会按照这个规范
Dankrad Feist 回复
DV 无疑是很重要的。它们可以增加一些在本地实现不了的功能:
一群人聚集在一起做质押,即使他们各自拥有少于 32 个 ETH,也可以不需要委托一个人去运行验证者
以低成本的方式增加验证者安全性和韧性,且任何人都可以使用
对于不愿意运行自己的验证者,也不想信任单一的提供商来运行验证者的人来说,这是可以在几个不同提供商分散信任的方法
对于质押池来说,即使个人验证者的可用性和安全性是低于 100%,他们也能有弹性地运行验证者。这意味着,质押池可以向更多人开放运营。
这方面的一些发展可能没有很多人知道,但一些大项目正在进行中,例如 Blox 和 Obol。
MuXu96 提问
你们怎么看像 SSV 和 Obol 这些项目的私钥分割验证者 (Secret Shared Validator, SSV) 技术?我感觉分布式验证者 (DV) 在路线图的地位很重要,而这就是他们在做的事。那么,这些项目是否会被实现,或在开发中得到帮助吗?
行情 | 当前以太坊未确认交易数30607笔网络较为拥堵:据Etherscan.io数据显示,当前以太坊未确认交易为30607笔,网络较为拥堵。以太坊价格为164.39美元,网络算力153626.32GH/s。[2019/2/24]
从技术角度来看,我非常看好。我认为 DV 是以太坊未来一个重要组件。
我们中的一些研究员一直与 Obol 和 SSV.network 在 DV 规范上有合作,并给他们的技术栈提供常规协助。
可以看我的这条评论了解更多:https://reddit.com/r/ethereum/comments/rwojtk/ama_we_are_the_efs_research_team_pt_7_07_january/hrmrqo1/
egodestroyer2 提问
看到流动性质押协议的出现你们高兴吗?还是你们并不打算让这种情况出现?你们有什么想法?
我觉得流动性质押式一定会出现的,因为需求在,所以一定会有人构建出方案,你不能与市场对抗。
问题在于它是如何实现的。如果底层的质押是通过中心化的服务提供商来完成的,那么这将对整个网络来说都是有害的。但是,如果流动性质押协议会通过分布式验证者 (例如 Obol 或 SSV.network) 或经济激励 (RocketPool) 来去中心化质押,那么有流动性的质押 ETH 会是很好的原语。
pwnh4 提问
对于质押者来说,合并后的重要事情之一就是提取他们质押的 ETH。这一项已经写在路线图了吗?具体来说:
质押者可以在不需要取消质押/退出质押者 (这会使得整个流程很低效) 的情况下提出他们的奖励吗?
提款将会如何被启动?是使用验证还是提款密钥来对提款交易签名?
在提款流程里,生成 Eth2 提款密钥的质押者和使用 Eth1 钱包作为i提款凭证的质押者之间会有不同吗?
对于质押者来说,合并后的重要事情之一就是提取他们质押的 ETH。
提款在合并时不会启动 (这是为了不增加合并的复杂性)。未来的“合并后清理”分叉会启动提款。
质押者可以在不需要取消质押/退出质押者 (这会使得整个流程很低效) 的情况下提出他们的奖励吗?
这种从验证者余额进行部分提款到另一个地方而不需要退出的操作,就是“转账”,可能会是合并后清理分叉的内容。
提款将会如何被启动?是使用验证还是提款密钥来对提款交易签名?在提款流程里,生成 Eth2 提款密钥的质押者和使用 Eth1 钱包作为i提款凭证的质押者之间会有不同吗?
如果你有 Eth2 提款凭证,那么你就有了可以用来对提款信息 (提款信息会指定一个提款地址) 进行签名的 BLS 提款密钥。如果你有 Eth1 提款凭证,那么提款的目标地址就将是指定的 Eth1 地址,提款通过用验证密钥进行签名来触发。
以太坊路线图
在以太坊生态以外有没有哪个概念或实现是你认为是大大推进了区块链技术的发展状态,但不在现在以太坊的路线图 (Vitalik 12 月提出的 "The Urges" 路线图) 上,而你们希望看到在以太坊上实现的?
相关:你希望在以太坊的执行层上看到 rollup 的什么概念?
Justin Drake 回答
你希望在以太坊的执行层上看到 rollup 的什么概念?
这里有几个想法:
各种 rollup (例如 Optimism、Arbitrum、zkSync) 能有即时预确认,这是一个很好的用户体验功能。但是,我不是很清楚要如何把强大的预确认 (目前由中心化的定序者完成) 和去中心化排序 (很多 rollup 表明要实现的目标) 完全协调起来。如果 rollup 能在去中心化排序的情况下实现强大的预确认,那么可能以太坊 L1 也可以有预确认。
Arbitrum 希望通过公平排序协议 (fair ordering protocol) 解决 MEV 问题。我不了解他们研究的细节,但会密切关注。同样,如果公平排序协议可以在 L2 运行良好,那么可能以太坊 L1 也能从中获益。
随着以太坊的成熟,我感觉似乎研究是领先于工程/客户端开发的。你们觉得一旦“The Urges 路线图” 在实现了,以太坊就会固定下来?还是你们预计会有更多的突破,让研究团队在未来几十年都很忙?
Danny Ryan 回答
我个人希望看到以太坊固定下来。我期望随着时间推移,在以太坊具有巨大价值的世界里,任何欢迎变更的治理流程都会得到激励去捕获。
在基础层我支持功能逃逸速度,这样就可以在 L2 做扩展和构建任何人们想要的东西。
动态 | 以太坊未确认交易34525笔:据Etherscan.io数据显示,当前以太坊未确认交易数为34525笔,以太坊未确认笔数有较为明显减少,网络拥堵程度有所改善。[2019/1/6]
不过,我能与你共情。研究工作确实进展很快,我们不断被层出不穷的新想法所惊讶。我记得我在以太坊研究的早期,每次我在网上看到一个新的好想法,我就会想“啊,不好了!我们要一切推到重来,因为这个想法更好”。事实证明,实际的工程世界不是这样运作的。有许多基础层设计可以使我们达到功能逃逸速度,所以最终,我们需要在这个想法集市中跋涉,平衡工程 (和转换一个活动系统)的复杂性,然后凝聚在一个足够安全和功能的设计上。
我会说,实现 PoS 所需的时间比预期要长,使得很多简化和改进的分片设计得以出现。如果 3 年前推出分片 (或 PoS!) ,由于研究的进展,在这两方面都不会有这么好或安全的设计。
Vitalik Buterin 回答
就我个人而言,一旦目前所需的一揽子变更都得到实现了,我肯定支持固定下来。从那时起,任何所需改进都可以在 L2 完成。
你们觉得一旦“The Urges 路线图” 在实现了,以太坊就会固定下来?
“固定下来”是一个光谱,以太坊现在已经明显偏向固定的那一边了,这在很大程度上是因为它的去中心化程度。(像 PoS、分片和 EIP-1559 都是多年的缓慢努力。)
一旦在 "The Urges" 路线图的所有事项都完成了 (Vitalik 的路线图涉及内容相当广泛,可能需要 10 年以上时间来完全执行),我预计以太坊将会变得非常固定。话虽如此,我确实预计目前未知或被忽略的研究项目会被一并添加到路线图 (而一些研究项目会被舍弃)。
还是你们预计会有更多的突破,让研究团队在未来几十年都很忙?
我确实预计研究团队在未来10-20年内都会很忙,而且会有进一步的突破。一项成功技术的早期,创新是指数级的,而我们仍然可以说是处于早期阶段。但同样,研究与固定 (甚至极度僵化) 不是互相排斥的:只是预计突破需要越来越长的时间才能到达 L1。
Verkle tree 写在路线图上是不会变的了吗?还是你们还在寻找/希望找到一个更理想的键值映射承诺方案?
我觉得在中短期内,Verkle tree 的实现是挺确定的。长期而言,它很可能会被某种进行了 SNARK 证明的散列构造所取代;我们还不知道。
“不会变”可能是一种夸张的说法,因为如果明天出现了一个明显更好的替代方案,我们可能会转而选择使用它。
我要指出的是,即使我们按照目前规范去实现 Verkle tree,这些东西最终在后量子承诺的方案里都会被取代。对有良好特性的后量子状态承诺方案的研究 (例如,小型和/或可聚合的见证数据) 是一直在进行的。
我目前对 Verkle tree 的看法是,到目前为止,Verkle tree 似乎是无状态以太坊的矢量承诺问题最有前景的解决方案。我们在其实现上取得了很好的进展 (Guillaume Ballet 负责这方面的开发)。
话虽如此,我想如果有一个非常重要的新进展,我们总是可以转变的。我觉得如果找到了一个明显更好的方法还只坚持某个解决方案是愚蠢的。但是,我目前还不知道有任何有前景的研究是优于 verkle tree,在未来 5 年会成为最佳的矢量承诺的。
MillennialBets 提问
在分片、零知识证明以外,EF 团队还为哪些正在研究的新技术感到兴奋?
我们已经在深入研究的一个令人兴奋的研究课题是后量子密码学,这个课题会变得越来越重要。在十年左右的时间里,将不得不修整以太坊的 L1加密堆栈。像 BLS 签名、Verkle tree (用于 EVM 状态和数据可用性采样)、用于 SSLE (Single Secret Leader Election) 的零知识证明、基于 SNARK 的 VDF (可验证延迟函数) 证明这些东西都不如规范所写般量子安全。
MEV
是否有任何在中期通过加密交易或其他方式在平台层面消除 MEV 的兴趣?还是这已经被认为是失败的,MEV 民主化被视为唯一可行的短期和中期目标?
随着时间推移,人们肯定有兴趣消除 MEV,增加进一步限制区块构建者的方法和减少他们的权力,特别在审查和最终对交易重新排序方面。也就是说,这种技术很可能只有在 PBS 核心已经出来且运行中之后才可能被实现。
我认为我们应该在这里澄清一些事情。MEV 是有不同类型的,我想做的一个主要区分是:
有些 MEV 事寄生式/提取的。例如,在一个去中心化交易所里,抢跑和三明治夹击一个用户并不会增加任何价值;如果我们可以摆脱这种,我们应该这样做
有些 MEV 是一个协议固有的。对于一个去中心化交易所来说,这就是套利 (如果价格浮动,那么肯定有人将 DEX 带回到与这个市场的平衡状态)。其他的例子是清算和对 optimistic rollup 的欺诈证明。
第二部分的 MEV 总是会存在的,而且它不是一件坏事。因此,除了将其民主化并没有其他方法,且这是一个简单且最高效的方法。
第一种类型的 MEV 则非常不同。事实上,已经有方法可以避免了:你可以发送你的交易到一个 Flashbots 的 MEV 交易捆,而不是把它加入到交易池。随着时间推移,会有更多这样的“私人交易通道”。当然,这些依赖于通道的中心化,但如果它被破坏了,你可能会找到另一个通道。
长期来看,阈值加密和延迟加密方案可以解决这个问题,而不需要构建者的中心化直接通道。然而,它们都有缺点,要么是活性 (阈值加密),要么是延迟性 (延迟加密;对此我们还需要一些加密研究来使其成为可能),所以我不认为它们会被写入基础层的协议里,而会是应用特有的。
其他
greatgoogelymoogely 提问
我们许多人之所以聚集在一起,是因为我们相信以太坊最能够为我们提供一个去中心化、去信任、更公平的未来。
你们如何确保以太坊在长远的未来能够实现这些构想?
你们有计划对以太坊基金会 (EF) 进行 DAO 化吗?
”EF 去中心化“ 的短期路径更侧重于将其大部分资金转移到其他一些以太坊社区组织,这些社区组织有各种各样的资金分配机制。近期一个最典型的例子就是为客户端团队设立的验证者拨款,但还有其他一些例子,并且未来会有更多。
实现去中心化的一个可能的方法是,EF 通过做更多类似的事情来降低其自身的相关性。当然,它仍然是一个传统风格的基金会,只是随着越来越多的 EF 替代组织出现,去中心化便自然而然地实现了。另一个方法就是你提到的,随着时间的推移 EF 以某种方式 DAO 化。也有可能第一个方法会更快发生,而第二个会在未来的某个时间点发生。
mikeifyz 提问
关于公共物品的问题!到目前为止,我们已经看到了通过 Gitcoin Grants 资助公共物品的伟大实验。还有最近由 Optimism 团队发起的追溯性公共物品募资机制 (Retroactive Public Goods Funding)。
然而,这些机制是否真的以一种 ”可信且中立“ 的方式激励一些长期的协议贡献者,这个问题仍存在争议。
这种机制真的会出现吗?或者你认为公共物品的资助将继续由个体主动性推动 (如 Gitcoin 和 RPGF)?
甚至还有另一种选择,也可能同样有效 —— 利用以太坊和 L2 上的可组合性优势来资助公共物品 (例如,NFT 的部分收益用于人类长寿研究)。
Gitcoin Grants 面临的主要挑战是,他们必须不断尝试新的方式以获取新的融资。Retro PGF 的优势在于,如果 Optimism 运营成功并被持续使用,就会有源源不断的资助资金产生。一种选择是引入一些扎根于以太坊协议层的东西,但要让人们接受这一点,他们需要对其 ”可信的中立性“ 真正有信心,而这似乎很难。因此下一个最好的机制应存在于应用层中 (Optimism、Uniswap DAO 以及 ENS....)。希望那些懒得发起自己的募资方案的项目可以承诺向 Gitcoin 捐赠,这样 Gitcoin 团队就不需要担心资金问题了。
至于 ”最佳分配机制是怎么样的“,这个问题可以通过实验来解答,而最佳的解决方案可能只是让一堆机制并行运行。
我不确定是否会有这样一种机制,它拥有最佳的属性,同时也给我们带来所有我们想要的结果。?
"不可能性定理" 中有足够多的经济学研究告诉我们,当我们认为我们可以得到我们想要的东西时,我们实际上是在舍弃掉其他东西 :p 这是在我们开始定义我们所说的 “可信中立” 和 “长期激励” 之后的事情了!
最好的方法似乎是不断试验不同的模型,调整它们的参数,评估它们是否给我们带来我们想要的结果。在一个自然倾向于公共物品和协作机制的空间上,有更多类似的实验是好事。
oldmate89 提问
在 2022 年成功完成合并还有什么风险 (在时间和执行方面)?还有什么进一步的研发工作未完成或没预见的问题有待解决吗?
在这个点上,安全性和测试是长尾工作。我们需要通过客户端实现和进行多维度攻击测试来发现并解决所有现有的问题。一切都在进行中,我个人预计事情很快就会稳定下来,但在稳定下来之前,这仍然是一个未知数。
Fredrik Svantes 回复
有一个追踪我们当前工作的“主网合并准备清单”,你可以在这里找到:https://github.com/ethereum/pm/blob/master/Merge/mainnet-readiness.md
有人可以用白话给我解释“Multidimensional EIP 1559 (多维度 EIP-1559)” 吗?
不同于把所有资源都塞进一个单位 (gas),我们把它们分成不同的资源:水、电、水 (即 EVM 执行、链上数据、状态读写)......每种资源都有自己独立的浮动市场价格。这使得我们可以找到使用的每种资源的长期平均数量,使得区块链的负载更稳定。
不同的东西应该被独立定价。如果一瓶牛奶总是花费 2 块尿布合理吗?当然不合理!市场应该对牛奶和尿布分开定价。
TShougo 提问
我想问关于合并后的区块广播问题。
就我所知,Gasper 是区块进行最终敲定和分叉选择的规则,而区块广播仍然与 PoW 一样。
合并后是完全的 PoS 还是 PoW/PoS 混合的模型?(区块广播是 PoW,共识是 PoS)?
Kintsugi 测试网进行得如何,有出现问题还是完全没有问题?(1-2 个月前有一篇论文发布,对三种 PoS 以太坊可能会遭遇的重组攻击进行了定义,这些攻击都会得到缓解吗?)
哈!我们的蹩脚名称又给我们惹麻烦了!我想这里有几个概念被混淆了。
Casper FFG (Casper the Friendly Finality Gadget 的缩写,意思是 Casper 友好的确定性小工具) 是最终敲定的共识组件的名称,可用于 PoW 或 PoS。以太坊不会使用 PoS/PoW 混合链,而是使用 Gasper,纯 PoS 解决方案。
Gasper 是 GHOST (Greedy Heaviest Observed SubTree 的缩写,意思是以包含子树数量最多为原则) + Casper FFG 的结合,也是今天的信标链和合并后的以太坊使用的纯 PoS 共识算法。
这三种可能的重组攻击有我的一些同事一起撰写的,我们都已经有缓解措施了,请看这里的推文了解更多:https://twitter.com/casparschwa/status/1454511836267692039
jdthrowy 提问
1、新的提议者/构建者范式会对合并后的以太坊的电力消耗带来什么影响?
2、rollup 硬件的电力消耗有算在合并后的能源预测中吗?
3、碳补偿有被纳入到以太坊路线图中吗?
新的提议者/构建者范式会对合并后的以太坊的电力消耗带来什么影响?
PBS (无论在合并后还是合并前实现) 都不影响以太坊的电力消耗。
rollup 硬件的电力消耗有算在合并后的能源预测中吗?
这取决于特定能源预测的作者。我看到的大多数都专注在 L1 上 (不包括正在迅速发展的 L2)。
碳补偿有被纳入到以太坊路线图中吗?
不在路线图上。就我所知,今天的碳补偿计划有对手方风险,缺乏可信的中立性,这使得它们在很大程度上与以太坊 L1 不兼容。
(作为附带说明,合并后的以太坊 L1 的能源消耗将是很小的。大致的消耗量是相当于 1 万台永远在线的计算机。)
1、PBS不会对整个能源消耗产生很大的影响,而且很难提前预测,因为这在很大程度上取决于构建者和搜索者网络最终的样子。
2、不在我计算的数据里 (这是通常在互联网上发布的数据)。Optimistic Rollup 的电力耗费是低的,因为在任何时候都只有一个定序者。ZK-Rollup 可能需要中等量级的能源,但这里还有非常多的创新,很难知道最终会发展成什么样。
3、没有,我个人不支持这样做。尽管我是支持减少碳排放,但在协议层上实现它们需要通过某种链上治理来选择提供商,我可以预见这很快就会出现问题。我认为这应该在 DAO 和应用层面上实现,例如 GreenUniSwap 可对每笔交易多收取几 gwei 的费用来补偿,然后用户可以将此作为他们为什么使用某个交易所的部分决策理由。
arredr2 提问
今年早些时候,Carl Beekhuizen和其他人写了一篇博文,描述以太坊的能源使用量在切换到PoS后将减少~99.95%。有没有对L2交易能耗进行过研究?
有多少电脑在运行L2软件?
L2软件消耗多少能量?
L2上每天有多少交易?
L1证明消耗多少能量?
这些问题都很好,但我目前没有具体的 KWh 数据。L2 正快速发展,在实现上有很大差异,因此在这里谈论数据不是很合理。我可以再写一篇关于 L2 能耗情况的文章,我会把它加入我的任务列表里的。:)
这是一些粗略的想法:
OR 和 ZK 的能耗水平可能有非常不同 (特别是在中短期)
L2 通常是非常高效的,因为在特定的时间内只有一个决定所有事情的定序者
把数据放在链上的能源成本在此时几乎无法估计,因为分片规范还不确定
OR 争议的能源成本并不重要,它们不应该发生
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。