以太坊2.0是假高潮,其需求和解决方案都有基本的逻辑错误,不但会彻底的失败,而且会给整个加密社区带来更坏的影响。数据扩容是伪需求“扩容”这个执念,为加密世界带来了2014年的以太坊,2017年的BCH,2018年的EOS,2019年的Polkadot和Cosmos,2020年的DeFi,2021年的“以太坊2.0”。“以太坊2.0”是典型的“数据扩容”,其假设是“数据拥堵”,但这里并不是真正意义上的拥堵,而是支付过路费高的车辆被优先放行了。实际上作为价值网络,比特币和以太坊从来没有真正拥堵过,其处理的价值规模反而一直在上升。价值扩容的代表是“以太坊1.0”和“DeFi”,通过允许发行更多的资产,处理更多的交易类型达到了价值扩容的目的,也分别在2017年和2020年两度带领加密社区走出低谷。为了一个错误的“数据拥堵假设”而设计的“以太坊2.0”只是空中楼阁。去中心化是唯一的优势“不可能三角“将“去中心化”从必选项变成了可选项,这个错误的说法误导了非常多的团队。去中心化的目的不是为了对抗监管,而是为了对抗人性,我们需要一个7*24小时的无人值守的信任机器,不以任何群体的意志为转移。POS共识各项技术指标都看起来不错,但是目前无法做到真正的去中心化,其区块生产工具是代币,而代币随着帕累托效应一定会出现二八定律,资产的分布二八定律并不可怕,生产工具的二八定律不才是真正的可怕。同时,整个网络的运营者的身份都暴露在中心化世界里,遇到大规模打击时生存概率为零。POW矿工是逐利的,不关心系统的死活和币价高低,他们有钱赚就来,没钱就走,这才是系统真正忠实的维护者,他们只认同一个规则行事。代币持有者则不同,他们有各种判断指标和标准,无法拥有统一的意志。POS的探索应该交给其他创新型的社区,而不应拿一个承载了近千亿美金的价值生态来冒险。核心技术问题遇到瓶颈以太坊2.0的核心技术难题是分片技术,而近期以太坊基金会最近的更新的路线图已经讲的很明确:(1)暂时不再强调 Phase2 的重要性,Phase 1 致力于实现数据分片(shard data),供 rollup 使用;(2)信标链将具备执行功能,即 Eth1-Eth2 合并之后,信标链区块将直接包含交易;(3)Phase 0 实现后的三大工作:轻客户端支持、数据分片、合并,将并行推进,任一模块只要准备好了就推出。我猜大多数人是无法完全理解这三句话,就简单给大家翻译一下:(1)以太坊2.0的可用版本我们做不出来是因为“二次方分片”做不出来,我们觉得还是先把分片技术最简单的那部分搞搞明白,给社区的Layer2方案使用(2)目前上线的以太坊2.0版本无法扩展(3)你们在2020年12月1日看到的“以太坊2.0”是一个除了“staking”以外啥也不能干的版本,我们每一项工作都在推进,我们啥时候能做出来你们啥时候用。换句话说:以太坊2.0真正可用永远都还需要三年的原因是因为分片这个“可控核聚变技术”。“二次方分片“是以太坊对自己分片技术的描述,这样的技术方案逻辑上可以设计。但是在实际的工程化时遇到了非常棘手的问题,导致迟迟无法做到真正的分片,因此即使现在2.0主网上线,其性能与1.0没有本质的区别。“Layer2”的成果显著从Zk rollup到Optimistc roll up,我们今天已经看到了大量成熟的二层网络方案,大家熟知的Synthetix,Uniswap等DeFi项目都已经开始在二层网络部署。可以预见的是,Layer2最起码可以将以太坊扩容10倍。唯一诟病的是不同rollup之间的可组合性,已经有开发团队在解决这些问题。换句话说,在“可组合性”这件事上,“以太坊2.0”目前和“Layer2”都遇到了难题,好在“Layer2”间的可组合性问题相对好解决,只是开发时间的问题,不会像“以太坊2.0”一样需要长期的技术攻坚。layer2的可组合性的发展怎么解决?以太坊是金融系统而不是软件以太坊社区和整个加密社区的有识之士都有对2.0提出过质疑,但市场的高涨情绪很快掩盖了这些声音。随着底层协议的话语权开始集中,以太坊基金会的观点和做法几乎无人质疑。当我们用软件思维来看待价值网络时,我们关注的是一些列不切实际的技术指标,当我们用经济制度的思维看待价值网络时,我们看待问题的方式又不一样。底层协议的升级意味着各种定义和概念的转换,只是开发者这一个角色无法真正解决问题。重申下本文的观点: ETH2.0是假高潮,其需求和解决方案都有基本的逻辑错误,不但会彻底的失败,而且会给整个加密社区带来更坏的影响。 (责任编辑:admin) |