区块链的性能优化是一个很热的话题。然而,由于区块链系统的复杂性,系统性理解性能优化门槛很高,这就为“性能虚标”提供了空间
前有“百万tps”大跃进,后有“80万tps”宕机链
所以,我希望展开来讲一下决定区块链各模块的性能瓶颈和挑战,看看那些漂亮数据背后的水分
1.网络模块
作为一个去中心化的系统,网络通信是整个系统的基础,也有人将其称为Layer0
我将网络模块抽象为三层:网络设施层、节点连结层、广播协议层。每一层都是下一层的基础,每一层的性能都是下一层性能的上限
网络模块的带宽和延迟构成了区块链系统tps和finality延迟的基础
1.1网络设施层
Domino多米链和Virtual Geo卫星公司合作打造公链:据官方消息,多米基金会与Elo Pitch公司达成战略合作,提供针对专业社交媒体市场的去中心化短视频共享服务。同时与有30年研发历史的卫星公司Virtual Geo达成战略合作,未来节点、数据同步等方面使用Virtual Geo公司的卫星网络。同Unbanked 公司签署合作协议,后续Unbanked公司的所有全球支付涉及的区块链加密货币业务,全部在多米DOMI公链上应用。[2021/10/25 20:54:08]
带宽:主要取决于网络基础设施的发展,以及区块链节点的配置要求。前几年公链的网络配置要求一般在20Mbps到100Mbps.到2022年,Aptos已经要求1Gbps网络带宽了。总之,带宽要求越高,节点门槛越高,越中心化
延迟:延迟有一个优化的极限,就是光速。互联网中的传输延迟比光速延迟要更大一些。Conflux曾经测得的洲际节点延迟可达200-300ms。如果是那种所有节点都在一个数据中心的“机房链”,延迟可以忽略不计
Mina CIub创始人:解决现有公链态数据不断增长带来的问题是重中之重:2021年8月16日Mina CIub创始人虎克船长做客XT直播间,与XT AMA专栏主持人Joyce在XT官方英文群以及中文群内进行了在线AMA活动。
在谈及当下公链发展情况时虎克船长表示:“ 大部分区块链状态数据的增长的主要原因在于节点必须拥有全局状态,才能验证每一笔事务(交易)的合法性,并进行事务(交易)的执行。 而Mina用一个轻量级的递归零知识证明替换整个交易历史。从设计上是为了解决现有公链态数据规模不断增长带来的状态爆炸问题。 ”XT是一家社交化交易平台。[2021/8/17 22:18:43]
1.2节点连结层
节点连结层主要通过邻居节点间的通信实现网络中的消息广播
带宽:一般情况下,节点连结层可以获得接近于网络设施层的带宽。也可以选择牺牲带宽来降低延迟:例如,当要广播一条消息时,同时发给所有邻居,而不是发完一个再发下一个
动态 | Gemini推出包括比特币,以太坊,Enjin等在内的18种加密货币的保管服务:Gemini今日宣布,推出一个机构级的加密保管解决方案。winklevos支持的交易所现在提供了“Gemini Custody”,这是一个平台,可以让客户通过提供信贷,立即交易资产。[2019/9/10]
延迟:消息广播延迟和节点数量有关,节点越多,延迟越高
目前比特币和以太坊大概有几千个节点。根据我们的实验,如果全网有一万个世界各地的节点,广播延迟中位数3~6秒,最大可至15秒。通过一些协议优化,最大延迟可以再降低一半
而一些宣称确认延迟1~2秒的公链,显然只能支撑更少的节点
1.3广播协议层
节点连结层只负责转发数据块,而不管数据是什么。而广播协议层则定义具体的区块、交易转发规则
带宽:主要在于如何减少冗余传输。试想,如果每个邻居都给你发了同一笔交易,是不是很浪费?Conflux设计的转发协议Shrec,就通过减少冗余,在同等网络带宽下将广播交易的tps提升了6倍
声音 | 吴秋萍:比特币是自互联网诞生以来里程碑式的科技金融创新:金色财经报道,广州市委党校信息网络中心副教授吴秋萍表示,比特币是自互联网诞生以来里程碑式的科技金融创新。当然,不少人是通过“比特币”了解到“区块链”这一技术,但实际上,比特币不等于区块链。区块链本质上是一种信任机制,通过去中心化的记账方式,建立机器信任,重新构造了现代社会的信任机制,而这也是区块链最本质、最核心的内涵。而区块链就是比特币的账本,比特币任何时刻产生的所有权及交易记录,都被记录在区块链账本中。[2019/12/24]
不过,只要网络设施层带宽足够高,即使不优化,这里也不会成为瓶颈
延迟:一些共识协议会将广播协议层的延迟放大若干倍,例如,比特币的出块间隔需要5倍于广播协议层的延迟,而确认需要6个块。因此,优化这里的延迟至关重要。2016年,比特币通过紧凑区块的设计,将区块广播延迟从120秒降低到了不到10秒
紧凑区块不包含完整交易,只包含交易哈希前6字节,因为这些交易已经在网络中被广播过并被多数节点收到。这可以加速区块广播,使广播协议层获得接近节点连结层的延迟。2017年后,高性能公链基本都采取了这一设计
金色快评丨比特币ETF许可证如获批,BTC有望迎来新的机遇:据financemagnates消息,7月9日,芝加哥期权交易所(CBOE)再次向美国证券交易委员会(SEC)申请比特币ETF许可证。虽然美国监管机构历来对加密支持的基金采取强硬立场,但本次交易所的申请似乎很有可能获得成功。那么,如果此次比特币ETF许可证申请通过会对市场行情带来什么影响呢?我们可以类比之前的黄金ETF。
?
2003年,世界上第一只黄金ETF基金在悉尼上市。2004年是黄金ETF大发展的一年。3只黄金ETF相继设立,并成就了目前黄金ETF市场的巨无霸——StreetTracks Gold Trust基金。此后黄金ETF产品在全球引发了认购热潮,并一度被华尔街的分析师认为直接促进了2004年后期黄金价格的走牛。
?
根据公开数据显示,2003年黄金每盎司不足400美元,2003年后,黄金迎来了长达8年的牛市,2011年黄金每盎司超过1800美元。比特币ETF许可证如获批,BTC有望迎来新的机遇。[2018/7/10]
2.共识模块
共识协议是区块链系统中最复杂、最精巧的部分,它协调各个互不信任的节点,并为上层应用提供提供可信的去中心化服务。很长一段时间内,对共识模块的性能优化都是热点
带宽:中本聪共识自身的缺陷导致它的共识带宽必须处于一个非常低的水平,否则会增加网络分叉,降低系统安全性
2017年后的新协议基本都可以充分利用带宽了,这不再是一个难题
不过,有些项目混淆了共识模块的tps和区块链系统的tps,把充分利用带宽称为“无限可扩展”,仿佛网络带宽是无限的
延迟:共识的延迟指区块从产生到finalize需要多久。中本聪共识的确认延迟很差,大概需要30~60倍广播协议层延迟,后续PoW协议例如Bitcoin-NG,OHIE等也没有优化这一延迟
Prism将延迟优化到了23倍,Conflux优化到了3倍。PoS协议我了解得有限,估算大概需要5倍延迟
不过PoW和PoS协议有一个很大的不同:PoW参考最大延迟,PoS参考中位数延迟,而最大延迟和中位数延迟可能有3倍差异,所以PoS共识普遍延迟表现更好一些。节点少的话,进入10秒也不是不可能。至于以太坊这种上了PoS共识反而更慢的,只能说是一个奇葩吧
共识模块是“参数虚标”最严重的地方。比如,明明需要等6个区块才能达到安全性要求,项目方告诉你1个区块就行,反正没人攻击就不会露馅,没资产就没人攻击
还有一种叫分片的技术:给节点分组,把交易分给各组,每组只处理自己的交易、相信其他小组。这种技术通过增加小组数量,容易获得一个很高的tps用于吹嘘,但相信其他小组会带来安全风险。所以分片适用于对安全性要求不高的场景,如国产联盟链
3.执行模块
以太坊之所以能在比特币外开辟一片天地,在于它创造了可编程的数字资产。因此交易执行模块也是区块链系统的重要的一环。也是在早期的性能优化中被忽视的一环
执行不再区分带宽和延迟,只关心单位时间内处理的交易或计算任务数量。
执行模块的效率受到计算机系统各个资源的限制
3.1CPU资源
在串行执行中,CPU的性能瓶颈是非常明显的。在过去5年内,CPU单核性能提升了不到1倍。在EVM中,如果不考虑存储访问,最快的CPU大概1秒能执行1亿gas,是现在以太坊性能的80倍
并行执行是利用CPU资源的关键一步。一些项目在尝试提出更利于并行的语言模型,例如Move
在Conflux一项关于EVM并行化的研究表示,目前以太坊链上交易的并行化潜力是9倍tps
但是,并行化VM有很多的挑战。比如,理想情形下,交易高度并行;最差情形下,交易相互依赖,只能串行。那如何设计gas定价与gaslimit,使得理想情况可以充分利用并行优化,而最差情况又不至于跟不上执行?
3.2存储访问资源
和网络设施层一样,这里的性能主要取决于硬件的发展和区块链节点的最低配置。除非数据被缓存在内存里,执行交易时的读写性能不可能超越硬盘的读写性能
还拿Aptos举例,他们节点的存储要求是40KIOPS,而一笔交易可能涉及到发送者和接受者两个账户的状态修改,也就是最差情况下网络只能支持2万tps
但他们的宣称tps是16万,可想而知这后面有多少不公开的前提条件了
3.3可验证存储结构
可验证存储结构是区块链存储的一个重要数据结构。它允许一个轻节点向一个它不信任的全节点查询链上状态,是区块链trustless里的最重要一环
在以太坊中,访问可验证存储结构MPT比直接访问数据库慢10倍。所以,有些区块链干脆去除了可验证存储结构,以换取更好的性能
最后做个总结,区块链的性能优化不是一个追求极限的过程,而是在各种限制下对安全、效率、去中心化程度的取舍
有些取舍是可以被优化的,比如中本聪共识中,共识带宽与安全性的矛盾后来被解决了
有些取舍是不可避免的,如果你要求每个节点配备256GB的内存,就注定了独立参与者的数量不会太多
一味地去追求纸面上的高性能,只会得到一个中心化的宕机链。只有真正去面对和解决性能优化中的问题,才是性能提升的正途
希望这篇文章对大家有一定的帮助,有想跟作者聊聊的欢迎私信!
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。