2.1 并行工作量证明(PPoW)基础
如先前工作所述,PPoW要求挖出可配置数量 $k$ 的PoW“投票”(或区块)后,才能追加下一个主区块。这创建了一种并行化的区块结构。每个投票都包含交易。由于最终确定一个区块需要多个支持证明,这种设计本质上提供了比比特币线性链更强的一致性保证。
本文提出了一种新颖的工作量证明(PoW)加密货币协议,旨在解决比特币及其近期变体Tailstorm的关键局限性。核心创新在于将并行工作量证明(PPoW)共识与DAG式投票以及定向奖励折扣方案相结合。该协议旨在提供更优的一致性保证、更高的交易吞吐量、更低的确认延迟,并增强对自私挖矿等基于激励的攻击的抵御能力。
本研究的动机源于PoW系统中共识算法与激励方案之间的循环依赖关系。虽然比特币的特性已被充分理解,但许多新协议缺乏对一致性和激励机制的全面分析。Tailstorm在比特币基础上有所改进,但仍存在不足:其树状投票结构导致部分投票无法确认,且其统一的奖励折扣机制在惩罚违规者的同时,也惩罚了诚实的矿工。
如先前工作所述,PPoW要求挖出可配置数量 $k$ 的PoW“投票”(或区块)后,才能追加下一个主区块。这创建了一种并行化的区块结构。每个投票都包含交易。由于最终确定一个区块需要多个支持证明,这种设计本质上提供了比比特币线性链更强的一致性保证。
Tailstorm将这 $k$ 个投票组织为树结构,其中每个新投票引用一个父投票。这造成了一个困境:矿工必须选择扩展哪个分支,导致一些分支及其交易直到下一个区块才能被确认。
所提出的协议将投票组织为有向无环图(DAG)。一个新投票可以引用多个先前的投票作为父节点。这增加了连通性,并允许更多投票被纳入给定区块的共识集合中,从而提高了交易确认率并降低了延迟。
Tailstorm根据投票树的深度按比例折扣奖励,对深度(非线性)树中的所有矿工进行同等惩罚。新协议实施了一种定向折扣方案。矿工投票的奖励根据其在DAG中的具体角色计算:
$Reward_v = BaseReward \times (1 - \alpha \cdot C_v)$
其中 $C_v$ 是衡量投票 $v$ 对非线性或分叉创建贡献的指标(例如,它引用了多少个本身未连接的竞争投票)。参数 $\alpha$ 控制折扣强度。这确保了只有其行为直接损害共识线性的矿工才会受到惩罚。
本文声称,在现实的网络假设下,经过10分钟的确认窗口后,成功双花攻击的概率大约比比特币低50倍。这源于PPoW中 $k$ 个投票的要求,使得攻击者在统计上更难逆转一个已确认的区块。
一个重要的方法论贡献是使用强化学习(RL)来系统地搜索针对该协议的最优攻击策略。RL智能体学习操纵投票发布时间和父节点选择以最大化利润。这种方法比临时性的攻击分析更为严谨,并揭示了未加折扣的原始PPoW是脆弱的。
DAG投票与定向折扣的结合为自私挖矿创造了强大的抑制因素。涉及扣留区块或制造分叉的攻击变得利润更低,因为攻击者的奖励会被直接折扣。基于RL的分析证实了所提出协议相比比特币和Tailstorm具有更优的抗攻击韧性。
通过将交易打包到每个区块的 $k$ 个投票中,该协议实现了比比特币每个间隔单区块模型更高的吞吐量。DAG结构通过允许更多投票(及其交易)在当前区块中被确认而非被延迟,进一步降低了延迟。
本文直接解决了Tailstorm的两个缺陷:1)未确认投票:DAG通过允许多个父节点引用来缓解此问题。2)集体惩罚:定向折扣取代了统一的树深惩罚。其结果是一个保留了Tailstorm优点同时克服了其弱点的协议。
奖励折扣函数是核心。设 $G$ 为一个区块的投票DAG。对于投票 $v \in G$,定义其“冲突分数” $C_v$。一种提议的度量方式是:
$C_v = \frac{|\text{未连接的父节点}(v)|}{|\text{总父节点数}(v)| + \epsilon}$
其中“未连接的父节点”是指本身没有祖先链接关系的父投票。高 $C_v$ 值表明 $v$ 正在引用冲突的分支,增加了非线性。最终奖励将根据此分数进行折扣。RL智能体的目标是学习一个策略 $\pi$,以最大化累积折扣奖励 $\sum \gamma^t R_t$,其中 $R_t$ 是在时间 $t$ 发布具有特定父节点选择的投票所获得的(可能被折扣的)奖励。
本文可能包含比较比特币、Tailstorm、基础PPoW以及所提出的带定向折扣的DAG-PPoW在攻击成功率和盈利能力方面的模拟。图表或表格中呈现的关键预期结果将显示:
关键发现: 实验很可能证实了本文引人注目的主张,即“在某些现实的网络场景下,没有奖励折扣的并行工作量证明比比特币对激励攻击的韧性更差。” 这强调了将新共识机制与精心设计的激励方案紧密结合的绝对必要性。
场景: 一名矿工(M)控制着网络25%的算力,并希望执行自私挖矿攻击。
在比特币/Tailstorm中: M扣留一个已找到的区块以创建一个私有分叉。如果成功,M可以孤立诚实区块并获取不成比例的奖励。RL智能体会学习这种策略。
在带定向折扣的DAG-PPoW中:
这个案例展示了协议的机制如何直接改变攻击者的利润计算。
本文不仅仅是工作量证明的又一次渐进式调整;它是对困扰区块链设计的基本激励-共识循环的一次精准打击。作者正确地指出,大多数“改进”协议之所以失败,是因为它们在真空中优化活性或吞吐量,而忽略了这些变化如何扭曲矿工的经济行为。他们的关键见解是,安全性不仅仅是共识算法本身的属性,更是其与能够精确归责的惩罚系统紧密耦合的属性。从Tailstorm的树结构转向DAG,其目的并非效率,而是为了创建实现定向惩罚所需的、具备法证级粒度的数据结构。
论证构建得无懈可击:1)比特币的局限性众所周知,2)Tailstorm取得了进展但引入了新问题(惩罚机制粗放、确认延迟),3)因此,我们需要一种能提供更细粒度矿工行为数据的结构(DAG),以及4)我们必须利用这些数据实施精准的抑制措施。使用强化学习来压力测试该提案尤其巧妙。它反映了现实世界攻击者的运作方式——不是遵循静态脚本,而是自适应地寻找利润——因此提供了比传统概率模型更现实的安全评估。关于原始PPoW可能比比特币更不安全的惊人发现,证明了这种方法的价值;它揭示了隐藏的攻击面。
优势: 概念框架稳健。DAG+定向折扣机制优雅,并解决了先前技术中的明显缺陷。方法论上的严谨性(基于RL的攻击搜索)为评估加密经济学设立了新标准。本文还有助于揭开常被过度炒作的“DAG”术语的神秘面纱,将其应用于PoW背景下具体、可衡量的目的,这与更多基于DAG的投机性项目不同。
不足与开放性问题: 显而易见的复杂性是主要问题。该协议要求矿工和节点维护和分析DAG、计算冲突分数并应用自定义折扣。与比特币的极致简洁相比,这增加了计算和实现开销。折扣参数($\alpha$)也存在成为治理冲突源的风险。此外,与许多学术提案一样,该分析很可能假设矿工是理性且利润最大化的。它没有充分解决那些以破坏而非利润为目标的拜占庭行为者——这是Castro和Liskov(1999)等传统BFT文献中考虑过的威胁模型。
对于协议设计者:激励分析是不可或缺的。 任何共识变更都必须使用RL等工具进行建模,以发现不良激励。“PPoW比比特币更不安全”的发现应敲响警钟。对于开发者:用于归责的DAG模式是一个强大的工具,值得在其他共识环境中探索,或许甚至在分片架构或二层网络中。对于研究社区:这项工作凸显了对标准化、开源的加密经济学攻击RL框架的迫切需求,类似于AI社区拥有基准数据集。最后,最重要的启示是,区块链安全正从纯密码学转向密码学、博弈论和机器学习的混合学科。未来的安全系统将需要这三方面的专业知识。