2.1 並行工作量證明(PPoW)基礎
正如先前工作所介紹,PPoW要求喺下一個主區塊可以附加之前,需要挖出可配置數量 $k$ 嘅PoW「投票」(或區塊)。呢個設計創造咗一個並行化嘅區塊結構。每個投票都包含交易。由於最終確定一個區塊需要多個支持證明,呢個設計本質上提供比比特幣線性鏈更強嘅一致性保證。
本文提出一種新穎嘅工作量證明(PoW)加密貨幣協議,旨在解決比特幣及其近期變體Tailstorm嘅關鍵限制。核心創新在於將並行工作量證明(PPoW)共識、DAG式投票以及目標獎勵折扣方案結合。該協議旨在提供更優越嘅一致性保證、更高嘅交易吞吐量、更低嘅確認延遲,以及增強對基於激勵嘅攻擊(例如自私挖礦)嘅韌性。
呢項工作嘅動機源自PoW系統中共識算法同激勵方案之間嘅循環依賴。雖然比特幣嘅特性已被充分理解,但許多新協議缺乏對一致性同激勵嘅全面分析。Tailstorm喺比特幣基礎上有所改進,但存在不足:其樹狀結構投票令部分投票未能確認,而其統一獎勵折扣方案懲罰咗無辜礦工同違規者。
正如先前工作所介紹,PPoW要求喺下一個主區塊可以附加之前,需要挖出可配置數量 $k$ 嘅PoW「投票」(或區塊)。呢個設計創造咗一個並行化嘅區塊結構。每個投票都包含交易。由於最終確定一個區塊需要多個支持證明,呢個設計本質上提供比比特幣線性鏈更強嘅一致性保證。
Tailstorm將呢 $k$ 個投票結構化為一棵樹,每個新投票引用單一個父節點。呢個造成一個困境:礦工必須選擇擴展邊個分支,導致一啲分支——及其交易——直到下一個區塊先得到確認。
所提出嘅協議將投票結構化為一個有向無環圖(DAG)。一個新投票可以引用多個先前投票作為父節點。呢個增加咗連通性,並允許更多投票被納入給定區塊嘅共識集合中,從而提高交易確認率並減少延遲。
Tailstorm根據投票樹嘅深度按比例折扣獎勵,平等懲罰深層(非線性)樹中嘅所有礦工。新協議實施咗一個目標折扣方案。礦工投票嘅獎勵係根據其喺DAG中嘅特定角色計算:
$Reward_v = BaseReward \times (1 - \alpha \cdot C_v)$
其中 $C_v$ 係衡量投票 $v$ 對非線性或分叉創建嘅貢獻(例如,佢引用咗幾多個本身並未連接嘅競爭投票)。參數 $\alpha$ 控制折扣強度。呢個確保只有其行為直接損害共識線性嘅礦工先會受到懲罰。
本文聲稱,喺現實網絡假設下,經過10分鐘確認窗口後,成功雙重支付攻擊嘅概率大約比比特幣低50倍。呢個源於PPoW中嘅 $k$ 投票要求,令攻擊者喺統計上更難逆轉一個已確認嘅區塊。
一個重要嘅方法學貢獻係使用強化學習(RL)來系統性搜尋針對該協議嘅最優攻擊策略。RL代理學習操縱投票發布時機同父節點選擇以最大化利潤。呢種方法比臨時攻擊分析更嚴謹,並揭示咗基本PPoW(冇折扣)係脆弱嘅。
DAG投票同目標折扣嘅結合,為自私挖礦創造咗強大嘅抑制因素。涉及扣留區塊或創建分叉嘅攻擊變得更無利可圖,因為攻擊者嘅獎勵會直接被折扣。基於RL嘅分析證實,所提出嘅協議相比比特幣同Tailstorm具有更優越嘅韌性。
通過將交易打包到每個區塊嘅 $k$ 個投票中,該協議實現比比特幣每個間隔單一區塊模型更高嘅吞吐量。DAG結構通過允許更多投票(及其交易)喺當前區塊中得到確認而非被推遲,進一步降低延遲。
本文直接解決Tailstorm嘅兩個缺陷:1) 未確認投票: DAG通過允許引用多個父節點來緩解呢個問題。2) 集體懲罰: 目標折扣取代咗統一嘅樹深度懲罰。結果係一個保留Tailstorm優點同時克服其弱點嘅協議。
獎勵折扣函數係核心。設 $G$ 為一個區塊嘅投票DAG。對於投票 $v \in G$,定義其「衝突分數」 $C_v$。一個提議嘅衡量方式係:
$C_v = \frac{|\text{Unconnected Parents}(v)|}{|\text{Total Parents}(v)| + \epsilon}$
其中「未連接父節點」係指本身並無祖先鏈接嘅父投票。高 $C_v$ 表示 $v$ 正引用衝突分支,增加非線性。最終獎勵會根據呢個分數進行折扣。RL代理嘅目標係學習一個策略 $\pi$,以最大化累積折扣獎勵 $\sum \gamma^t R_t$,其中 $R_t$ 係喺時間 $t$ 發布具有特定父節點選擇嘅投票所獲得嘅(可能被折扣嘅)獎勵。
本文可能包含比較比特幣、Tailstorm、基本PPoW以及所提出嘅帶有目標折扣嘅DAG-PPoW之間攻擊成功率同盈利能力嘅模擬。圖表或表格中呈現嘅關鍵預期結果會顯示:
關鍵發現: 實驗大概證實咗本文嘅驚人聲明:「喺某啲現實網絡場景下,冇獎勵折扣嘅並行工作量證明比比特幣對激勵攻擊嘅韌性更低。」 呢個強調咗將新共識機制同精心設計嘅激勵方案結合嘅絕對必要性。
場景: 一名礦工(M)控制網絡25%嘅算力,並想執行自私挖礦攻擊。
喺比特幣/Tailstorm中: M扣留一個搵到嘅區塊以創建一個私有分叉。如果成功,M可以孤立誠實區塊並獲取不成比例嘅獎勵。RL代理會學習呢個策略。
喺帶有目標折扣嘅DAG-PPoW中:
呢個案例展示咗協議機制如何直接改變攻擊者嘅利潤計算。
本文唔只係對工作量證明嘅另一個漸進式調整;佢係對困擾區塊鏈設計嘅基本激勵-共識循環嘅一次精準打擊。作者正確指出,大多數「改進」協議之所以失敗,係因為佢哋喺真空環境中為活性或吞吐量進行優化,忽略咗呢啲改變如何扭曲礦工經濟學。佢哋嘅關鍵見解係,安全性唔單止係共識算法嘅屬性,而係其與一個能夠精準歸咎責任嘅懲罰系統嘅緊密耦合。從Tailstorm嘅樹狀結構轉向DAG,唔係為咗效率——而係為咗創造目標懲罰所需嘅鑑證粒度。
論證構建得無可挑剔:1) 比特幣嘅限制眾所周知,2) Tailstorm取得進展但引入新問題(生硬懲罰、延遲確認),3) 因此,我哋需要一個能提供更細粒度礦工行為數據嘅結構(DAG),以及4) 我哋必須使用該數據實施精準嘅抑制措施。使用強化學習來壓力測試該提議尤其優雅。佢反映咗現實世界攻擊者嘅運作方式——唔係遵循靜態腳本,而係自適應地搜尋利潤——因此提供比傳統概率模型更現實嘅安全評估。基本PPoW可能比比特幣更唔安全呢個驚人發現,證明咗呢個方法嘅價值;佢暴露咗隱藏嘅攻擊面。
優點: 概念框架穩健。DAG+目標折扣機制優雅,並解決咗先前技術中嘅明顯缺陷。方法學嘅嚴謹性(基於RL嘅攻擊搜尋)為評估加密經濟學設定咗新標準。本文亦有用咁解構咗經常被過度炒作嘅「DAG」術語,將其應用於PoW背景下嘅特定、可衡量嘅目的,唔同於更投機嘅基於DAG嘅項目。
缺陷與開放問題: 房間裡嘅大象係複雜性。該協議要求礦工同節點維護同分析DAG、計算衝突分數並應用自定義折扣。相比比特幣嘅優美簡潔,呢個增加咗計算同實施開銷。折扣參數($\alpha$)亦有可能成為治理衝突嘅來源。此外,如同許多學術提議,分析可能假設咗一個相對理性、利潤最大化嘅礦工。佢並未完全解決目標係破壞而非利潤嘅拜占庭參與者——呢個係Castro同Liskov(1999)等傳統BFT文獻中考慮嘅威脅模型。
對於協議設計者:激勵分析係不容妥協嘅。 任何共識變更都必須使用RL等工具建模,以發現不良激勵。「PPoW比比特幣更唔安全」嘅發現應該係一個警鐘。對於開發者:DAG用於問責嘅模式係一個強大工具,值得喺其他共識環境中探索,甚至可能喺分片架構或第二層網絡中。對於研究社群:呢項工作突顯咗對標準化、開源嘅RL框架用於攻擊加密經濟學嘅迫切需求,類似於AI社群有基準數據集。最後,最大嘅收穫係區塊鏈安全正從純密碼學轉向密碼學、博弈論同機器學習嘅混合學科。未來嘅安全系統將需要所有三方面嘅專業知識。