999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于策略梯度算法的工作量證明中挖礦困境研究

2019-08-01 01:48:57王甜甜于雙元徐保民
計算機(jī)應(yīng)用 2019年5期

王甜甜 于雙元 徐保民

摘 要:針對區(qū)塊鏈中工作量證明(PoW)共識機(jī)制下區(qū)塊截留攻擊導(dǎo)致的挖礦困境問題,將礦池間的博弈行為視作迭代的囚徒困境(IPD)模型, 采用深度強化學(xué)習(xí)的策略梯度算法研究IPD的策略選擇。利用該算法將每個礦池視為獨立的智能體(Agent), 將礦工的潛入率量化為強化學(xué)習(xí)中的行為分布,通過策略梯度算法中的策略網(wǎng)絡(luò)對Agent的行為進(jìn)行預(yù)測和優(yōu)化,最大化礦工的人均收益,并通過模擬實驗驗證了策略梯度算法的有效性。實驗發(fā)現(xiàn),前期礦池處于相互攻擊狀態(tài),平均收益小于1,出現(xiàn)了納什均衡的問題;經(jīng)過policy gradient算法的自我調(diào)整后,礦池由相互攻擊轉(zhuǎn)變?yōu)橄嗷ズ献鳎總€礦池的潛入率趨于0,人均收益趨于1。實驗結(jié)果表明,policy gradient算法可以解決挖礦困境的納什均衡問題,最大化礦池人均收益。

關(guān)鍵詞:區(qū)塊鏈;工作量證明機(jī)制;博弈論;深度強化學(xué)習(xí);策略梯度算法

中圖分類號:TP183

文獻(xiàn)標(biāo)志碼:A

Abstract: In view of the mining dilemma problem caused by block withholding attack under Proof of Work (PoW) consensus mechanism in the blockchain, the game behavior between mining pools was regarded as an Iterative Prisoners Dilemma (IPD) model and the policy gradient algorithm of deep reinforcement learning was used to study IPDs strategy choices. Each mining pool was considered as an independent Agent and the miners infiltration rate was quantified as a behavior distribution in reinforcement learning. The policy network in the policy gradient was used to predict and optimize the Agents behavior in order to maximize miners average revenues. And the effectiveness of the policy gradient algorithm was validated through simulation experiments. Experimental results show that the mining pools attack each other at the beginning with miners average revenue less than 1, which causes Nash equilibrium problem. After selfadjustment by the policy gradient algorithm, the relationship between the mining pools transforms from mutual attack to mutual cooperation with infiltration rate of each mining pool tending to zero and miners average revenue tending to 1. The results show that the policy gradient algorithm can solve the Nash equilibrium problem of mining dilemma and maximize the miners average revenue.

英文關(guān)鍵詞Key words: blockchain; Proof of Work (PoW); game; deep reinforcement learning; policy gradient algorithm

0 引言

區(qū)塊鏈?zhǔn)潜忍貛臶1]等加密貨幣的底層實現(xiàn)技術(shù),比特幣作為區(qū)塊鏈最為成功的應(yīng)用場景,是在工作量證明(Proof of Work,PoW)的共識機(jī)制下完成交易內(nèi)容的。在比特幣系統(tǒng)中,每個節(jié)點都會參與到區(qū)塊的生產(chǎn)中,并提供一定的PoW,首先生產(chǎn)出區(qū)塊的節(jié)點,可以獲得一定的比特幣獎勵。這一過程就是“挖礦”,參與挖礦的節(jié)點稱為“礦工”。按照比特幣系統(tǒng)的設(shè)定,區(qū)塊大約10min產(chǎn)生一個,意味著大多數(shù)礦工挖不到區(qū)塊,為獲得相對穩(wěn)定的收入,礦工會選擇性地加入礦池進(jìn)行合作挖礦。礦池由礦池管理員和若干礦工組成,礦工會不斷地向管理員發(fā)送部分工作量證明或完整的工作量證明,礦池管理員會按照各個成員的工作量貢獻(xiàn)比分發(fā)收益。

然而有些礦工只向管理員發(fā)送部分工作量證明,若獲取到完整的工作量證明,會選擇丟棄,即只獲得礦池的部分收益而不貢獻(xiàn)有效算力,這種行為被稱為區(qū)塊截留攻擊(block withholding attack)[2]。礦池可以利用自己的礦工潛入其他礦池,對其進(jìn)行區(qū)塊截留攻擊以增加自己的收益,但是當(dāng)所有礦池都相互攻擊時,它們的收益將低于互不攻擊的情形,此即PoW共識漏洞產(chǎn)生的挖礦困境,可視為博弈論中的囚徒困境模型。其存在一個納什均衡點:沒有一方可以通過改變自己的行為策略來提高整體收益[3]。本文的核心內(nèi)容是,如何在PoW共識機(jī)制下優(yōu)化礦池行為選擇來增加其人均收益,以解決區(qū)塊截留攻擊導(dǎo)致的礦難問題。

1 相關(guān)工作

針對基于PoW共識機(jī)制的比特幣系統(tǒng)中存在的挖礦問題,眾多學(xué)者提出了不同的博弈模型。

2014年,Eyal等[4]提出的比特幣系統(tǒng)其實是脆弱的,在礦工挖礦過程中存在一種稱為Selfish mining策略,即不斷地開采私有區(qū)塊而不發(fā)布,當(dāng)其長度大于公共鏈時發(fā)布出來,使得公共鏈?zhǔn)ヒ饬x,從而導(dǎo)致“誠實”礦工的算力資源損失, 這就是常見的區(qū)塊鏈“分叉”問題。針對這一漏洞,Kiayias等[5]將比特幣挖礦系統(tǒng)簡化為完備信息的隨機(jī)博弈模型,通過控制挖掘到的區(qū)塊的發(fā)布時間來控制區(qū)塊鏈主鏈的長度,并提出Frontier策略(礦工挖掘到區(qū)塊就立即發(fā)布并加入最長主鏈),分析了不同實驗設(shè)定下礦工算力為多少時,采取Frontier策略最優(yōu); Lewenberg等[6]從合作博弈的角度對礦工加入礦池的選擇進(jìn)行了分析, 將同一礦池成員視為一個聯(lián)盟,礦工通過改變加入的礦池來增加收益; Liu等[7]則提出了演化博弈模型,預(yù)先計算出礦工加入不同礦池的收益后再決定選擇加入哪個礦池。

以上研究從不同角度對比特幣挖礦過程建立了博弈模型,但是沒有考慮礦池間相互攻擊的情形,即PoW共識機(jī)制下產(chǎn)生的挖礦困境問題。2015年,Eyal[3]對區(qū)塊截留攻擊產(chǎn)生的礦難問題進(jìn)行了研究,從雙池和多池間相互攻擊這兩類情形出發(fā),對礦池間的博弈進(jìn)行了定性分析,將其視為迭代的囚徒困境(Iterated Prisons Dilemma, IPD)模型,并通過納什均衡理論證明了各礦池收入會因彼此攻擊而減少,從而促使礦池趨于封閉穩(wěn)定的狀態(tài)。唐長兵等[8]在此基礎(chǔ)上,對博弈困境中純策略及混合策略均衡的問題做了進(jìn)一步研究,并利用零行列式(Zero Determinant, ZD)策略對區(qū)塊截留攻擊博弈進(jìn)行了優(yōu)化。

本文在文獻(xiàn)[3]的基礎(chǔ)上,建立了礦池間的博弈模型,并利用深度強化學(xué)習(xí)的策略梯度(policy gradient)算法[9-10]對礦池間的博弈行為進(jìn)行了優(yōu)化,提高了礦工的人均收益。

參考文獻(xiàn) (References)

[1] ??? NAKAMOTO S. Bitcoin: a peertopeer electronic cash system [EB/OL]. [2017-10-10]. https://bitcoin.org/bitcoin.pdf.

[2] ??? COURTOIS N T, BAHACK L. On subversive miner strategies and block withholding attack in bitcoin digital currency[J/OL]. arXiv Preprint, 2014, 2014: arXiv:1402.1718 (2014-01-28) [2014-12-02]. https://arxiv.org/abs/1402.1718.

[3] ??? EYAL I. The miners dilemma[C]// Proceedings of the 2015 IEEE Symposium on Security and Privacy. Piscataway, NJ: IEEE, 2015:89-103.

[4] ??? EYAL I, SIRER E G. Majority is not enough: bitcoin mining is vulnerable[C]// FC 2014: International Conference on Financial Cryptography and Data Security. Berlin: Springer, 2014: 436-454.

[5] ??? KIAYIAS A, KOUTSOUPIAS E, KYROPOULOU M, et al. Blockchain mining games[C]// Proceedings of the 2016 ACM Conference on Economics and Computation. New York: ACM, 2016: 365-382.

[6] ??? LEWENBERG Y, BACHRACH Y, SOMPOLINSKY Y, et al. Bitcoin mining pools: a cooperative game theoretic analysis[C]// Proceedings of the 2015 International Conference on Autonomous Agents and Multiagent Systems. Richland, SC: International Foundation for Autonomous Agents and Multiagent Systems, 2015: 919-927.

[7] ??? LIU X, WANG W, NIYATO D, et al. Evolutionary game for mining pool selection in blockchain networks[J]. IEEE Wireless Communications Letters, 2017, 7(5): 760-763.

[8] ??? 唐長兵, 楊珍, 鄭忠龍,等. PoW共識算法中的博弈困境分析與優(yōu)化[J]. 自動化學(xué)報, 2017, 43(9):1520-1531.(TANG C B, YANG Z, ZHENG Z L, et al. Game dilemma analysis and optimization of PoW consensus algorithm[J]. Acta Automatica Sinica, 2017, 43(9):1520-1531.)

[9] ??? SUTTON R S, McALLESTER D, SINGH S, et al. Policy gradient methods for reinforcement learning with function approximation[C]// NIPS 2000: Neural Information Processing Systems. Boston: MIT Press, 2000:1057-1063.

[10] ?? WILLIAMS R J. Simple statistical gradientfollowing algorithms for connectionist reinforcement learning[J].Machine Learning, 1992,8(3/4):229-256.

[11] ?? MNIH V, KAVUKCUOGLU K, SILVER D, et al. Human level control through deep reinforcement learning[J].Nature, 2015,518(7540):529-533.

[12] ?? TAMPUU A, MATIISEN T, KODELJA D, et al. Multiagent cooperation and competition with deep reinforcement learning[J].PLoS One, 2017, 12(4):e0172395.

[13] ?? LILLICRAP T P, HUNT J J, PRITZEL A, et al. Continuous control with deep reinforcement learning[J/OL]. arXiv Preprint, 2015, 2015: arXiv:1509.02971 [2015-09-09]. https://arxiv.org/abs/1509.02971.

[14] ?? 王兵團(tuán), 張作泉, 趙平福. 數(shù)值分析簡明教程(大學(xué)數(shù)學(xué)系列叢書)[M]. 北京:清華大學(xué)出版社, 2012:50-60. (WANG B T, ZHANG Z Q, ZHAO P F. Numerical Analysis Concise Tutorial(University Mathematics Series)[M]. Beijing: Tsinghua University Press,2012:50-60.)

主站蜘蛛池模板: 亚洲日本中文字幕乱码中文| 久久青青草原亚洲av无码| 国产高清在线观看| 国产欧美又粗又猛又爽老| 91美女在线| 亚洲成人一区二区| 97色婷婷成人综合在线观看| 国产人人干| 性视频久久| 亚洲成人黄色在线观看| 久久久久久久97| 亚洲人成网址| 色婷婷成人网| 国产丝袜无码精品| jizz国产视频| 国产精品成人一区二区| 亚洲第一视频区| 成人福利在线看| 日本午夜影院| 国产精品嫩草影院av| 91精品人妻一区二区| 国产精彩视频在线观看| 亚洲性日韩精品一区二区| 久久久久久尹人网香蕉| 在线观看国产黄色| 毛片免费视频| 国产高清又黄又嫩的免费视频网站| 亚洲欧美天堂网| 先锋资源久久| 亚洲国产看片基地久久1024| 韩日免费小视频| 日韩一级毛一欧美一国产| 成人精品亚洲| 美女一级毛片无遮挡内谢| 精品国产99久久| 久久香蕉国产线看精品| 色有码无码视频| 亚洲福利视频网址| 久久国产亚洲欧美日韩精品| 国产成人亚洲毛片| 久久天天躁狠狠躁夜夜躁| 日韩精品一区二区三区大桥未久 | 欧美一区精品| 国产一二三区在线| 宅男噜噜噜66国产在线观看| 欧美激情二区三区| 噜噜噜久久| 国产一区二区三区日韩精品| 国产乱子精品一区二区在线观看| 国产在线一区视频| 久久a毛片| 成人a免费α片在线视频网站| 亚卅精品无码久久毛片乌克兰 | 亚洲视频免费在线看| 久草视频一区| 免费中文字幕一级毛片| 尤物在线观看乱码| 喷潮白浆直流在线播放| 国产精品视频999| 欧美午夜网站| 天天躁夜夜躁狠狠躁图片| 国产成人一区二区| 日本一区二区不卡视频| 伊人天堂网| 日韩欧美国产精品| 老色鬼欧美精品| 在线a网站| 亚洲欧美自拍一区| 国产自在自线午夜精品视频| 高h视频在线| 国产一区二区三区视频| a级毛片网| a欧美在线| 国产福利免费视频| 欧美成人午夜视频| 超碰aⅴ人人做人人爽欧美| 四虎成人免费毛片| 日韩欧美国产另类| 精品人妻AV区| 成人在线亚洲| 久久毛片免费基地| 四虎影视无码永久免费观看|