999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于合作博弈和知識蒸餾的個性化聯邦學習算法

2023-11-18 08:50:18孫艷華史亞會楊睿哲司鵬搏
電子與信息學報 2023年10期
關鍵詞:模型

孫艷華史亞會 李 萌 楊睿哲 司鵬搏

(北京工業大學信息學部 北京 100124)(北京工業大學先進信息網絡北京實驗室 北京 100124)

1 引言

聯邦學習(Federated Learning,FL)是一種去中心化、保護數據隱私的分布式機器學習[1],由中心服務器調控,多個客戶端相互協作共同訓練得到一個共享模型,并且不需要直接訪問客戶端的私有數據,從而在一定程度上避免了隱私泄露。

但是FL的有效實現很大程度上依賴于客戶端之間相似的數據分布以及完全相同的模型架構,而在絕大多數實際場景中客戶端數據往往是非獨立同分布(Non-Independent Identically Distributed,Non-IID)的[2],這導致FL訓練的共享模型不能滿足每一個客戶端的需求。另外,在醫療保健、人工智能等領域,每個客戶端需獨立設計模型來滿足自身的需求。而個性化聯邦學習(Personalized Federated Learning,PFL)則充分考慮了FL的異構性影響。

為了解決FL中客戶端隱私數據Non-IID的問題,文獻[3]提出了一種聯邦遷移學習方法,將本地模型視為“基礎層+個性化層”,基礎層負責共享,個性化層進行本地訓練。文獻[4]則混合本地模型和全局模型,采用正則函數在兩種模型之間找到一個折中,從而提高本地精度。文獻[5]利用元學習找到一個初始的共享模型,使客戶端能只進行1步或者幾步梯度下降便能快速適應本地數據集。文獻[6]在每次全局迭代中確定聚類簇,并在簇內進行個性化訓練來提高客戶端的個性化精度。文獻[7]在客戶端隱私數據集上用夏普利值來衡量客戶端數據相似度并進行FL。然而上述方法僅針對客戶端數據Non-IID問題,且需要客戶端模型結構和大小相同。

受知識蒸餾(Know ledge Distillation,KD)可以通過交換軟預測而不是整個模型參數來將知識從一個神經網絡轉移到另一個神經網絡的思想的啟發[8],文獻[9]提出了聯邦模型蒸餾(Federated learning w ith M odel Distillation,FedMD)算法,以保護隱私的方式協同訓練異構模型。文獻[10]采用集成蒸餾,在每次全局迭代中將所有異構客戶端模型的知識遷移到全局模型。然而這些算法忽略了參與訓練的客戶端進一步的個性化需求。文獻[11]提出了知識遷移個性化聯邦學習(Know ledge T ransfer for personalized Federated Learning,KT-pFL)算法,將成對客戶端相似度進行參數化,并采用KD將個性化軟預測的知識遷移到本地。文獻[12]采用集群共蒸餾將具有相似數據分布的客戶端的知識遷移到本地。然而這些算法都是通過成對客戶端的相似性來進行個性化知識遷移的,而最近一些研究發現模型聚合本質上是一種合作博弈[13],客戶端之間的影響是多重的,僅僅依靠1對1的模型相似性來衡量客戶端之間數據以及模型的相似度并確定模型聚合系數的方法往往忽略了這一點。

綜上所述,目前大多數的個性化聯邦學習研究都建立在同構模型的基礎上,或者只考慮了成對客戶端協作時的相似度。本文提出的基于合作博弈和知識蒸餾的個性化聯邦學習(personalized Federated learning w ith Collation gam e and Knowledge distillation,pFedCK)算法不僅打破了FL中客戶端數據獨立同分布和模型架構相同的局限,而且利用合作博弈論中的夏普利值(Shap ley Value,SV)[14]來評估合作聯盟中的每個客戶對其他客戶端的個性化學習過程的累計貢獻值,并以此確定聯盟中每個客戶端局部軟預測的聚合系數,最后利用KD將聚合的個性化軟預測的知識遷移到本地模型,并在本地的隱私數據集上進行個性化訓練,提高個性化精度。

2 相關工作

2.1 合作博弈

博弈論既可以用來競爭也可以用來合作,并據此可以分為合作博弈和非合作博弈,其中合作博弈是指參與者以同盟、合作的方式進行不同聯盟之間的對抗,關注的是達成合作時如何分配合作得到的收益[15]。

合作博弈中的SV用來計算累計貢獻的均值,是一種分配方式,往往貢獻越大,收益就相對越多。將SV引入PFL可以通過分析聯盟聚合時的多重影響來評估每個客戶端對其他客戶端個性化學習的累計貢獻。FL中的每個客戶端相當于合作博弈中的一個玩家,其中N={1,2,...,n}為所有客戶端的集合,C為集合N的任意子集,可用來表示一個聯盟,v(C)為 聯盟C中所有元素合作產生的整體效益,一般定義v(?)=0,采用SV可以將聯盟的整體效益進行分配,收益φj(v)(j ∈C)表示客戶端j在集合N的所有子集中產生的貢獻的累計均值

2.2 知識蒸餾

知識蒸餾是一種基于“教師-學生”思想的模型壓縮方法,一般用于將復雜模型的知識壓縮到較為簡單的模型中。通常先訓練好一個教師網絡,然后將教師網絡的輸出結果作為學生網絡學習的目標,從而訓練學生網絡使其輸出不斷接近教師網絡。因此KD損失包含兩部分,一部分為軟損失,另一部分為本地訓練損失。

然而在軟損失中,直接使用教師網絡中softmax層的輸出結果會過濾掉大量的有用信息,因此一般采用溫度參數T(T >0)來平滑各個類別對應的概率分布,softmax函數就是T=1時的特例,T的值越大,softmax層的輸出概率分布就越趨于平滑,負標簽攜帶的信息會被相對地放大

其中,x表 示學生網絡的數據集,Mstu表示學生模型,Mtea表示教師模型,并且采用KL(Ku llback-Leible)散度衡量兩個模型之間的差距。則KD的總損失可以表示為

其中,λ∈(0,1)為加權系數,用于控制學生學習教師的程度,Lcro為交叉熵損失函數,y是學生端數據的標簽。

3 基于合作博弈和知識蒸餾的個性化聯邦學習算法

3.1 訓練目標

本文的訓練目標在于為一組在FL中數據Non-IID并且模型架構不同的客戶端協作訓練個性化模型。假設客戶端N={1,2,...,n},每個客戶端i只能訪問隱私數據集D i。在傳統的FL中,學習目標為得到一個全局模型ω使所有客戶端的總經驗損失最小

其中,L i(ω,D i)是客戶端i的本地損失函數。然而式(4)要求所有客戶端有統一的模型架構,且在本地數據Non-IID時訓練效果明顯下降。因此本文在此基礎上將客戶端i的本地損失函數定義為

其中,Dp表示公共數據集,每個參與訓練的客戶端均可訪問,為經過合作博弈后聚合得到的客戶端i的個性化軟預測,l ogiti為客戶端i的局部軟預測,進而pFedCK算法的訓練目標可以表示為

3.2 pFedCK算法

pFedCK算法的具體過程如算法1所示。

遷移學習:為避免客戶端私有數據稀缺對訓練結果造成影響,在FL訓練之前,采用遷移學習使客戶端先在Dp上 訓練至收斂,然后在Di上進行微調。

然后根據SV將合作聯盟的整體效益分配給聯盟中的每個客戶,表示它在的所有子集X中對當前客戶端i個性化學習的貢獻的累計均值

然后將下載的k個軟預測以及客戶端i的局部軟預測進行聚合得到個性化軟預測

其中,p,q分別為客戶端i的本地軟預測和聚合的個性化軟預測的比例系數。

其中,ωi為客戶端i的模型參數,η1,η2為學習率,L i(ω,D i)則 為客戶端i在隱私數據集Di上 的損失函數。

4 實驗仿真

4.1 仿真設置

實驗基于Tensorflow進行,并與FedMD算法、首k聯邦學習(Top k-Federated Learning,Topk-FL)算法以及KT-pFed算法進行比較,其中Topk-FL算法僅根據余弦相似度從服務器端下載k個軟預測進行平均,進而在本地進行學習。所有算法的性能都通過所有客戶端的平均測試精度來評估。

數據集:在兩種數據場景下進行實驗。

(1)公共數據集是國家技術與標準混合研究所(M ixed National Institute of Standards and Technology,MN IST)數據集,隱私數據集是擴展MN IST(anExtension of MNIST,EMNIST)數據集。對于隱私數據集采用IID和兩種Non-IID情況,在Non-IID 1中,每個客戶端只有EMNIST中一類作者的字,且樣本數量相同,在Non-IID 2中每個客戶端有EMNIST中所有作者的字,但是樣本總量不同。兩種情況下都要求在測試時對所有作者的字進行分類。

算法1 pFedCK算法

(2)公共數據集是CIFAR 10,隱私數據集是CIFAR100。CIAR100數據集有20個超類,每個超類包含5個子類,每個類有600張大小為32× 32的彩色圖像。同樣地,對于隱私數據集同樣采用IID和兩種Non-IID情況,在Non-IID 1中,訓練時每個客戶端只包含1個大類中的1個子類,且樣本數量相同,在Non-IID 2中每個客戶端包含所有的類,但是每個類的樣本數不同,即每個客戶端的樣本總數不同,兩種情況下測試時都需要將通用的測試數據集分類為正確的大類。

模型架構:實驗采用了3種不同的模型結構,包括2層卷積神經網絡,3層卷積神經網絡以及A lexNet,并將這3種模型分配給10個客戶端,每個客戶端的模型參數均不同。

實驗細節:本文設置全局迭代20次,本地迭代20次,本地蒸餾3次,且每次全局迭代中客戶端根據余弦相似度下載7個軟預測(即k=7),學習率η1,η2均為0.001,公共數據集為5000,p-q為0.3–0.7,λ為0.5,其余參數均按照各個算法的最優設置。

4.2 仿真結果

本節展示了p Fed CK算法與FedM D算法、Topk-FL算法以及KT-p Fed算法的訓練效果比較,并對實驗結果進行了詳細分析。

表1總結了4種算法的訓練精度。在表1中,pFedCK算法能在隱私數據IID的情況下,將個性化精度在KT-p Fed算法的基礎上提高約7%,且在Topk-FL算法的基礎上提高約8%,在FedMD算法的基礎上提高約15%;在隱私數據集Non-IID 1的情況下,將個性化精度在KT-pFed算法的基礎上提高約3%,在Topk-FL算法的基礎上提高約5%,在FedMD算法的基礎上提高約10%;在隱私數據集Non-IID 2的情況下將個性化精度在KT-p Fed算法的基礎上提高約2%,在Topk-FL算法的基礎上提高約4%,在FedMD算法的基礎上提高約8%。這是因為FedMD算法沒有考慮不同客戶端的個性化需求,TopK-FL算法沒有考慮客戶端之間相互協作的影響,KT-pFed算法只根據成對客戶端的相似性來決定其參數矩陣中的值并進行個性化,而本文的pFedCK算法則采用合作博弈的思想考慮到了客戶端模型聚合時的多重影響,以此確定聚合系數來提高個性化。

表1 4種算法在不同數據集下的個性化精度

圖1和圖2分別展示了4種算法中10個客戶端在不同數據集訓練過程中的平均訓練精度曲線。由圖1可知,EMNIST數據集IID時pFedCK算法的訓練精度能在其他3種算法的基礎上實現較高程度的提升,且訓練速度明顯快于其他3種,而KT-pFed算法與Topk-FL算法的訓練速度以及精度提升效果基本相當,均明顯遜色于pFedCK算法,FedMD算法則會在第10次全局迭代左右出現較明顯的浮動,相對不穩定。隱私數據Non-IID1時,客戶端數據異構,訓練難度增大,pFedCK算法的訓練精度同樣明顯優于其他3種算法。TopK-FL算法的訓練速度較快,在訓練后半程訓練精度和KT-pFed算法精度水平基本相當,而FedMD算法的訓練精度則最低。隱私數據Non-IID2時,數據異構程度進一步提高,4種算法的訓練精度都有所下降,此時pFedCK算法相對于其他3種算法依然有較明顯的提升,而KT-pFed算法和Top-KL算法相對于FedMD算法的提升效果則相對較差。

圖1 MNIST-EMNIST中4種算法的平均精度

圖2 CIFAR10-CIFAR100中4種算法的平均精度

由圖2可知,由于CIFAR10-CIFAR100的數據復雜度相對較高,這種場景下4種算法實現的數據精度均低于MNIST-EMNIST數據場景,且浮動較大,較為頻繁。CIFAR100數據集IID時,pFedCK算法訓練最快,且訓練精度相對于其他3種算法能實現明顯的提升,而KT-pFed算法和Topk-FL算法的訓練精度的提升幅度較低,且訓練速度基本與FedMD算法持平,FedMD算法的訓練精度則最低。CIFAR100數據集Non-IID1時,由于本地數據分布異構,訓練過程中4種算法均出現較為頻繁的浮動,但pFedCK算法仍然能實現較快的訓練速度以及最大幅度精度提升,而KT-pFed算法的訓練速度較快,訓練效果與Topk-FL算法基本持平且相對較差。CIFAR 100數據集Non-IID 2時,4種算法的訓練精度均進一步降低,此時Topk-FL算法的訓練效果提升幅度相對較差,KT-pFed算法在訓練后半段出現較明顯的提升,而pFedCK算法此時仍然比其他3種算法的訓練精度要高,并且訓練穩定性也較好。

綜上所述,客戶端模型異構時,pFedCK算法在不同數據集以及不同數據分布下均能獲得在同樣設置下優于其他算法的效果。

4.3 超參數的影響

為了了解不同的訓練參數對pFedCK算法效果的影響,本文在學習率η1,η2均為0.001的情況下在兩種不同的數據場景下進行了各種實驗。

本地迭代次數:表2展示了不同本地迭代次數下pFedCK算法的平均精度。可以看出,在MNISTEMNIST數據場景下,隱私數據IID時本地迭代次數為10的時候個性化精度最高,隱私數據Non-IID1和Non-IID2時本地迭代次數為20的時候個性化精度最高。在CIFAR10-CIFAR100場景下,隱私數據IID時本地迭代次數為15的時候個性化精度最高,隱私數據Non-IID1和Non-IID 2時本地迭代次數為20的時候精度最高。可以看出,數據復雜程度越高,在本地訓練的次數也越多。

表2 不同本地迭代次數下pFedCK算法的個性化精度

本地蒸餾次數:表3展示了不同本地蒸餾次數下pFedCK算法的平均精度。可以看出,在MNISTEMNIST場景下,隱私數據IID時本地蒸餾次數為5的時候個性化精度最高,隱私數據Non-IID 1和Non-IID 2時本地蒸餾次數為3時個性化精度最高。在CIFAR10-CIFAR100數據場景下,隱私數據IID時本地蒸餾次數為3時個性化精度最高,而隱私數據Non-IID1和Non-IID2時本地蒸餾次數為2時個性化精度最高。由此可知數據復雜程度越高時,本地蒸餾次數越低,越有利于本地個性化訓練。

表3 不同本地蒸餾次數下pFedCK算法的個性化精度

p,q:表4展示了不同p,q下pFedCK算法的平均精度變化。可以看出在MNIST-EMNIST數據場景下,隱私數據IID時p,q為0.1,0.9時個性化精度最高,隱私數據Non-IID1時p,q為0.4,0.6時個性化精度最高,隱私數據Non-IID2時p,q為0.3,0.7時個性化精度最高。而在CIFAR10-CIFAR100數據場景下,隱私數據IID,Non-IID1時p,q為0.3,0.7時個性化精度最高,隱私數據Non-IID 2時p,q為0.4,0.6時個性化精度最高。由此不難發現,本地數據復雜程度越高時,往往本地軟預測所占的比例越高,越有助于本地客戶端的個性化訓練。

表4 不同p-q下pFedCK算法的個性化精度

加權系數λ:表5展示了不同加權系數λ下pFedCK算法的平均精度的變化,可以看出在MNIST-EMNIST數據場景下,隱私數據IID時λ為0.1時效果最好,隱私數據Non-IID 1和Non-IID 2時λ等于0.3時效果最好,而在CIFAR10-CIFAR100數據場景下,隱私數據IID時在λ為0.5時效果最好,隱私數據Non-IID 1和Non-IID 2時λ為0.8時效果最好。由此可以看出數據復雜程度越高時,要學習的知識更多,因此往往在知識蒸餾過程中教師模型所占據的比重更大。

表5 不同λ下pFedCK算法的個性化精度

綜上所述,對于客戶端本地數據的不同異構情況,數據異構程度越高時,為了獲得更好的訓練效果,往往需要本地迭代次數相對較多,本地蒸餾次數相對較少,并且p,q的比例相對較大,λ的值也相對較大。

5 結束語

針對FL中客戶端數據異構時影響訓練速度以及訓練精度,客戶端模型異構無法進行訓練的問題,本文提出了基于合作博弈和知識蒸餾的pFedCK算法,將合作博弈論中的SV引入到個性化聯邦學習中,以分析客戶端之間協作時的多重影響,并且將其對其他客戶端個性化的累計貢獻以平均值的形式量化,進行個性化聚合,然后在本地引用知識蒸餾克服模型異構的影響并將個性化軟預測的知識遷移到本地。實驗結果證明,pFedCK算法能明顯地提高客戶端的訓練精度。除數據和模型異構之外,FL還存在系統異構性問題,如本地資源,通信能耗等,下一步研究工作將綜合考慮解決兩種異構性問題。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 国内精品一区二区在线观看| 91视频国产高清| 99久久人妻精品免费二区| 国产精品亚洲va在线观看| 台湾AV国片精品女同性| 亚洲精品手机在线| 中美日韩在线网免费毛片视频| 四虎免费视频网站| 国产一区二区色淫影院| 亚洲精品无码av中文字幕| 亚洲欧美人成人让影院| 欧美一区精品| 无码精品国产dvd在线观看9久| 青青操国产视频| 亚洲天堂.com| 人妻丝袜无码视频| 欧美色99| 伊人91在线| 亚洲国产精品不卡在线| 国产激爽爽爽大片在线观看| 免费a级毛片视频| 欧美一级大片在线观看| 国产精品无码AV中文| 欧美色视频在线| Jizz国产色系免费| 亚洲久悠悠色悠在线播放| 国产精品美女免费视频大全| 国产尤物在线播放| 国产成人一区在线播放| 亚洲人成亚洲精品| 天堂亚洲网| 美女扒开下面流白浆在线试听| 又粗又硬又大又爽免费视频播放| 日韩精品无码免费一区二区三区 | 亚洲欧美不卡视频| 亚洲精品国偷自产在线91正片| 欧美不卡视频一区发布| 欧美成人A视频| 国产日韩精品一区在线不卡 | 欧美三级自拍| 伊人91在线| 精品三级网站| 天天操天天噜| 午夜精品区| 中文字幕伦视频| 一本色道久久88亚洲综合| 无遮挡一级毛片呦女视频| 国产免费黄| 99色亚洲国产精品11p| 久久精品视频一| 国产黑人在线| 蜜桃臀无码内射一区二区三区 | 欧美日韩精品在线播放| 日韩无码真实干出血视频| 欧美精品不卡| 久久免费成人| 国产97公开成人免费视频| 久久婷婷色综合老司机| 欧美精品高清| 99视频在线精品免费观看6| 巨熟乳波霸若妻中文观看免费| 国产9191精品免费观看| 亚洲综合精品第一页| 国产欧美日韩专区发布| 久久永久免费人妻精品| 亚洲欧美不卡视频| 国内精品小视频在线| 免费毛片a| 国产精品熟女亚洲AV麻豆| 亚洲天堂在线视频| 免费99精品国产自在现线| 在线99视频| 国产精品一区二区国产主播| 看av免费毛片手机播放| 亚洲人成网7777777国产| 91探花在线观看国产最新| 国产成人无码AV在线播放动漫| 亚洲欧美成人在线视频| 日本不卡在线视频| 99这里只有精品6| 亚洲久悠悠色悠在线播放| 国产二级毛片|