999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于MapReduce的并行PLSA算法及在文本挖掘中的應(yīng)用

2015-04-21 09:26:38羅文娟莊福振史忠植
中文信息學(xué)報 2015年2期
關(guān)鍵詞:語義文本模型

李 寧,羅文娟,莊福振,何 清,史忠植

(1. 中國科學(xué)院計算技術(shù)研究所 智能信息處理重點實驗室,北京 100190;2. 中國科學(xué)院大學(xué),北京 100190;3. 河北大學(xué) 數(shù)學(xué)與計算機學(xué)院機器學(xué)習(xí)與計算智能重點實驗室, 河北 保定 071002)

?

基于MapReduce的并行PLSA算法及在文本挖掘中的應(yīng)用

李 寧1,2,3,羅文娟1,莊福振1,何 清1,史忠植1

(1. 中國科學(xué)院計算技術(shù)研究所 智能信息處理重點實驗室,北京 100190;2. 中國科學(xué)院大學(xué),北京 100190;3. 河北大學(xué) 數(shù)學(xué)與計算機學(xué)院機器學(xué)習(xí)與計算智能重點實驗室, 河北 保定 071002)

PLSA(Probabilistic Latent Semantic Analysis)是一種典型的主題模型。復(fù)雜的建模過程使其難以處理海量數(shù)據(jù),針對串行PLSA難以處理海量數(shù)據(jù)的問題,該文提出一種基于MapReduce計算框架的并行PLSA算法,能夠以簡潔的形式和分布式的方案來解決大規(guī)模數(shù)據(jù)的并行處理問題,并把并行PLSA算法運用到文本聚類和語義分析的文本挖掘應(yīng)用中。實驗結(jié)果表明該算法在處理較大數(shù)據(jù)量時表現(xiàn)出了很好的性能。

概率主題模型;MapReduce;并行;語義分析

1 引言

當(dāng)我們得到一個大規(guī)模的文本數(shù)據(jù)集或者是其他類型的離散數(shù)據(jù)集合時,為了便于理解,總是希望找到這個龐大的數(shù)據(jù)集的一個簡短描述和概括,來代表或是反映出整個數(shù)據(jù)集的特征信息。對文本數(shù)據(jù)來說,就是抽取出一個或幾個主題這樣的抽象概念來描述整個文本數(shù)據(jù)集。例如,一本期刊,我們?nèi)绻浪饕顷P(guān)于娛樂和時尚的,那么它里面所有的文章自然也是這兩個主題相關(guān)的,由此可以根據(jù)自己的愛好選擇是否閱讀這些文章。

傳統(tǒng)的VSM模型使用關(guān)鍵字來表示主題。但這種表達方式比較局限于對文檔貢獻較大的詞,很多用于表示文檔的詞語,由于存在二義性,對于文檔的語義上的描述,效果往往差強人意[1]。為了克服VSM 模型的這些缺點,有學(xué)者提出了主題模型。

主題模型(topic model)又稱層面模型(aspect model),是近幾年興起的一種對數(shù)據(jù)進行挖掘、分析的一種建模方法,它們不僅在場景分類、對象識別等領(lǐng)域取得了好的效果,也成功地應(yīng)用于圖像的自動標(biāo)注和檢索[2-5]。其主要思想為:給定多項分布的潛在變量,捕獲詞的共現(xiàn)模式。一個文檔不再表示為一組詞的共現(xiàn)集合,而是在給定一個潛在變量的情況下,經(jīng)過建模表示為一系列的詞共現(xiàn)集合的混合。這些詞共現(xiàn)集合建模為詞匯表上的多項分布,可稱為文檔集中的“主題”。將這個詞上的多項分布解釋為主題能夠給文檔集一個直觀的結(jié)構(gòu),所以這類概率模型常常稱為主題模型。

主題模型的思想最早來源于隱含語義索引(Latent Semantic Indexing,LSI)[6]。其工作原理是利用矩陣?yán)碚撝械摹捌娈愔捣纸?SVD)”技術(shù),將詞頻矩陣轉(zhuǎn)化為奇異矩陣,通過去除較小的奇異值向量,只保留前K個最大的值,將文檔向量和查詢向量從詞空間映射到一個K維的語義空間(主題)。在該空間中,來自詞語—文檔矩陣的語義關(guān)系被保留,同時詞語用法的變異(如同義性,多義性)被抑制。

主題模型的第二次重大突破是Hofmann提出的PLSA(Probabilistic Latent Semantic Analysis)模型[7-8]。PLSA使用圖模型來表示文檔、主題和詞語三者之間的關(guān)系,將文檔和詞語映射到同一個主題空間。

在文檔層面上,PLSA可以將文檔映射到各個主題,這些主題可以看作文本類別,每一文本所屬類別中概率最大的那一類可作為文本最終所屬類別[9],這樣PLSA的建模過程實際也是對文本進行聚類的過程,從而可以將PLSA模型用于文本聚類。

在詞語層面上,每個詞語對每個主題都有相應(yīng)的概率值,我們可以將概率值最大的那個主題來作為這一詞語所對應(yīng)的最終主題。反過來,每一主題下會有多個詞語與之對應(yīng)。這些詞語被認為是主題相關(guān)的,即在主題角度上語義相近的。因此,我們可以將PLSA模型用于文本中詞語的語義分析。

隨著信息技術(shù)和網(wǎng)絡(luò)的迅猛發(fā)展,網(wǎng)絡(luò)中積累了各個行業(yè)的海量數(shù)據(jù)。如何從這些數(shù)據(jù)中挖掘出人們感興趣的主題成為了一個新的研究課題。傳統(tǒng)PLSA算法采用EM迭代算法來進行求解,使其在處理大數(shù)據(jù)上性能不夠好,將其并行會是一種比較好的解決方案。

對PLSA相關(guān)算法的并行已有一些工作。文獻[10]中,作者采用共享內(nèi)存的OpenMP編程模式,基于Lemur[11]中的TEM對PLSA算法進行了并行實現(xiàn),并提出了分塊算法和塊調(diào)度算法,以達到負載平衡。Wan等人[12]對上述算法進行了擴展,將OpenMP與MPI結(jié)合,采用了共享內(nèi)存和分布式存儲。OpenMP這種模式不適合集群環(huán)境,而MPI雖適合于各種機器,但它的編程模型復(fù)雜。需要分析及劃分應(yīng)用程序問題,并將問題映射到分布式進程集合,并且需要解決通信延遲大和負載不平衡兩個主要問題。

Hadoop[13]是一個實現(xiàn)了MapReduce[14-17]計算模型的開源分布式并行編程框架,借助于MapReduce,我們可以輕松地編寫并行程序,將其運行于計算機集群上,完成海量數(shù)據(jù)的計算。與OpenMP和MPI相比,MapReduce這種并行編程模式通過主節(jié)點的JobTracker來調(diào)度和分發(fā)構(gòu)成一個作業(yè)的所有任務(wù),無需人工干預(yù),其實現(xiàn)算法的機理是不同的。

本文采用MapReduce編程模式對PLSA算法進行并行實現(xiàn),文獻[18]中提出了兩種并行策略P2LSA和P2LSA+,P2LSA在Map階段進行PLSA算法中的E步操作,在Reduce階段進行M步操作,這種并行方式需要在Map和Reduce之間進行大量數(shù)據(jù)的傳遞,會加重網(wǎng)絡(luò)和總的運行時間開銷。P2LSA+首先將E步和M步進行整合,設(shè)計兩個job來完成迭代更新操作。本文設(shè)計了一種新的并行策略,迭代過程只涉及一個job,取得了更好的并行效果。

本文的安排如下:第二部分介紹PLSA算法和MapReduce的相關(guān)知識;第三部分給出基于Map-Reduce的并行PLSA算法的詳細實現(xiàn)過程;第四部分實驗結(jié)果及在文本聚類和語義分析中的應(yīng)用;第五部分對整篇文章進行了總結(jié)。

2 相關(guān)知識

2.1 PLSA算法 概率潛在語義分析(Probabilistic Latent Semantic Analysis(PLSA))模型,是在主題建模(Topic Modeling)領(lǐng)域發(fā)展成熟的一種統(tǒng)計技術(shù),主要用于雙模態(tài)(two-mode)和共生(co-occurrence)型數(shù)據(jù)。PLSA模型提出了對文本集進行主題建模的基本思想,通過對潛在語義分析(LSA)模型進行一層概率封裝,可以將一個文本文檔建模為若干潛在主題的混合,而每個主題都表示為一個詞的多項分布。

PLSA模型使用圖模型來表示文檔、主題和詞語三者之間的關(guān)系,將文檔和詞語映射到同一個主題空間。文檔可以用主題的混合比重來表示,建??梢允闺x散的共現(xiàn)矩陣降維成固定主題集下的概率分布。其原理圖如圖1所示。

圖1 PLSA模型的兩種圖模型表示

PLSA模型的主要任務(wù)是針對共現(xiàn)矩陣尋求一個生成模型。圖1(a)中d表示文檔,詞以 w∈W,W={w1,…,wM} 表示,其中字典W相當(dāng)于是M個字詞所形成的集合。假定每個字詞由給定文檔下的語義主題(隱藏變量)z∈Z={z1,…,zK} 產(chǎn)生,整個文檔生成過程如下:

? 選擇一篇文檔,其概率表示為p(d);

? 基于當(dāng)前文檔條件下,挑選一個潛在主題z,其概率為P(z|d),服從多項分布;

? 基于當(dāng)前主題下,產(chǎn)生一個詞的概率為P(w|z),服從多項分布。

(1)

由上述生成過程,可得出共現(xiàn)矩陣的聯(lián)合概率模型如式(1)所示,式中對所有可能的z模擬意向模型,條件概率 P(w|z) 是K個關(guān)于主題的條件概率平面P(z|d) 的凸組合。文檔由其P(w|z) 的因子的混合描述。PLSA主要基于兩個方面的工作,即基于統(tǒng)計的潛在主題模型和兩個獨立性假設(shè):

? 在潛在主題z狀態(tài)下,文檔和詞是獨立產(chǎn)生的;

? 詞和潛在主題也是獨立產(chǎn)生,與具體的文檔沒有關(guān)系。

根據(jù)上述兩個獨立性假設(shè),可將模型轉(zhuǎn)化潛在主題z下的對稱模型,如圖1(b)所示。則式(1)中的聯(lián)合概率可改寫為式(2)中的形式。

(2)

PLSA的模型參數(shù)是兩個條件概率分布P(w|z) 和P(z|d),這兩個參數(shù)都滿足多項分布,可以使用EM算法計算得到[19]。EM算法的兩個步驟表示如式(3)~(6)所示。

(1)E步:

(3)

(2)M步:

(4)

(5)

(6)

2.2MapReduce

MapReduce將復(fù)雜的運行于大規(guī)模集群上的并行計算過程高度的抽象到了兩個函數(shù):Map和Reduce,適合用MapReduce來處理的數(shù)據(jù)集(或任務(wù))有一個基本要求: 待處理的數(shù)據(jù)集可以分解成許多小的數(shù)據(jù)集,而且每一個小數(shù)據(jù)集都可以完全并行地進行處理。

圖2說明了用MapReduce來處理大數(shù)據(jù)集的過程,這個MapReduce的計算過程簡而言之,就是將大數(shù)據(jù)集分解為成百上千的小數(shù)據(jù)集,每個(或若干個)數(shù)據(jù)集分別由集群中的一個節(jié)點(一般就是一臺普通的計算機)進行處理并生成中間結(jié)果,然后這些中間結(jié)果又由大量的節(jié)點進行合并,形成最終結(jié)果。

圖2 MapReduce計算流程

計算模型的核心是Map和Reduce兩個函數(shù),這兩個函數(shù)由用戶負責(zé)實現(xiàn),功能是按一定的映射規(guī)則將輸入的 對轉(zhuǎn)換成另一個或一批 對輸出。

3 基于MapReduce的并行PLSA算法

通過對PLSA算法的分析我們可以看出,其主要的求解步驟為通過EM算法來計算P(w|z),P(z|d)和P(z)。為了方便說明問題,將n(d,w)P(z|d,w)用A表示,代入公式(4)~(6),得式(7)~(9)。

(7)

(8)

(9)

整個迭代過程主要是計算 ∑dA,∑wA 和R,而計算每篇文檔的A和 ∑wA是相互獨立的,互不干擾,可以在不同節(jié)點上并行完成。R的計算過程為一個計數(shù)過程,即將文檔中所有出現(xiàn)單詞的詞頻求和。因此,可以設(shè)計兩個job來完成以上計算,一個job用于計算∑dA和∑wA,另一個job計算R。

對于計算 ∑dA和 ∑wA的job,在Map階段完成每一篇文檔的A和 ∑wA的計算,輸入為一系列的對,每一對表示一篇文檔,其中key為該條記錄相對于數(shù)據(jù)文件起始點的偏置,value為用字符串表示的記錄內(nèi)容。在Reduce階段完成 ∑dA的計算。CountAMapper和CountAReducer分別描述了詳細的Map函數(shù)和Reduce函數(shù)的實現(xiàn)過程。

對于R的計算,在Map階段完成一篇文章的 ∑wn(d,w), 如CountRMapper所示。在此基礎(chǔ)上,計算所有文檔的 ∑d,wn(d,w) 在Reduce階段完成,如CountRReducer所示。

CountAMapperMap(key,value)輸入:pz,pdz,pwz,,偏置key,字符串value輸出:pair1.初始化arrayzd[]用于存儲∑wA2.for(inti=1;i

CountAReducer Reduce(key,value)1.初始化計數(shù)器sum=0;2.for(Textvalue:values)3. sum+=value/?對具有相同key值的value值求和?/4.end5.輸出(key,sum);

CountRMapper Map(key,value)輸入:偏置key,字符串value輸出:pair1.nCount=0;2.for(inti=1;i

CountRReducer Reduce(key,value)1.初始化sum=0;2.for(Textvalue:values)3. sum+=value;4.end5.輸出(key,sum);

根據(jù)以上并行策略,我們給出完整的并行 PLSA 算法。如算法PPLSA所示。

算法PPLSA1.初始化p(z),p(w|z),p(d|z);2.執(zhí)行計算R的job;3.for(circleID=1;circleID<=numCircle;circleID++)/?numCircle為最大循環(huán)次數(shù)?/4. 執(zhí)行計算∑dAand∑wA的job5. 計算∑d,wA;6. 更新p(z),p(w|z),p(d|z);7.end8.輸出p(z),p(w|z),p(d|z).

4 實驗及在文本挖掘中的應(yīng)用

為驗證所提出的并行PLSA算法的性能,我們將其置于云計算平臺上運行。實驗環(huán)境為由10臺計算機搭建的集群,我們選用其中的四個節(jié)點來運行,每個節(jié)點CPU配置為2.8GHz,內(nèi)存為4GB。MapReduce系統(tǒng)所采用的Hadoop版本為0.20.2,Java版本為1.5.0_14。

4.1 實驗設(shè)計

文本聚類技術(shù)可以有效組織網(wǎng)絡(luò)文本、幫助使用者獲得他們想要的信息[20-21]。本文中,我們將并行PLSA算法應(yīng)用于文本聚類和語義分析上。用于文本聚類的數(shù)據(jù)來源于從中興、華為主頁及相關(guān)論壇上采集的網(wǎng)頁文本。網(wǎng)址如下: http://www.zte.com.cn, http://www.huawei.com/cn, http://bbs.c114.net, http://www.hwzte.com。

對于語義分析,我們將證券相關(guān)網(wǎng)頁作為訓(xùn)練數(shù)據(jù),對給定的檢索詞,輸出與其主題相關(guān)的詞。對于一個文檔數(shù)據(jù)集,PLSA算法可以找到每個單詞所對應(yīng)的主題并輸出相對應(yīng)的概率值,我們可以由此找出每個單詞所對應(yīng)的主題,即概率值取值最大的那個主題。從而建立單詞-主題-概率值這樣的映射關(guān)系。

建立映射之后,可以根據(jù)映射關(guān)系找到每個主題下所有的單詞及其所屬概率值,對于輸入的檢索詞,首先根據(jù)映射關(guān)系找到其所屬的主題,然后輸出這一主題下概率值最大的前幾個詞作為語義分析的輸出。

為了驗證并行PLSA算法在處理大數(shù)據(jù)集時的性能,我們選用兩個數(shù)據(jù)集來進行實驗,其中一個為TREC AP文檔集,包含2 246篇文檔,10 473個單詞。另一個為從證券相關(guān)網(wǎng)頁上采集到的網(wǎng)頁文本,包含216個html文檔,27 925個單詞。

性能指標(biāo)方面,采用scaleup,sizeup,speedup來評價PLSA算法的并行性能。

Scaleup: 度量了不同處理器規(guī)模下,處理不同規(guī)模數(shù)據(jù)的性能。具體定義公式為式(10)。

Scaleup=

(10)

Sizeup: 度量了在平臺固定的情況下,不斷增大數(shù)據(jù)集時的性能。具體定義公式為(11)。

(11)

Speedup: 度量了并行計算比串行計算加快的程度。具體定義公式為(12)。

(12)

為說明本文所提算法的高效性,與文獻[18]中的P2LSA+算法進行了時間上的對比。

4.2 實驗結(jié)果

4.2.1 在文本聚類中的應(yīng)用

我們從中興、華為主頁及相關(guān)論壇上對網(wǎng)頁文本進行了采集,經(jīng)過網(wǎng)頁解析,文本凈化,詞頻統(tǒng)計,向量表示,特征選取等預(yù)處理過程,將網(wǎng)頁文本表示成可以直接處理的向量。然后用并行PLSA對其進行聚類。表1列出了聚類結(jié)果,共聚出了10類文本,每類文本分別用10個詞來描述其主題。

表1 PLSA聚類結(jié)果

從表1中可以看出,PLSA算法可以很好的應(yīng)用到文本聚類中。

4.2.2 在語義分析中的應(yīng)用

我們對308個證券相關(guān)網(wǎng)頁進行處理,表2列出了所得到的結(jié)果。

表2 主題相關(guān)的語義分析結(jié)果

從此結(jié)果可以看出,PLSA算法可以找到在主題層面上語義相關(guān)的詞,而不單單是詞義相近的。

4.2.3 Scaleup

為驗證算法在多處理器下處理大數(shù)據(jù)集的性能,我們將原數(shù)據(jù)集擴大至原來的60倍,120倍,240倍,分別在4,8,16臺機器上運行。將四個節(jié)點的運行時間做為基準(zhǔn),所得到的scaleup性能如圖3所示。

圖3 Scaleup性能展示

從圖3中可以看出,隨著數(shù)據(jù)規(guī)模和節(jié)點規(guī)模的增大,所得到的scaleup曲線幾乎保持為常數(shù)1,顯示了很好的擴展性能。

4.2.4 Sizeup

為驗證算法的sizeup性能,我們分別固定節(jié)點數(shù)為4,8和16,對于每種固定節(jié)點,不斷增大數(shù)據(jù)規(guī)模,圖4展示了兩個數(shù)據(jù)集的實驗結(jié)果。

從圖4中可以看出,算法表現(xiàn)出了較好的sizeup性能,隨著數(shù)據(jù)規(guī)模的增大,性能提升也越明顯。原因在于,增大數(shù)據(jù)規(guī)模會增加I/O操作和文檔處理,使得非通信時間增大,進而導(dǎo)致通信時間在整個算法運行時間中的比例減少。而CPU處理又有著很好的擴展性能,因此我們得到了比較好的sizeup性能。

圖4 Sizeup性能展示

4.2.5 Speedup

我們用四核機器的數(shù)據(jù)作為基準(zhǔn)來驗證加速比性能。結(jié)果如圖5所示。

圖5 speedup性能展示

從圖5可以看出,當(dāng)核數(shù)比較少的時候,并行PLSA算法可以達到線性加速比。當(dāng)節(jié)點數(shù)增長時,提高的性能并不明顯。原因在于隨著節(jié)點數(shù)增多,節(jié)點間相互通信的絕對時間增大,其在整個執(zhí)行時間中所占比例也隨之增大。當(dāng)計算時間減小時,增加節(jié)點數(shù)已經(jīng)不能提高更多的加速比。

另外,算法在大的數(shù)據(jù)集上表現(xiàn)出了比較好的加速比性能。因為數(shù)據(jù)集增大,每個節(jié)點處理的數(shù)據(jù)量相應(yīng)增加,計算時間在整個執(zhí)行時間中所占比例提高,因此,算法可以有效地處理大數(shù)據(jù)集。

4.2.6 與其他方法的比較

如前所述,文獻[18]中提出了兩種并行策略P2LSA 和P2LSA+,后者比前者表現(xiàn)出了較好的并行效率,執(zhí)行速度更快。本文針對240倍大小的AP數(shù)據(jù)集,在相同實驗環(huán)境下,用四核機器的數(shù)據(jù)作為基準(zhǔn),與P2LSA+進行了speedup的對比,結(jié)果如圖6所示。

圖6 與P2LSA+算法的speedup對比結(jié)果

由于本文所提算法用一個job來完成PLSA算法中的迭代過程,而P2LSA+則需要兩個job來完成,因此本文算法有著更好的并行性能,從圖6也可以看出,本文所提算法比P2LSA+顯示了更好的加速比性能。

5 結(jié)語

針對串行PLSA算法難以處理大數(shù)據(jù)集的問題,本文提出了一種基于MapReduce的并行PLSA算法,并將其應(yīng)用到文本聚類和主題語義分析中。實驗證明所提算法有著較好的并行性能,并且在聚類和語義分析中有著很好的應(yīng)用。

[1] 宋曉雷,王素格, 李紅霞, 等. 基于概率潛在語義分析的詞匯情感傾向判別[J]. 中文信息學(xué)報, 2011, 25(2): 89-93.

[2] Blei D M, Jordan M I. Modeling annotated data[C]//Proceedings of the 26th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. Los Alamitos: IEEE Computer Society, 2003: 127-134.

[3] Monay F, Gatica-Perez D. Modeling semantic aspects for cross-media image indexing [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(10): 1802-1817.

[4] Li Z-X, Shi Z-P, Liu X, et al. Automatic image annotation with continuous PLSA[C]//Proceedings of the 35th IEEE International Conference on Acoustics, Speech and Signal Processing. Los Alamitos: IEEE Computer Society, 2010: 806-809.

[5] Mark Steyvers. Probabilistic Topic Models[C]//Proceedings of Latent Semantic Analysis: A Road to Meaning. Laurence Erlbaum,2007:420-440.

[6] Scott CD, Susan TD, Thomas KL,et al. Indexing by latent semantic analysis[J]. Journal of the American Society for Information Science, 1990,41(6):391-407.

[7] Hofmann T. Probabilistic Latent Semantic Analysis[C]//Proceedings of 15th Conference on Uncertainty in Artificial Intelligence, San Francisco: Morgan Kaufmann, 1999: 289-296.

[8] Hofmann T. Unsupervised learning by probabilistic latent semantic analysis [J]. Machine Learning, 2001, 42(1): 177-196.

[9] 張玉芳, 朱俊, 熊忠陽. 改進的概率潛在語義分析下的文本聚類[J]. 計算機應(yīng)用, 2011, 31(3): 674-676.

[10] Hong C, Chen W, Zheng W, et al. Parallelization and characterization of probabilistic latent semantic analysis[C]//Proceedings of Parallel Processing, 2008. ICPP’08. 37th International Conference on. IEEE, 2008: 628-635.

[11] The Lemur Toolkit for Language Modeling and Information Retrieval. Available at http://www.lemurproject.org.

[12] Wan R, Anh V N, Mamitsuka H. Efficient probabilistic latent semantic analysis through parallelization[M]Information Retrieval Technology. Springer Berlin Heidelberg, 2009: 432-443.

[13] Hadoop: Open source implementation of MapReduce, Available: http://hadoop.apache.org, June 24, 2010.

[14] Dean J, Ghemawat S. MapReduce: Simplified Data Processing on Large Clusters[C]//Proceedings of Operating Systems Design and Implementation, San Francisco, CA, 2004: 137-150.

[15] Ghemawat S, Gobioff H, Leung S. The Google File System[C]//Proceedings of Symposium on Operating Systems Principles, 2003: 29-43.

[16] Lammel R. Google’s MapReduce Programming Model—Revisited. Science of Computer Programming 70, 2008: 1-30.

[17] 李銳,王斌.文本處理中的MapReduce技術(shù)[J].中文信息學(xué)報, 2012, 26(4):9-20.

[18] Y Jin. P2LSA and P2LSA+: Two Paralleled Probabilistic Latent Semantic Analysis Algorithms Based on the MapReduce Model[C]//IDEAL 2011, LNCS 6936, 2011: 385-393.

[19] Qiaozhu Mei, ChengXiang Zhai. A note on EM algorithm for probabilistic latent semantic analysis[C]//Proceedings of the International Conference on Information and Knowledge Management (CIKM),2001.

[20] 趙世奇, 劉挺, 李生. 一種基于主題的文本聚類方法[J]. 中文信息學(xué)報, 2007, 21(2): 58-62.

[21] 劉遠超, 王曉龍, 徐志明, 等. 文檔聚類綜述[J].中文信息學(xué)報, 2006,20(3): 55-62.

MapReduce Based Parallel Probabilistic Latent Semantic Analysis for Text Mining

LI Ning1,2,3, LUO Wenjuan1,2, ZHUANG Fuzhen1, HE Qing1, SHI Zhongzhi1

(1. The Key Laboratory of Intelligent Information Processing, Institute of Computing Technology, Chinese Academy of Sciences, Beijing 100190, China; 2. University of Chinese Academy of Sciences, Beijing 100190, China; 3. Key Lab. of Machine Learning and Computational Intelligence, College of Mathematics and Computer Science, Hebei University, Baoding, Hebei 071002, China)

PLSA((Probabilistic Latent Semantic Analysis) is a typical topic model. To enable a distributed computation of PLSA for the ever-increasing large datasets, a parallel PLSA algorithm based on MapReduce is proposed in this paper. Applied in text clustering and semantic analysis, the algorithm is demonstrated by the experiments for s its scalability in dealing with large datasets.

probabilistic latent semantic analysis; MapReduce; text clustering; semantic analysis

李寧(1982—),博士,講師,主要研究領(lǐng)域為機器學(xué)習(xí),數(shù)據(jù)挖掘,主題模型。E?mail:lin@ics.ict.a(chǎn)c.cn羅文娟(1987—),博士,主要研究領(lǐng)域為社交網(wǎng)絡(luò),文本挖掘,個性化推薦。E?mail:wenjuan.luo@renren?inc.com莊福振(1983—),博士,副研究員,主要研究領(lǐng)域為遷移學(xué)習(xí),機器學(xué)習(xí)與并行數(shù)據(jù)挖掘。E?mail:zhuangfz@ics.ict.a(chǎn)c.cn

1003-0077(2015)02-0079-08

2013-06-09 定稿日期: 2014-02-19

國家自然科學(xué)基金(61175052,61203297,61035003);國家863高技術(shù)研究發(fā)展計劃(2014AA012205, 2013AA01A606, 2012AA011003)。

TP391

A

猜你喜歡
語義文本模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
語言與語義
在808DA上文本顯示的改善
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認知闡釋
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
認知范疇模糊與語義模糊
主站蜘蛛池模板: 欧美亚洲欧美| 日本在线国产| 国产丝袜无码精品| 国产精品欧美亚洲韩国日本不卡| 国产三级毛片| 成人精品亚洲| 亚洲国产精品成人久久综合影院| 日韩无码视频专区| 亚洲第一区精品日韩在线播放| 成人一区在线| 国产午夜人做人免费视频中文 | 国产成人免费| 亚国产欧美在线人成| 久久99国产视频| 国产精品无码久久久久久| 日韩经典精品无码一区二区| 成人午夜视频在线| 国产精品久久久免费视频| 欧美有码在线观看| 不卡午夜视频| 在线观看国产精品日本不卡网| 欧美日韩成人| 久久国产精品影院| 国产午夜精品一区二区三区软件| 国产欧美日韩一区二区视频在线| 91热爆在线| 成人国产精品一级毛片天堂| 国产91丝袜| 香蕉99国内自产自拍视频| 69综合网| 亚洲三级电影在线播放| 四虎成人精品在永久免费| 日韩美一区二区| 亚洲人成网站在线播放2019| 欧美在线国产| 日本91在线| 波多野结衣国产精品| 久久综合激情网| 日韩精品高清自在线| 国产91色在线| 国产精品三区四区| 精品国产欧美精品v| 在线综合亚洲欧美网站| 亚洲精品无码日韩国产不卡| 中文国产成人精品久久一| h网址在线观看| 成人国产一区二区三区| 91福利国产成人精品导航| 国产成人一区免费观看| 99热国产这里只有精品9九 | 亚洲无码免费黄色网址| 四虎免费视频网站| 国产成人久视频免费| 成人字幕网视频在线观看| 九色91在线视频| 成人午夜亚洲影视在线观看| 色综合色国产热无码一| 欧美激情首页| 亚洲成人动漫在线观看 | 国产国产人在线成免费视频狼人色| 久久精品女人天堂aaa| 2048国产精品原创综合在线| 欧美色99| 99视频在线观看免费| 夜色爽爽影院18禁妓女影院| 在线国产综合一区二区三区| 精品无码人妻一区二区| 亚洲欧美日韩中文字幕在线| 免费一级毛片在线观看| 国产超碰在线观看| 97免费在线观看视频| 在线a视频免费观看| 亚洲VA中文字幕| 亚洲天堂视频网站| 久久国产拍爱| 国产主播福利在线观看| 久久无码高潮喷水| 国产网站免费| 国产乱人免费视频| P尤物久久99国产综合精品| 久综合日韩| 无码AV动漫|