999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合語言特征的多模態中文反諷識別模型

2025-08-27 00:00:00胡文彬陳龍韓天樂仲兆滿馬常霞
鄭州大學學報(理學版) 2025年5期

中圖分類號:TP391 文獻標志碼:ADOI:10. 13705/j. issn. 1671-6841.2024096

文章編號:1671-6841(2025)05-0016-08

Abstract:In light of the disparity between graphic and text modes and insufficient atention to textual information,a multimodal Chinese sarcasm detection model integrated with linguistic features was proposed.The Chi-square statistical method was used to extract words with sarcastic and non-sarcastic meanings,forming the linguistic feature system. TextCNN was utilized to extract linguistic features,enhancing the distinction between sarcastic and non-sarcastic characteristics. TextCNN and ResNet were employed to extract text and image features,and a cross-attention mechanism was introduced. Residual connections were used to fuse text and image features,to help preserve language characteristics.The effectiveness of the proposed model was verified by using an emergency multimodal dataset containing sarcastic comments.The results showed that the model outperformed the baseline model,and focusing on textual linguistic features helped improve the efficiency of problem-solving.

Key Words: linguistic feature; Chinese sarcasm detection; emergency event; multimodality

0 引言

情趨勢,甚至導致網絡輿情發展不可控。因此,通過反諷識別研究有助于管理者了解公眾對突發事件的真實想法[2],及時控制輿情。

當前,社交媒體中存在著大量的網民參與話題討論的信息,通過情感分析可以了解網民的真實意圖。然而,網民在參與一些突發事件話題討論時,更傾向使用反諷來表達觀點和想法[1]。這不僅影響傳統情感分析的識別精度,而且造成管理者誤判輿

微博是國內最大的社交媒體平臺之一,隨著用戶發布圖文多模態消息占比的迅猛增長,開展圖文信息多模態研究具有重大意義。然而,經過知網檢索和谷歌學術搜索后發現,中文反諷識別研究文章數量占比很低,且這些研究很少涉及除文本之外的其他模態的利用。《2020微博用戶發展報告》顯示,微博評論充滿隨意和個性化的特點,主要表現在以下幾個方面:使用大量網絡語言,不注重語句邏輯,表達較為隱晦難懂以及內容簡潔。因此,應充分利用這些特征開展研究,以提升反諷識別的準確性。

現有的多模態模型的整體設計大多集中在深度學習模型的訓練上,以模態間信息融合與交互、捕捉“模態間矛盾”為重點來設計相關模型[3-4],忽略了反諷語句本身顯式的語言特征。針對以上問題,本文使用深度學習的方法挖掘語句深層語義特征,結合微博評論中的顯式語言特征,提出了一種融合語言特征的多模態中文反諷識別模型。首次嘗試在多模態反諷識別研究中引人語言特征模塊,所提模型在準確率上表現突出,同時驗證了語言特征的實質性作用。

1相關工作

1.1 純圖文模態反諷識別

早期的反諷識別研究主要集中在純文本領域,隨著多模態消息的增長和深度學習技術的進步,近年來多模態反諷識別研究發展迅速。Schifanella等[5]考慮了諷刺檢測的文本和圖像特征,并提出了兩種方法來實現反諷識別任務,是模態間的簡單融合。張繼東等[3提出一種多模態深度學習模型,在模態內和模態間的特征融合層以簡單加權的方式實現融合。但是,這些模型未充分考慮模態間的信息交互。

為了解決模態之間存在的不一致性問題,Wang等[提出一個以BERT為基礎的模型,設計了2D-Intra-Attention來探索文字和圖像之間的差異。Pan等[]提出一個基于BERT架構的模型,該模型通過使用注意力機制來獲取反諷識別模態內與模態間的不一致性。Gupta 等[8]提出了基于RoBERTa的協同關注模型,使用RoBERTa對文本編碼,利用FiLMedResNet模塊對輸人圖像提取特征,通過構建聯合注意力解決輸人文本和圖像的不一致性問題。Liang等對圖像進行切片處理后,使用圖卷積神經網絡來建模圖文模態間的不協調關系。Wen等[10]提出了由兩個分支組成的雙重不一致感知網絡,從事實和情感層面挖掘諷刺信息。Tian等[1]提出了動態路由Transformer網絡,利用動態路徑來適應模態間不一致性分層。

1. 2 輔助模態設計

一些研究者采用基于規則或統計的方法,將設計的文本或圖片作為一種新模態添加到模型中,完成最終的模型設計。Cai等[12]使用屬性預測器對每個圖像進行屬性預測,將得到的圖像屬性作為連接文本和圖像之間的額外模態,通過融合這些模態特征進行預測。Sangwan等[i3]使用OCR技術提取嵌入在圖像中的文本,將其作為一種模態構建分類網絡,以提高預測效果。 ΔXu 等[14]通過從圖像中提取不同詞性的語義信息,設計了一個網絡來表征文本和圖像之間的多視圖語義關聯。Liang等[15采用目標檢測的方法,在圖像中識別與文本描述相符的物體,設計了一個基于圖卷積神經網絡的框架,捕捉模態間的不一致性。

2微博評論文本語言特征體系構建

2. 1 語言特征體系構建流程

反諷語句本身存在的一些特征,使得深度學習模型在學習反諷語句時面臨較大的挑戰。本文在文獻[16]的基礎上,結合微博評論的特點,通過文本評論的卡方檢驗,得到詞語和詞匯搭配。在一系列篩選和整理后,構建出反諷語言特征體系和非反諷語言特征體系。語言特征體系構建流程見圖1。

2.2 反諷語言特征體系構建

2.2.1反諷語言特征本文旨在深人探討微博評論中的反諷語言特征,并構建出相應的反諷語言特征體系,具體的反諷語言特征如下。

1)固定詞匯搭配。固定詞匯的搭配在反諷語句中經常出現,因此這一特征被考慮最多[16-17]。例如:“今天氣溫 35°C ,還可以再熱一點嗎?”其中,“還可以再…一點…”是反諷語句中的固定搭配形式,表達了對燥熱天氣的不滿。

2)詞義轉化詞。在反諷語句中,會使用某些褒義詞來起到貶義的效果。在微博反諷評論中,這一現象尤為明顯。因此,將這種現象作為微博評論反諷語言的一個重要特征加以研究。例如:“這次活動真是太有創意了,每天新花樣令人驚嘆,感謝主辦方帶來的精彩,首次體驗了完美混亂,值得銘記。”其中,“驚嘆”“精彩”“銘記”等褒義詞與該語境產生強烈沖突,表達了對事件處理的不滿。

3)諧音詞和網絡詞。諧音詞和網絡詞皆是通過在語義上與原文產生反差來表達反諷效果。例如:“我勸你耗子尾汁!”其中“耗子尾汁”是“好自為之”的諧音詞。

圖1語言特征體系構建流程

Figure1 Process of constructing linguistic feature system

4)特定的語氣詞。在反諷語句中,會將語氣詞用于表達戲謔、諷刺等意味。例如:“哈哈哈,對不起,真的要笑死了。”其中,“哈哈哈”在這句話中充滿了反諷意味。

5)特定的標點符號。標點符號可以通過特定的使用方式來表達反諷意味,不僅增加了語言的深度和趣味性,也促進了讀者對信息更加細致的解析。例如:“在這種情況下竟然還能搞砸事情,真是太不可思議了!!!”其中,通過嘆號表達了諷刺意味。

6)特定的表情符號。某些表情符號在使用時含義已經開始變味,用于表達諷刺等意味。例如:“這次公司年會的組織真是典范標桿 。”其中,通過使用“ ⑤ ”這一表情符號,傳達了一種反諷的語氣。

7)特定的數字。使用一些數字可以傳達情感信息,用于表達嘲笑等意味。例如:“又被裁員了,看來在管理這一塊兒玩得可真6啊!”結合語境,表達了作者的不滿。

2.2.2反諷語言特征體系選取方法與結果使用卡方檢驗 (χ2 )統計量的大小作為衡量指標,評估反諷語言特征在評論數據中的顯著性和重要性。

1)詞匯搭配選取方法與結果

在詞匯搭配研究中,采用一種自動的方法,使用nltk包對文本進行分詞和預處理,并對詞匯搭配進行統計和計算卡方值,最終選取了前1000條卡方統計值最大的詞匯搭配。采用人工收集的方法,對前人工作中的詞匯搭配結果和本文計算出的卡方值結果進行對比和整理,最終篩選出適用于本文數據集的22條詞匯搭配規則。反諷詞匯搭配規則的部分卡方統計值結果見表1。

表1反諷詞匯搭配規則的部分卡方統計值

Table1 Partial Chi-squarestatisticsresultsfor sarcasticvocabularycollocationrules

2)詞匯和符號特征選取方法與結果

通過對數據集進行分詞和詞匯的卡方值計算,輸出了前6000條卡方值高的詞匯,進一步研究、分析和篩選后,得到諧音詞和網絡詞、詞義轉化詞和語氣詞共136條,表情符號、標點符號和數字共57條。為了便于處理,將表情符號轉換為相應的文本。反諷詞匯的部分卡方統計值結果見表2。

表2反諷詞匯的部分卡方統計值

Table 2 Partial Chi-squarestatisticsresultsfor

2.3非反諷語言特征體系構建

2.3.1非反諷語言特征為了填補因缺乏語言特征而出現的特征空值,使語言特征更加對稱,從而更全面地捕捉文本信息,構建了非反諷語言特征體系,其語言特征如下。

1)明顯的情緒表達詞。明顯的情緒表達詞直接傳達了作者的某種情感,沒有任何隱藏的含義。

2)非反諷性諧音詞和網絡詞。這些詞大多為與原詞語發音相似的詞語變形或網絡中創造的新詞匯和縮寫,用于增添趣味性、幽默感或表達特定情緒

2.3.2非反諷語言特征體系選取方法與結果通過構建非反諷語言特征體系,進一步提升模型對非反諷語句的分類準確性,并最終提升模型的整體準確性和魯棒性。對數據集中前6000條卡方值較高的詞匯進行篩選和分析,得到明顯的情緒表達詞667條(積極詞條201條,消極詞條176條,中性詞條290條),非反諷性諧音詞和網絡詞20條。非反諷詞匯的部分卡方統計值結果見表3。

3多模態中文反諷識別模型構建

3.1 模型組成

所構建的模型主要包含以下三個部分。

表3非反諷詞匯的部分卡方統計值

Table3 Partial Chi-squarestatisticsresultsfor

1)文本和語言特征模態表示。使用TextC-NN[18] 獲取文本和語言特征表示。

2)圖像模態表示。使用ResNet[19]提取圖像特征。

3)模態融合。通過使用交叉注意力機制將圖像和文本的特征表示融合在一起,捕捉反諷特征,利用語言特征增強對反諷句和非反諷句的區分能力。最后,將得到的特征輸入至全連接層(FC)中進行二分類判別。

為了研究方便,把表情特征轉化為文本形式,將其視為文本特征。融合語言特征的多模態中文反諷識別模型如圖2所示。

圖2融合語言特征的多模態中文反諷識別模型

Figure2A multimodal Chinese sarcasm detection model integrated with linguistic features

3.2文本和語言特征模態表示

使用 Word2Vec 模型從海量文本中學習語義信息,得到構建數據集中的每條文本向量化表示,用 表示長度為 Ωn 的第 k 條文本的 d 維詞向量表示。后續TextCNN模型的輸入是一個 n×d 矩陣 X ,其中矩陣的行表示一段文本中一個詞的 d 維詞向量表示。對矩陣 X 進行卷積操作,在X 上進行滑動窗口計算,得到特征圖 c 。一次卷積計算表示為

Ci=f(W×Xi:i+h-1+b),

其中: Xi:i+h-1 表示矩陣 X 的第 i 行到第 i+h-1 列;W 是卷積核,其大小為 h×d;b 為偏置向量; f 為激活函數。對得到的每個特征圖 c ,通過最大池化操作得到池化向量 Ψt ,即

t=max(C)

將所有的池化向量 連接形成一個長向量 T 通過一個全連接層進行分類。以同樣的方式獲得語言特征 ,以便后續使用。

3.3 圖像模態表示

使用ResNet34獲取圖像特征,將輸入圖像的像素大小設置為 224×224×3 ,經過一系列卷積層、池化層和殘差連接操作后,得到了輸出像素大小為 7×7× 512的特征圖。為了后續任務使用,將模型的最后一個全連接層的輸出維度調整為所需的維度,最終得到圖像特征 I

3.4 模態融合

將文本特征 T 和圖像特征 ΠI 通過交叉注意力機制學習到模態間的交互信息,以殘差連接方式進行模態融合,建立它們之間的聯系,最終設計出一個特征融合模塊。將文本特征 T 作為查詢 ,圖像特征I 作為鍵 K 和值 V ,通過應用注意力機制得到文本層面的注意力特征 Ar ,計算公式為

其中: WQ,WK,WV 是模型訓練過程中可學習的參數矩陣。引入 dk 的目的是平衡不同維度對相似度計算的影響。將多個頭的輸出連接起來,得到總的文本層面注意力特征。通過使用殘差連接的方式,將原始的文本特征 T 和經過交叉注意力機制得到的文本層面的注意力特征 Ar 連接起來,這樣既保留了原始文本特征的信息,又得到了圖文交互信息。

至此,得到了文本層總輸出 F ,即

F=AT+T

同樣地,將圖像特征作為查詢 ,文本特征作為鍵 K 和值 V ,其計算方法與計算文本層面的注意力分數相同。通過圖像引導文本信息的方式,計算圖像層面的注意力分數,得到圖像層面的注意力特征 AI 。按照同樣的殘差連接方式,將原始的圖像特征 ΠI 和經過交叉注意力機制得到的圖像層面的注意力特征 Aι 連接起來,得到圖像層總輸出 M ○

將文本層注意力特征 F 和圖像層注意力特征M 連接起來,形成圖文模態交叉注意力融合模塊的圖文輸出 R ,即

R=cat(F,M)

將獲取到的語言特征 和圖文輸出 R 連接起來,得到模態融合的最終特征表示 s ,即

S=R+L

將其輸入至全連接層后,使用Softmax函數得到分類結果。

4實驗與結果分析

4.1 數據集介紹

目前,突發事件領域內的反諷識別研究尚未受到充分關注,特別是在中文方面的相關研究工作較少,公開的中文數據集更少。本文使用筆者在文獻[20]中構建的數據集,該數據集包含了多模態反諷評論和非反諷評論各1179條數據。

4. 2 實驗設置

模型基于PyTorch框架設計實現,文本數據的詞向量維度設定為300維,文本數據特征提取模型TextCNN中使用了2、3、4和5四種不同的卷積核尺寸,每種尺寸的數量為400。使用Adam優化器,將模型的學習率設置為 5×10-4 。為進行高效訓練,將批大小設置為32,丟棄率為0.2,并進行了100個輪次的訓練。此外,還設置了一個早停機制,如果50輪后網絡的準確率沒有提升,則訓練過程會提前終止。

由于絕大部分文本的長度都在較短范圍內,且限制文本長度可以降低模型的計算復雜度,提高訓練和推理的效率。因此,將文本和語言特征的最大長度皆限定為64,這一設置兼顧了效率和實用性。

4.3 實驗結果對比

將基線模型分為文本模態模型、圖像模態模型和圖文多模態模型三類,與本文模型進行對比實驗,評價指標包括準確率、精確率、召回率和 F1 值,具體對比實驗結果見表4,從表4可以得出以下結論。

1)引入交叉注意力機制能設計出更好的圖文模態融合方式,增強了不同模態之間的關聯性。同時,通過文本數據手工設計、篩選和總結相關語言特征,使得模型能夠學習更多的與反諷和非反諷相關的特征。

表4不同模型對比實驗結果

Table4The experimentresultsof different models

2)僅使用圖像特征的模型在反諷識別任務中表現較差,這表明圖像特征在該任務中的有效性較低。相比之下,文本模型的表現更好。

3)盡管預訓練后的BERT模型在文本特征上取得了最優的性能,但與其他模型結合后,其準確率會下降。這可能是由于數據集的數量較少,特征表示不充分。

4)綜合來看,圖文多模態模型的表現整體上優于單模態模型,進一步證實了融合多種模態信息對于提高模型性能的有效性。

5)注意力機制并非在所有情況下都可以起到有效的作用。

4.4 消融實驗

通過消融實驗來探究交叉注意力機制模塊和語言特征模塊對整體模型的有效性,具體包括: ① 去除圖文交叉注意力機制融合模塊,僅簡單連接圖文特征,并保持其他部分不變。 ② 去除語言特征模塊,將經過交叉注意力機制模塊后的圖文特征輸入全連接層進行分類。消融實驗結果見表5。可以看出,在模型設計中,具有圖文交叉注意力機制同時融合語言特征模塊,模型準確率為 91.32% ,F1值為90.26% ,達到了最佳。通過分析表5可以得出以下結論。

1)缺少圖文交叉注意力機制融合模塊會導致模型準確率下降,說明該模塊促進了圖文之間的信息交互和融合,且召回率達到了最佳。

2)缺少語言特征模塊時,從模型實驗結果來看,四個指標較低,進一步證明語言特征的加入會增強模型對文本信息的理解。將語言特征看作一種模態,增強了模態融合效果,

表5消融實驗結果

Table5Ablation experimentresults

4.5 參數分析

對模型進行了不同維度語言特征的評估實驗,探索了最優的語言特征表示維度。不同維度語言特征的評價指標結果如圖3所示。

圖3不同維度語言特征的評價指標結果

Figure 3Evaluation index results of linguistic features in different dimensions

通過準確率和 F1 值來衡量模型性能,逐步增加語言特征維度,從64維升至1024維,共進行了15組不同維度的實驗。可以看出,當語言特征維度設置為1024維時,模型的準確率和 F1 值均達到最大值。這表明較高的語言特征維度對模型性能有積極影響。同時,較高的語言特征維度能夠更好地表達反諷與非反諷信息。

5 結語

本文提出了一種融合語言特征的多模態中文反諷識別模型,通過圖文交叉注意力機制的設計,使得圖片和文本之間能夠實現信息交互和有效融合。對文本手工提取了豐富的語言特征,并將其作為另一種模態引入模型中。通過與一系列基線模型的對比實驗,驗證了本文模型的優越性,并證明語言特征的加入對模型性能產生了積極影響。未來的研究工作主要包括:1)積極探索注意力機制加入的位置和設計方式,以進一步優化模型性能;2)繼續擴展數據集的規模,獲取更廣泛的樣本,以進一步提升模型的性能和泛化能力;3)探索廣義的上下文信息,以獲得更豐富和有效的特征表示。

參考文獻:

[1]ZHANG M,ZHANG Y,FU G. Tweet sarcasm detectionusing deep neural network[C]//Proceedings of the 26thInternational Conference on Computational Linguistics.Stroudsburg:Association for Computational Linguistics,2016:2449-2460.

[2] BILAL G,JIHENK,FARAH B,etal.Overview of thetrack on irony detection in Arabic tweets[C]//Proceed-ingsof the 11th Annual Meeting of the Forum for Informa-tionRetrieval Evaluation.New York:ACM Press,2019:10-13.

[3] 張繼東,蔣麗萍.基于多模態深度學習的旅游評論反諷識別研究[J].情報理論與實踐,2022,45(7):158-164.ZHANG JD,JIANG L P. Research on irony recognitionoftravel reviewsbased on multi-modal deeplearning[J].Information studies:theoryamp; application,2022,45(7):158-164.

[4] 張亞洲,俞洋,朱少林,等.一種量子概率啟發的對話諷刺識別網絡模型[J].電子學報,2022,50(8):1885-1893.ZHANG Y Z,YUY,ZHU SL,et al. A quantum proba-bility inspired network for dialogue sarcasm recognition[J].Acta electronica sinica,2022,50(8):1885-

[5] SCHIFANELLAR,JUANPD,TETREAULTJ,etal. Detecting sarcasm in multimodal social platforms [EB/ OL].(2016-08-08)[2024-03-15]. https://doi. org/ 10.48550/arXiv. 1608. 02289.

[6]WANG X Y,SUN X W,YANG T,et al. Building a bridge: a method for image-text sarcasm detection without pretraining on image-text data[ C]//Proceedings of the 1st International Workshop on Natural Language Processing Beyond Text. Stroudsburg:Association for Computational Linguistics,2020:19-29.

[7]PAN HL,LIN Z,FU P,et al. Modeling intra and intermodality incongruity for multi-modal sarcasm detection [C]//Findings of the Association for Computational Linguistics: EMNLP 2020. Stroudsburg: Association for Computational Linguistics,2020:1383-1392.

[8]GUPTA S,SHAH A,SHAH M,et al.FiLMing multimodal sarcasm detection with attention[C]//Proceedings of the International Conference on Neural Information Processing. Cham:Springer International Publishing,2021: 178-186.

[9]LIANG B,LOU C W,LI X,et al. Multi-modal sarcasm detection with interactive in-modal and cross-modal graphs[C]/Proceedings of the 29th ACM International Conference on Multimedia. New York:ACM Press, 2021: 4707-4715.

[10] WEN C S, JIA G L,YANG JF. DIP: dual incongruity perceiving network for sarcasm detection[ C]//IEEE/CVF Conference on Computer Vision and Patten Recognition. Piscataway:IEEE Press, 2023:2540-2550.

[11] TIAN Y,XU N, ZHANG R K,et al. Dynamic routing transformer network for multimodal sarcasm detection[C]// Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics. Stroudsburg:Association for Computational Linguistics,2023:2468-2480.

[12]CAI Y T,CAI HY,WAN X J. Multi-modal sarcasm detection in Twitter with hierarchical fusion model[C]//Procedings of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg:Association for Computational Linguistics,2019:2506-2515.

[13] SANGWAN S,AKHTAR M S,BEHERA P,et al. I didn't mean what I wrote! Exploring multimodality for sarcasm detection[C]//International Joint Conference on Neural Networks. Piscataway:IEEE Press, 2020:1-8.

[14] XU N, ZENG Z X, MAO W J. Reasoning with multimodal sarcastic tweets via modeling cross-modality contrast and semantic association[C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics.Stroudsburg:Association for Computational Linguistics,2020:3777-3786.

[15]LIANGB,LOUCW,LIX,etal. Multi-modal sarcasm detection via cross-modal graph convolutional network[C]// Proceedings of the 6Oth Annual Meeting of the Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics,2022:1767-1777.

[16]盧欣,李旸,王素格.融合語言特征的卷積神經網絡 的反諷識別方法[J].中文信息學報,2019,33(5): 31-38. LUX,LIY,WANGSG. Linguistic features enhanced convolutional neural networks for irony recognition[J]. Journal of Chinese information processing,2019,33(5): 31-38.

[17]TANG Y J,CHEN H. Chinese irony corpus construction and ironic corpus construction and ironic structure analysis[C]//Proceedings of the 25th International Conference on Computational Linguistics. Stroudsburg: Association for Computational Linguistics,2014:1269-1278.

[18]KIM Y. Convolutional neural networks for sentence classification[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing. Stroudsburg:Association for Computational Linguistics,2014: 1746-1751.

[19]HEK M,ZHANGXY,REN SQ,et al.Deep residual learning for image recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press,2016:770-778.

[20]胡文彬,陳龍,黃賢波,等.融合交叉注意力的突發 事件多模態中文反諷識別模型[J].智能系統學報, 2024,19(2):392-400. HUWB,CHENL,HUANG XB,et al.A multimodal Chinese sarcasm detection model for emergencies based on cross attention[J]. CAAI transactions on intelligent systems,2024,19(2):392-400.

[21]WUSY,SUET,LEIBY,etal.TextCNN-basedtext classification for E-government[C]//Proceedings of the 6th International Conference on Information Science and Control Engineering. Piscataway:IEEE Press,2019: 929-934.

[22] SHARFUDDIN A A, TIHAMI M N,ISLAM M S. A deep recurrent neural network with BiLSTM model for sentiment classification[C]// International Conference on Bangla Speech and Language Processing. Piscataway:IEEE Press,2018:1-4.

[23] JACOB D,CHANG M W,KENTON L,et al. BERT:pretraining of deep bidirectional transformers for language understanding[C]//Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: HumanLanguageTechnologies. Stroudsburg:Association for Computational Linguistics, 2019:4171-4186.

[24]陳俊松,易積政,陳愛斌.CNS-Net:一種循環多注意 力特征聚合架構[J].鄭州大學學報(理學版),2024, 56(2):73-79. CHEN J S,YI JZ,CHEN A B. CNS-Net:a cyclic multi-attention feature aggregation architecture[J]. Journal of Zhengzhou university(natural science edition), 2024,56(2):73-79.

[25]計詠梅.基于深度學習的卷積碼盲識別方法研究[D]. 西安:西安電子科技大學,2023. JI Y M. Research on blind recognition method of convolutional code based on deep learning[D].Xi'an:Xidian University,2023.

主站蜘蛛池模板: 亚洲专区一区二区在线观看| 91精品专区| 91色爱欧美精品www| 色婷婷电影网| 天堂成人av| 最近最新中文字幕在线第一页| 国产精品网曝门免费视频| 久久动漫精品| 精品国产乱码久久久久久一区二区| 孕妇高潮太爽了在线观看免费| 国产18在线播放| 永久免费av网站可以直接看的| 成人a免费α片在线视频网站| 色亚洲成人| 欧美日韩国产成人高清视频| 精品国产一二三区| 亚洲三级网站| 97精品国产高清久久久久蜜芽| 亚洲经典在线中文字幕| 99re精彩视频| 中文字幕亚洲综久久2021| 国产在线小视频| 高清视频一区| 亚洲欧美激情小说另类| 国产精品尹人在线观看| 十八禁美女裸体网站| 真人高潮娇喘嗯啊在线观看| 91福利免费视频| 97国产精品视频自在拍| 欧美激情视频一区二区三区免费| 无遮挡国产高潮视频免费观看| 免费无码AV片在线观看国产| 亚洲成人一区二区| 国产日韩欧美中文| 亚洲中文无码av永久伊人| 高h视频在线| 少妇人妻无码首页| 国产国语一级毛片在线视频| 国产一区在线观看无码| 露脸国产精品自产在线播| 99精品久久精品| 日韩中文欧美| 51国产偷自视频区视频手机观看| 成人另类稀缺在线观看| 午夜a级毛片| 67194亚洲无码| 久久国产免费观看| 欧洲熟妇精品视频| 精品国产www| 免费可以看的无遮挡av无码| 国产精品.com| 四虎永久在线| 波多野结衣在线se| 亚洲精品777| 日韩美毛片| 久久精品这里只有精99品| 粉嫩国产白浆在线观看| a毛片在线免费观看| 久久精品人人做人人爽电影蜜月| 国内精品一区二区在线观看| 综合色区亚洲熟妇在线| 亚洲国产成人麻豆精品| 亚洲福利视频一区二区| 热伊人99re久久精品最新地| 欧美日一级片| 国产亚洲精品自在久久不卡| 五月婷婷亚洲综合| 欧美日韩资源| 亚洲黄色激情网站| 国产精品久久久久鬼色| 欧美97欧美综合色伦图| 久久国产精品无码hdav| 二级特黄绝大片免费视频大片| 亚洲伊人天堂| 欧美亚洲国产精品久久蜜芽 | 一区二区三区国产精品视频| yy6080理论大片一级久久| 在线免费不卡视频| 国产欧美视频一区二区三区| 国产无人区一区二区三区| 一级香蕉人体视频| 亚洲AV无码乱码在线观看裸奔|