999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

油氣作業(yè)現(xiàn)場(chǎng)儀表自動(dòng)讀數(shù)技術(shù)研究

2024-01-05 00:00:00樊晶張敦鍵孫仕勝張凱源
物聯(lián)網(wǎng)技術(shù) 2024年12期
關(guān)鍵詞:深度學(xué)習(xí)

摘 要:油氣作業(yè)現(xiàn)場(chǎng)的儀表設(shè)備繁多,通常需要巡檢員定期進(jìn)行人工讀數(shù)以判斷設(shè)備是否存在異常。然而,這種巡檢工作繁重且容易受到人為因素的影響。為了解決這一問題,可以利用計(jì)算機(jī)視覺技術(shù)進(jìn)行儀表圖像分析和處理,實(shí)現(xiàn)自動(dòng)識(shí)別和測(cè)量讀數(shù)。傳統(tǒng)的檢測(cè)方法存在準(zhǔn)確度低、實(shí)時(shí)性差和適應(yīng)性差等方面的問題。利用基于深度學(xué)習(xí)的目標(biāo)檢測(cè)和關(guān)鍵點(diǎn)檢測(cè)技術(shù),能夠進(jìn)一步提高儀表自動(dòng)化檢測(cè)及讀數(shù)的準(zhǔn)確性和效率,有效替代人工巡檢,縮減成本。

關(guān)鍵詞:目標(biāo)檢測(cè);關(guān)鍵點(diǎn)檢測(cè);計(jì)算機(jī)視覺;深度學(xué)習(xí);油氣作業(yè);儀表自動(dòng)讀數(shù)

中圖分類號(hào):TP312 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2024)12-00-03

0 引 言

傳統(tǒng)油氣行業(yè)巡檢業(yè)務(wù)中,需要巡檢員通過人工讀數(shù)來(lái)判斷設(shè)備是否存在異常,工作繁重且存在人為因素的影響。尤其是對(duì)于一些偏遠(yuǎn)的油氣場(chǎng)站而言,巡檢難度較高,需要投入大量的人力和物力資源,還面臨著高昂的巡檢費(fèi)用。

為了解決這些問題,人們開始探索利用攝像頭結(jié)合人工智能技術(shù)來(lái)實(shí)現(xiàn)儀表自動(dòng)讀數(shù)[1]。通過攝像頭對(duì)儀表進(jìn)行拍攝,然后由人工智能算法進(jìn)行圖像分析和識(shí)別,可以自動(dòng)讀取儀表上的數(shù)據(jù)。這種方法能夠大大降低巡檢的強(qiáng)度,減少巡檢員的工作量。同時(shí),利用人工智能技術(shù)可以提高讀數(shù)準(zhǔn)確性和穩(wěn)定性,減少人為因素對(duì)巡檢結(jié)果的影響。此外,利用攝像頭和人工智能技術(shù)進(jìn)行儀表自動(dòng)讀數(shù)還能夠?qū)崿F(xiàn)減人、少人甚至無(wú)人值守的油氣場(chǎng)站。通過部署攝像頭和相應(yīng)的人工智能系統(tǒng),可以實(shí)現(xiàn)對(duì)油氣場(chǎng)站的遠(yuǎn)程監(jiān)控和自動(dòng)化管理。這將大大降低人力投入,降低運(yùn)營(yíng)成本,提高安全性和效率。

1 研究現(xiàn)狀

在儀表讀數(shù)檢測(cè)過程中利用計(jì)算機(jī)視覺技術(shù)對(duì)各種儀表進(jìn)行圖像分析和處理,能達(dá)到自動(dòng)識(shí)別和測(cè)量讀數(shù)的目的。傳統(tǒng)方法廣泛使用復(fù)雜的圖像處理算法和手工設(shè)計(jì)的特征提取器,但存在準(zhǔn)確度低、實(shí)時(shí)性差和適應(yīng)性差的問題。

近年來(lái),隨著深度學(xué)習(xí)和目標(biāo)檢測(cè)算法的迅速發(fā)展[2],儀表讀數(shù)檢測(cè)出現(xiàn)了新的解決方案。深度學(xué)習(xí)技術(shù)能夠自動(dòng)學(xué)習(xí)和提取圖像中的有用特征[3],避免了手工設(shè)計(jì)特征提取器的繁瑣過程,大幅提高了讀數(shù)檢測(cè)的準(zhǔn)確性和穩(wěn)定性。同時(shí),目標(biāo)檢測(cè)算法可以檢測(cè)儀表的位置和數(shù)字顯示區(qū)域,并通過分類網(wǎng)絡(luò)實(shí)現(xiàn)數(shù)字的識(shí)別。常用的目標(biāo)檢測(cè)算法包括Faster R-CNN、YOLO和SSD等。深度學(xué)習(xí)和目標(biāo)檢測(cè)算法的優(yōu)勢(shì)在于自動(dòng)學(xué)習(xí)特征表示、對(duì)復(fù)雜場(chǎng)景的適應(yīng)性以及實(shí)時(shí)性和效率的提升。

2 相關(guān)知識(shí)簡(jiǎn)介

2.1 YOLOv5介紹

深度學(xué)習(xí)技術(shù)以其強(qiáng)大的特征學(xué)習(xí)和表征能力在計(jì)算機(jī)視覺領(lǐng)域取得了重大突破。YOLOv5(You Only Look Once v5)是一種基于深度學(xué)習(xí)的實(shí)時(shí)目標(biāo)檢測(cè)算法,以其高實(shí)時(shí)性、高準(zhǔn)確度和簡(jiǎn)潔的網(wǎng)絡(luò)結(jié)構(gòu)而聞名。

高實(shí)時(shí)性:YOLOv5采用單次前向傳播的設(shè)計(jì)思路,具有出色的實(shí)時(shí)性能,能夠在實(shí)時(shí)檢測(cè)目標(biāo)的同時(shí)保持較高的準(zhǔn)確度。這一特點(diǎn)使得它在儀表讀數(shù)檢測(cè)領(lǐng)域具有較大的應(yīng)用潛力。

高準(zhǔn)確度:YOLOv5通過引入一系列創(chuàng)新的技術(shù),如特征融合、注意力機(jī)制和多尺度檢測(cè)等,有效提升了目標(biāo)檢測(cè)的準(zhǔn)確度。對(duì)于儀表讀數(shù)檢測(cè)任務(wù),準(zhǔn)確度是至關(guān)重要的因素,確保對(duì)儀表讀數(shù)的準(zhǔn)確捕捉與測(cè)量。

網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)潔:YOLOv5采用輕量級(jí)網(wǎng)絡(luò)結(jié)構(gòu),減少了模型的參數(shù)量和計(jì)算復(fù)雜度,使得基于YOLOv5的儀表讀數(shù)檢測(cè)方法能夠在嵌入式設(shè)備和移動(dòng)平臺(tái)上高效部署,并在多樣的硬件環(huán)境中高效運(yùn)行。

因其高實(shí)時(shí)性、高準(zhǔn)確度和簡(jiǎn)潔的網(wǎng)絡(luò)結(jié)構(gòu),YOLOv5在儀表讀數(shù)檢測(cè)領(lǐng)域具有巨大的潛力和應(yīng)用前景。未來(lái)的研究可以致力于進(jìn)一步改進(jìn)技術(shù),提高準(zhǔn)確度和魯棒性,并推動(dòng)其在更廣泛的場(chǎng)景中應(yīng)用。

2.2 目標(biāo)檢測(cè)算法介紹

目標(biāo)檢測(cè)算法是計(jì)算機(jī)視覺領(lǐng)域的重要技術(shù),可以自動(dòng)實(shí)現(xiàn)對(duì)圖像或視頻中目標(biāo)的識(shí)別和定位。在深度學(xué)習(xí)出現(xiàn)之前,傳統(tǒng)的目標(biāo)檢測(cè)算法主要依賴手工設(shè)計(jì)的特征,如Sobel邊緣檢測(cè)特征、Haar特征、Hog特征等。然而,這些特征的泛化能力較弱,對(duì)于復(fù)雜場(chǎng)景中的目標(biāo)檢測(cè)表現(xiàn)較差。

而基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法則使用卷積神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)特征[4]。這種特征學(xué)習(xí)方式能夠自動(dòng)發(fā)現(xiàn)目標(biāo)檢測(cè)和分類所需要的特征,并將原始輸入信息轉(zhuǎn)化為更抽象、更高維的特征表示。這種高維特征具有強(qiáng)大的特征表達(dá)能力和泛化能力,因此在復(fù)雜場(chǎng)景中具有較好的性能,能夠滿足工業(yè)領(lǐng)域的大部分應(yīng)用需求。

2.3 關(guān)鍵點(diǎn)檢測(cè)算法介紹

關(guān)鍵點(diǎn)檢測(cè)算法是在目標(biāo)檢測(cè)的基礎(chǔ)上,進(jìn)一步實(shí)現(xiàn)對(duì)目標(biāo)內(nèi)部關(guān)鍵點(diǎn)的識(shí)別和定位[5]。以下是目前主流的關(guān)鍵點(diǎn)檢測(cè)算法:

(1)基于coordinate

該算法使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)的特征來(lái)回歸關(guān)鍵點(diǎn)的坐標(biāo)和置信度信息。將卷積特征從單層特征逐漸轉(zhuǎn)換為金字塔特征,其中有代表性的算法為人臉關(guān)鍵點(diǎn)檢測(cè)的PFLD算法。

(2)基于heatmap

該算法的核心思想是將輸出的特征層利用卷積得到各個(gè)關(guān)鍵點(diǎn)的置信度,即每個(gè)通道代表了某個(gè)關(guān)鍵點(diǎn)在輸入圖片上各位置的置信度。隨后,通過在每個(gè)通道上取置信度最大值和對(duì)應(yīng)位置,實(shí)現(xiàn)關(guān)鍵點(diǎn)的定位;生成heatmap的方式有多種,例如使用高斯分布將距離關(guān)鍵點(diǎn)中心較遠(yuǎn)的位置置為較低的值,形成輻射狀的特征圖。

(3)基于heatmap + offset

該算法與基于heatmap的算法相似,但在回歸過程中加入了關(guān)鍵點(diǎn)坐標(biāo)的偏移量。通過使用這種方法,可以將網(wǎng)絡(luò)輸出的特征圖下采樣到更小的尺度。典型的算法包括“Towards Accurate Multi-person Pose Estimation in the Wild”,該算法在構(gòu)建ground truth時(shí)采用了“多對(duì)一”的方式,將某一關(guān)鍵點(diǎn)作為中心點(diǎn),使用半徑R范圍內(nèi)的點(diǎn)來(lái)回歸該關(guān)鍵點(diǎn)的位置。

這些關(guān)鍵點(diǎn)檢測(cè)算法在計(jì)算機(jī)視覺領(lǐng)域已經(jīng)取得了很好的成果[6],并且在人臉、姿態(tài)識(shí)別等領(lǐng)域中得到了廣泛應(yīng)用。隨著深度學(xué)習(xí)算法的不斷發(fā)展和改進(jìn),關(guān)鍵點(diǎn)檢測(cè)算法在定位精度和魯棒性上還有進(jìn)一步提升的空間。

3 實(shí)驗(yàn)過程與結(jié)果

3.1 總體設(shè)計(jì)

該項(xiàng)目提出了一種基于YOLOv5和關(guān)鍵點(diǎn)檢測(cè)的儀表智能讀數(shù)方法[7-8]。該方法結(jié)合了目標(biāo)檢測(cè)和關(guān)鍵點(diǎn)檢測(cè)技術(shù),能夠?qū)崿F(xiàn)對(duì)儀表的智能讀數(shù)[9]。相比于傳統(tǒng)方法,該方法具有更高的準(zhǔn)確性和穩(wěn)定性,并具有較好的實(shí)用價(jià)值。該方法的具體處理流程如圖1所示。

首先,該方法使用YOLOv5目標(biāo)檢測(cè)算法對(duì)圖像中的儀表進(jìn)行檢測(cè)和定位,從而確定儀表在圖像中的位置和邊界框;然后,將儀表從原圖像中截取出來(lái);接下來(lái),采用CID-HRNet網(wǎng)絡(luò)對(duì)檢測(cè)到的儀表圖像進(jìn)行關(guān)鍵點(diǎn)識(shí)別,通過識(shí)別出儀表指針的位置和方向,可以更準(zhǔn)確地確定指針?biāo)赶虻目潭龋蛔詈螅瑢⒅羔槂蓚?cè)的關(guān)鍵點(diǎn)與表盤中心點(diǎn)連接,計(jì)算刻度與指針之間的弧度,通過對(duì)弧度進(jìn)行計(jì)算和轉(zhuǎn)換,可以得到儀表的相應(yīng)讀數(shù)。

3.2 儀表讀數(shù)設(shè)計(jì)與實(shí)現(xiàn)

3.2.1 數(shù)據(jù)收集與預(yù)處理

收集包含油氣行業(yè)等各類作業(yè)現(xiàn)場(chǎng)的多種類型的儀表圖像數(shù)據(jù)集,以確保模型在不同類型的儀表上都能有較好的性能。通過對(duì)圖像進(jìn)行預(yù)處理,如圖像增強(qiáng)、尺寸調(diào)整和歸一化等,以提高后續(xù)模型的魯棒性和性能。

(1)圖像增強(qiáng):包括亮度調(diào)整、對(duì)比度增強(qiáng)和圖像銳化等,以增強(qiáng)圖像的特征信息,并減少噪聲的影響。

(2)尺寸調(diào)整:將圖像統(tǒng)一調(diào)整為相同的尺寸,以確保模型在處理不同尺寸的圖像時(shí)具有一致的表現(xiàn)。

(3)圖像歸一化:將圖像特征值調(diào)整到相近的范圍,以便采用統(tǒng)一的學(xué)習(xí)率加速模型進(jìn)行訓(xùn)練。

經(jīng)過以上數(shù)據(jù)預(yù)處理操作后的數(shù)據(jù)集能夠更好地滿足模型的輸入要求,并且具有更好的數(shù)據(jù)分布和特征表達(dá),這將為后續(xù)的模型訓(xùn)練和測(cè)試提供更有利的條件,從而提升儀表讀數(shù)的準(zhǔn)確性。

3.2.2 模型訓(xùn)練

在訓(xùn)練階段,使用預(yù)處理后的數(shù)據(jù)集對(duì)YOLOv5模型進(jìn)行訓(xùn)練。訓(xùn)練過程中,將儀表的圖像作為輸入,并標(biāo)注了每個(gè)儀表的位置和邊界框作為輸出。通過使用反向傳播算法來(lái)優(yōu)化網(wǎng)絡(luò)參數(shù),從而使模型能夠準(zhǔn)確地檢測(cè)出儀表。

為了提高模型的性能和泛化能力,采用了一些優(yōu)化策略。例如,使用較小的學(xué)習(xí)率來(lái)逐步調(diào)整網(wǎng)絡(luò)參數(shù),以保證模型在訓(xùn)練過程中能夠穩(wěn)定收斂。此外,還引入了誤差損失函數(shù)來(lái)衡量模型的預(yù)測(cè)結(jié)果與實(shí)際標(biāo)注之間的差異,以便進(jìn)行參數(shù)優(yōu)化的方向選擇。

3.2.3 儀表檢測(cè)

經(jīng)過訓(xùn)練的YOLOv5模型能夠?qū)崟r(shí)對(duì)油氣現(xiàn)場(chǎng)的儀表設(shè)備進(jìn)行圖像檢測(cè),并將待檢測(cè)的圖像輸入到模型中,獲取包含儀表的位置和邊界框信息,從而準(zhǔn)確確定儀表在圖像中的位置。這種方式具有高效且準(zhǔn)確的檢測(cè)能力,能夠快速獲取儀表的位置信息,為后續(xù)的儀表檢測(cè)和分析提供重要基礎(chǔ)。通過優(yōu)化和擴(kuò)展這種方法,還能夠進(jìn)一步優(yōu)化模型性能,提高檢測(cè)的準(zhǔn)確性和對(duì)復(fù)雜場(chǎng)景的適應(yīng)性,從而更好地滿足實(shí)際應(yīng)用的需求。

3.2.4 儀表圖像分割

基于檢測(cè)的儀表邊界框可以進(jìn)行儀表圖像分割,去除其背景部分,從而提取出僅含有儀表的圖像。這種分割儀表圖像的方法有助于減輕儀表關(guān)鍵點(diǎn)檢測(cè)的負(fù)擔(dān)。相比于對(duì)整張圖像進(jìn)行儀表關(guān)鍵點(diǎn)檢測(cè),分割儀表圖像具有更快的速度和更低的誤檢率。通過這種優(yōu)化方法,我們能夠提高儀表關(guān)鍵點(diǎn)檢測(cè)的效率和準(zhǔn)確性,并為后續(xù)的儀表分析和檢測(cè)任務(wù)提供更可靠的數(shù)據(jù)。同時(shí),分割儀表圖像還有助于提升圖像處理的效果,使得后續(xù)的儀表圖像處理和分析更加精準(zhǔn)和可靠。

3.2.5 儀表關(guān)鍵點(diǎn)檢測(cè)數(shù)據(jù)構(gòu)建

利用經(jīng)過分割的儀表圖像創(chuàng)建儀表關(guān)鍵點(diǎn)檢測(cè)數(shù)據(jù)集,我們對(duì)數(shù)據(jù)集中的每個(gè)樣本進(jìn)行標(biāo)記,精確定位指針刻度位置、指針針尖位置和表盤中心位置,作為關(guān)鍵點(diǎn)檢測(cè)網(wǎng)絡(luò)的標(biāo)簽[10]。儀表樣本標(biāo)記效果如圖2所示。通過這種方法,我們能夠?yàn)殛P(guān)鍵點(diǎn)檢測(cè)網(wǎng)絡(luò)提供準(zhǔn)確的標(biāo)注,使其能夠高效定位和識(shí)別儀表的關(guān)鍵點(diǎn)。這樣的數(shù)據(jù)集優(yōu)化方法不僅可以提升關(guān)鍵點(diǎn)檢測(cè)的準(zhǔn)確性和魯棒性,還能夠?yàn)楦钊氲膬x表分析和檢測(cè)任務(wù)提供可靠的基礎(chǔ)。

3.2.6 儀表關(guān)鍵點(diǎn)檢測(cè)網(wǎng)絡(luò)構(gòu)建

儀表關(guān)鍵點(diǎn)檢測(cè)部分將CID(Contextual Instance Decoupling)算法與HRNet (High Resolution Net)結(jié)合,并提出CID-HRNet網(wǎng)絡(luò),為儀表關(guān)鍵點(diǎn)估計(jì)提供了一種新的方法。CID-HRNet網(wǎng)絡(luò)架構(gòu)如圖3所示。根據(jù)CID-HRNet網(wǎng)絡(luò)推理得到了儀表表盤中心的關(guān)鍵點(diǎn)與指針針尖關(guān)鍵點(diǎn),以及指針的位置和方向。將指針兩側(cè)的關(guān)鍵點(diǎn)與表盤中心點(diǎn)連接,計(jì)算刻度與指針之間的弧度,根據(jù)弧度的計(jì)算結(jié)果,將其轉(zhuǎn)換為相應(yīng)的儀表讀數(shù)。

CID方法將圖像中儀表解耦為多個(gè)實(shí)例感知的特征映射,每個(gè)特征映射都被用來(lái)推斷儀表特定的關(guān)鍵點(diǎn),CID方法可以隔離其儀表和背景的干擾,并在比邊界框更大的尺度上探索上下文線索。HRNet保持對(duì)儀表的高分辨率表示,以一個(gè)高分辨率子網(wǎng)作為第一階段的開始,逐步增加由高到低的分辨率子網(wǎng),形成多個(gè)階段,并將多分辨率子網(wǎng)并行連接和多尺度融合,使每個(gè)由高到低分辨率的表示逐次地從其他并行表示中接收信息,從而產(chǎn)生豐富的高分辨率表示,預(yù)測(cè)的關(guān)鍵點(diǎn)熱圖將更準(zhǔn)確。

3.2.7 儀表讀數(shù)

利用儀表關(guān)鍵點(diǎn)檢測(cè)中構(gòu)建的數(shù)據(jù)在3.2.6節(jié)的網(wǎng)絡(luò)上進(jìn)行訓(xùn)練直到網(wǎng)絡(luò)收斂,并在測(cè)試集上驗(yàn)證網(wǎng)絡(luò)的有效性。

通過推理得到儀表表盤中心的關(guān)鍵點(diǎn)、指針針尖關(guān)鍵點(diǎn)、指針的位置和方向,經(jīng)過計(jì)算和轉(zhuǎn)換,得到儀表讀數(shù)。

4 結(jié) 語(yǔ)

通過上述方式,可以基于YOLOv5和關(guān)鍵點(diǎn)檢測(cè)方法實(shí)現(xiàn)對(duì)儀表的自動(dòng)化檢測(cè)和讀數(shù)識(shí)別。這種方法具有較高的準(zhǔn)確性和實(shí)時(shí)性,適用于儀表讀數(shù)相關(guān)領(lǐng)域。相比傳統(tǒng)的儀表讀數(shù)檢測(cè)方法,基于YOLOv5和關(guān)鍵點(diǎn)檢測(cè)的儀表讀數(shù)檢測(cè)方法具有多方面的優(yōu)勢(shì)。

首先,它能夠以高準(zhǔn)確性和實(shí)時(shí)性來(lái)進(jìn)行儀表檢測(cè)和讀數(shù)識(shí)別,提高了檢測(cè)的精度和效率。其次,通過使用深度學(xué)習(xí)模型,該方法能夠自動(dòng)學(xué)習(xí)和捕捉儀表的特征,避免了手工設(shè)計(jì)特征的繁瑣過程,提高了系統(tǒng)的自適應(yīng)性和泛化能力。此外,該方法的實(shí)施相對(duì)簡(jiǎn)單,易于部署和使用,同時(shí)可實(shí)現(xiàn)對(duì)人工的有效替代。

因此,基于YOLOv5和關(guān)鍵點(diǎn)檢測(cè)的儀表讀數(shù)檢測(cè)方法具備廣泛應(yīng)用的潛力,可為工業(yè)生產(chǎn)、能源管理、交通運(yùn)輸?shù)阮I(lǐng)域提供高效、準(zhǔn)確的儀表智能讀數(shù)解決方案。

參考文獻(xiàn)

[1]肖佳.基于機(jī)器視覺的數(shù)字儀表自動(dòng)讀數(shù)方法研究[D].重慶:重慶大學(xué),2017.

[2]張婷婷,章堅(jiān)武,郭春生,等. 基于深度學(xué)習(xí)的圖像目標(biāo)檢測(cè)算法綜述[J]. 電信科學(xué),2020,36(7):92-106.

[3]羅世操.基于深度學(xué)習(xí)的圖像語(yǔ)義提取與圖像檢索技術(shù)研究[D].上海:東華大學(xué),2016.

[4] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]// Proceedings of 27th IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2014: 580-587.

[5]王艷紅,鄒喬莎,馮新宇,等.基于人體關(guān)鍵點(diǎn)檢測(cè)算法的步態(tài)識(shí)別方法及步態(tài)評(píng)估系統(tǒng):CN201911149103.3 [P]. 2023-09-01.

[6] GIRSHICK R. Fast R-CNN [C]// Proceedings of IEEE International Conference on Computer Vision. Washington: IEEE Computer Society Press, 2015: 1440-1448.

[7]陳富榮,肖明明.基于YOLOv5的改進(jìn)小目標(biāo)檢測(cè)算法研究[J].現(xiàn)代信息科技,2023,7(3):55-60.

[8]陳璐,張千,梁鴻,等.一種基于YOLOv5和姿態(tài)估計(jì)的安全帽佩戴檢測(cè)方法:CN202210741951.9 [P]. 2022-09-09.

[9]尹中川,徐遵義,王俊雪,等.指針式儀表自動(dòng)讀數(shù)識(shí)別技術(shù)的研究現(xiàn)狀與發(fā)展[J]. 計(jì)算機(jī)科學(xué)期刊,2018(z1):54-57.

[10]陳凱,林珊玲,林堅(jiān)普,等.基于Transformer人像關(guān)鍵點(diǎn)檢測(cè)網(wǎng)絡(luò)的研究[J].計(jì)算機(jī)應(yīng)用研究,2023,40(6):1870-1875.

作者簡(jiǎn)介:樊 晶(1987—),女,河南焦作人,碩士,中級(jí)工程師,研究方向?yàn)槲锫?lián)網(wǎng)、人工智能。

張敦鍵(1987—),男,山西太原人,碩士,軟件工程師,研究方向?yàn)橛?jì)算機(jī)視覺。

孫仕勝(1983—),男,四川冕寧人,碩士,高級(jí)工程師,研究方向?yàn)槲锫?lián)網(wǎng)、人工智能。

張凱源(1991—),男,四川巴中人,軟件工程師,研究方向?yàn)橛?jì)算機(jī)視覺。

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 欧美一区二区人人喊爽| 亚欧乱色视频网站大全| 日韩福利视频导航| 亚洲Aⅴ无码专区在线观看q| 亚洲第一成网站| 71pao成人国产永久免费视频 | 在线不卡免费视频| 欧美午夜在线视频| 国产成人做受免费视频| 亚洲精品国偷自产在线91正片| 国产精品成| 日本亚洲最大的色成网站www| 国产在线观看人成激情视频| 亚洲欧美日韩另类| 国产精品视频白浆免费视频| 国产欧美视频综合二区| 久久久精品无码一区二区三区| 免费一级毛片在线观看| 久久精品中文字幕少妇| 中国精品自拍| 一级黄色欧美| 97视频在线观看免费视频| 日本人又色又爽的视频| 综合天天色| 午夜福利网址| 久久五月视频| 国产成人精品2021欧美日韩| 亚洲第一色视频| 456亚洲人成高清在线| 精品国产中文一级毛片在线看| 精品一区二区三区波多野结衣| 99中文字幕亚洲一区二区| 波多野结衣亚洲一区| 国产AV无码专区亚洲精品网站| 久久情精品国产品免费| 香蕉视频在线精品| 国产手机在线小视频免费观看| 又大又硬又爽免费视频| 青青草欧美| 国产精品美女免费视频大全| 57pao国产成视频免费播放| www精品久久| 91精品国产91久无码网站| 国产精品流白浆在线观看| 亚洲色图欧美激情| 亚洲精品片911| 成人噜噜噜视频在线观看| 黄色国产在线| 国产原创第一页在线观看| 国产真实自在自线免费精品| 欧美日韩成人| 91蜜芽尤物福利在线观看| 日本免费一区视频| 99无码中文字幕视频| 在线国产你懂的| 色婷婷亚洲十月十月色天| 国产97色在线| 精品一区二区无码av| 国产精品无码一二三视频| 午夜激情婷婷| 成人免费午夜视频| 成人一级黄色毛片| 国产精品一区不卡| 国产18在线| 五月天天天色| 无套av在线| 久久综合亚洲色一区二区三区| 日韩免费毛片| 亚洲国产精品无码久久一线| 日韩少妇激情一区二区| 国产亚洲视频在线观看| 亚洲va精品中文字幕| 国产欧美日韩综合在线第一| 亚洲欧洲日韩综合色天使| 色悠久久综合| 国产精品视频第一专区| 亚洲精品你懂的| 欧美性猛交xxxx乱大交极品| 免费黄色国产视频| 国产成人免费| 欧美午夜久久| 成人亚洲国产|