






中圖分類號:TP391.4
文獻標志碼:A
近年來研究熱點的自動駕駛要求對復雜城市街道擁有強大的場景理解能力,以做出決策并控制運動系統1。協助車輛識別其周圍環境的常見方法是對車輛上安裝的攝像頭拍攝圖像的應用語義分割。語義分割將圖像中的所有像素分類為類別標簽,是計算機視覺中的重要任務之一,許多方法[2-6被提出來改進性能并取得了驚人的效果。然而,這些方法的關鍵限制是它們需要大量高質量的標簽,這需要大量的人力和物質資源。例如,來自Cityscapes[7數據集的一張圖像需要一個人花費 90min 來標注。從虛擬圖像引擎中收集的合成數據集[8-9被用來應對這個限制,因為這些圖像引擎可以自動導出圖像和對應標簽。然而,由于現實世界場景和虛擬世界場景之間的外觀差異很大,因此盡管模型在虛擬世界中做出高精度預測,但將其應用于現實世界圖像的類別標簽預測仍然困難。
解決有標簽的虛擬世界圖像(源域)和沒有標簽的現實世界圖像(目標域)之間的領域差異問題的無監督領域自適應是關鍵技術之一。近來無監督領域自適應通過對抗學習或者自訓練的方法來減小不同領域之間數據分布的差異[10-14]。對抗學習通過欺騙領域判別器來實現源域和目標域分布的全局對齊。自訓練則是循環迭代目標域圖像的偽標簽并采用置信度估計、一致性正則化或熵最小化等方法來提高分割性能,偽標簽即高可信度的預測。……