摘要
為了解決遙感圖像語義分割任務中上下文依賴關系提取不足、空間細節信息損失導致分割精度下降等問題,提出了一種結合上下文與類別感知特征融合的語義分割方法。該方法首先以ResNet-50作為特征提取的主干網絡,并在下采樣中采用注意力模塊,以增強特征表示和上下文依賴關系的提取; 然后在跳躍連接上構建大尺寸的感受野塊,提取豐富的多尺度上下文信息,以減少目標之間尺度變化的影響; 其后并聯場景特征關聯融合模塊,以全局特征來引導局部特征融合; 最后在解碼器部分構建類別預測模塊和類別感知特征融合模塊,準確融合底層的高級語義信息與高層的細節信息。將所提方法在Potsdam和Vaihingen數據集上驗證可行性,并與DeepLabv3+,BuildFormer等6種常用方法進行對比實驗,以驗證其先進性。實驗結果表明,所提方法在Recall,F1-score和Accuracy指標上均優于其他方法,尤其是對建筑物分割的交并比(intersection over union,IoU)在2個數據集上分別達到90.44%和86.74%,較次優網絡DeepLabv3+和A2FPN分別提升了1.55%和2.41%。
引用
何曉軍, 羅杰. 結合上下文與類別感知特征融合的高分遙感圖像語義分割[J]. 自然資源遙感, 2025, 37(2): 1-10.
文章內容大綱
1CCFFSM網絡1.1 DAM_CAM模塊 1.2 L_RFB 1.3 SCM模塊 1.4 CPM模塊 1.5 CFM模塊2 實驗結果分析2.1 數據源及其預處理 2.2 實驗設置 2.3 對比實驗 2.4 消融實驗
圖表欣賞
表1Potsdam和Vaihingen數據集
表2在Potsdam數據集上的實驗結果
結論
針對在遙感圖像語義分割任務中空間細節信息丟失、上下文依賴關提取不足、多尺度上下文信息提取不足和特征融合不充分導致分割精度低等問題,本文提出了一種用于高分辨率遙感圖像語義分割的CCFFSM模型。
1)在編碼階段采用DAM_CAM模塊,提取上下文依賴關系。在跳躍連接處,構建L_RFB模塊,提取豐富的多尺度上下文信息,并在其后連接SCM模塊,根據前景融合重要的特征。在解碼階段,首先構建CPM模塊,得到不同層次不同尺度的預測結果,然后把結果送入CFM模塊中,根據不同類別進行有效融合,以保留更多重要的語義信息。
2)在Potsdam和Vaihingen數據集上的對比實驗結果表明,在相同的實驗條件下,CCFFSM方法在多種指標上都優于其他6種對比方法; 尤其對建筑物分割的IoU分別達到了90.44%和86.74%,說明本文方法能有效提高分割性能。此外,在Vaihingen數據集上消融實驗也驗證了本文方法中各個模塊的有效性。
未來研究的重點可以考慮在保證精度的同時,輕量化模型以提升遙感圖像的處理速度。
來源:測繪學術資訊
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.