一種基于卷積神經網絡的立體匹配算法設計
《信息技術與網絡安全》2020年第5期
魯志敏,袁勛,陳松
中國科學技術大學 信息科學技術學院
摘要:
為了解決傳統立體匹配算法對立體圖像在低紋理以及遮擋區域匹配效果較差的問題,設計了一種端到端的基于卷積神經網絡(Convolutional Neural Network,CNN)的立體匹配算法。該算法采取了殘差卷積神經網絡對圖像特征進行提取,之后利用空洞空間金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模塊來獲取圖像的上下文信息,并結合多尺度的三維卷積神經網絡對代價空間進行規整,最終實現了高精度的立體匹配算法。所獲取的視差圖在KITTI2015測試平臺上的誤匹配率為2.42%,與幾何上下文(Geometry and Context,GC)網絡相比較,視差圖的精度提高了0.45%,且運行時間縮短了一半。
中圖分類號:TN47 文獻標識碼:A DOI: 10.19358/j.issn.2096-5133.2020.05.001
引用格式:魯志敏,袁勛,陳松.一種基于卷積神經網絡的立體匹配算法設計[J].信息技術與網絡安全,2020,39(5):1-5,21.
引用格式:魯志敏,袁勛,陳松.一種基于卷積神經網絡的立體匹配算法設計[J].信息技術與網絡安全,2020,39(5):1-5,21.
Abstract:
Key words :
立體視覺作為計算機視覺最為熱門的研究領域,廣泛應用于車輛的自動駕駛、機器人導航、三維重建、物體檢測和識別等方面。立體匹配作為立體視覺系統中的核心技術,其匹配的精確度決定著整個系統的性能。由于拍攝的立體圖像大多存在噪聲干擾、重復紋理、低紋理和遮擋區域等問題,并且受到光照條件的影響,如何高效快速地獲取精準的視差圖仍存在著諸多挑戰。
立體匹配算法的典型流程包含匹配代價計算、代價聚合、視差計算和視差優化四個步驟[1],其又分為全局算法和局部算法。局部算法通常使用固定大小的窗口或可變的窗口來計算初始代價,例如Census算法等,實現都比較簡便,但是在視差突變區域存在諸多弊端,對低紋理和遮擋區域匹配效果差。全局匹配算法通過建立全局能量函數,利用最小化全局能量函數來獲取最優的視差值[2]。常用的全局匹配算法包含動態規劃、圖割法、置信傳播法、遺傳算法等。全局匹配算法隨著計算復雜度的提升,匹配效果較局部算法有所提升,但數據依賴性大導致運行速度慢,需要花費很長的時間進行計算。
為了解決傳統立體匹配算法在低紋理、遮擋區域的匹配效果差的問題,本文研究了一種端到端的基于卷積神經網絡的立體匹配算法,并利用了空洞空間金字塔池化(ASPP)[3]網絡獲取圖像的上下文信息和多尺度的三維卷積網絡來擴大圖像的感受野。最終獲得的視差圖的精度遠高于傳統匹配算法,對圖像的邊緣、遮擋區域的匹配效果都非常優異。
本文詳細內容請下載:http://www.viuna.cn/resource/share/2000003083
作者信息:
魯志敏,袁勛,陳松(中國科學技術大學 信息科學技術學院,安徽 合肥 230026)
此內容為AET網站原創,未經授權禁止轉載。