文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.200844
中文引用格式: 倪偉健,秦會斌. GSDCPeleeNet:基于PeleeNet的高效輕量化卷積神經網絡[J].電子技術應用,2021,47(3):22-26,30.
英文引用格式: Ni Weijian,Qin Huibin. GSDCPeleeNet:efficient lightweight convolutional neural based on PeleeNet[J]. Application of Electronic Technique,2021,47(3):22-26,30.
0 引言
隨著深度學習理論的提出和硬件設備計算速度的不斷突破,卷積神經網絡在近年來得以迅速發展。2012年,AlexNet[1]在ImageNet大規模視覺識別挑戰賽中獲得了圖像分類冠軍。之后,為了提高網絡模型的準確率,研究人員不斷地加深卷積網絡的深度,相繼提出了性能更加優越的卷積神經網絡,如VGG16[2]、GoogLeNet[3]和DenseNet[4]等。
這些網絡準確率普遍較高,但是有著非常復雜的模型和很深的層次,參數量十分巨大。在實際生活的應用中,模型往往需要在資源有限的嵌入式設備和移動設備上運行。因此,研究人員開始著手研究,并且相繼提出了更高效的輕量級卷積神經網絡。它們保持了網絡的性能,大大減少了模型的參數量,從而減少計算量,提升了模型速度。
曠視科技的ShuffleNet在ResNet[5]單元上進行了改進,有兩個創新的地方:逐點分組卷積和通道混洗[6]。WANG R J等提出的PeleeNet是一種輕量級網絡,它在DenseNet基礎上進行了改進和創新,主要有五個方面的結構改進[7]。ZHANG J N等提出了一種卷積核及其壓縮算法,通過這種卷積方法,ZHANG J N等發明了輕量卷積神經網絡SDChannelNets[8]。
可以看出,上述輕量卷積神經網絡均存在一定不足。在使用分組卷積時,為了解決分組卷積導致的信息丟失問題,需要增加額外的操作。在運用1×1卷積時,會導致1×1卷積的參數量在網絡總參數量中占據大部分。通過分析,這些網絡需要通過調整相應的超參數來提高網絡識別精度。這些操作往往會大大增加網絡模型參數量。
為了解決這個不足,本文結合參數共享、密集連接的卷積方法和分組卷積,基于PeleeNet網絡,提出了輕量級卷積神經網絡架構GSDCPeleeNet。適當調節超參數,在損失較小準確度甚至擁有更高準確度的情況下,減小了模型的參數量。
本文詳細內容請下載:http://www.viuna.cn/resource/share/2000003403
作者信息:
倪偉健,秦會斌
(杭州電子科技大學 電子信息學院 新型電子器件與應用研究所,浙江 杭州310018)