《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 設計應用 > 基于頻域注意力時空卷積網絡的步態識別方法
基于頻域注意力時空卷積網絡的步態識別方法
《信息技術與網絡安全》2020年第6期
趙國順1,2,方建安1,2,瞿斌杰1,2,Samah A.F.Manssor1,2,孫韶媛1,2
1.東華大學 信息科學與技術學院,上海201620; 2.數字化紡織服裝技術教育部工程研究中心,上海201620
摘要: 為了解決步態信息冗余多、特征重要性分布不均勻以及步態的時空特征難以學習的問題,提出了基于頻域注意力的時空卷積網絡進行步態識別。該方法改進了三維卷積網絡(C3D)學習時空特征,同時提出了一種頻域注意力卷積操作,既減少了冗余計算,注意力的調整又提高了學習效果。網絡首先將步態信息劃分為五組,然后通過改進的卷積進行時空特征抽取,最后通過Softmax層進行分類。在中科大數據集CASIA dataset B中進行測試,在Bag狀態與Coat狀態下準確率分別為88.5%、92.8%,分別較傳統深度卷積網絡(Deep CNN)提升3%左右,同時注意力在網絡學習中重新分布,各個角度下的準確率也平均提升2%左右。
中圖分類號: U491.1文獻標識碼: ADOI: 10.19358/j.issn.2096-5133.2020.06.003
引用格式: 趙國順,方建安,瞿斌杰,等. 基于頻域注意力時空卷積網絡的步態識別方法[J].信息技術與網絡安全,2020,39(6):13-18.
Gait recognition method based on frequency domain attention spatio-temporal convolutional network
Zhao Guoshun1,2,Fang Jianan1,2,Qu Binjie1,2,Samah A.F.Manssor1,2,Sun Shaoyuan1,2
1.School of Information Science and Technology,Donghua University,Shanghai 201620,China; 2.Engineering Research Center of Digitized Textile & Apparel Technology,Ministry of Education,Shanghai 201620,China
Abstract: In order to solve the problems of redundant gait information, uneven distribution of feature importance, and difficulty in learning the spatiotemporal features of the gait, a spatiotemporal convolutional network based on attention in the frequency domain was proposed for gait recognition. In the experiment, the spatial and temporal characteristics of three-dimensional convolutional network(C3D) learning were improved. At the same time, a frequency-domain attention convolution operation was proposed, which not only reduced redundant calculations, but also adjusted the attention and improved the learning effect. The network firstly divides the gait information into five groups, then extracts the spatiotemporal features through improved convolution, and finally classifies them through the Softmax layer. Tested in the CASIA dataset B of the Chinese University of Science and Technology, the accuracy rates in the Bag state and Coat state are 88.5% and 92.8% respectively, which are about 3% higher than traditional deep convolutional networks(Deep CNN). At the same time, attention is redistributed in network learning,the accuracy rate of each angle is increased by about 2% on average.
Key words : frequency domain;attention;3D convolution;gait recognition;biometrics;deep learning

步態特征,通俗來說就是人行走時的姿態外觀,具體包括手臂、大腿、小腿等身體輪廓的變化,由于步態的采集不需要與被識別者有物理上的接觸,也不需要近距離的接觸,因此應用場景比較完善。醫學研究表明,每一個人的步態都有自己的形態,具有唯一性,使用步態識別具有一定的安全性,不會導致信息的錯誤。將步態識別技術應用于當今智能監控領域,可以在多場景下對人員進行監控,防止意外情況發生,也有利于鎖定犯罪嫌疑人,節省人力物力。

目前,關于步態識別的方法主要有兩種。一種是基于步態模板的方法,主要是通過構建步態特征,比如關節點的位置變化、重心的起伏周期等幾何數字特征,將一個人的行走視頻序列壓縮成一個模板,然后通過匹配待預測行人的步態與模板的相似度進行識別。另一種方法是通過深度學習直接抽取原始圖像序列的步態信息,通過深度神經網絡學習高維時空信息來匹配行人的步態,這種方法不需要大量精細的特征構建,是一種端到端的識別方法。

雖然基于步態模板的方法取得了一定的準確率,但是這種特征構造方法復雜,而且受角度、環境、穿著變化影響較大,同時這種特征缺失了時空信息的抽取,在精度上具有一定的限制性。深度學習方法是一種端到端的學習方法,魯棒性強,易于操作,但是由于模型參數巨大,如何保證準確性與實時性成了關鍵。

本文基于深度學習的方法,改良了三維卷積網絡(C3D)的網絡結構,提出頻域注意力卷積操作,主要通過劃分頻域空間,引進頻域卷積。同時另一個創新主要是注意力機制的引入,這使得網絡更加關注不同步態之間的不同,調整步態分布的重要性,提升網絡學習效果。經由中科大數據集CASIA dataset B檢測,本文方法在跨視角實驗和方法對比實驗中具有提升。



本文詳細內容請下載:http://www.viuna.cn/resource/share/2000003146

作者信息

趙國順1,2,方建安1,2,瞿斌杰1,2,Samah A.F.Manssor1,2,孫韶媛1,2

(1.東華大學 信息科學與技術學院,上海201620;

2.數字化紡織服裝技術教育部工程研究中心,上海201620)


此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 黄色在线视屏 | 日韩在线一区二区三区免费视频 | 国产欧美亚洲另类第一页 | 亚洲欧美日韩一区高清中文字幕 | 国产成人精品一区 | 日本人成年视频在线观看 | 日韩成人免费在线 | 中文字幕s级优女区 | 国产在线精品制服丝袜 | 精品国产一二三区 | 日韩精品视频免费网址 | 欧美在线播放视频 | 欧洲最暴性xxxⅹ | 国产91色在线 | 亚洲 | 国产高清国产专区国产精品 | 无夜精品久久久久久 | 欧美第四页 | 亚洲国产精久久久久久久春色 | 日日日射射射 | 亚洲天天做日日做天天看2018 | 欧美成人一区二区三区不卡视频 | 日韩欧美一区二区三区免费看 | 久久久久综合国产 | 免费在线观看亚洲 | 亚洲大片在线观看 | 成人黄色三级 | 中文字幕成人在线观看 | 糟蹋小少妇17p | 天堂亚洲欧美日韩一区二区 | 成人在线视频播放 | 亚洲剧场午夜在线观看 | 91国自产精品中文字幕亚洲 | 美女视频很黄很暴黄是免费的 | 一级特一级特色生活片 | 亚洲第成色999久久网站 | 站长推荐国产精品视频 | 国产成人免费福利网站 | 三级经典三级日本三级欧美 | 九九99久麻豆精品视传媒 | 亚洲美女激情 | 欧美日产国产亚洲综合图区一 |