《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 設計應用 > 視頻幀間分組及超分辨率重建的自適應性研究
視頻幀間分組及超分辨率重建的自適應性研究
2017年微型機與應用第9期
楊海麗,黃洪瓊
上海海事大學 信息工程學院,上海 201306
摘要: 由于視頻場景變化較快、配準誤差、噪聲、低分辨率圖像數量不足等原因,會使傳統基于壓縮感知的采用視頻幀固定分組形式的視頻編解碼器的重構效果較差,同時也使超分辨率重建出現病態問題。為解決這些問題,文章提出一種基于壓縮感知的自適應幀圖像分組的視頻編解碼器,同時又在超分辨率重建算法中提出了L曲線的自適應時空正則化系數計算方法,可以自適應地計算正規化系數。由實驗結果表明,該算法能夠很好地解決上述問題從而重構出視覺效果良好的視頻幀圖像。
Abstract:
Key words :

  楊海麗,黃洪瓊

  (上海海事大學 信息工程學院,上海 201306)

  摘要:由于視頻場景變化較快、配準誤差、噪聲、低分辨率圖像數量不足等原因,會使傳統基于壓縮感知的采用視頻幀固定分組形式的視頻編解碼器的重構效果較差,同時也使超分辨率重建出現病態問題。為解決這些問題,文章提出一種基于壓縮感知的自適應幀圖像分組的視頻編解碼器,同時又在超分辨率重建算法中提出了L曲線的自適應時空正則化系數計算方法,可以自適應地計算正規化系數。由實驗結果表明,該算法能夠很好地解決上述問題從而重構出視覺效果良好的視頻幀圖像。

  關鍵詞:壓縮感知;視頻幀圖像自適應分組;超分辨率重建;自適應時空正則化;L曲線

  中圖分類號:TP391.9文獻標識碼:ADOI: 10.19358/j.issn.1674-7720.2017.09.015

  引用格式:楊海麗,黃洪瓊.視頻幀間分組及超分辨率重建的自適應性研究[J].微型機與應用,2017,36(9):49-52.

0引言

  *基金項目: 國家自然科學基金(61673260)

  隨著人類精神生活需求的不斷提高,一些高品質的數字圖像、視頻成為生活中不可或缺的部分,若是在處理這些含有海量信息數據的數字視頻圖像時,仍遵循奈奎斯特抽樣定律就會出現采樣數量過大的弊端,同時也會給信息存儲和傳輸帶來很大麻煩。壓縮感知理論的提出成為解決這一難題的指路明燈。Candes率先在數學領域推理出可以從部分傅里葉變換系數精確重構原始信號的結論[1],這一結論的成功論證給信號的重構提供了嶄新的思路。而后經不斷深入研究,壓縮感知的概念及理論被正式提出,其理論精髓在于將壓縮理論與采樣理論巧妙結合。在采樣過程中不再是單純對原始信號進行直接采樣,而是對其非自適應線性投影測量值進行采集,然后再由相應的重構算法憑借測量值重構出原始信號[2]。壓縮感知理論中所采集的信號的投影測量數據量相比傳統采樣要少很多,正好彌補了奈奎斯特抽樣定律在數字視頻圖像處理中出現采樣數量過大的缺點,使得高分辨率信號的采集成為可能,這一突出的優勢奠定了壓縮感知理論在視頻處理技術領域中的重要地位[3]。

  視頻技術迅猛發展和一些新的視頻應用使得傳統基于壓縮感知的視頻編解碼方式及重構方式不再完全適用,一些傳統算法的改進也面臨著巨大挑戰。比如在安全監控系統中,當有意外狀況發生,需要對監控錄像進行超分辨率重建,從而為事件的處理提供重要線索;把一般的NTSC格式低清電視信號

  轉換為高清電視信號(簡稱HDTV),從而可獲得更好的圖像質量。基于此,本文對視頻幀間圖像分組及超分辨率重建兩者的自適應性方面展開研究,以提高重構視頻幀圖像的質量。

1視頻幀間分組及超分辨率重建的自適應性研究

  1.1自適應幀圖像分組視頻編解碼器

  文獻[4]首次提出了基于壓縮感知理論的視頻編解碼器,它是以整幅視頻幀圖像為最小基數來處理,并利用感知壓縮理論大大減少了重構視頻時所需的圖像樣本數,使運算的復雜度得到優化。文獻[56]提出了分布式視頻壓縮感知(Distributed Compressed Video Sensing) 理論,借助參考幀來降低測量率提高整個編解碼系統的性能,可廣泛應用于無線傳感網或泛在網絡。這些基于壓縮感知的視頻編解碼器在對視頻幀圖像分組環節中,基本都是按順序劃分出每組,且每組的視頻幀數量都是相同的。此種處理方式應用在沒有快速改變的視頻場景時,重構效果是較好的[78],如若視頻在下一幀突然出現情景的迅速改變,仍舊采用這種處理方式,則效果甚為不佳。基于以上情況,本文提出了一種可以適應視頻場景出現迅速改變的自適應幀間分組的視頻編解碼器。

  本文提出的能夠適應視頻場景出現迅速改變的自適應幀間分組的視頻編解碼器設計重點主要有兩處,首先是如何判斷視頻場景是否發生了迅速改變,然后是如何針對此類情況實現不同于傳統形式的分組。針對如何判斷視頻場景有無快速改變的問題,本文采取的辦法是在對視頻圖像處理時首先設置了閾值判決這一步驟。在本文中該閾值是用來判斷當前幀與參考幀的差異性,故選擇峰值信噪比來作為各幀圖像差異性大小的鑒定參數。下面進行不同于傳統分組方式的自適應分組。首先將視頻第一幀默認設為第一組的關鍵幀,然后從第二幀開始作為當前幀并同上一幀進行幀圖像差異性比較,即進行閾值判決。若是當前幀與參考幀之間的差異系數小于設定閾值,則將當前幀同當前關鍵幀劃為一組,并將當前幀定義為該組的非關鍵幀;如果當前幀與參考幀之間的差異系數大于或等于閾值,則要重新定義一個組并定義該幀為新分組的關鍵幀。這樣就可以使得視頻幀圖像實現自適應分組,每組幀數再不是固定不變的了,而是能夠隨視頻場景自身狀況而自動規劃每組幀數。

  能夠適應視頻場景出現迅速改變的自適應幀間分組的視頻編解碼器實現流程如圖1所示。

 

001.jpg

  流程圖實現具體步驟描述如下:

  (1)定義視頻的第一幀為Group1的第一個關鍵幀key1;

  (2)根據上文提出的閾值判決原理和自適應分組原理將視頻各幀劃分成N組(Group1,Group2,…,Group N),并對應N個關鍵幀和若干非關鍵幀;

  (3)關鍵幀的處理過程是對整幀圖像進行CS編碼、傳輸、解碼,再通過自適應的超分辨率重建算法重構出關鍵幀圖像輸出;

  (4)對非關鍵幀的處理不同于關鍵幀的地方在于必須先求出一幅殘差圖像(將非關鍵幀圖像與參考幀圖像求殘差所得圖像),然后再對該圖像進行步驟(3)中與關鍵幀一樣的處理。最后還需要進行重構殘差圖像和參考幀圖像相加的處理,完成幀圖像輸出。

  1.2視頻超分辨率重建的自適應性研究

  空間域方法在視頻超分辨率重建研究中有著較大的研究空間和應用價值,因而成為該領域的研究重點。迭代反投影方法[9]、凸集投影方法(POCS)[10]、最大后驗概率方法(MAP)[11]等是近年來比較經典的研究成果。這些典型算法雖然在很大程度上改善了視頻重建效果,但是它們中的絕大部分只能夠在忽略了很多實際情況的理想狀態下實現。在實際的超分辨率重建過程中通常容易出現噪聲放大、空間振鈴現象等嚴重影響重建圖像質量的病態問題,為避免上述狀況的發生一般所采取的解決方案是僅從空間域上來入手通過正則化的方法提升重建質量。本文考慮到視頻幀與幀之間是同時存在于空間和時間上的,它們應該在空間和時間上都存在相關聯性,所以便將時空聯合正則化算子引入到算法之中,來有效提高解的質量。同時又提出了一種能夠自適應計算出最合適時空正則化系數的 L曲線計算方法,以提高視頻超分辨率重建圖像質量。

  在超分辨率重建過程中,為解決外界噪聲等因素帶來的不良影響而需要加入懲罰函數,這一解決辦法便稱為正則化。帶有懲罰函數的超分辨率重建如式(1)所示:

  X=argxmin{AX-Y2+λγX2}(1)

  式中,AX-Y2是數據擬合項,γX2為正則化項,可以控制解的擾動[12]。λ是正則化系數,λ值增加時,重建圖像的平滑度就會隨之增大,所以在原始圖像信息提供短缺、噪聲影響嚴重等惡劣情況下,需適當增大λ值。然而圖像過于平滑又是另一種失真,由于重建圖像的平滑度與λ的取值呈一種正相關關系,所以并不是λ的取值可以選擇無限大,而是需要找到最合適的λ取值來達到最好的重構效果[12]。

  帶有時空聯合正則化算子的超分辨率重建如式(2):

  X=argxmin(Y-AX22+λΓX1)(2)

  此目標函數中,同時引入了L1、L2范數,第一項中的L2范數用于加強數據重建的真實度;第二項的L1范數提高了其梯度域的稀疏性[9]。其中,時空聯合正則化算子Γ如下:

  IOXY`RCG7FA1PAB1WSV{8{A.png

  此處,Slx1、Smx2、 Stt 是將視頻X往x1、x2、t方向分別移動l、m、t個像素的平移算子。

  式(1)中λγX對于AX-Y2可以在lg-lg尺度上進行轉換,二者轉換所得圖形正好是L曲線,而正則化系數λ是沿著這條曲線變化的。 L曲線存在水平和垂直兩個部分,兩個部分的交界處所出現的拐點的值正是對應過正則化和欠正則化的臨界數值[10],因此該拐點處對應的正則化系數λ的值則是最合適的數值λ*。最合適值的定義式如下:

  J9RZ])}PJ3%J)T67K@PI{O5.png

  該算法實現的具體步驟為:

  (1)設需要重建的低分辨率視頻幀編號為i(i=1,2,…,),同時給所有高分辨率幀的編號為j(j=i,i+1,...,i+n);

  (2)原始的低分辨率視頻中的圖像序列構成向量Y,構造稀疏矩陣A;

  (3)構造正則化矩陣Γ;

  (4)根據Y、A、Γ計算出當前i對應的最合適的正則化系數λ,然后將求出的Y、A、Γ和λ代入到式(2)得到Xi;

  (5)i=i+1,重復步驟(2)~(4)。當i=num(輸入的原始低分辨率視頻序列的總幀數)時停止,得到重建的高分辨率視頻。

2實驗仿真與分析

  為了證明本文算法的可行性,采用室外監控器錄制下來的巡邏艦在水里快速行駛的“Coastguard”視頻序列進行實驗。實驗中采用了一系列像素全為352×288的視頻幀圖像 ,同時測量矩陣為 32×32的SBHE矩陣,稀疏變換基采用DWT基。

002.jpg

  在視頻幀固定、每組幀數完全相等的分組模式下,將視頻幀序列按順序每10幀劃成一組,并規定每組只有第一幀是關鍵幀。設定關鍵幀測量率為0.5,非關鍵幀測量率為0.2,其重構方式采用傳統的GPSR,并將該模式取名為(F_GPSR)。在自適應分組模式下,設定閾值T=28,并按照上文自適應分組原理進行不定幀數的分組,設定關鍵幀測量率為0.5,非關鍵幀測量率為0.2,其重構方式采用本文所提出的基于L曲線的自適應超分辨率重建方法,將該模式取名為(Proposed)。取其中低分辨率第26幀視頻幀圖像實驗所得對比效果如圖2所示,采用Proposed模式視頻幀圖像重構時的L曲線如圖3所示。

  由圖2可以很直觀地看出在巡邏船快速行駛的情境下,Proposed模式下得到的視頻幀重構圖像質量遠遠優于F_GPSR模式下得到的視頻幀重構圖像質量,同時由圖3可以得出該視頻幀圖像重構時最合適的正則化系數λ*為0.000 906 08。

003.jpg

  為凸顯本文算法的優越性,使用三種已知的稀疏信號重構算法GPSR 、TwIST 和OMP ,并采用視頻幀圖像固定分組的視頻編碼器,與本文提出的自適應結合算法(Proposed)再進行以下對比實驗。

  視頻幀均設定MR=30%時,各算法的性能指標比較如表1所示。由表可以觀察出在視頻幀MR相同的情況下,本文所提出的Proposed算法在平均PSNR性能和平均重構時間上較其他三種算法有著優良的表現。

005.jpg

  該視頻序列在各MR取值狀況下各算法重構出圖像的平均PSNR性能如圖4所示。由圖4可以看出,本文所提出的自適應結合算法的PSNR性能明顯優于采用視頻幀圖像固定分組形式下的3種已知的重構算法。特別是在具有較低的MR情況下,Proposed算法可以實現較其他算法更良好的性能。各算法重構每一幀圖像所需平均時間(以秒為單位)對比如圖5所示,可以很直觀地看出,Proposed算法重構每一幀圖像所需的平均時間是較短的,說明該算法相比這三種傳統重構算法有著較低的重構復雜度。

 

004.jpg

  綜合表1數據和圖2~圖5結果可見,本研究所提出的Proposed算法在對于出現場景快速變化的低分辨率視頻序列圖像的重構處理過程中,無論是在重構圖像視覺效果、重構PSNR性能還是重構復雜度上都明顯優于現有的固定分組模式下的傳統重構算法。

3結論

  本文提出的算法使得視頻幀圖像分組和超分辨率重建都實現了能夠隨所需處理的原始視頻自身狀況而自適應優化的功能。并通過大量實驗證明了采用這種自適應地分組、重構相結合的處理算法能夠有效解決由于場景迅速改變及外界不良因素所帶來的視頻幀圖像重構效果較差和病態超分辨率重建的問題,使得視頻幀圖像在不可避免的惡劣環境下也能夠得到很好的重構效果,而且在視頻重構PSNR性能和重構復雜度上也有著優良的表現。本文算法在自適應視頻幀分組時所取閾值是經多次實驗驗證而得到的最佳值,接下來的研究將針對該閾值如何更好取值進行。

參考文獻

  [1] CANDES E, ROMBERG J,TAO T.Robust uncertainty principles: exact signal reconstruction from highly incomplete frequency information[J]. IEEE Transactions on Information Theory,2006,52(2):489-509.

  [2] DONOHO D L.Compressed sensing[J].IEEE Transactions on Information Theory,2006,52(4):1289-1306.

  [3] STANKOVIC V,STANKOVIC L,CHENG S. Compressive video sampling[C].Proc. 16th IEEE International Conference on Image Processing. Poland:IEEE Press,2009:30013004.

  [4] XIE X,LU Z,LAI Z.Fast encoding of video based on compressive sensing[C].Proc. YCICT’09.Beijing:IEEE Press,2009:114-117.

  [5] DO T T, CHEN Y, NGUYEN D T, et al. Distributed compressed video sensing[C]. IEEE International Conference on Image Processing. IEEE Xplore, 2009:1393-1396.

  [6] BAIG Y,LAI E M K,PUNCHIHEWA A. Distributed video coding based on compressed sensing[C].Proc. ICMEW 2012.Melbourne,VIC:IEEE Press,2012:325-330.

  [7] WU M H,ZHU X C.A video code based on distribution compressive sensing[J].Procedia Engineering,2012(29):3613-3618.

  [8] DONG G,XI Z. A novel video codec scheme based on compressive sensing[J]. Journal of Information and Computational Science,2013,10(14):46814689.

  [9] IRANI M, PELEG S. Motion analysis for image enhancement: resolution, occlusion, and transparency[J]. Journal of Visual Communication & Image Representation, 1993, 4(4):324335.

  [10] PATTI A J, SEZAN M I, TEKALP A M. Robust methods for highquality stills from interlaced video in the presence of dominant motion[J]. IEEE Transactions on Circuits & Systems for Video Technology, 1997, 7(2):328-342.

  [11] BORMAN S, STEVENSON R L. Simultaneous multiframe MAP superresolution video enhancement using spatiotemporal priors[C]. International Conference on Image Processing, 1999. ICIP 99.IEEE, 1999:469-473.

  [12] Shang Junguo, Jiao Binliang. Research on Tikhonov regularization of multiframe images reconstruction algorithm[J]. Application Research of Computers, 2011, 28(2):785-787.


此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 欧美性video高清精品 | 日日摸人人看97人人澡 | 国产精品视频ccav | 69黄在线看片免费视频 | 国产成人精品日本亚洲11 | 视频一区中文字幕 | 国产剧情一区二区三区 | 成年片人免费www | 大香网伊人久久综合网2021 | 一级片免费网站 | 男女视频免费 | 欧美日韩成人 | 中国免费毛片 | 伊人激情视频 | 久操成人 | 免费a网址| 久久香蕉综合精品国产 | 小明明看看视频永久免费网 | 中文国产成人精品少久久 | 免费成人激情视频 | 国产欧美一区二区三区视频 | 亚洲人成网站在线观看播放 | 国产成人精品日本亚洲语音1 | 免费大片黄日本在线观看 | 亚洲国产精品乱码一区二区三区 | 国产成在线观看免费视频成本人 | 中国黄色片一级 | 国产香港日本三级在线观看 | 日批视频免费观看 | 日本免费资源 | 香蕉99国内自产自拍视频 | 天天干天天操天天舔 | 在线成人免费看大片 | 91精品成人免费国产片 | 91国语精品自产拍在线观看性色 | 深爱开心激情网 | 麻豆精品国产免费观看 | 全黄a一级裸片 | 欧美精品免费专区在线观看 | 一本色综合| 午夜大片在线观看 |