摘 要: 提出了一種基于Contourlet變換的可區分內容或水印篡改的圖像認證算法。在載體圖像的Contourlet變換域分別嵌入認證水印和恢復水印,作為區分圖像內容被篡改還是水印被篡改的依據。仿真實驗表明,該算法不但能準確定位篡改位置,而且能區分篡改類型,在一定條件下還可以恢復被篡改的區域。
關鍵詞: Contourlet變換;圖像認證
近年來,隨著數字水印技術的快速發展,出現了大量基于水印的圖像認證算法,當圖像真偽性受到懷疑時,提取的水印就可以作為驗證篡改是否發生的依據。其中,在Contourlet變換域嵌入水印的圖像認證算法受到重視[1-3],這些算法大都將水印嵌入到能量較大的Contourlet變換方向子帶中,較好地利用了方向子帶的紋理特性,滿足水印的不可見性和魯棒性要求。這些算法通過將提取的水印與原始水印相對比,能判斷該圖像是否發生了篡改,并對篡改區域進行定位,但不足之處在于它們僅能指出圖像的篡改位置,而不能區分是圖像內容被篡改還是水印被篡改,或者兩者都被篡改。
由于對圖像內容的篡改會破壞原始圖像的使用價值,因此,認證算法必須檢測出此類篡改并精確定位,以確保認證的可靠與有效;而對水印的篡改一般不影響原始圖像的使用價值,這種僅水印被篡改的情況應能通過認證。如果不加區分地一律不通過認證,一方面將會使本來真實可信的圖像變得不可信,從而降低數字圖像的利用效率,并妨礙數字圖像認證技術的推廣與應用;另一方面攻擊者可以通過僅篡改水印來偽造對圖像內容的篡改,使本來真實的圖像不能通過認證,達到惡意攻擊的目的。因此,能區分是圖像內容還是水印被篡改的認證算法成為圖像認證技術推廣與應用必須解決的問題。
針對現有基于水印的圖像認證算法對區分圖像內容還是水印被篡改研究的不足,本文提出了一種可區分內容或水印篡改的圖像認證算法。首先由載體圖像的Contourlet低頻系數生成恢復水印,將其嵌入對應的4個中頻子帶;恢復水印全部嵌入后,再在載體圖像Contourlet低頻子帶嵌入認證水印。雙水印的嵌入可以作為判斷圖像內容被篡改還是水印被篡改的依據。該算法不分塊,避免了塊效應和基于分塊獨立性產生的量化攻擊,能夠與現有的壓縮標準(如JPEG、JPEG 2000)結合起來,能較好地檢測出發生的篡改并定位,同時區分篡改類型,在一定條件下還可以恢復被篡改的區域。
2.1 不可見性測試
實驗時,含雙水印圖像與原始圖像相比,其峰值信噪比PSNR=38.180 1;只嵌入恢復水印圖像與原始圖像相比,其PSNR=39.862 5;提取出的水印圖像與原始水印圖像相比,其相關系數NC=1.00。實驗結果表明,嵌入水印后對圖像的視覺質量影響小,并且在載體圖像未遭受任何攻擊時,該算法完全可以正確地提取出水印圖像。
2.2 區分水印篡改或內容篡改
在傳輸過程中,數字圖像受到的篡改攻擊包括篡改嵌入的水印信息、篡改圖像內容及同時篡改水印和內容3種。下面通過實驗來驗證算法對篡改類型的區分情況。
對含水印圖像進行處理,使提取的認證水印與原始認證水印相比,各位值取反。如圖2所示,圖2(a)是認證水印被篡改的圖像,圖2(b)是其認證結果。由于只篡改水印信息并不影響原始圖像的使用價值,因此這種情況通過認證。
對含水印圖像進行了裁剪和替換等處理,結果如圖3所示,從認證結果可以清晰地看出篡改發生的位置。由于此時圖像的內容發生了篡改,破壞了原始圖像的使用價值,因此這種情況不能通過認證。同時,通過事先嵌入的恢復水印,對被篡改區域進行了恢復。
本文提出了一種可區分水印或內容篡改的圖像認證算法,該算法在原始圖像Contourlet變換域的中頻子帶嵌入量化的低頻信息作為恢復水印,而在圖像的低頻子帶嵌入認證水印。仿真實驗表明,該算法在保證不可見性的同時,具有較好的魯棒性;雙重水印的嵌入使得算法可以區分水印被篡改或內容被篡改,并可對圖像內容被篡改區域進行定位與近似恢復。
參考文獻
[1] 李海峰,宋巍巍,王樹勛.基于Contourlet變換的穩健性圖像水印算法[J].通信學報,2006,27(4):87-94.
[2] JAYALAKSHMI M, MERCHANT S N, DESAI U B.Digital water-marking in Contourlet domain[C]. The 18th Intern-ational Conference on Pattern Recognition, 2006(3):861-864.
[3] BOUZIDI A, BAAZIZ N. Contourlet domain feature extraction for image content authentication[C]. Proceedings of the 2006 International Conference on Intelligent Information Hiding and Multimedia Signal Processing, 2006:202-206.