數(shù)據(jù)壓縮是保留相同或絕大部分數(shù)據(jù)前提下減小文件大小的過程。它的原理是消除不必要的數(shù)據(jù)或以更高效的格式重新組織數(shù)據(jù)。在進行數(shù)據(jù)壓縮時,你可以選擇使用有損方法或無損方法。有損方法會永久性地擦除掉一些數(shù)據(jù),而無損方法則能保證持有全部的數(shù)據(jù)。使用哪類方法取決于你要讓你的文件保持多大的精準度。
本文會為你介紹6種不同的無損數(shù)據(jù)壓縮算法,以及4種基于深度學習的圖像/視頻壓縮算法。
六款無損數(shù)據(jù)壓縮算法
無損壓縮算法通常被用于歸檔或其他高保真目的。這些算法能夠讓你在確保文件可被完整恢復的同時減少文件大小。有很多種無損壓縮算法供你選擇。下面介紹6種常用的算法。
1.LZ77
LZ77算法發(fā)布于1977年。作為很多其他無損壓縮算法的基礎(chǔ),它使用了“滑動窗口”的概念。在這個概念中,LZ77管理了一個字典。該字典使用三元組的方式:
偏移量(Offset):短語起始處于文件開頭之間的距離
行程長度(Run length):組成短語的字符數(shù)
偏離字符:表明新短語的標記符,匹配結(jié)束后,前向緩沖區(qū)中的第一個符號
當文件被解析時,字典會被實時更新以反映最新的壓縮數(shù)據(jù)和大小。舉個例子,如果一個文件包含字符串"abbadabba",那么被壓縮到字典中的項就是"abb(0,1,'d')(0,3,'a')"。你可以看下下表的拆解過程:
這個例子中,被壓縮后的數(shù)據(jù)并不比初始數(shù)據(jù)小多少。但一般情況下,當文件很長時,這種壓縮效果就會顯現(xiàn)出來。
2. LZR
LZR由Michael Rodeh于1981年提出,它是在LZ77的基礎(chǔ)上發(fā)展而來。這個算法目標是成為LZ77的一個線性時間替換算法,但編碼后Udell指針可能指向文件的任意偏移量,意味著需要耗費可觀的內(nèi)存,因此表現(xiàn)不如LZ77。
3. LZSS
LZSS,全稱Lempel-Ziv-Storer-Szymanski,于1982年提出。它也是旨在提升LZ77的一個算法。它引入了一個方法能夠檢測是否真的減少了文件大小。如果未能起到壓縮效果,就保持原來的輸入格式。LZSS還移除了對偏離字符的使用,只使用<偏移量,長度>對。這個壓縮算法廣泛用于歸檔格式,如RAR以及網(wǎng)絡數(shù)據(jù)的壓縮。
4. DEFLATE
DEFLATE算法于1993年提出。作者是Phil Katz。該算法結(jié)合了LZ77或LZSS預處理器與霍夫曼編碼。霍夫曼編碼是1952年提出的訴法。它是一種熵編碼,主要基于字符出現(xiàn)頻度分配編碼。
5. LZMA
LZMA算法,全稱是Lempel-Ziv Markov chain Algorithm(LZMA),于1998年提出,是LZ77的改進版,旨在實現(xiàn).7z格式的7-ZIp文件歸檔。它使用鏈式壓縮方法,在比特而非字節(jié)級別上應用修改后的LZ77算法。該壓縮算法的輸出稍后被算數(shù)編碼進行處理以便后續(xù)進一步壓縮。根據(jù)具體的實現(xiàn)不同,可能會引入其他的壓縮步驟。
6. LZMA2
LZMA2算法于2009年提出,是LZMA的改良版。它提升了LZMA在多線程能力上的性能以及提升了處理不可壓縮類型數(shù)據(jù)的表現(xiàn)。
四種基于深度學習的圖像/視頻壓縮算法
除了上面介紹的靜態(tài)壓縮算法,還有基于深度學習的壓縮算法可供選擇。
1. 基于多層感知機的壓縮算法
多層感知機(Multi-Layer Perceptron,MLP)技術(shù)使用多層神經(jīng)元來獲取、處理以及輸出數(shù)據(jù)。它能夠被應用到數(shù)據(jù)降維任務和數(shù)據(jù)壓縮。首個基于MLP的算法于1988年被提出,目前已經(jīng)被應用到:
二進制編碼——標準的雙符號編碼
量化——限制從連續(xù)集到離散集的輸入
特定領(lǐng)域內(nèi)的轉(zhuǎn)換——像素級的數(shù)據(jù)變更
MLP算法利用分解神經(jīng)網(wǎng)絡上一步的輸出來確定最佳的二進制碼組合。后面,使用預測技術(shù)優(yōu)化這個方法。預測技術(shù)能夠通過反向傳播基于相鄰數(shù)據(jù)來提升數(shù)據(jù)準確度。
2. DeepCoder -- 基于視頻壓縮的深度神經(jīng)網(wǎng)絡
DeepCoder是一個基于卷積神經(jīng)網(wǎng)絡(CNN)的框架,它是傳統(tǒng)視頻壓縮技術(shù)的替代。該模型為預測信號和殘留信號使用單獨的CNN。它使用標量量化技術(shù)和一個傳統(tǒng)的文件壓縮算法——霍夫曼編碼——將編碼特征映射到一個二進制流中。一般認為,該模型的性能要優(yōu)于著名的H.264/AVC視頻編碼規(guī)范。
3. 基于CNN的壓縮算法
CNN是分層的神經(jīng)網(wǎng)絡,通常用于圖像識別和特征檢測。當應用到壓縮時,這些神經(jīng)網(wǎng)絡使用卷積操作來計算相鄰像素點之間的相關(guān)性。CNN展示出了比基于MLP算法更好的壓縮結(jié)果,提升了超分辨率下的性能以及減少了偽影。另外,基于CNN的壓縮還提升了JPEG圖像的品質(zhì),因為它減少了峰值信噪比(PSNR)和結(jié)構(gòu)相似性(SSIM);贑NN的壓縮通過使用熵估計法還實現(xiàn)了HEVC的性能。
4. 基于生成式對抗網(wǎng)絡(GAN)的壓縮算法
GAN屬于神經(jīng)網(wǎng)絡的一種,它使用兩個神經(jīng)網(wǎng)絡彼此競爭的方式來產(chǎn)生更精確的分析和預測。最早基于GAN的壓縮算法于2017年被提出。這些算法的文件壓縮比例是其他常見方法(如JPEG、WebP等)的2.5倍。你可以使用基于GAN的方法通過并行化處理來實現(xiàn)實時壓縮。主要的原理是基于最相關(guān)的特征來壓縮圖片。當解碼的時候,算法基于這些特征來重建圖像。和基于CNN算法相比,基于GAN的壓縮算法通過消除對抗損失能夠產(chǎn)生更高品質(zhì)的圖像。
總結(jié)
壓縮算法能夠幫助你優(yōu)化文件大小。不同的算法有不同的結(jié)果。本文簡述了6種靜態(tài)的無損壓縮算法以及4種基于深度學習的壓縮算法。