一種M2DPCA和NFA相結(jié)合的人臉識(shí)別方法
出處:dearyyh 發(fā)布于:2011-09-02 10:03:22
摘要: 針對非參數(shù)特征分析(nonparametric feature analysis,NFA)方法需將圖像矩陣轉(zhuǎn)化為向量后進(jìn)行特征提取,導(dǎo)致數(shù)據(jù)維數(shù)很大,計(jì)算復(fù)雜等缺點(diǎn),提出M2DPCA+NFA 相結(jié)合的方法。新方法對圖像矩陣進(jìn)行分塊,再采用2DPCA 進(jìn)行特征提取,再實(shí)行NFA。該方法能有效提取圖像的局部特征,而由于考慮到類內(nèi)、類間的差異,可彌補(bǔ)PCA 的缺陷。在ORL 人臉庫和XM2VTS 人臉庫上對LDA 方法、NFA 方法以及本方法分別進(jìn)行了評價(jià)和測試,結(jié)果顯示,所提方法在識(shí)別效果上優(yōu)于LDA 方法和NFA 方法。
人們在日常生活中常用的身份手段就是人臉識(shí)別,其也是當(dāng)前模式識(shí)別中一個(gè)熱門的研究課題。人臉識(shí)別就是將動(dòng)態(tài)捕捉到的人的面部與預(yù)先錄用的人臉庫中的人臉進(jìn)行比較識(shí)別?,F(xiàn)已經(jīng)廣泛地應(yīng)用于國家安全、刑事偵破等領(lǐng)域。人臉與指紋、虹膜等其他生物特征一樣與生俱來,具有性和不易被復(fù)制的良好特性;且人臉識(shí)別具有可以遠(yuǎn)距離采集人臉圖像,是一種非接觸性的技術(shù),具有非侵犯性的特點(diǎn), 但是人臉圖像的特征空間分布非常復(fù)雜;另外,還不能找到完全可分的特征映射和相應(yīng)曲面進(jìn)行分類識(shí)別。
特征提取是人臉識(shí)別過程中的關(guān)鍵問題。在各種特征提取方法中,Belhumeur 等人提出的Fisher 臉(Fisherfaces)方法和Turk 等人提出的特征臉方法(Eigenfaces)方法[3]是兩種應(yīng)用為廣泛的算法。Fisher 臉方法是通過線性判別分析(Linear Discriminant Analysis,LDA)尋找使類內(nèi)距和類間距比值的投影方向來獲取判別信息, 是一種有監(jiān)督的方法。
使用LDA 方法進(jìn)行人臉識(shí)別時(shí),可能遇到兩大問題:1)小樣本問題(Small Simple Size,SSS);2)邊緣類的存在造成投影空間中近鄰樣本的重疊。且由于LDA 方法中的類間散布矩陣Sb的秩多有c-1 個(gè),因此,特征向量多有c-1 個(gè)。對于高維數(shù)據(jù),要很好地區(qū)分各個(gè)類,只有c-1 個(gè)特征是不充分的。此外,類內(nèi)散布矩陣只考慮了類的中心,沒有考慮類的邊界結(jié)構(gòu), 而這些邊界結(jié)構(gòu)已經(jīng)證明了在分類時(shí)有很大作用的,這些問題導(dǎo)致了LDA 方法性能的不穩(wěn)定。為解決這些問題,Li等人于2009 年提出了非參數(shù)子空間分析方法(Non-parametricSubspace Analysis,NSA)。主成分分析(Principal ComponentAnalysis, PCA)在做特征提取時(shí)提取的是全局特征,識(shí)別效果往往不是很理想, 而實(shí)際上當(dāng)人臉表情和光照條件變化時(shí), 僅部分人臉區(qū)域變化明顯, 而其他部分變化不大, 甚至無變化。M2DPCA 方法則是對PCA 算法的改進(jìn),它是對劃分后的子圖像進(jìn)行鑒別分析, 可以捕捉人臉的局部信息特征,有利于識(shí)別。
由于NSA 方法中的類內(nèi)散布矩陣Sw 仍然和LDA 的一樣,這樣可能會(huì)影響識(shí)別效果;且NSA 方法計(jì)算類間散步矩陣沒有考慮到不同的KNN 點(diǎn)有助于構(gòu)建不同的類間散布矩陣。Li 等人提出了非參數(shù)特征分析(nonparametric featureanalysis,NFA)方法,本文在降維方面作了改進(jìn)即先對圖像矩陣分塊并采用2DPCA 進(jìn)行特征預(yù)提取, 得到替代原始圖像的低維新模式后對其施行NFA 方法。在ORL 人臉庫及XM2VTS人臉庫上驗(yàn)證了該方法, 其識(shí)別性能優(yōu)于LDA 方法、NFA方法。
1 M2DPCA+NFA
1.1 基于M2DPCA 的特征提取
設(shè)模式類別有C 個(gè):C1,C2,…,CC,第i 類有ni個(gè)樣本。訓(xùn)練樣本圖像為:

訓(xùn)練樣本A i的p×q 塊圖像矩陣表示為:

其中每個(gè)子圖像矩陣(Ai(j))k,l(i=1,2,Λ,c;j=1,2,Λ,ni;k=1,2,Λ,p;l=1,2,Λ,q)是m1×n1(m1×p=m,n1×q=n)矩陣。
訓(xùn)練樣本的總體散布矩陣為:

其中M=Npq 表示訓(xùn)練樣本子圖像矩陣總數(shù):

l 是所有訓(xùn)練樣本子矩陣的總體平均值,我們很容易就能得出Gt 為m1×m1的非負(fù)定矩陣。
定義準(zhǔn)則函數(shù):

Gt 的前t 個(gè)特征值所對應(yīng)的標(biāo)準(zhǔn)正交的特征向量Z1,Z2,…,Zt為投影向量組,投影矩陣Q=[Z1,Z2,…,Zt]。由此可得訓(xùn)練樣本在Q 上投影的特征矩陣:

值得注意的是:在對原圖像施行模塊化2DPCA過程中,當(dāng)確定圖像分塊后,投影軸個(gè)數(shù)t 的取值就決定了特征矩陣Bi(j)的維數(shù)。若t 值取小了, 特征矩陣中會(huì)遺失許多不利于稍后分類的鑒別信息,然而t 值取大了, 則特征矩陣中又將存在大量不利于降維的冗余信息。t 可按如下方法取值,先求總體離散矩陣Gt的特征向量,按降序排列為:λ1,λ2,…,λme,令
l=1,2,Λme,則t 取使得min{ηl /ηme≥1-ε(0<ε≤0.01)}成立的l 值。
1.2 基于NFA 的特征提取
令(xi(j))k,l=Vec(Bi(j))k,l,則(xi(j))k,l∈R m1 n1 ,k=1,2,…,p,l=1,2,…,q;第i 類第j 個(gè)圖像樣本的子圖像矩陣的均值為:

定義新的類間散布矩陣:

新的類內(nèi)散布矩陣:

其中,NNk(xi(j),l)為類l 到xi(j)的K 個(gè)近鄰的集合,式(6)中權(quán)值w(i,j,l)為:

式(7)中α 是一個(gè)正參數(shù),可以控制關(guān)于距離比的權(quán)值變化速度,d(xi(j) ,NNk(xi(j) ,l))是xi(j)到集合NNk(xi(j) ,l)距離。
于是,相應(yīng)的準(zhǔn)則函數(shù)為:

取特征方程SbNFAω=λSwNFAω 的前d 個(gè)特征值對應(yīng)的特征向量作為鑒別向量。
2 實(shí)驗(yàn)結(jié)果與分析
2.1 在ORL 人臉庫上的實(shí)驗(yàn)
ORL 人臉庫中共有40 人在不同時(shí)期不同狀態(tài)下拍攝的10 張照片,每張照片的分辨率均為112×92,照片有側(cè)面、正面;表情嚴(yán)肅、表情放松;睜眼、閉眼;微笑、不笑;戴眼鏡、不戴眼鏡等諸多差別。以下是取自人臉庫的一組照片:

圖1 ORL 人臉庫
表1 給出了對原始圖像矩陣進(jìn)行8×4、16×4 即圖像子矩陣大小分別是14×23、7×23 兩種分塊后與LDA、NFA 方法對比的結(jié)果。分類器為距離分類器[8]。
表1 各方法在ORL 人臉庫上的實(shí)驗(yàn)結(jié)果

本文中取ε≤0.01。由表1 數(shù)據(jù)可以看出,8×4 分塊和16×4 分塊在識(shí)別率方面均要優(yōu)于LDA 和NFA 方法。
2.2 在XM2VTS 人臉庫上的實(shí)驗(yàn)
XM2VTS 人臉庫中共有295 人在不同環(huán)境不同表情下拍攝的8 張照片, 每張照片的分辨率均為55×51, 照片包括低頭、抬頭,戴眼鏡、不戴眼鏡,表情憤怒、表情平和,側(cè)臉、正臉,有妝、無妝等各種差異。以下是取自人臉庫的一組照片:

圖2 XM2VTS 人臉庫
本實(shí)驗(yàn)中以每組前4 張作為訓(xùn)練樣本, 后4 張作為測試樣本??偟挠?xùn)練樣本和總的測試樣本均為1 180 張。實(shí)驗(yàn)的結(jié)果, 正確識(shí)別率的對應(yīng)關(guān)系見表2,表2 給出了對原始圖像矩陣進(jìn)行11×3 和5×17 即圖像子矩陣大小分別是5×17 和11×3 兩種分塊后與LDA、NFA 方法對比的結(jié)果。分類器為距離分類器。
表2 各方法在XM2VTS 人臉庫上的實(shí)驗(yàn)結(jié)果

由表1 和表2 的數(shù)據(jù)可以看出, 在識(shí)別率方面本文方法均要優(yōu)于LDA 和NFA 方法。具體言之, 在ORL 數(shù)據(jù)庫中,LDA 方法結(jié)果是93.50%, 而NFA 方法的結(jié)果是98.00%,新方法的識(shí)別率達(dá)99.00%。在XM2VTS 數(shù)據(jù)庫中,LDA 方法的結(jié)果是84.42%,NFA 方法的結(jié)果是94.90%,新方法的識(shí)別率為94.83%。本方法在ORL 人臉庫上效果較為明顯。
LDA 方法和NSA 方法在處理數(shù)據(jù)時(shí)只對一維數(shù)據(jù)進(jìn)行處理,大大增加了計(jì)算量,容易出現(xiàn)“小樣本問題”。而本文的方法首先使用模塊化2DPCA 對二維數(shù)據(jù)進(jìn)行特征提取,考慮到了圖像的局部特征,而且圖像維數(shù)的降低,減少了計(jì)算量。在此基礎(chǔ)上轉(zhuǎn)化為一維數(shù)據(jù)使用NSA 方法,考慮到了類內(nèi)及類間的差異性,可以取得更好的識(shí)別率。
3 結(jié)論
本文在NFA 的基礎(chǔ)上提出了M2DPCA 和NFA 相結(jié)合的一種新的人臉識(shí)別方法。首先利用模塊化2DPCA 對原始數(shù)據(jù)進(jìn)行預(yù)處理,再對得到的新的圖像樣本實(shí)行NSA 判別分析,這樣做的優(yōu)點(diǎn)是能夠抽取到圖像的局部特征,反映圖像之間的差異的同時(shí),亦能降低維數(shù),使計(jì)算簡單,得到更高的識(shí)別率。但研究發(fā)現(xiàn), 對同一個(gè)庫中的原始圖像分塊方法的不同,識(shí)別率一般都不同,因此,如何分塊才能得到更高的識(shí)別率有待于進(jìn)一步研究。
版權(quán)與免責(zé)聲明
凡本網(wǎng)注明“出處:維庫電子市場網(wǎng)”的所有作品,版權(quán)均屬于維庫電子市場網(wǎng),轉(zhuǎn)載請必須注明維庫電子市場網(wǎng),http://m.58mhw.cn,違反者本網(wǎng)將追究相關(guān)法律責(zé)任。
本網(wǎng)轉(zhuǎn)載并注明自其它出處的作品,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)或證實(shí)其內(nèi)容的真實(shí)性,不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。其他媒體、網(wǎng)站或個(gè)人從本網(wǎng)轉(zhuǎn)載時(shí),必須保留本網(wǎng)注明的作品出處,并自負(fù)版權(quán)等法律責(zé)任。
如涉及作品內(nèi)容、版權(quán)等問題,請?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。
- 掌握 DSP:原理剖析與應(yīng)用實(shí)踐2025/5/8 14:03:24
- 模糊邏輯在 DSP 上實(shí)時(shí)執(zhí)行2023/7/25 17:13:30
- 多速率DSP及其在數(shù)模轉(zhuǎn)換中的應(yīng)用2023/6/12 15:28:52
- 使用 DSP 加速 CORDIC 算法2023/3/29 15:46:30
- 高速DSP系統(tǒng)的信號(hào)完整性2022/9/26 16:45:38









