軟件工程畢業(yè)論文-基于pca算法的eigenfaces人臉識別算法_第1頁
已閱讀1頁,還剩31頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、<p><b>  本科畢業(yè)論文</b></p><p><b> ?。?0 屆)</b></p><p>  基于PCA算法的Eigenfaces人臉識別算法</p><p><b>  摘要</b></p><p>  人臉識別技術(shù)就是利用計(jì)算機(jī)分析人臉圖像,提

2、取有效的識別信息來辨認(rèn)身份或者判別待定狀態(tài)的一門技術(shù)。它涉及模式識別、圖像處理、計(jì)算機(jī)視覺等諸多學(xué)科的知識,是當(dāng)前研究的熱點(diǎn)之一。然而影響計(jì)算機(jī)人臉識別的因素非常之多,主要是人臉表情豐富,人臉隨年齡增長而變化,人臉?biāo)蓤D像受光照、成像角度及成像距離等影響,極大地影響了人臉識別走向?qū)嵱没?lt;/p><p>  基于PCA算法的人臉識別過程大致分為訓(xùn)練、測試、識別這三個(gè)階段完成,在訓(xùn)練階段,通過尋找協(xié)方差矩陣的特征向

3、量,求出樣本在該特征向量上的投影系數(shù);在測試階段,通過將測試樣本投影到特征向量上,得到測試樣本在該特征向量上的投影系數(shù)。</p><p>  最后,采用最小歐氏距離,找到了與測試樣本最相近的訓(xùn)練樣本圖像。</p><p>  關(guān)鍵詞 Eigenfaces、PCA算法、人臉識別算法、matlab、SVD。</p><p><b>  Abstract<

4、;/b></p><p>  Face recognition technology is the use of computer analysis of facial images to extract valid identification information to identify or determine the identity of a technology Pending state.

5、It involves knowledge of pattern recognition, image processing, computer vision, and many other disciplines, is one of the hotspots of current research. However, factors affecting the computer face recognition very much,

6、 mainly rich facial expression, face changes with age, face a picture of the affected ligh</p><p>  PCA algorithm based recognition process is roughly divided into training and testing, the identification of

7、 these three stages, in the training phase, to find the eigenvectors of the covariance matrix is obtained on the sample feature vector projection coefficient; in the test phase by the test feature vector is projected ont

8、o the sample to obtain a test sample on the projection of the feature vector of coefficients. </p><p>  Finally, the minimum Euclidean distance, the test sample to find the closest sample images.</p>

9、<p>  Keywords Eigenfaces PCA Algorithm、Face Recognition Algorithm、matlab、SVD.</p><p><b>  目錄</b></p><p><b>  1 緒論1</b></p><p>  1.1計(jì)算機(jī)人臉識別技術(shù)及應(yīng)用1<

10、/p><p>  1.2常用的人臉識別方法簡介1</p><p>  1.3本論文內(nèi)容安排1</p><p><b>  2 PCA3</b></p><p>  2.1 PCA簡介3</p><p>  2.2 PCA的實(shí)質(zhì)3</p><p>  2.3 PCA理論

11、基礎(chǔ)3</p><p><b>  2.3.1投影3</b></p><p>  2.3.2最小平方誤差理論4</p><p>  2.3.3 PCA幾何解釋8</p><p>  2.4 PCA降維計(jì)算8</p><p>  3 PCA在人臉識別中的應(yīng)用11</p>&

12、lt;p>  3.1 人臉識別技術(shù)簡介11</p><p>  3.2 圖片歸一化11</p><p>  3.3 基于PCA的人臉識別11</p><p>  3.3.1 人臉數(shù)據(jù)特征提取11</p><p>  3.3.2計(jì)算均值12</p><p>  3.3.3計(jì)算協(xié)方差矩陣C12</p

13、><p>  3.3.4求出協(xié)方差C的特征值和特征向量12</p><p>  3.4奇異值分解定理12</p><p>  3.5 基于PCA的人臉識別的訓(xùn)練13</p><p>  3.5.1 訓(xùn)練集的主成分計(jì)算13</p><p>  3.5.2 訓(xùn)練集圖片重建13</p><p>

14、<b>  3.6 識別14</b></p><p><b>  4 實(shí)驗(yàn)15</b></p><p>  4.1 實(shí)驗(yàn)環(huán)境15</p><p>  4.2 PCA人臉識別實(shí)驗(yàn)過程15</p><p>  4.2.1 訓(xùn)練階段15</p><p>  4.2.2 測

15、試階段21</p><p>  4.2.3 采用歐氏最小距離識別23</p><p>  4.3實(shí)驗(yàn)結(jié)果23</p><p><b>  5 總結(jié)26</b></p><p>  5.1.1內(nèi)容總結(jié):26</p><p>  5.1.2工作總結(jié):26</p><p&

16、gt;<b>  6致謝27</b></p><p><b>  參考文獻(xiàn)28</b></p><p><b>  1 緒論</b></p><p>  1.1計(jì)算機(jī)人臉識別技術(shù)及應(yīng)用</p><p>  計(jì)算機(jī)人臉識別技術(shù)就是利用計(jì)算機(jī)分析人臉圖像,進(jìn)而從中提取出有效的識

17、別信息,用來“辨認(rèn)”身份的一門技術(shù),它涉及圖像處理、模式識別、計(jì)算機(jī)視覺、神經(jīng)網(wǎng)絡(luò)、生理學(xué)、心理學(xué)等諸多學(xué)科領(lǐng)域的知識。這諸多因素使得人臉識別成為一項(xiàng)極富挑戰(zhàn)性的課題,這也是研究的熱點(diǎn)之一。</p><p>  人臉識別已成為計(jì)算機(jī)視覺及相關(guān)領(lǐng)域中的關(guān)鍵技術(shù),而且人臉識別技術(shù)應(yīng)用背景比較廣泛,在身份驗(yàn)證、刑偵破案、罪犯身份識別、視頻監(jiān)視、駕駛執(zhí)照及護(hù)照、銀行及海關(guān)的監(jiān)控系統(tǒng)以及自動(dòng)門衛(wèi)系統(tǒng)、機(jī)器人智能化和醫(yī)學(xué)等諸

18、多方面具有廣闊的應(yīng)用前景和商業(yè)價(jià)值。</p><p>  然而影響計(jì)算機(jī)人臉識別的因素非常之多,主要是人臉表情豐富;人臉隨年齡增長而變化;人臉?biāo)蓤D像受光照、圖像角度及圖像距離等影響;所以使得人臉識別技術(shù)的普遍使用具有挑戰(zhàn)性。</p><p>  1.2常用的人臉識別方法簡介</p><p>  目前國內(nèi)外研究人臉識別的方法層出不窮,所采用的研究角度也各不相同,從不

19、同的研究角度,可以對人臉識別方法進(jìn)行分類,比如,根據(jù)輸入圖像中人臉的角度的不同,可以分為基于側(cè)面、正面、傾斜人臉圖像的人臉識別;根據(jù)圖像來源的不同,可以分為靜態(tài)和動(dòng)態(tài)的人臉識別;根據(jù)圖像的特點(diǎn),可以分為灰度圖像和彩色圖像的人臉識別。本文的主要是采用正面,靜態(tài)的灰度圖像[4]。</p><p>  根據(jù)對灰度圖像的特征提取方式的不同,人臉識別方法大致可以分成三種:基于局部特征的人臉識別方法,基于整體的人臉識別方法和

20、基于將局部和整體結(jié)合起來的人臉識別方法。而基于局部特征的人臉識別方法主要有:結(jié)構(gòu)匹配的方法、隱馬爾可夫模型(Hidden Markov Model,簡稱H瑚)的方法、彈性圖匹配(E1astic Bunch Graph Matching簡稱髓GM)的方法;基于整體的人臉識別方法主要有:基于主成分分析(Principal component Analysis簡稱PCA)的方法、線性鑒別分析法(LDA)、基于三維可變性模板(3D M0rpha

21、ble Model)的方法、基于人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks簡稱ANN)的方法、支持向量機(jī)(support Vector Machine簡稱sⅧ)的方法、小波變換(Wavelet Translation)的方法等,另外,第三種方法結(jié)合了前兩種方法的優(yōu)點(diǎn),比如多分多分類器等[4]。</p><p>  本論文主要采取基于主成分分析的方法,雖然這種方法比較的簡單,但技術(shù)卻非常的古

22、老、是人臉識別中比較經(jīng)典的一種方法。</p><p>  1.3本論文內(nèi)容安排</p><p>  第一章簡單介紹了計(jì)算機(jī)人臉識別技術(shù)的主要方法及其應(yīng)用,和本論文的主要論證與實(shí)現(xiàn)的典型的人臉識別方法。</p><p>  第二章講述了PCA的理論基礎(chǔ)以及通過例子說明PCA的降維、重建過程。</p><p>  第三章講述了PCA在人臉識別中的

23、具體應(yīng)用,采用簡單的圖片的歸一化方法對人臉圖像進(jìn)行歸一化出來,通過介紹SVD原理計(jì)算出協(xié)方差矩陣,計(jì)算人臉主成分,最后重建圖片,再采用歐氏最小距離進(jìn)行人臉識別。</p><p>  第四章仔細(xì)地講解了基于PCA算法在matlab中的實(shí)現(xiàn)過程。</p><p>  第五章總結(jié)本編論文的成果。</p><p><b>  2 PCA</b><

24、/p><p><b>  2.1 PCA簡介</b></p><p>  Principal Component Analysis簡稱PCA,它是多分量分析中最老的技術(shù)之一,來源于通信理論中的K-L變換。1901年由Pearson 第一次提出主要成分分析方法,主要經(jīng)過Karhuman和Loeve歸納修改[1]。</p><p>  2.2 PCA的

25、實(shí)質(zhì)</p><p>  PCA的實(shí)質(zhì)是在盡可能好地表達(dá)原始數(shù)據(jù)的前提下,通過線性變換將高維空間中的原始樣本數(shù)據(jù)投影到底維空間中[1],即利用低維空間來表示高維空間的樣本數(shù)據(jù),也就是降維。其本質(zhì)是轉(zhuǎn)換坐標(biāo)表示。</p><p>  2.3 PCA理論基礎(chǔ)</p><p><b>  2.3.1投影</b></p><p>

26、;  設(shè)d維樣本,,···,以及一個(gè)d維的基,那么標(biāo)量H為: </p><p>  H相當(dāng)于在基上的坐標(biāo)值。如果為單位向量,那么H就是把向方向?yàn)榈闹本€進(jìn)行投影的結(jié)果。如圖2-1</p><p>  以上是一維的情況,我們推廣到m維,這樣就有一組基(m個(gè))組成的空間,若樣本投影到基上,可以得到:</p><p><b>  

27、其中可以寫成:</b></p><p>  為均值,是單位向量,且直線經(jīng)過。</p><p>  2.3.2最小平方誤差理論</p><p><b>  問題1:</b></p><p>  如上圖2-2,假設(shè)在二維坐標(biāo)上有N個(gè)樣本點(diǎn),如何能找出一點(diǎn)(紅色)能夠很好的代表這N個(gè)樣本點(diǎn)呢?</p>

28、<p><b>  問題2:</b></p><p>  如上圖2-3,假設(shè)有這樣的二維樣本點(diǎn),如何能求出一個(gè)線性函數(shù)使得直線能夠最佳擬合樣本點(diǎn)呢?</p><p><b>  問題3:</b></p><p>  若存在n個(gè)b維的樣本,如何能用一個(gè)m(m≤b)維空間來代表這n個(gè)樣本呢?以上問題歸納為:對于d維

29、空間中的樣本,,···,如何能把d維空間的n個(gè)樣本投影到(≤d)維空間中來呢?</p><p><b> ?。?)=0</b></p><p>  此時(shí)和問題1相似,即對于d維空間中的n個(gè)樣本,,···,將樣本點(diǎn)在d維向量(d維空間中的一點(diǎn))上投影記為,則相當(dāng)于要最小化</p><p>

30、;  這個(gè)公式稱作最小平方誤差,即當(dāng)</p><p>  取值為最小時(shí),向量能夠代表這n個(gè)樣本,,···。假設(shè)表示樣本,,···均值,均值公式為</p><p><b>  則有:</b></p><p>  由于第二項(xiàng)式與無關(guān),顯然,在=時(shí)取得最小值。這表明在最小平方誤差意義下能夠最

31、好的代表這n個(gè)樣本,,···的d維向量就是這n個(gè)樣本的均值。換句話說,樣本均值是這n個(gè)樣本,,···在零維下的表達(dá),所有的樣本都在零維空間下被投影到同一個(gè)點(diǎn)上。</p><p><b>  (2)=1</b></p><p>  如把所有的樣本都投影到同一個(gè)點(diǎn)上,這將無法反映出各個(gè)樣本之間的差異,也無法對樣本

32、進(jìn)行分類,所以進(jìn)一步考慮一維的情況。</p><p>  當(dāng)=1時(shí),和問題2一樣,通過用一直線表示樣本。同樣是在最小平方誤差意義下,把樣本點(diǎn)投影到直線上,因此這條直線通過點(diǎn),并確定直線的方向?yàn)?,是這條通過均值的直線的單位方向向量,所以樣本,,···可以用直線可以表示為:</p><p>  如下圖2-4,其中k是一個(gè)實(shí)數(shù),表示直線上的點(diǎn)到的距離。是點(diǎn)在直線上的

33、垂直投影。</p><p>  我們把作為的在直線的一維表示,記作 上標(biāo)(1)表示一維。因此樣本,,···在一維空間上的表達(dá)式為:</p><p>  把看做是在一維空間中的近似值。那么接下來怎么確定直線呢?我們知道確定一條直線,一般只需要確定一個(gè)點(diǎn),再確定直線的方向即可,現(xiàn)在我們已經(jīng)確定了點(diǎn),所以只要確定的方向就行了。同樣要在最小平方誤差意義下使得最小。就

34、是最小平方誤差函數(shù)。所以我們求的是的最小值,如下:</p><p>  其中a1,a2···an和是未知變量,將式(2.3-10)展開得:</p><p>  其中,對進(jìn)行求導(dǎo)得:</p><p>  這個(gè)結(jié)果意思是說,如果知道了,那么將與e做內(nèi)積,就可以知道了在上的投影離的長度距離。</p><p>  我們的

35、目標(biāo)是在最小平方誤差意義下,尋找的方向,因此消去,把(2.3-12)式帶入(2.3-10)式得:</p><p><b>  其中S為:</b></p><p>  S稱為散布矩陣,是協(xié)方差矩陣C的n-1倍。</p><p>  在式(2.3-13)中,第二項(xiàng)跟無關(guān),所以,要使最小,必須要讓最大,在這我們采用了拉格朗日數(shù)乘法來求解,這里有一約束

36、條件是。</p><p>  令,其中為拉格朗日乘數(shù),對求偏導(dǎo)得:</p><p>  令偏導(dǎo)為0得。在式中,S為一個(gè)d階方陣,是一個(gè)d維向量,為一個(gè)實(shí)數(shù),顯然這是線性代數(shù)中的特征方程的典型形式,是特征值,是散布矩陣的特征向量。而對式(2.3-16)</p><p><b>  兩邊同時(shí)乘以得:</b></p><p>

37、  為此得出結(jié)論,要使最大化,應(yīng)當(dāng)選取散布矩陣S的最大特征值所對應(yīng)的特征向量作為投影直線的方向。也就是說,通過將全部n個(gè)樣本,,···向以散布矩陣最大的特征值對應(yīng)的特征向量為方向的投影,可以得到最小平方誤差意義下這n個(gè)樣本的一維表示?;氐街暗娜龁栴}上,發(fā)現(xiàn)我們都在把n個(gè)樣本進(jìn)行投影變換,那么投影變換的本質(zhì)是什么呢?從本質(zhì)上來說,我們所做的投影變換實(shí)際上就是基的轉(zhuǎn)換。</p><p>

38、;  在原來的d維空間中,d個(gè)基分別是每個(gè)坐標(biāo)軸方向上的單位矢量,因此在原空間中樣本由這組基表示為:</p><p>  投影到直線之后,在新的一維空間中,單位矢量成為了唯一的1個(gè)基,這樣n個(gè)樣本在一維空間中通過基可以表示為:</p><p>  因此就是原始樣本經(jīng)過投影變換降維后的一維空間下的描述。</p><p> ?。?)當(dāng)接近d維時(shí),即≤d</p>

39、;<p>  同樣可以把n個(gè)樣本點(diǎn)投影到二維(=2)及其高維(2≤≤d)空間,所以樣本,,···可以表示為:</p><p>  新的最小平方誤差函數(shù)為:</p><p>  不難證明在散布矩陣S的前個(gè)(從大到?。┨卣髦邓鶎?yīng)的特征向量時(shí)取得最小值。這些特征向量構(gòu)成了在低維空間中的一組基向量,因此在低維()空間下n個(gè)樣本,,··

40、;·表示為:</p><p>  我們把上式稱為重構(gòu)式,其中</p><p>  稱為分解式。對應(yīng)于基的系數(shù)被稱為主成分。而是原來d維空間的n個(gè)樣本在基為所張長的維空間中的低維表示。是原來樣本的一種近似。</p><p>  2.3.3 PCA幾何解釋</p><p>  經(jīng)以上計(jì)算,我們找到了一組基來表示樣本數(shù)據(jù),參見如下圖2-5

41、:</p><p>  如圖2-5,PCA實(shí)際上是尋找樣本散布最大的那些主軸方向,通過向這些方向向量所張長的空間投影達(dá)到了對原樣本降維的目的。從上圖不難看出,PCA投影轉(zhuǎn)換坐標(biāo)的過程實(shí)際上就是去除數(shù)據(jù)的線性相關(guān)的過程[1]。</p><p>  2.4 PCA降維計(jì)算</p><p>  本章的上一節(jié)的已經(jīng)介紹了PCA降維的理論,下面我們以一個(gè)實(shí)例來幫助我們更好的了

42、解上節(jié)的理論知識。</p><p>  【例2.4-1】主成分的計(jì)算</p><p>  計(jì)算下面的二維數(shù)據(jù)集合的主成分分量,并利用PCA方法降維至1維和2維。然后嘗試用1個(gè)和2個(gè)主成分實(shí)現(xiàn)對第一個(gè)樣本進(jìn)行重構(gòu)。</p><p>  T1=(1,2)、T2=(3,3)、T3=(3,5)、T4=(5,4)、</p><p>  T5=(5,6)

43、、T6=(6,5)、T7=(8,7)、T8=(9,8)。</p><p>  解:我們使用matlab軟件幫助計(jì)算</p><p>  錄入數(shù)據(jù),算出了樣本數(shù)據(jù)集T,如T=[T1;T2; T3; T4; T5; T6; T7; T8],結(jié)果T為:</p><p><b>  計(jì)算樣本均值</b></p><p><

44、b>  根據(jù)公式:</b></p><p>  Matlab計(jì)算結(jié)果為:</p><p>  計(jì)算協(xié)方差均值C(散布矩陣S和協(xié)方差均值的關(guān)系是C=S/樣本數(shù))</p><p>  根據(jù)以上(2.3-14)式求得散布矩陣S為:</p><p>  首先令求出A,A=[T1-m;T2-m;T3-m;T4-m;T5-m;T6-m;

45、T7-m;T8-m] ,令,則。再由散布矩陣和協(xié)方差矩陣的關(guān)系可知,協(xié)方差矩陣C為:。</p><p>  計(jì)算S的特征值和特征向量</p><p>  解式(2.3-16)中的特征方程,,其中I為2*2的單位矩陣</p><p><b>  解以上行列式得:</b></p><p><b>  ,</b

46、></p><p>  再將分別代入式(2.3-16)中,解得:</p><p><b>  ,</b></p><p>  而且是相互正交的單位向量。、是S矩陣的特征值,、對應(yīng)特征值、的S的特征向量。</p><p><b>  將樣本降至一維</b></p><p>

47、;  通過將8個(gè)樣本向其主軸投影,可以得到8個(gè)樣本點(diǎn)的一維表示,如下:根據(jù)公式(2.3-23)有:</p><p><b>  得:</b></p><p><b>  從而一維表示為:</b></p><p><b>  降至二維</b></p><p>  通過將8個(gè)樣本向

48、其主軸、投影,根據(jù)式:,得:</p><p><b>  因此二維表示為:</b></p><p><b>  重構(gòu)</b></p><p>  根據(jù)重構(gòu)式(2.3-22)有:</p><p>  算出樣本的一維和二維重構(gòu):</p><p><b>  一維重構(gòu):&

49、lt;/b></p><p><b>  二維重構(gòu):</b></p><p>  近似度可以由重構(gòu)值與原樣本的歐氏距離來衡量:</p><p>  這是用1個(gè)主分量重構(gòu)的歐氏距離,接下來用2個(gè)主分量重構(gòu)的歐氏距離為:</p><p>  我們注意到了,,顯然,近似度隨著主成分的數(shù)目的增加而增加。</p>

50、<p>  3 PCA在人臉識別中的應(yīng)用</p><p>  3.1 人臉識別技術(shù)簡介</p><p>  人臉識別技術(shù)是基于人的臉部特征,利用計(jì)算機(jī)對人臉圖像進(jìn)行特征提取,并通過對提取的人臉特征信息進(jìn)行分析,最終確定人的身份的一門計(jì)算機(jī)技術(shù)。它涉及模式識別、圖像處理、計(jì)算機(jī)視覺等諸多學(xué)科的知識,是當(dāng)前研究的熱點(diǎn)之一。</p><p>  然而,由于識

51、別結(jié)果往往容易受到表情,姿態(tài)和光照變化的影響,同時(shí)還要保證識別系統(tǒng)的實(shí)時(shí)性,極大地影響了人臉識別走向?qū)嵱没?lt;/p><p>  我們所說的人臉識別主要包括三個(gè)環(huán)節(jié):圖像預(yù)處理、特征提取、識別。</p><p><b>  3.2 圖片歸一化</b></p><p>  對圖片歸一化屬于圖像預(yù)處理的工作,而圖像預(yù)處理包括了圖像的幾何歸一化、圖像

52、的灰度圖歸一化、圖像的邊緣檢測及銳化等處理,而我們的實(shí)驗(yàn)所使用的人臉數(shù)據(jù)庫是ORL,這個(gè)人臉數(shù)據(jù)庫比較規(guī)范,而且光照變化不大,所以減去了好多圖片預(yù)處理的工作,而在這我們只是簡單的介紹一種歸一化的方法。</p><p>  圖片歸一化就是對圖片進(jìn)行統(tǒng)一的標(biāo)準(zhǔn),也就是標(biāo)準(zhǔn)化的意思,這個(gè)概念通常是一個(gè)整體的概念,主要的原理就是把圖片歸一到均值為0,方差為1的情況下,類似于一般正態(tài)分布向標(biāo)準(zhǔn)正態(tài)分布的轉(zhuǎn)化[3]:<

53、/p><p><b>  如式:</b></p><p>  所以要對一組圖片集中的一張圖片進(jìn)行歸一化(標(biāo)準(zhǔn)化),只需減去均值,除以方差就可以了。均值為</p><p><b>  方差為:</b></p><p>  3.3 基于PCA的人臉識別 </p><p>  在這一節(jié)

54、當(dāng)中,以結(jié)合上一章的PCA理論知識,講解PCA算法在人臉識別中的應(yīng)用。</p><p>  3.3.1 人臉數(shù)據(jù)特征提取</p><p>  這一小節(jié)代表著人臉識別的開始,屬于人臉采集階段,也是重要的一步。我們把人臉數(shù)據(jù)庫</p><p>  中的圖片分為兩部分,一部分稱為訓(xùn)練集,另一部分稱為測試集。訓(xùn)練集是人臉數(shù)據(jù)庫的重要組成部分,主要擔(dān)任著人臉數(shù)據(jù)庫的多張人臉的

55、庫存信息,而測試集是要與訓(xùn)練集進(jìn)行比較相似度的相片信息,在識別的過程中,人臉識別系統(tǒng)只提取其中的一張相片作為測試用。</p><p>  假設(shè)現(xiàn)在訓(xùn)練集用M張人臉圖片,那么我們采集到的人臉數(shù)據(jù)特征為:</p><p>  為人臉訓(xùn)練集圖像矩陣,共存有M張人臉。</p><p><b>  3.3.2計(jì)算均值</b></p><

56、;p>  計(jì)算出訓(xùn)練集中的均值,根據(jù)均值公式:</p><p>  我們把稱為平均人臉。</p><p>  3.3.3計(jì)算協(xié)方差矩陣C</p><p>  由第二章中的(2.3-14)式可知,協(xié)方差矩陣C為:</p><p><b>  令,有</b></p><p> ?。ㄆ鋵?shí)分母M對識

57、別沒有多大的影響)。</p><p>  3.3.4求出協(xié)方差C的特征值和特征向量</p><p>  這一步是PCA計(jì)算中的主要工作,計(jì)算協(xié)方差均值C的特征值和特征向量由第一章的(2.3-16)式:</p><p>  可以求得。假設(shè)樣本矩陣的大小為n*d(n個(gè)d維的特征向量),則協(xié)方差矩陣C將是一個(gè)大小為d*d的方陣,如果當(dāng)d比較大的時(shí)候,比如d=10000,那

58、么C的大小將是10000*10000的矩陣,如果直接計(jì)算C的特征值和特征向量的話,那非常的困難,那么怎么辦?由此引入奇異值分解定理來解決維數(shù)過高的問題。避免了直接計(jì)算高維矩陣的問題。</p><p>  3.4奇異值分解定理</p><p>  奇異值分解定理(Singular Value Decomposition簡稱 SVD定理)原理如下:</p><p>  

59、設(shè)A(和上式的A相同)是一個(gè)秩為P的d*M維矩陣,則存在兩個(gè)正交矩陣和一個(gè)對角矩陣滿足下式:</p><p><b>  其中、為:</b></p><p>  其中為矩陣(協(xié)方差矩陣C)和的非零特征值。與分別為 和對應(yīng)于的正交歸一特征向量。而由(3.4-1)式推論得:</p><p>  令,稱L為構(gòu)造矩陣。而構(gòu)造矩陣L的大小為M*M,很容

60、易求得特征值和特征向量,因此,只要計(jì)算出構(gòu)造矩陣L的特征向量,再通過(3.4-5)式就能算出協(xié)方差矩陣的特征向量來。如下式:</p><p>  為的特征向量,特征值為。這樣就避免直接計(jì)算協(xié)方差矩陣特征的特征向量了[5]。</p><p>  3.5 基于PCA的人臉識別的訓(xùn)練 </p><p>  經(jīng)以上的準(zhǔn)備之后,我們已經(jīng)計(jì)算出了協(xié)方差矩陣的特征值和特征向量(不

61、需要單位化)。也就是找到了能很好的表示訓(xùn)練集圖像的一組基。下面我們把樣本投影到這組基上,得到了在新的基下的坐標(biāo)表示形式。</p><p>  3.5.1 訓(xùn)練集的主成分計(jì)算</p><p>  根據(jù)式(2.3-23),我們可以計(jì)算出訓(xùn)練集樣本在方向向量為下的投影,如下式:</p><p>  其中i為所降的維數(shù),這里的i=m=M,維數(shù)和之前的維數(shù)相等,k是圖片數(shù)。稱

62、為主成分,是M張訓(xùn)練集圖片降至m(m=M)維的在基下的系數(shù)。</p><p>  3.5.2 訓(xùn)練集圖片重建</p><p>  在新的基下對訓(xùn)練集圖片進(jìn)行表示,根據(jù)重構(gòu)式(2.3-24)得:</p><p>  是訓(xùn)練集的近似表示。</p><p><b>  3.6 識別</b></p><p&g

63、t;  基于特征臉的人臉識別過程由訓(xùn)練階段和識別階段兩個(gè)階段組成。在訓(xùn)練階段:計(jì)算訓(xùn)練集圖片的所有主成分:</p><p>  在識別階段:把待識別的圖像R映射到特征臉空間,得到主成分向量:</p><p>  把待識別的主成分分別和訓(xùn)練集的所有主成分取歐氏距離,如下:</p><p>  取的最小值,最小值的索引號對應(yīng)的訓(xùn)練集中的圖片就是和測試圖片最相似的。其主要

64、的缺點(diǎn)是,當(dāng)測試的圖像不在訓(xùn)練集里,那么得到的歐氏距離最小結(jié)果并不是我們要的結(jié)果,基于這點(diǎn),所以我們使用基重建測試圖像,看看顯示結(jié)果是不是我們要找的人,當(dāng)測試圖片不在訓(xùn)練集里,那么重建的結(jié)果將顯示面目模糊,看不清的現(xiàn)象,識別是我們可以控制的,雖然最小歐氏距離識別不是那么理想。</p><p><b>  4 實(shí)驗(yàn)</b></p><p>  這一章我們主要根據(jù)上二章的

65、理論作為基礎(chǔ),主要實(shí)現(xiàn)了基于PCA算法的人臉識別。</p><p><b>  4.1 實(shí)驗(yàn)環(huán)境</b></p><p>  操作系統(tǒng):win7,實(shí)驗(yàn)所使用的軟件是:matlab。版本為:7.0 。</p><p>  4.2 PCA人臉識別實(shí)驗(yàn)過程</p><p>  在matlab當(dāng)前路徑:‘C:\MATLAB7\w

66、ork’下準(zhǔn)備了訓(xùn)練圖片集TrainDatabase和測試圖片集TestDatabase,TrainDatabase和TestDatabase作為我們的人臉庫,如圖4-1。</p><p>  本實(shí)驗(yàn)所采用的人臉圖片來自著名的人臉數(shù)據(jù)庫ORL。其中訓(xùn)練集TrainDatabase中的人臉原圖像如下圖4-2,實(shí)驗(yàn)主要分為訓(xùn)練階段和測試階段。</p><p>  4.2.1 訓(xùn)練階段</

67、p><p>  (1)獲得訓(xùn)練集圖片</p><p>  設(shè)S為存儲訓(xùn)練集人臉圖片的矩陣,則獲取訓(xùn)練集圖片信息的源代碼如下:</p><p>  在matlab中執(zhí)行以上代碼后,得到的結(jié)果為:</p><p>  S是36000*20的矩陣,可以看出S存儲20張人臉圖片。其中T為36000*1的列向量。代碼的執(zhí)行還顯示了我們采集到的圖片如圖4-3

68、,之所以要加顯示功能,是為了能夠很好的跟蹤代碼實(shí)現(xiàn)的步驟。當(dāng)我們采集到了訓(xùn)練集的圖片數(shù)據(jù),并已經(jīng)保存在了變量S中。</p><p> ?。?)對訓(xùn)練集圖像進(jìn)行規(guī)格化</p><p>  對訓(xùn)練集圖像S進(jìn)行規(guī)格化,matlab源代碼為:</p><p> ?。?)顯示規(guī)格化的圖像</p><p>  執(zhí)行這段代碼后,訓(xùn)練集S的圖片規(guī)格化后顯示如

69、圖4-4:</p><p>  (4)計(jì)算訓(xùn)練集S的平均臉并顯示</p><p>  根據(jù)式3.3-2,計(jì)算出訓(xùn)練集圖像的平均值,使用mean函數(shù)計(jì)算,代碼如下:</p><p>  為平均圖片,稱為平均人臉,如下圖4-5:</p><p>  (5)計(jì)算構(gòu)造矩陣L</p><p>  計(jì)算構(gòu)造矩陣L的目的是通過它的特

70、征值和特征向量來求出協(xié)方差矩陣C的特征向量和特征值,根據(jù)式,matlab代碼為:</p><p><b>  構(gòu)造矩陣L為:</b></p><p>  我們發(fā)現(xiàn)L矩陣的維數(shù)比較小,這樣我們就很容易計(jì)算L的特征值和特征向量了。</p><p> ?。?)計(jì)算出構(gòu)造矩陣L的特征值和特征向量并對其進(jìn)行規(guī)格化</p><p>

71、  求出矩陣L的特征值dd與特征向量vv,代碼為:</p><p>  為構(gòu)造矩陣L的特征向量,大少為20*20。</p><p>  為構(gòu)造矩陣L的特征值,是對角陣,我們可以看看dd的具體內(nèi)容,如下圖4-6:</p><p>  是個(gè)對角陣,以上面的理論一致。</p><p>  消去為零的特征值對應(yīng)的特征向量并對特征值進(jìn)行從小到大的排序,

72、代碼為:</p><p>  執(zhí)行后,消去為零的特征值,vv、dd變量保存在v、d里,如下:</p><p>  v為構(gòu)造矩陣L的特征向量。</p><p>  d為構(gòu)造矩陣L的特征值。同樣我們也可以看看d到底是什么樣了,如下圖4-7:</p><p>  把L的特征值和特征向量進(jìn)行適應(yīng)處理,如下代碼:</p><p>

73、;  對構(gòu)造矩陣L的特征向量進(jìn)行規(guī)格化,代碼如下:</p><p>  (7)求出協(xié)方差矩陣C的特征向量</p><p>  完成對構(gòu)造矩陣的特征值和特征向量的規(guī)格化后,接下來將通過L的特征值和特征向量求出協(xié)方差矩陣C的特征向量,計(jì)算式為:</p><p><b>  代碼為:</b></p><p><b>

74、  結(jié)果為:</b></p><p>  U是我們要找的協(xié)方差矩陣C的特征向量,是新的一組基,也就是我們所說的主成分臉,也稱特征臉。接下來對U進(jìn)行規(guī)格化并顯示特征臉,如下代碼:</p><p><b>  特征臉如圖4-8:</b></p><p> ?。?)將每個(gè)已知人臉,映射到由特征臉組成的子空間U上,得到訓(xùn)練集的主成分<

75、/p><p><b>  計(jì)算式為:</b></p><p>  Omega變量就是訓(xùn)練集主成分。</p><p>  以上部分即完成了圖像的讀入、規(guī)格化、特征空間的訓(xùn)練、特征臉的形成,并且顯示出訓(xùn)練圖像、規(guī)格化圖像、均值圖像和特征臉。以下部分為識別的部分。</p><p>  4.2.2 測試階段</p>&

76、lt;p>  這節(jié)主要的工作是識別輸入的圖片。其主要的步驟如下:</p><p> ?。?)獲得一個(gè)新圖片 并對輸入的圖片進(jìn)行規(guī)格化</p><p><b>  代碼如下:</b></p><p>  在命令行處輸入:1.jpg,回車。這樣就測試集輸入第一張圖片。顯示輸入的圖片4-9:</p><p>  對輸入的

77、測試集圖片進(jìn)行規(guī)格化:</p><p>  (2)把待識別的圖像R投影到特征臉空間,得到輸入圖像的主成分</p><p><b>  計(jì)算式為:</b></p><p><b>  代碼為:</b></p><p>  P就是輸入圖像的再上的投影,p就是,稱為主成分,是在上的系數(shù)。</p>

78、;<p>  4.2.3 采用歐氏最小距離識別</p><p>  現(xiàn)在我們已經(jīng)計(jì)算出了訓(xùn)練集的主成分和測試集的主成分,如下:</p><p>  omega和p,omega是,p是,根據(jù)式:</p><p>  把p與omega做差,再求最小,得出最小的就是與輸入圖片相近的圖片,代碼實(shí)現(xiàn)如下:</p><p>  但是,如果輸

79、入的圖片不在訓(xùn)練集里,那么致使最小的那張圖片,也不是和測試的圖片。為此我們把測試圖片重建并顯示,代碼如下:</p><p>  MaximumValue=max(e)</p><p>  MaxnimumValue=max(e)</p><p>  這兩行代碼顯示圖3.4-2</p><p><b>  4.3實(shí)驗(yàn)結(jié)果</b&

80、gt;</p><p>  除此之外還顯示圖4-11:</p><p>  如圖4-11,紅圈里的是訓(xùn)練集的第一張圖片,和輸入的圖片符號。雖然顯示重建效果并不是理想,但還是過得去,重建效果取決于在訓(xùn)練集里的圖片數(shù)。</p><p><b>  5 總結(jié)</b></p><p>  5.1.1內(nèi)容總結(jié):</p>

81、<p>  文章主要的內(nèi)容是通過結(jié)合PCA理論知識實(shí)現(xiàn)一個(gè)典型的基于PCA計(jì)算的人臉識別算法,重點(diǎn)講述了PCA的理論基礎(chǔ)以及如何實(shí)現(xiàn)PCA在人臉識別中的應(yīng)用。在理解他人的研究成果基礎(chǔ)上,按照另一種思路重新編寫并實(shí)現(xiàn)了基于PCA算法的人臉識別,文章中提到了,人臉圖像的歸一化,人臉特征的提取,并通過奇異值分解定理間接計(jì)算出訓(xùn)練集圖像的協(xié)方差矩陣的特征向量以特征值,把人臉原始圖像投影到協(xié)方差矩陣的一組特征值上,得到在這組向量上的

82、坐標(biāo)表示,再通過這組向量對原始圖像就行近似重建。本算法采用的分類識別方法是最小歐氏距離,通過比較找出輸入圖像的與訓(xùn)練集圖像之間的歐氏距離的最小值,找出了最為相近的圖像。</p><p>  5.1.2工作總結(jié):</p><p>  學(xué)習(xí)了matlab基本編程,基本熟悉matlab編程語法。</p><p>  由于本文作者知識淺薄,所以經(jīng)過查閱有關(guān)線性代數(shù)的教程,理

83、解了本文章所需的相關(guān)的線性代數(shù)概念。</p><p>  閱讀關(guān)于PCA的有關(guān)資料并理解和實(shí)現(xiàn)基于PCA人臉識別算法過程。</p><p>  (4)通過研究學(xué)習(xí)、分析前人PCS算法的實(shí)現(xiàn)程序,并吸取了養(yǎng)分,以致文章完成。</p><p><b>  6致謝</b></p><p>  首先,我要感謝我的導(dǎo)師劉博老師的給

84、予我指引與督促,其次,感謝爸媽的養(yǎng)育之恩,再次,感謝我的宿舍同學(xué)給我一個(gè)良好的宿舍環(huán)境,最后,感謝所有給過我?guī)椭耐瑢W(xué)、朋友、老師、親戚朋友。</p><p><b>  參考文獻(xiàn)</b></p><p>  [1]張錚、王艷平、薛桂香 編著《數(shù)據(jù)圖像處理與機(jī)器視覺》人民郵電出版社 2010年4月</p><p>  [2] JerryLead

85、《主成分分析(Principal components analysis)-最小平方誤差解釋》2011年4月18日 </p><p>  [3] 龔勛《PCA 與人臉識別及其理論基礎(chǔ)》2007年4月29日</p><p>  [4] 鄧楠《基于主成分分析的人臉識別研究》2006年6月15日</p><p>  [5] 作者:田印中,董志學(xué),黃建偉《基于PCA的人臉識

86、別算法研究及實(shí)現(xiàn)》2010年7月1日</p><p>  [6] Stephen Chapman 著 邢樹軍、鄭碧波譯《matlab編程》第二版 清華大學(xué)出版社 2008年01月</p><p>  [7] 陳維新 編著《線性代數(shù)》第二版 科學(xué)出版社 2006年1月</p><p>  [8] Santiago Serrano Drexel University

87、 http://www.pages.drexel.edu/~sis26/Computer%20Vision.htm</p><p>  [9] 張翠平、蘇光大《人臉識別技術(shù)綜述》 來自“中國圖像圖形學(xué)報(bào)”2000 年 11 月</p><p>  [10] 齊興敏 ,劉冠梅《基于PCA的人臉識別方法的比較研究》來自現(xiàn)代電子技術(shù) 2007 年 第 6 期總 第 269 期。</p>

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論