2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩23頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、<p>  目 錄 </p><p><b>  摘要II</b></p><p>  第1章 緒論- 1 -</p><p>  1.1人臉識別技術(shù)的細(xì)節(jié)- 1 -</p><p>  1.2人臉識別技術(shù)的廣泛應(yīng)用- 1 -</p><p>  1.3人臉識別技術(shù)

2、的難點- 2 -</p><p>  1.4 國內(nèi)外研究狀況- 2 -</p><p>  1.5人臉識別的研究內(nèi)容- 3 -</p><p>  1.5.1人臉識別研究內(nèi)容- 3 -</p><p>  1.5.2人臉識別系統(tǒng)的組成- 4 -</p><p>  第2章 人臉識別方法- 6 -</p

3、><p>  2.1基于特征臉的方法- 6 -</p><p>  2.2基于神經(jīng)網(wǎng)絡(luò)的方法- 6 -</p><p>  2.3彈性圖匹配法- 7 -</p><p>  2.4基于模板匹配的方法- 7 -</p><p>  2.5基于人臉特征的方法- 7 -</p><p>  第3

4、章 PCA人臉識別方法- 9 -</p><p>  3.1 引言- 9 -</p><p>  3.2 主成分分析- 9 -</p><p>  3.3特征臉方法- 11 -</p><p>  第4章 仿真實驗- 13 -</p><p>  4.1 流程圖- 13 -</p><p

5、>  4.2仿真結(jié)果- 14 -</p><p>  第5章 總結(jié)與展望- 15 -</p><p>  5.1 總結(jié)- 15 -</p><p>  5.2 展望- 15 -</p><p>  參考文獻(xiàn)- 17 -</p><p><b>  附錄- 18 -</b><

6、/p><p><b>  摘要</b></p><p>  人臉識別是當(dāng)前模式識別領(lǐng)域的一個前沿課題,人臉識別技術(shù)就是利用計算機技術(shù),根據(jù)數(shù)據(jù)庫的人臉圖像,分析提取出有效的識別信息,用來“辨認(rèn)”身份的技術(shù)。</p><p>  本文介紹了多種人臉識別方法,基于對人臉識別方法優(yōu)缺點的分析比較, 提出了一種基于主元分析(PCA )的人臉識別方法。通過P

7、CA 算法對人臉圖像進(jìn)行特征提取, 再利用最鄰近距離分類法對特征向量進(jìn)行分類識別。利用劍橋ORL的人臉數(shù)據(jù)庫的數(shù)據(jù)進(jìn)行實驗仿真,仿真結(jié)果驗證了本算法是有效的。 </p><p>  關(guān)鍵詞:人臉識別, 主元分析,最近鄰距離分類法,人臉庫</p><p><b>  第1章 緒論</b></p><p>  人臉識別是模式識別研究的一個熱點, 它

8、在身份鑒別、信用卡識別, 護照的核對及監(jiān)控系統(tǒng)等方面有著廣泛的應(yīng)用。人臉圖像由于受光照、表情以及姿態(tài)等因素的影響, 使得同一個人的臉像矩陣差異也比較大。因此, 進(jìn)行人臉識別時, 所選取的特征必須對上述因素具備一定的穩(wěn)定性和不變性. 主元分析(PCA)方法是一種有效的特征提取方法,將人臉圖像表示成一個列向量, 經(jīng)過PCA 變換后, 不僅可以有效地降低其維數(shù), 同時又能保留所需要的識別信息, 這些信息對光照、表情以及姿態(tài)具有一定的不敏感性.

9、 在獲得有效的特征向量后, 關(guān)鍵問題是設(shè)計具有良好分類能力和魯棒性的分類器. 支持向量機(SVM ) 模式識別方法,兼顧訓(xùn)練誤差和泛化能力, 在解決小樣本、非線性及高維模式識別問題中表現(xiàn)出許多特有的優(yōu)勢。</p><p>  1.1人臉識別技術(shù)的細(xì)節(jié)</p><p>  一般來說,人臉識別系統(tǒng)包括圖像提取、人臉定位、圖形預(yù)處理、以及人臉識別(身份確認(rèn)或者身份查找)。系統(tǒng)輸入一般是一張或者一

10、系列含有未確定身份的人臉圖像,以及人臉數(shù)據(jù)庫中的若干已知身份的人臉圖像或者相應(yīng)的編碼,而其輸出則是一系列相似度得分,表明待識別的人臉的身份。</p><p>  1.2人臉識別技術(shù)的廣泛應(yīng)用</p><p>  一項技術(shù)的問世和發(fā)展與人類的迫切需求是密切相關(guān)的,快速發(fā)展的社會經(jīng)濟和科學(xué)技術(shù)使得人類對安全(包括人身安全、隱私保護等)得認(rèn)識越來越重視。人臉識別得一個重要應(yīng)用就是人類的身份識別。

11、一般來說,人類得身份識別方式分為三類:</p><p>  1.特征物品,包括各種證件和憑證,如身份證、駕駛證、房門鑰匙、印章等;</p><p>  2.特殊知識,包括各種密碼、口令和暗號等;</p><p>  3.人類生物特征,包括各種人類得生理和行為特征,如人臉、指紋、手形、掌紋、虹膜、DNA、簽名、語音等。前兩類識別方式屬于傳統(tǒng)的身份識別技術(shù),其特點是方便

12、、快捷,但致命的缺點是安全性差、易偽造、易竊取。特殊物品可能會丟失、偷盜和復(fù)制,特殊知識可以被遺忘、混淆和泄漏。相比較而言,由于生物特征使人的內(nèi)在屬性,具有很強的自身穩(wěn)定性和個體差異性,因此生物特征是身份識別的最理想依據(jù)?;谝陨舷鄬Κ毺氐纳锾卣?,結(jié)合計算機技術(shù),發(fā)展了眾多的基于人類生物特征的身份識別技術(shù),如DNA識別技術(shù)、指紋識別技術(shù)、虹膜識別技術(shù)、語音識別技術(shù)和人臉識別技術(shù)等。</p><p>  生物識別

13、技術(shù)在上個世紀(jì)已經(jīng)有了一定得發(fā)展,其中指紋識別技術(shù)已經(jīng)趨近成熟,但人臉識別技術(shù)的研究還處于起步階段。指紋、虹膜、掌紋等識別技術(shù)都需要被識別者的配合,有的識別技術(shù)還需要添置復(fù)雜昂貴的設(shè)備。人臉識別可以利用已有的照片或是攝像頭遠(yuǎn)距離捕捉圖像,無需特殊的采集設(shè)備,系統(tǒng)的成本低。并且自動人臉識別可以在當(dāng)事人毫無覺察的情況下完成身份確認(rèn)識別工作,這對反恐怖活動有非常重要的意義?;谌四樧R別技術(shù)具有如此多的優(yōu)勢,因此它的應(yīng)用前景非常廣闊,已成為最具

14、潛力的生物特征識別技術(shù)之一。</p><p>  1.3人臉識別技術(shù)的難點</p><p>  雖然人類可以毫不困難地根據(jù)人臉來辨別一個人,但是利用計算機進(jìn)行完全自動的人臉識別仍然有許多困難。人臉模式差異性使得人臉識別成為一個非常困難的問題,表現(xiàn)在以下方面:</p><p>  1.人臉表情復(fù)雜,人臉具有多樣的變化能力,人的臉上分布著五十多塊面部肌肉,這些肌肉的運動

15、導(dǎo)致不同面部表情的出現(xiàn),會造成人臉特征的顯著改變。</p><p>  2.隨著年齡而改變,隨著年齡的增長,皺紋的出現(xiàn)和面部肌肉的松弛使得人臉的結(jié)構(gòu)和紋理都將發(fā)生改變。</p><p>  3.人臉有易變化的附加物,例如改變發(fā)型,留胡須,戴帽子或眼鏡等飾物。</p><p>  4.人臉特征遮掩,人臉全部、部分遮掩將會造成錯誤識別。</p><p

16、>  5.人臉圖像的畸變,由于光照、視角、攝取角度不同,可能造成圖像的灰度。</p><p>  1.4 國內(nèi)外研究狀況</p><p>  人臉識別是人類視覺最杰出的能力之一。它的研究涉及模式識別、圖像處理、生物學(xué)、心理學(xué)、認(rèn)知科學(xué),與基于其它生物特征的身份鑒別方法以及計算機人機感知交互領(lǐng)域都有密切聯(lián)系。人臉識別早在六七十年代就引起了研究者的強烈興趣。20世紀(jì)60年代,Bledso

17、e提出了人臉識別的半自動系統(tǒng)模式與特征提取方法。70年代,美、英等發(fā)達(dá)國家開始重視人臉識別的研究工作并取得進(jìn)展。1972年,Harmon用交互人臉識別方法在理論上與實踐上進(jìn)行了詳細(xì)的論述。同年,Sakai設(shè)計了人臉圖像自動識別系統(tǒng)。80年代初T. Minami研究出了優(yōu)于Sakai的人臉圖像自動識別系統(tǒng)。但早期的人臉識別一般都需要人的某些先驗知識,無法擺脫人的干預(yù)。進(jìn)入九十年代,由于各方面對人臉識別系統(tǒng)的迫切需求,人臉識別的研究變的非常

18、熱門。人臉識別的方法有了重大突破,進(jìn)入了真正的機器自動識別階段,如Karhunen-Loève變換等或新的神經(jīng)網(wǎng)絡(luò)技術(shù)。人臉識別研究得到了前所未有的重視,國際上發(fā)表有關(guān)人臉識別等方面的論文數(shù)量大幅度增加,僅從1990年到2000年之間,SCI及EI可檢索到的相關(guān)文獻(xiàn)多達(dá)數(shù)千篇,這期間關(guān)于人臉識別的綜述也屢屢可見。國</p><p>  人臉識別是當(dāng)前模式識別領(lǐng)域的一個前沿課題,但目前人臉識別尚處于研究課

19、題階段,尚不是實用化領(lǐng)域的活躍課題。雖然人類可以毫不困難地由人臉辨別一個人,但利用計算機進(jìn)行完全自動的人臉識別存在許多困難,其表現(xiàn)在:人臉是非剛體,存在表情變化;人臉隨年齡增長而變化;發(fā)型、眼鏡等裝飾對人臉造成遮擋;人臉?biāo)蓤D像受光照、成像角度、成像距離等影響。人臉識別的困難還在于圖像包括大量的數(shù)據(jù),輸入的像素可能成百上千,每個像素都含有各自不同的灰度級,由此帶來的計算的復(fù)雜度將會增加?,F(xiàn)有的識別方法中,通過從人臉圖像中提取出特征信息,

20、來對數(shù)據(jù)庫進(jìn)行檢索的方法速度快,而利用拓?fù)鋵傩詧D匹配來確定匹配度的方法則相對較快。</p><p>  1.5人臉識別的研究內(nèi)容</p><p>  人臉識別技術(shù)(AFR)就是利用計算機技術(shù),根據(jù)數(shù)據(jù)庫的人臉圖像,分析提取出有效的識別信息,用來“辨認(rèn)”身份的技術(shù)。人臉識別技術(shù)的研究始于六十年代末七十年代初,其研究領(lǐng)域涉及圖像處理、計算機視覺、模式識別、計算機智能等領(lǐng)域,是伴隨著現(xiàn)代化計算機

21、技術(shù)、數(shù)據(jù)庫技術(shù)發(fā)展起來的綜合交叉學(xué)科。</p><p>  1.5.1人臉識別研究內(nèi)容</p><p>  人臉識別的研究范圍廣義上來講大致包括以下五個方面的內(nèi)容。</p><p>  1.人臉定位和檢測(Face Detection):即從動態(tài)的場景與復(fù)雜的背景中檢測出人臉的存在并且確定其位置,最后分離出來。這一任務(wù)主要受到光照、噪聲、面部傾斜以及各種各樣遮擋的

22、影響。</p><p>  2.人臉表征(Face Representation)(也稱人臉特征提取):即采用某種表示方法來表示檢測出人臉與數(shù)據(jù)庫中的己知人臉。通常的表示方法包括幾何特征(如歐氏距離、曲率、角度)、代數(shù)特征(如矩陣特征向量)、固定特征模板等。</p><p>  3.人臉識別(Face Recognition):即將待識別的人臉與數(shù)據(jù)庫中已知人臉比較,得出</p>

23、;<p>  相關(guān)信息。這一過程的核心是選擇適當(dāng)?shù)娜四槺碚鞣椒ㄅc匹配策略。</p><p>  4.表情姿態(tài)分析(Expression/Gesture Analysis):即對待識別人臉的表情或姿態(tài)信息進(jìn)行分析,并對其加以歸類。</p><p>  5.生理分類(Physical Classification):即對待識別人臉的生理特征進(jìn)行分析,得出其年齡、性別等相關(guān)信息,或

24、者從幾幅相關(guān)的圖像推導(dǎo)出希望得到的人臉圖像,如從父母圖像推導(dǎo)出孩子臉部圖像和基于年齡增長的人臉圖像估算等。</p><p>  人臉識別的研究內(nèi)容,從生物特征技術(shù)的應(yīng)用前景來分類,包括以下兩個方面:人臉驗證與人臉識別。</p><p>  1.人臉驗證((Face Verification/Authentication):即是回答“是不是某人?”的問題。它是給定一幅待識別人臉圖像,判斷它是

25、否是某人的問題,屬于一對一的兩類模式分類問題,主要用于安全系統(tǒng)的身份驗證。</p><p>  2.人臉識別(Face Recognition):即是回答“是誰”的問題。它是給定一幅待識別人臉圖像,再己有的人臉數(shù)據(jù)庫中,判斷它的身份的問題。它是個“一對多”的多類模式分類問題,通常所說的人臉識別即指此類問題,這也是本文的主要研究內(nèi)容。</p><p>  1.5.2人臉識別系統(tǒng)的組成<

26、/p><p>  在人臉識別技術(shù)發(fā)展的幾十年中,研究者們提出了多種多樣的人臉識別方法,但大部分的人臉識別系統(tǒng)主要由三部分組成:圖像預(yù)處理、特征提取和人臉的分類識別。一個完整的自動人臉識別系統(tǒng)還包括人臉檢測定位和數(shù)據(jù)庫的組織等模塊,如圖1.1。其中人臉檢測和人臉識別是整個自動人臉識別系統(tǒng)中非常重要的兩個環(huán)節(jié),并且相對獨立。下面分別介紹這兩個環(huán)節(jié)。</p><p>  圖1.1人臉識別系統(tǒng)框圖&l

27、t;/p><p>  人臉檢測與定位,檢測圖像中是否由人臉,若有,將其從背景中分割出來,并確定其在圖</p><p>  像中的位置。在某些可以控制拍攝條件的場合,如警察拍罪犯照片時將人臉限定在標(biāo)尺內(nèi),此時人臉的定位很簡單。證件照背景簡單,定位比較容易。在另一些情況下,人臉在圖像</p><p>  中的位置預(yù)先是未知的,比如在復(fù)雜背景下拍攝的照片,這時人臉的檢測與定位

28、將受以下因素的影響:</p><p>  1.人臉在圖像中的位置、角度、不固定尺寸以及光照的影響;</p><p>  2.發(fā)型、眼睛、胡須以及人臉的表情變化等;</p><p>  3. 圖像中的噪聲等。</p><p>  特征提取與人臉識別,特征提取之前一般都要做幾何歸一化和灰度歸一化的工作。前者指根據(jù)人臉定位結(jié)果將圖像中的人臉變化到同

29、一位置和大小;后者是指對圖像進(jìn)行光照補償?shù)忍幚?,以克服光照變化的影響,光照補償能夠一定程度的克服光照變化的影響而提高識別率。提取出待識別的人臉特征之后,即進(jìn)行特征匹配。這個過程是一對多或者一對一的匹配過程,前者是確定輸入圖像為圖像庫中的哪一個人(即人臉識別),后者是驗證輸入圖像的人的身份是否屬實(人臉驗證)。</p><p>  以上兩個環(huán)節(jié)的獨立性很強。在許多特定場合下人臉的檢測與定位相對比較容易,因此“特征提

30、取與人臉識別環(huán)節(jié)”得到了更廣泛和深入的研究。近幾年隨著人們越來越關(guān)心各種復(fù)雜的情形下的人臉自動識別系統(tǒng)以及多功能感知研究的興起,人臉檢測與定位才作為一個獨立的模式識別問題得到了較多的重視。本文主要研究人臉的特征提取與分類識別</p><p><b>  的問題。</b></p><p>  圖1.2人臉識別結(jié)構(gòu)圖</p><p>  第2章 人

31、臉識別方法</p><p>  雖然人臉識別方法的分類標(biāo)準(zhǔn)可能有所不同,但是目前的研究主要有兩個方向,一類是從人臉圖像整體(Holistic Approaches)出發(fā),基于圖像的總體信息進(jìn)行分類識別,他重點考慮了模式的整體屬性,其中較為著名的方法有:人工神經(jīng)網(wǎng)絡(luò)的方法、統(tǒng)計模式的方法等。另一類是基于提取人臉圖像的幾何特征參數(shù)(Feature-Based Approaches),例如眼、嘴和鼻子的特征,再按照某種

32、距離準(zhǔn)則進(jìn)行分類識別。這種方法非常有效,因為人臉不是剛體,有著復(fù)雜的表情,對其嚴(yán)格進(jìn)行特征匹配會出現(xiàn)困難。而分別介紹一些常用的方法,前兩種方法屬于從圖像的整體方面進(jìn)行研究,后三種方法主要從提取圖像的局部特征講行研究。</p><p>  2.1基于特征臉的方法</p><p>  特征臉方法(eigenface)是從主元分析方法PCA C Principal ComponentAnaly

33、sis導(dǎo)出的一種人臉分析識別方法,它根據(jù)一組人臉圖像構(gòu)造主元子空間,由于主元具有人臉的形狀也稱作特征臉。識別時將測試圖像投影到主元子空間上得到了一組投影系數(shù),然后和各個己知人的人臉圖像進(jìn)行比較識別,取得了很好的識別效果。在此基礎(chǔ)上出現(xiàn)了很多特征臉的改進(jìn)算法。</p><p>  特征臉方法原理簡單、易于實現(xiàn),它把人臉作為一個整體來處理,大大降低了識別復(fù)雜度。但是特征臉方法忽視了人臉的個性差異,存在著一定的理論缺陷

34、。研究表明:特征臉方法隨光線角度及人臉尺寸的影響,識別率會有所下降。</p><p>  2.2基于神經(jīng)網(wǎng)絡(luò)的方法</p><p>  神經(jīng)網(wǎng)絡(luò)在人臉識別應(yīng)用中有很長的歷史。早期用于人臉識別的神經(jīng)網(wǎng)絡(luò)主要是Kohonen自聯(lián)想映射神經(jīng)網(wǎng)絡(luò),用于人臉的“回憶”。所謂“回憶”是指當(dāng)輸入圖像上的人臉受噪聲污染嚴(yán)重或部分缺損時,能用Kohonen網(wǎng)絡(luò)恢復(fù)出原來完整的人臉。Intrator等人<

35、;/p><p>  用一個無監(jiān)督/監(jiān)督混合神經(jīng)網(wǎng)絡(luò)進(jìn)行人臉識別。其輸入是原始圖像的梯度圖像,以此可以去除光照的變化。監(jiān)督學(xué)習(xí)目的是尋找類的特征,有監(jiān)督學(xué)習(xí)的目的是減少訓(xùn)練樣本被錯分的比例。這種網(wǎng)絡(luò)提取的特征明顯,識別率高,如果用幾個網(wǎng)絡(luò)同時運算,求其平均,識別效果還會提高。</p><p>  與其他類型的方法相比,神經(jīng)網(wǎng)絡(luò)方法在人臉識別上有其獨到的優(yōu)勢,它避免了復(fù)雜的特征提取工作,可以通過學(xué)

36、習(xí)的過程獲得其他方法難以實現(xiàn)的關(guān)于人臉識別的規(guī)律和規(guī)則的隱性表達(dá)。此外,神經(jīng)網(wǎng)絡(luò)以時示方式處理信息,如果能用硬件實現(xiàn),就能顯著提高速度。神經(jīng)網(wǎng)絡(luò)方法除了用于人臉識別外,還適用于性別識別、種族識別等。</p><p><b>  2.3彈性圖匹配法</b></p><p>  彈性圖匹配方法是一種基于動態(tài)鏈接結(jié)構(gòu)DLA C Dynamic Link Architectu

37、re的方法。它將人臉用格狀的稀疏圖表示,圖中的節(jié)點用圖像位置的Gabor小波分解得到的特征向量標(biāo)記,圖的邊用連接節(jié)點的距離向量標(biāo)記。匹配時,首先尋找與輸入圖像最相似的模型圖,再對圖中的每個節(jié)點位置進(jìn)行最佳匹配,這樣產(chǎn)生一個變形圖,其節(jié)點逼近模型圖的對應(yīng)點的位置。彈性圖匹配方法對光照、位移、旋轉(zhuǎn)及尺度變化都敏感。此方法的主要缺點是對每個存儲的人臉需計算其模型圖,計算量大,存儲量大。為此,Wiskott在原有方法的基礎(chǔ)上提出聚束圖匹配,部分

38、克服了這些缺點。在聚束圖中,所有節(jié)點都已經(jīng)定位在相應(yīng)目標(biāo)上。對于大量數(shù)據(jù)庫,這樣可以大大減少識別時間。另外,利用聚束圖還能夠匹配小同人的最相似特征,因此可以獲得關(guān)于未知人的性別、胡須和眼鏡等相關(guān)信息。</p><p>  2.4基于模板匹配的方法</p><p>  模板匹配法是一種經(jīng)典的模式識別方法,這種方法大多是用歸一化和互相關(guān),直接計算兩副圖像之間的匹配程度。由于這種方法要求兩副圖像

39、上的目標(biāo)要有相同的尺度、取向和光照條件,所以預(yù)處理要做尺度歸一化和灰度歸一化的工作。最簡單的人臉模板是將人臉看成一個橢圓,檢測人臉也就是檢測圖像中的橢圓。另一種方法是將人臉用一組獨立的小模板表示,如眼睛模板、嘴巴模板、鼻子模板、眉毛模板和下巴模板等。但這些模板的獲得必須利用各個特征的輪廓,而傳統(tǒng)的基于邊緣提取的方法很難獲得較高的連續(xù)邊緣。即使獲得了可靠度高的邊緣,也很難從中自動提取所需的特征量。模板匹配方法在尺度、光照、旋轉(zhuǎn)角度等各種條

40、件穩(wěn)定的狀態(tài)下,它的識別的效果優(yōu)于其它方法,但它對光照、旋轉(zhuǎn)和表情變化比較敏感,影響了它的直接使用。</p><p>  2.5基于人臉特征的方法</p><p>  人臉由眼睛、鼻子、嘴巴、下巴等部件構(gòu)成,正因為這些部件的形狀、大小和結(jié)構(gòu)上的各種差異才使得世界上每個人臉千差萬別,因此對這些部件的形狀和結(jié)構(gòu)關(guān)系的幾何描述,可以作為人臉識別的重要特征。幾何特征最早是用于人臉檢測輪廓的描述與識

41、別,首先根據(jù)檢測輪廓曲線確定若干顯著點,并由這些顯著點導(dǎo)出一組用于識別的特征度量如距離、角度等。采用幾何特征進(jìn)行正面人臉識別一般是通過提取人眼、口、鼻等重要特征點的位置和眼睛等重要器官的幾何形狀作為分類特征。</p><p>  定位眼睛往往是提取人臉幾何特征的第一步。由于眼睛的對稱性以及眼珠呈現(xiàn)為低灰度值的圓形,因此在人臉圖像清晰端正的時候,眼睛的提取是比較容易的。但是如果人臉圖像模糊,或者噪聲很多,則往往需要

42、利用更多的信息(如眼睛和眉毛、鼻子的相對位置等),而且這將使得眼睛的定位變得很復(fù)雜。而且實際圖像中,部件未必輪廓分明,有時人用眼看也只是個大概,計算機提取就更成問題,因而導(dǎo)致描述同一個人的不同人臉時,其模型參數(shù)可能相差很大,而失去識別意義。盡管如此,在正確提取部件以及表情變化微小的前提下,該方法依然奏效,因此在許多方而仍可應(yīng)用,如對標(biāo)準(zhǔn)身份證照片的應(yīng)用。</p><p>  第3章 PCA人臉識別方法</p

43、><p><b>  3.1 引言</b></p><p>  人臉識別技術(shù)是指當(dāng)輸入一張正面人臉圖像時,識別該照片屬于人臉庫的哪一個人。其可應(yīng)用于會議入場系統(tǒng)、罪犯識別及其它需要身份鑒別的場合。由于人臉圖像是一個復(fù)雜的對象,而且人臉會隨著表情、姿態(tài)、角度、光照的不同而呈現(xiàn)較大的不同,這些都增加了該問題的難度,使人臉識別成為國際上的難點和熱點。解決人臉識別的方法層出不窮,

44、如基于幾何特征的方法、基于代數(shù)特征的方法等。主成分分析法(PCA)是把人臉圖像看成高維向量,由于人臉圖像的高度相關(guān)性,那么可以通過K-L正交變換將其轉(zhuǎn)化為低維空間的向量,后者最大限度地保留了原數(shù)據(jù)的主要信息,是沿著其方差最大的方向求得的矢量。這樣降維后的向量可以方便地用于模式識別。識別方法是最鄰近距離分類法。</p><p><b>  3.2 主成分分析</b></p>&l

45、t;p>  主成分分析法是統(tǒng)計學(xué)中用來分析數(shù)據(jù)的一種方法,它基于KL分解。最早將其用于人臉識別中的是Pentland,并因為它的有效很快流行起來。簡單地說,它的原理就是將一高維的向量,通過一個特殊的特征向量矩陣,投影到一個低維的向征的向量和這個特征向量矩陣,可以完全重構(gòu)出所對應(yīng)的原來的高維向量[11]。</p><p>  對應(yīng)到人臉識別中,有如下的闡述:</p><p>  對于一

46、幅的圖像,將其列排列起來形成一個列向量v。假設(shè)人臉訓(xùn)練集中有p幅圖像,則這p個列向量羅列起來形成一個(m x n) x p 維的矩陣X。</p><p>  以x 表示一幅圖像的列向量。</p><p>  則訓(xùn)練樣本集的總體散布矩陣為:</p><p><b> ?。?-1)</b></p><p>  為對稱陣,可進(jìn)

47、行如下分解:</p><p><b> ?。?-2)</b></p><p>  對每一幅圖像xi進(jìn)行變換(即在特征空間中進(jìn)行投影),則Y的協(xié)方差矩陣為:; 故經(jīng)過PCA 變換去除了數(shù)據(jù)間的相關(guān)性,減小了冗余。達(dá)到了降維的目的。</p><p>  選取大的特征值,使總能量大于90%,即將特征值按從大到小排序,為:</p><

48、;p>  ,選取前k個特征值對應(yīng)的特征向量,這叫做主成分。記主成分矩陣為,則樣本在該特征空間上的投影為:</p><p><b> ?。?-3)</b></p><p>  由前m個主軸決定的子空間能最大限度表達(dá)原始數(shù)據(jù)的變化,因為它在最小均方誤差意義下是數(shù)據(jù)的最優(yōu)表達(dá)。這樣,對于要測試的人臉,將其在該子空間上投影,得到其坐標(biāo),和樣本空間上各個人臉的坐標(biāo)相比較,

49、距離最近的即為該人臉的識別結(jié)果。在對進(jìn)行分解時,由于其維數(shù)很大,故借助于奇異值分解定理[12] 。</p><p>  定理:設(shè)是一秩為r的n×r維矩陣,則存在兩個正交矩陣:</p><p><b> ?。?-4)</b></p><p><b>  (3-5)</b></p><p>&

50、lt;b>  以及對角陣</b></p><p><b> ?。?-6)</b></p><p><b>  且 </b></p><p><b> ?。?-7)</b></p><p><b>  滿足</b></p>&

51、lt;p><b> ?。?-8)</b></p><p>  其中: 為矩陣和的非零特征值,和分別為和對應(yīng)于的特征向量。</p><p><b>  推論 :</b></p><p><b> ?。?-9)</b></p><p>  可構(gòu)造矩陣,容易求出此矩陣的特征值和

52、特征向量,那么應(yīng)用以上的推論,即可得到所需的特征向量和特征值。</p><p>  所選取的特征向量構(gòu)成了特征臉空間,這是一個降維的子空間,所有的人臉圖像都可以在此空間上投影從而得到一組坐標(biāo)系數(shù),這組系數(shù)表明了該圖像在子空間中的位置,從而可以作為人臉識別的依據(jù)。任何一幅人臉圖像都可以表示為這組特征臉的線性組合,其加權(quán)系數(shù)就是K-L變換的展開系數(shù),也可以稱為該圖像的代數(shù)特征。 </p&g

53、t;<p><b>  3.3 特征臉方法</b></p><p>  特征臉方法(Eigenface) 是從主成分分析導(dǎo)出的一種人臉識別和描述技術(shù)。PCA實質(zhì)上是K-L展開的網(wǎng)絡(luò)遞推實現(xiàn)。K-L變換是圖像壓縮技術(shù)中的一種最優(yōu)正交變換,其生成矩陣一般為訓(xùn)練樣本的總體散布矩陣。特征臉方法就是將包含人臉的圖像區(qū)域看作是一種隨機向量,因此可以采用K-L變換獲得其正交K-L基底。對應(yīng)其

54、中較大特征值的基底具有與人臉相似的形狀,因此又稱為特征臉(Eigenface)。利用這些基底的線形組合可以描述,表達(dá)和逼近人臉圖像,因此可以進(jìn)行人臉的識別與合成。識別過程就是將人臉圖像映射到由特征臉張成的子空間上,比較其與己知人臉在特征臉空間中的位置,具體步驟如下:</p><p>  1.初始化,獲得人臉圖像的訓(xùn)練集并計算特征臉,定義為人臉空間;</p><p>  2.輸入新的人臉圖像

55、,將其映射到特征臉空間,得到一組權(quán)值;</p><p>  3.通過檢查圖像與人臉空間的距離判斷它是否為人臉;</p><p>  4.若為人臉,根據(jù)權(quán)值模式判斷它是否為數(shù)據(jù)庫中的某個人;</p><p>  5.若同一幅未知人臉出現(xiàn)數(shù)次,則計算其特征權(quán)值模式并加入到人臉數(shù)據(jù)庫中。</p><p>  任何模式識別系統(tǒng)都包括兩個過程,一個是訓(xùn)

56、練階段((training process),另一個是測試階段(testing process),應(yīng)用PCA的人臉識別系統(tǒng)也不例外。假定在訓(xùn)練階段,數(shù)據(jù)庫中有K個人,每個人有M幅人臉灰度圖像,其中每一幅圖像都用N XN的二維數(shù)組I (x,y)來表示,數(shù)組元素表示象素點的灰度值。同樣,每一幅圖像都可以視為N個2x1的向量。</p><p>  從一個特征集中選擇有利于分類的特征子集的過程稱為特征選擇。經(jīng)特征選擇后特

57、征空間的維數(shù)進(jìn)一步得到壓縮。特征選擇也具有一些約束條件,如最小均方誤差、總體熵最小化等。 模式特征可以分為物理的、結(jié)構(gòu)的和數(shù)字的三大類。本文中應(yīng)用于判別研究的模式特征是數(shù)字特征,這是由于計算機抽取數(shù)字特征方面的能力遠(yuǎn)遠(yuǎn)超過于人,這些數(shù)字特征包括統(tǒng)計平均值、方差、協(xié)方差矩陣、和特征值、特征向量以及矩等。特征提取所用的變換T就是基于K-L變換的PCA方法和Fishe:判別方法,而特征選擇的約束條件就是最小均方誤差。特征臉方法是一種簡單,快速

58、,實用的基于變換系數(shù)特征的算法,它存在如下優(yōu)點:</p><p>  (1)圖像的原始灰度數(shù)據(jù)直接用來學(xué)習(xí)和識別,不需任何低級或中級處理:</p><p>  (2)不需要人臉的幾何和反射知識;</p><p>  (3)通過低維子空間表示對數(shù)據(jù)進(jìn)行壓縮;</p><p>  (4)與其他匹配方法相比,識別簡單有效。但是,由于特征臉方法在本質(zhì)

59、上依賴于訓(xùn)練集和測試集圖像的灰度相關(guān)性,而且要求測試圖像與訓(xùn)練集比較像,所以它有著很大的局限性,表現(xiàn)在以下方面;</p><p>  (5)對尺度變化很敏感,因此在識別前必須先進(jìn)行尺度歸一化處理,而且由于PCA在圖像空間是線形的,它不能處理幾何變化;</p><p>  (6)只能處理正面人臉圖像,在姿態(tài),發(fā)型和光照等發(fā)生變化時識別率明顯下降;</p><p>  

60、(7)要求背景單一,對于復(fù)雜變化背景,需首先進(jìn)行復(fù)雜的圖像分割處理;</p><p><b>  第4章 仿真實驗</b></p><p><b>  4.1 流程圖</b></p><p>  圖4.1 整體流程圖</p><p>  先確定訓(xùn)練樣本和測試樣本,之后經(jīng)過PCA變換矩陣達(dá)到降維的目的

61、,投影到降維子空間中形成相應(yīng)的坐標(biāo),最后用最鄰近距離分類法進(jìn)行識別。</p><p>  圖4.2 訓(xùn)練部分流程圖</p><p>  確定訓(xùn)練樣本,之后去均值,計算總體散度矩陣,利用奇異值分解后經(jīng)過PCA變換矩陣達(dá)到降維的目的。</p><p><b>  4.2仿真結(jié)果</b></p><p>  圖4.4人臉識別仿

62、真結(jié)果</p><p>  提取面部特征,將人臉圖像看成高維向量,將其組成一個向量矩陣,對每一幅圖像進(jìn)行變換(即在特征空間中進(jìn)行投影)計算其協(xié)方差矩陣,故經(jīng)過PCA 變換去除了數(shù)據(jù)間的相關(guān)性,減小了冗余。達(dá)到了降維的目的。選取大的特征值,即將特征值按從大到小排序,選取前k個特征值對應(yīng)的特征向量,主成分矩陣為樣本在該特征空間上的投影,從而計算出特征向量和特征值,對于要測試的人臉,將其在該子空間上投影,得到其坐標(biāo),和

63、樣本空間上各個人臉的坐標(biāo)相比較,距離最近的即為該人臉的識別結(jié)果。</p><p>  有圖可知:上面四幅圖為樣本在降維子空間上的投影,下面四幅圖為要檢測的人臉在降維子空間上的投影,用最鄰近距離分類法,陰影部分距離最近的即為識別結(jié)果。</p><p><b>  第5章 總結(jié)與展望</b></p><p><b>  5.1 總結(jié)<

64、;/b></p><p>  本文以人臉識別算法中特征提取、分類器設(shè)計作了系統(tǒng)的研究,在理論、方法和應(yīng)用上進(jìn)行了一系列探索,所取得的主要成果總結(jié)如下:</p><p>  1.概述了人臉識別技術(shù)應(yīng)用的難點,發(fā)展與現(xiàn)狀,研究內(nèi)容與主要方法,及常用的人臉識別標(biāo)準(zhǔn)數(shù)據(jù)庫。</p><p>  2.論證了基于主分量分析和線性可分性分析的人臉識別方法的優(yōu)缺點,分析了特征

65、維數(shù)和訓(xùn)練樣本個數(shù)對識別性能的影響。</p><p>  PCA作為一種多元數(shù)據(jù)處理方法,它可以最優(yōu)地表達(dá)原始數(shù)據(jù),是滿足最小均方誤差意義下的最優(yōu),可以表達(dá)原始數(shù)據(jù)的變化。</p><p>  但作為分類來講,我們需要的是能將數(shù)據(jù)分開的最優(yōu)的方向,考慮到數(shù)據(jù)的非線性,可能不存在好的線性分類,故應(yīng)改考慮核PCA方法,即KPCA?,F(xiàn)將低維數(shù)據(jù)映射到高維特征空間中,在該特征空間中可以應(yīng)用線性分類

66、算法,這將是下一步要做的工作。</p><p><b>  5.2 展望</b></p><p>  北京準(zhǔn)備在2008年奧運會使用人臉識別系統(tǒng)。</p><p>  人臉識別系統(tǒng)其實是臺特殊的攝像機,判斷速度相當(dāng)快,只需要0.01秒左右,由于利用的是人體骨骼的識別技術(shù),所以即使易容改裝,也難以蒙過它的眼睛。而且“人臉識別系統(tǒng)”具有存儲功能,只

67、要把一些具有潛在危險性的“重點人物”的“臉部特寫”輸入存儲系統(tǒng),重點人物如擅自闖關(guān),就會在0.01秒之內(nèi)被揪出來,同時向其他安保中心“報警”。另外,某些重要區(qū)域如控制中心只允許特定身份的工作人員進(jìn)出,這時候面部檔案信息未被系統(tǒng)存儲的所有人全都會被拒之門外。</p><p>  與以前的指紋識別系統(tǒng)相比,人臉識別系統(tǒng)有很多的改進(jìn)。用于人臉識別的攝像機一天24小時都可工作,第一它不侵犯人權(quán),第二它是很安全的,無論室內(nèi)

68、還是戶外均可使用。人臉識別系統(tǒng)意味著每個人的臉上都貼著名字,外人看不見,但監(jiān)控系統(tǒng)能看得見。而且被觀察的人不知道有設(shè)備在監(jiān)視他,起到了科技奧運、文明奧運的功能。</p><p>  人臉的自動分割。人臉識別技術(shù)應(yīng)該包括復(fù)雜背景下的人臉定位和純臉分割,以及人臉識別兩個方面的工作。要想使人臉識別技術(shù)得到廣泛的發(fā)展和應(yīng)用,首先必須要解決人臉自動分割問題。而人臉的自動分割是一個很有挑戰(zhàn)性的研究課題。</p>

69、<p>  基于代數(shù)特征的人臉識別方法。它的有點在于應(yīng)用簡單,算法穩(wěn)健,隨著新的分類算法的出現(xiàn),基于代數(shù)特征的人臉識別方法仍然有很大的發(fā)展空間。</p><p>  基于多特征信息融合的方法。人臉面部的細(xì)節(jié)信息非常重要,對表情的識別起著極其重要的作用, 如何充分利用人臉本身的豐富信息將是面部表情識別研究一個值得探索的方向。</p><p>  基于多分類器融合的表情識別方法,由

70、于不同的分類器想對于不同的特征和環(huán)境有著不同的性能, 研究一個良好的融合策略將是提高人臉識別系統(tǒng)的一個很好的研究方向。</p><p><b>  參考文獻(xiàn)</b></p><p>  [1] HongZiquan.AlgebraicFeatureExtractionofImagforRecognition[J]Pattern Recognition , 1991.

71、22(1):43~44.</p><p>  [2] Yuille A L. Detection Templates for Face Recognition[J]Cognitive Neuroscience , 1991. 191~200</p><p>  [3] 盧春雨,張長水.局域區(qū)域特征的快速人臉檢測法.[J]北京;清華大學(xué)學(xué)報.1999. 96(1);4~6.</p>

72、;<p>  [4] 陳剛,戚飛虎.實用人臉識別系統(tǒng)的本征臉法實現(xiàn).[D]2001年5月. 23(1):45~46 .</p><p>  [5] 杜平,徐大為,劉重慶. 基于整體特征的人臉識別方法的研究[J].2003年6月. 49(3);382~383.</p><p>  [6] Chow G, Li X. Towards A System for Automatic

73、Facial Feature Detection[J] 1993. 29(3);2~3.</p><p>  [7] 楊奕若,王煦法,楊未來.人臉全局特征識別研究.[Z]1997年11月. 33(5): 871~875.</p><p>  [8] 邊肇祺, 張學(xué)工, 閻平凡, 等. 模式識別[D]. 北京: 清華大學(xué)出版社, 2000. 30(2)16~17.</p>&l

74、t;p><b>  附錄</b></p><p>  % Kernel PCA toy example for k(x,y)=exp(-||x-y||^2/rbf_var), cf. Fig. 4 in </p><p>  % @article{SchSmoMue98,</p><p>  % author = "B

75、.~{Sch\"olkopf} and A.~Smola and K.-R.~{M\"uller}",</p><p>  % title = "Nonlinear component analysis as a kernel Eigenvalue problem",</p><p>  % journal = {Ne

76、ural Computation},</p><p>  % volume = 10,</p><p>  % issue = 5,</p><p>  % pages = "1299 -- 1319",</p><p>  % year =</p><p

77、><b>  1998}</b></p><p>  % This file can be downloaded from http://www.kernel-machines.org.</p><p>  % Last modified: 4 July 2003</p><p>  % parameters</p><

78、;p>  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%</p><p>  rbf_var = 0.1;</p><p><b>  xnum = 4;</b></p><p><b>  ynum = 2;</b>

79、;</p><p>  max_ev = xnum*ynum;</p><p>  % (extract features from the first <max_ev> Eigenvectors)</p><p>  x_test_num = 15;</p><p>  y_test_num = 15;</p>&

80、lt;p>  cluster_pos = [-0.5 -0.2; 0 0.6; 0.5 0];</p><p>  cluster_size = 30;</p><p>  % generate a toy data set</p><p>  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

81、%%%%%%%%%%%%%%%%</p><p>  num_clusters = size(cluster_pos,1);</p><p>  train_num = num_clusters*cluster_size;</p><p>  patterns = zeros(train_num, 2);</p><p>  range =

82、1;</p><p>  randn('seed', 0);</p><p>  for i=1:num_clusters,</p><p>  patterns((i-1)*cluster_size+1:i*cluster_size,1) = cluster_pos(i,1)+0.1*randn(cluster_size,1);</p>

83、<p>  patterns((i-1)*cluster_size+1:i*cluster_size,2) = cluster_pos(i,2)+0.1*randn(cluster_size,1);</p><p><b>  end</b></p><p>  test_num = x_test_num*y_test_num;</p>&

84、lt;p>  x_range = -range:(2*range/(x_test_num - 1)):range;</p><p>  y_offset = 0.5;</p><p>  y_range = -range+ y_offset:(2*range/(y_test_num - 1)):range+ y_offset;</p><p>  [xs, y

85、s] = meshgrid(x_range, y_range);</p><p>  test_patterns(:, 1) = xs(:);</p><p>  test_patterns(:, 2) = ys(:);</p><p>  cov_size = train_num; % use all patterns to compute the covari

86、ance matrix</p><p>  % carry out Kernel PCA</p><p>  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%</p><p>  for i=1:cov_size,</p><p>  for

87、j=i:cov_size,</p><p>  K(i,j) = exp(-norm(patterns(i,:)-patterns(j,:))^2/rbf_var);</p><p>  K(j,i) = K(i,j);</p><p><b>  end</b></p><p><b>  end</b

88、></p><p>  unit = ones(cov_size, cov_size)/cov_size;</p><p>  % centering in feature space!</p><p>  K_n = K - unit*K - K*unit + unit*K*unit;</p><p>  [evecs,evals]

89、= eig(K_n);</p><p>  evals = real(diag(evals));</p><p>  for i=1:cov_size,</p><p>  evecs(:,i) = evecs(:,i)/(sqrt(evals(i)));</p><p><b>  end</b></p>

90、<p>  % extract features</p><p>  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%</p><p>  % do not need the following here - only need test point features</

91、p><p>  %unit_train = ones(train_num,cov_size)/cov_size;</p><p>  %for i=1:train_num,</p><p>  % for j=1:cov_size,</p><p>  % K_train(i,j) = exp(-norm(patterns(i,:)-pa

92、tterns(j,:))^2/rbf_var);</p><p><b>  % end</b></p><p><b>  %end</b></p><p>  %K_train_n = K_train - unit_train*K - K_train*unit + unit_train*K*unit;</p&g

93、t;<p>  %features = zeros(train_num, max_ev);</p><p>  %features = K_train_n * evecs(:,1:max_ev);</p><p>  unit_test = ones(test_num,cov_size)/cov_size;</p><p>  K_test = zer

94、os(test_num,cov_size);</p><p>  for i=1:test_num,</p><p>  for j=1:cov_size,</p><p>  K_test(i,j) = exp(-norm(test_patterns(i,:)-patterns(j,:))^2/rbf_var);</p><p><b

95、>  end</b></p><p><b>  end</b></p><p>  K_test_n = K_test - unit_test*K - K_test*unit + unit_test*K*unit;</p><p>  test_features = zeros(test_num, max_ev);</

96、p><p>  test_features = K_test_n * evecs(:,1:max_ev);</p><p><b>  % plot it</b></p><p>  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%</p>

97、;<p>  figure(1); clf</p><p>  for n = 1:max_ev,</p><p>  subplot(ynum, xnum, n);</p><p>  axis([-range range -range+y_offset range+y_offset]);</p><p>  imag = r

98、eshape(test_features(:,n), y_test_num, x_test_num);</p><p>  axis('xy')</p><p>  colormap(gray);</p><p><b>  hold on;</b></p><p>  pcolor(x_range, y

99、_range, imag);</p><p>  shading interp</p><p>  contour(x_range, y_range, imag, 9, 'b');</p><p>  plot(patterns(:,1), patterns(:,2), 'r.')</p><p>  text

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論