基于matlab的人臉識別系統(tǒng)設計與仿真_第1頁
已閱讀1頁,還剩23頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、<p>  目 錄 </p><p><b>  摘要II</b></p><p>  第1章 緒論- 1 -</p><p>  1.1人臉識別技術的細節(jié)- 1 -</p><p>  1.2人臉識別技術的廣泛應用- 1 -</p><p>  1.3人臉識別技術

2、的難點- 2 -</p><p>  1.4 國內外研究狀況- 2 -</p><p>  1.5人臉識別的研究內容- 3 -</p><p>  1.5.1人臉識別研究內容- 3 -</p><p>  1.5.2人臉識別系統(tǒng)的組成- 4 -</p><p>  第2章 人臉識別方法- 6 -</p

3、><p>  2.1基于特征臉的方法- 6 -</p><p>  2.2基于神經(jīng)網(wǎng)絡的方法- 6 -</p><p>  2.3彈性圖匹配法- 7 -</p><p>  2.4基于模板匹配的方法- 7 -</p><p>  2.5基于人臉特征的方法- 7 -</p><p>  第3

4、章 PCA人臉識別方法- 9 -</p><p>  3.1 引言- 9 -</p><p>  3.2 主成分分析- 9 -</p><p>  3.3特征臉方法- 11 -</p><p>  第4章 仿真實驗- 13 -</p><p>  4.1 流程圖- 13 -</p><p

5、>  4.2仿真結果- 14 -</p><p>  第5章 總結與展望- 15 -</p><p>  5.1 總結- 15 -</p><p>  5.2 展望- 15 -</p><p>  參考文獻- 17 -</p><p><b>  附錄- 18 -</b><

6、/p><p><b>  摘要</b></p><p>  人臉識別是當前模式識別領域的一個前沿課題,人臉識別技術就是利用計算機技術,根據(jù)數(shù)據(jù)庫的人臉圖像,分析提取出有效的識別信息,用來“辨認”身份的技術。</p><p>  本文介紹了多種人臉識別方法,基于對人臉識別方法優(yōu)缺點的分析比較, 提出了一種基于主元分析(PCA )的人臉識別方法。通過P

7、CA 算法對人臉圖像進行特征提取, 再利用最鄰近距離分類法對特征向量進行分類識別。利用劍橋ORL的人臉數(shù)據(jù)庫的數(shù)據(jù)進行實驗仿真,仿真結果驗證了本算法是有效的。 </p><p>  關鍵詞:人臉識別, 主元分析,最近鄰距離分類法,人臉庫</p><p><b>  第1章 緒論</b></p><p>  人臉識別是模式識別研究的一個熱點, 它

8、在身份鑒別、信用卡識別, 護照的核對及監(jiān)控系統(tǒng)等方面有著廣泛的應用。人臉圖像由于受光照、表情以及姿態(tài)等因素的影響, 使得同一個人的臉像矩陣差異也比較大。因此, 進行人臉識別時, 所選取的特征必須對上述因素具備一定的穩(wěn)定性和不變性. 主元分析(PCA)方法是一種有效的特征提取方法,將人臉圖像表示成一個列向量, 經(jīng)過PCA 變換后, 不僅可以有效地降低其維數(shù), 同時又能保留所需要的識別信息, 這些信息對光照、表情以及姿態(tài)具有一定的不敏感性.

9、 在獲得有效的特征向量后, 關鍵問題是設計具有良好分類能力和魯棒性的分類器. 支持向量機(SVM ) 模式識別方法,兼顧訓練誤差和泛化能力, 在解決小樣本、非線性及高維模式識別問題中表現(xiàn)出許多特有的優(yōu)勢。</p><p>  1.1人臉識別技術的細節(jié)</p><p>  一般來說,人臉識別系統(tǒng)包括圖像提取、人臉定位、圖形預處理、以及人臉識別(身份確認或者身份查找)。系統(tǒng)輸入一般是一張或者一

10、系列含有未確定身份的人臉圖像,以及人臉數(shù)據(jù)庫中的若干已知身份的人臉圖像或者相應的編碼,而其輸出則是一系列相似度得分,表明待識別的人臉的身份。</p><p>  1.2人臉識別技術的廣泛應用</p><p>  一項技術的問世和發(fā)展與人類的迫切需求是密切相關的,快速發(fā)展的社會經(jīng)濟和科學技術使得人類對安全(包括人身安全、隱私保護等)得認識越來越重視。人臉識別得一個重要應用就是人類的身份識別。

11、一般來說,人類得身份識別方式分為三類:</p><p>  1.特征物品,包括各種證件和憑證,如身份證、駕駛證、房門鑰匙、印章等;</p><p>  2.特殊知識,包括各種密碼、口令和暗號等;</p><p>  3.人類生物特征,包括各種人類得生理和行為特征,如人臉、指紋、手形、掌紋、虹膜、DNA、簽名、語音等。前兩類識別方式屬于傳統(tǒng)的身份識別技術,其特點是方便

12、、快捷,但致命的缺點是安全性差、易偽造、易竊取。特殊物品可能會丟失、偷盜和復制,特殊知識可以被遺忘、混淆和泄漏。相比較而言,由于生物特征使人的內在屬性,具有很強的自身穩(wěn)定性和個體差異性,因此生物特征是身份識別的最理想依據(jù)?;谝陨舷鄬Κ毺氐纳锾卣?,結合計算機技術,發(fā)展了眾多的基于人類生物特征的身份識別技術,如DNA識別技術、指紋識別技術、虹膜識別技術、語音識別技術和人臉識別技術等。</p><p>  生物識別

13、技術在上個世紀已經(jīng)有了一定得發(fā)展,其中指紋識別技術已經(jīng)趨近成熟,但人臉識別技術的研究還處于起步階段。指紋、虹膜、掌紋等識別技術都需要被識別者的配合,有的識別技術還需要添置復雜昂貴的設備。人臉識別可以利用已有的照片或是攝像頭遠距離捕捉圖像,無需特殊的采集設備,系統(tǒng)的成本低。并且自動人臉識別可以在當事人毫無覺察的情況下完成身份確認識別工作,這對反恐怖活動有非常重要的意義?;谌四樧R別技術具有如此多的優(yōu)勢,因此它的應用前景非常廣闊,已成為最具

14、潛力的生物特征識別技術之一。</p><p>  1.3人臉識別技術的難點</p><p>  雖然人類可以毫不困難地根據(jù)人臉來辨別一個人,但是利用計算機進行完全自動的人臉識別仍然有許多困難。人臉模式差異性使得人臉識別成為一個非常困難的問題,表現(xiàn)在以下方面:</p><p>  1.人臉表情復雜,人臉具有多樣的變化能力,人的臉上分布著五十多塊面部肌肉,這些肌肉的運動

15、導致不同面部表情的出現(xiàn),會造成人臉特征的顯著改變。</p><p>  2.隨著年齡而改變,隨著年齡的增長,皺紋的出現(xiàn)和面部肌肉的松弛使得人臉的結構和紋理都將發(fā)生改變。</p><p>  3.人臉有易變化的附加物,例如改變發(fā)型,留胡須,戴帽子或眼鏡等飾物。</p><p>  4.人臉特征遮掩,人臉全部、部分遮掩將會造成錯誤識別。</p><p

16、>  5.人臉圖像的畸變,由于光照、視角、攝取角度不同,可能造成圖像的灰度。</p><p>  1.4 國內外研究狀況</p><p>  人臉識別是人類視覺最杰出的能力之一。它的研究涉及模式識別、圖像處理、生物學、心理學、認知科學,與基于其它生物特征的身份鑒別方法以及計算機人機感知交互領域都有密切聯(lián)系。人臉識別早在六七十年代就引起了研究者的強烈興趣。20世紀60年代,Bledso

17、e提出了人臉識別的半自動系統(tǒng)模式與特征提取方法。70年代,美、英等發(fā)達國家開始重視人臉識別的研究工作并取得進展。1972年,Harmon用交互人臉識別方法在理論上與實踐上進行了詳細的論述。同年,Sakai設計了人臉圖像自動識別系統(tǒng)。80年代初T. Minami研究出了優(yōu)于Sakai的人臉圖像自動識別系統(tǒng)。但早期的人臉識別一般都需要人的某些先驗知識,無法擺脫人的干預。進入九十年代,由于各方面對人臉識別系統(tǒng)的迫切需求,人臉識別的研究變的非常

18、熱門。人臉識別的方法有了重大突破,進入了真正的機器自動識別階段,如Karhunen-Loève變換等或新的神經(jīng)網(wǎng)絡技術。人臉識別研究得到了前所未有的重視,國際上發(fā)表有關人臉識別等方面的論文數(shù)量大幅度增加,僅從1990年到2000年之間,SCI及EI可檢索到的相關文獻多達數(shù)千篇,這期間關于人臉識別的綜述也屢屢可見。國</p><p>  人臉識別是當前模式識別領域的一個前沿課題,但目前人臉識別尚處于研究課

19、題階段,尚不是實用化領域的活躍課題。雖然人類可以毫不困難地由人臉辨別一個人,但利用計算機進行完全自動的人臉識別存在許多困難,其表現(xiàn)在:人臉是非剛體,存在表情變化;人臉隨年齡增長而變化;發(fā)型、眼鏡等裝飾對人臉造成遮擋;人臉所成圖像受光照、成像角度、成像距離等影響。人臉識別的困難還在于圖像包括大量的數(shù)據(jù),輸入的像素可能成百上千,每個像素都含有各自不同的灰度級,由此帶來的計算的復雜度將會增加?,F(xiàn)有的識別方法中,通過從人臉圖像中提取出特征信息,

20、來對數(shù)據(jù)庫進行檢索的方法速度快,而利用拓撲屬性圖匹配來確定匹配度的方法則相對較快。</p><p>  1.5人臉識別的研究內容</p><p>  人臉識別技術(AFR)就是利用計算機技術,根據(jù)數(shù)據(jù)庫的人臉圖像,分析提取出有效的識別信息,用來“辨認”身份的技術。人臉識別技術的研究始于六十年代末七十年代初,其研究領域涉及圖像處理、計算機視覺、模式識別、計算機智能等領域,是伴隨著現(xiàn)代化計算機

21、技術、數(shù)據(jù)庫技術發(fā)展起來的綜合交叉學科。</p><p>  1.5.1人臉識別研究內容</p><p>  人臉識別的研究范圍廣義上來講大致包括以下五個方面的內容。</p><p>  1.人臉定位和檢測(Face Detection):即從動態(tài)的場景與復雜的背景中檢測出人臉的存在并且確定其位置,最后分離出來。這一任務主要受到光照、噪聲、面部傾斜以及各種各樣遮擋的

22、影響。</p><p>  2.人臉表征(Face Representation)(也稱人臉特征提取):即采用某種表示方法來表示檢測出人臉與數(shù)據(jù)庫中的己知人臉。通常的表示方法包括幾何特征(如歐氏距離、曲率、角度)、代數(shù)特征(如矩陣特征向量)、固定特征模板等。</p><p>  3.人臉識別(Face Recognition):即將待識別的人臉與數(shù)據(jù)庫中已知人臉比較,得出</p>

23、;<p>  相關信息。這一過程的核心是選擇適當?shù)娜四槺碚鞣椒ㄅc匹配策略。</p><p>  4.表情姿態(tài)分析(Expression/Gesture Analysis):即對待識別人臉的表情或姿態(tài)信息進行分析,并對其加以歸類。</p><p>  5.生理分類(Physical Classification):即對待識別人臉的生理特征進行分析,得出其年齡、性別等相關信息,或

24、者從幾幅相關的圖像推導出希望得到的人臉圖像,如從父母圖像推導出孩子臉部圖像和基于年齡增長的人臉圖像估算等。</p><p>  人臉識別的研究內容,從生物特征技術的應用前景來分類,包括以下兩個方面:人臉驗證與人臉識別。</p><p>  1.人臉驗證((Face Verification/Authentication):即是回答“是不是某人?”的問題。它是給定一幅待識別人臉圖像,判斷它是

25、否是某人的問題,屬于一對一的兩類模式分類問題,主要用于安全系統(tǒng)的身份驗證。</p><p>  2.人臉識別(Face Recognition):即是回答“是誰”的問題。它是給定一幅待識別人臉圖像,再己有的人臉數(shù)據(jù)庫中,判斷它的身份的問題。它是個“一對多”的多類模式分類問題,通常所說的人臉識別即指此類問題,這也是本文的主要研究內容。</p><p>  1.5.2人臉識別系統(tǒng)的組成<

26、/p><p>  在人臉識別技術發(fā)展的幾十年中,研究者們提出了多種多樣的人臉識別方法,但大部分的人臉識別系統(tǒng)主要由三部分組成:圖像預處理、特征提取和人臉的分類識別。一個完整的自動人臉識別系統(tǒng)還包括人臉檢測定位和數(shù)據(jù)庫的組織等模塊,如圖1.1。其中人臉檢測和人臉識別是整個自動人臉識別系統(tǒng)中非常重要的兩個環(huán)節(jié),并且相對獨立。下面分別介紹這兩個環(huán)節(jié)。</p><p>  圖1.1人臉識別系統(tǒng)框圖&l

27、t;/p><p>  人臉檢測與定位,檢測圖像中是否由人臉,若有,將其從背景中分割出來,并確定其在圖</p><p>  像中的位置。在某些可以控制拍攝條件的場合,如警察拍罪犯照片時將人臉限定在標尺內,此時人臉的定位很簡單。證件照背景簡單,定位比較容易。在另一些情況下,人臉在圖像</p><p>  中的位置預先是未知的,比如在復雜背景下拍攝的照片,這時人臉的檢測與定位

28、將受以下因素的影響:</p><p>  1.人臉在圖像中的位置、角度、不固定尺寸以及光照的影響;</p><p>  2.發(fā)型、眼睛、胡須以及人臉的表情變化等;</p><p>  3. 圖像中的噪聲等。</p><p>  特征提取與人臉識別,特征提取之前一般都要做幾何歸一化和灰度歸一化的工作。前者指根據(jù)人臉定位結果將圖像中的人臉變化到同

29、一位置和大小;后者是指對圖像進行光照補償?shù)忍幚?,以克服光照變化的影響,光照補償能夠一定程度的克服光照變化的影響而提高識別率。提取出待識別的人臉特征之后,即進行特征匹配。這個過程是一對多或者一對一的匹配過程,前者是確定輸入圖像為圖像庫中的哪一個人(即人臉識別),后者是驗證輸入圖像的人的身份是否屬實(人臉驗證)。</p><p>  以上兩個環(huán)節(jié)的獨立性很強。在許多特定場合下人臉的檢測與定位相對比較容易,因此“特征提

30、取與人臉識別環(huán)節(jié)”得到了更廣泛和深入的研究。近幾年隨著人們越來越關心各種復雜的情形下的人臉自動識別系統(tǒng)以及多功能感知研究的興起,人臉檢測與定位才作為一個獨立的模式識別問題得到了較多的重視。本文主要研究人臉的特征提取與分類識別</p><p><b>  的問題。</b></p><p>  圖1.2人臉識別結構圖</p><p>  第2章 人

31、臉識別方法</p><p>  雖然人臉識別方法的分類標準可能有所不同,但是目前的研究主要有兩個方向,一類是從人臉圖像整體(Holistic Approaches)出發(fā),基于圖像的總體信息進行分類識別,他重點考慮了模式的整體屬性,其中較為著名的方法有:人工神經(jīng)網(wǎng)絡的方法、統(tǒng)計模式的方法等。另一類是基于提取人臉圖像的幾何特征參數(shù)(Feature-Based Approaches),例如眼、嘴和鼻子的特征,再按照某種

32、距離準則進行分類識別。這種方法非常有效,因為人臉不是剛體,有著復雜的表情,對其嚴格進行特征匹配會出現(xiàn)困難。而分別介紹一些常用的方法,前兩種方法屬于從圖像的整體方面進行研究,后三種方法主要從提取圖像的局部特征講行研究。</p><p>  2.1基于特征臉的方法</p><p>  特征臉方法(eigenface)是從主元分析方法PCA C Principal ComponentAnaly

33、sis導出的一種人臉分析識別方法,它根據(jù)一組人臉圖像構造主元子空間,由于主元具有人臉的形狀也稱作特征臉。識別時將測試圖像投影到主元子空間上得到了一組投影系數(shù),然后和各個己知人的人臉圖像進行比較識別,取得了很好的識別效果。在此基礎上出現(xiàn)了很多特征臉的改進算法。</p><p>  特征臉方法原理簡單、易于實現(xiàn),它把人臉作為一個整體來處理,大大降低了識別復雜度。但是特征臉方法忽視了人臉的個性差異,存在著一定的理論缺陷

34、。研究表明:特征臉方法隨光線角度及人臉尺寸的影響,識別率會有所下降。</p><p>  2.2基于神經(jīng)網(wǎng)絡的方法</p><p>  神經(jīng)網(wǎng)絡在人臉識別應用中有很長的歷史。早期用于人臉識別的神經(jīng)網(wǎng)絡主要是Kohonen自聯(lián)想映射神經(jīng)網(wǎng)絡,用于人臉的“回憶”。所謂“回憶”是指當輸入圖像上的人臉受噪聲污染嚴重或部分缺損時,能用Kohonen網(wǎng)絡恢復出原來完整的人臉。Intrator等人<

35、;/p><p>  用一個無監(jiān)督/監(jiān)督混合神經(jīng)網(wǎng)絡進行人臉識別。其輸入是原始圖像的梯度圖像,以此可以去除光照的變化。監(jiān)督學習目的是尋找類的特征,有監(jiān)督學習的目的是減少訓練樣本被錯分的比例。這種網(wǎng)絡提取的特征明顯,識別率高,如果用幾個網(wǎng)絡同時運算,求其平均,識別效果還會提高。</p><p>  與其他類型的方法相比,神經(jīng)網(wǎng)絡方法在人臉識別上有其獨到的優(yōu)勢,它避免了復雜的特征提取工作,可以通過學

36、習的過程獲得其他方法難以實現(xiàn)的關于人臉識別的規(guī)律和規(guī)則的隱性表達。此外,神經(jīng)網(wǎng)絡以時示方式處理信息,如果能用硬件實現(xiàn),就能顯著提高速度。神經(jīng)網(wǎng)絡方法除了用于人臉識別外,還適用于性別識別、種族識別等。</p><p><b>  2.3彈性圖匹配法</b></p><p>  彈性圖匹配方法是一種基于動態(tài)鏈接結構DLA C Dynamic Link Architectu

37、re的方法。它將人臉用格狀的稀疏圖表示,圖中的節(jié)點用圖像位置的Gabor小波分解得到的特征向量標記,圖的邊用連接節(jié)點的距離向量標記。匹配時,首先尋找與輸入圖像最相似的模型圖,再對圖中的每個節(jié)點位置進行最佳匹配,這樣產(chǎn)生一個變形圖,其節(jié)點逼近模型圖的對應點的位置。彈性圖匹配方法對光照、位移、旋轉及尺度變化都敏感。此方法的主要缺點是對每個存儲的人臉需計算其模型圖,計算量大,存儲量大。為此,Wiskott在原有方法的基礎上提出聚束圖匹配,部分

38、克服了這些缺點。在聚束圖中,所有節(jié)點都已經(jīng)定位在相應目標上。對于大量數(shù)據(jù)庫,這樣可以大大減少識別時間。另外,利用聚束圖還能夠匹配小同人的最相似特征,因此可以獲得關于未知人的性別、胡須和眼鏡等相關信息。</p><p>  2.4基于模板匹配的方法</p><p>  模板匹配法是一種經(jīng)典的模式識別方法,這種方法大多是用歸一化和互相關,直接計算兩副圖像之間的匹配程度。由于這種方法要求兩副圖像

39、上的目標要有相同的尺度、取向和光照條件,所以預處理要做尺度歸一化和灰度歸一化的工作。最簡單的人臉模板是將人臉看成一個橢圓,檢測人臉也就是檢測圖像中的橢圓。另一種方法是將人臉用一組獨立的小模板表示,如眼睛模板、嘴巴模板、鼻子模板、眉毛模板和下巴模板等。但這些模板的獲得必須利用各個特征的輪廓,而傳統(tǒng)的基于邊緣提取的方法很難獲得較高的連續(xù)邊緣。即使獲得了可靠度高的邊緣,也很難從中自動提取所需的特征量。模板匹配方法在尺度、光照、旋轉角度等各種條

40、件穩(wěn)定的狀態(tài)下,它的識別的效果優(yōu)于其它方法,但它對光照、旋轉和表情變化比較敏感,影響了它的直接使用。</p><p>  2.5基于人臉特征的方法</p><p>  人臉由眼睛、鼻子、嘴巴、下巴等部件構成,正因為這些部件的形狀、大小和結構上的各種差異才使得世界上每個人臉千差萬別,因此對這些部件的形狀和結構關系的幾何描述,可以作為人臉識別的重要特征。幾何特征最早是用于人臉檢測輪廓的描述與識

41、別,首先根據(jù)檢測輪廓曲線確定若干顯著點,并由這些顯著點導出一組用于識別的特征度量如距離、角度等。采用幾何特征進行正面人臉識別一般是通過提取人眼、口、鼻等重要特征點的位置和眼睛等重要器官的幾何形狀作為分類特征。</p><p>  定位眼睛往往是提取人臉幾何特征的第一步。由于眼睛的對稱性以及眼珠呈現(xiàn)為低灰度值的圓形,因此在人臉圖像清晰端正的時候,眼睛的提取是比較容易的。但是如果人臉圖像模糊,或者噪聲很多,則往往需要

42、利用更多的信息(如眼睛和眉毛、鼻子的相對位置等),而且這將使得眼睛的定位變得很復雜。而且實際圖像中,部件未必輪廓分明,有時人用眼看也只是個大概,計算機提取就更成問題,因而導致描述同一個人的不同人臉時,其模型參數(shù)可能相差很大,而失去識別意義。盡管如此,在正確提取部件以及表情變化微小的前提下,該方法依然奏效,因此在許多方而仍可應用,如對標準身份證照片的應用。</p><p>  第3章 PCA人臉識別方法</p

43、><p><b>  3.1 引言</b></p><p>  人臉識別技術是指當輸入一張正面人臉圖像時,識別該照片屬于人臉庫的哪一個人。其可應用于會議入場系統(tǒng)、罪犯識別及其它需要身份鑒別的場合。由于人臉圖像是一個復雜的對象,而且人臉會隨著表情、姿態(tài)、角度、光照的不同而呈現(xiàn)較大的不同,這些都增加了該問題的難度,使人臉識別成為國際上的難點和熱點。解決人臉識別的方法層出不窮,

44、如基于幾何特征的方法、基于代數(shù)特征的方法等。主成分分析法(PCA)是把人臉圖像看成高維向量,由于人臉圖像的高度相關性,那么可以通過K-L正交變換將其轉化為低維空間的向量,后者最大限度地保留了原數(shù)據(jù)的主要信息,是沿著其方差最大的方向求得的矢量。這樣降維后的向量可以方便地用于模式識別。識別方法是最鄰近距離分類法。</p><p><b>  3.2 主成分分析</b></p>&l

45、t;p>  主成分分析法是統(tǒng)計學中用來分析數(shù)據(jù)的一種方法,它基于KL分解。最早將其用于人臉識別中的是Pentland,并因為它的有效很快流行起來。簡單地說,它的原理就是將一高維的向量,通過一個特殊的特征向量矩陣,投影到一個低維的向征的向量和這個特征向量矩陣,可以完全重構出所對應的原來的高維向量[11]。</p><p>  對應到人臉識別中,有如下的闡述:</p><p>  對于一

46、幅的圖像,將其列排列起來形成一個列向量v。假設人臉訓練集中有p幅圖像,則這p個列向量羅列起來形成一個(m x n) x p 維的矩陣X。</p><p>  以x 表示一幅圖像的列向量。</p><p>  則訓練樣本集的總體散布矩陣為:</p><p><b>  (3-1)</b></p><p>  為對稱陣,可進

47、行如下分解:</p><p><b> ?。?-2)</b></p><p>  對每一幅圖像xi進行變換(即在特征空間中進行投影),則Y的協(xié)方差矩陣為:; 故經(jīng)過PCA 變換去除了數(shù)據(jù)間的相關性,減小了冗余。達到了降維的目的。</p><p>  選取大的特征值,使總能量大于90%,即將特征值按從大到小排序,為:</p><

48、;p>  ,選取前k個特征值對應的特征向量,這叫做主成分。記主成分矩陣為,則樣本在該特征空間上的投影為:</p><p><b> ?。?-3)</b></p><p>  由前m個主軸決定的子空間能最大限度表達原始數(shù)據(jù)的變化,因為它在最小均方誤差意義下是數(shù)據(jù)的最優(yōu)表達。這樣,對于要測試的人臉,將其在該子空間上投影,得到其坐標,和樣本空間上各個人臉的坐標相比較,

49、距離最近的即為該人臉的識別結果。在對進行分解時,由于其維數(shù)很大,故借助于奇異值分解定理[12] 。</p><p>  定理:設是一秩為r的n×r維矩陣,則存在兩個正交矩陣:</p><p><b>  (3-4)</b></p><p><b> ?。?-5)</b></p><p>&

50、lt;b>  以及對角陣</b></p><p><b>  (3-6)</b></p><p><b>  且 </b></p><p><b> ?。?-7)</b></p><p><b>  滿足</b></p>&

51、lt;p><b> ?。?-8)</b></p><p>  其中: 為矩陣和的非零特征值,和分別為和對應于的特征向量。</p><p><b>  推論 :</b></p><p><b>  (3-9)</b></p><p>  可構造矩陣,容易求出此矩陣的特征值和

52、特征向量,那么應用以上的推論,即可得到所需的特征向量和特征值。</p><p>  所選取的特征向量構成了特征臉空間,這是一個降維的子空間,所有的人臉圖像都可以在此空間上投影從而得到一組坐標系數(shù),這組系數(shù)表明了該圖像在子空間中的位置,從而可以作為人臉識別的依據(jù)。任何一幅人臉圖像都可以表示為這組特征臉的線性組合,其加權系數(shù)就是K-L變換的展開系數(shù),也可以稱為該圖像的代數(shù)特征。 </p&g

53、t;<p><b>  3.3 特征臉方法</b></p><p>  特征臉方法(Eigenface) 是從主成分分析導出的一種人臉識別和描述技術。PCA實質上是K-L展開的網(wǎng)絡遞推實現(xiàn)。K-L變換是圖像壓縮技術中的一種最優(yōu)正交變換,其生成矩陣一般為訓練樣本的總體散布矩陣。特征臉方法就是將包含人臉的圖像區(qū)域看作是一種隨機向量,因此可以采用K-L變換獲得其正交K-L基底。對應其

54、中較大特征值的基底具有與人臉相似的形狀,因此又稱為特征臉(Eigenface)。利用這些基底的線形組合可以描述,表達和逼近人臉圖像,因此可以進行人臉的識別與合成。識別過程就是將人臉圖像映射到由特征臉張成的子空間上,比較其與己知人臉在特征臉空間中的位置,具體步驟如下:</p><p>  1.初始化,獲得人臉圖像的訓練集并計算特征臉,定義為人臉空間;</p><p>  2.輸入新的人臉圖像

55、,將其映射到特征臉空間,得到一組權值;</p><p>  3.通過檢查圖像與人臉空間的距離判斷它是否為人臉;</p><p>  4.若為人臉,根據(jù)權值模式判斷它是否為數(shù)據(jù)庫中的某個人;</p><p>  5.若同一幅未知人臉出現(xiàn)數(shù)次,則計算其特征權值模式并加入到人臉數(shù)據(jù)庫中。</p><p>  任何模式識別系統(tǒng)都包括兩個過程,一個是訓

56、練階段((training process),另一個是測試階段(testing process),應用PCA的人臉識別系統(tǒng)也不例外。假定在訓練階段,數(shù)據(jù)庫中有K個人,每個人有M幅人臉灰度圖像,其中每一幅圖像都用N XN的二維數(shù)組I (x,y)來表示,數(shù)組元素表示象素點的灰度值。同樣,每一幅圖像都可以視為N個2x1的向量。</p><p>  從一個特征集中選擇有利于分類的特征子集的過程稱為特征選擇。經(jīng)特征選擇后特

57、征空間的維數(shù)進一步得到壓縮。特征選擇也具有一些約束條件,如最小均方誤差、總體熵最小化等。 模式特征可以分為物理的、結構的和數(shù)字的三大類。本文中應用于判別研究的模式特征是數(shù)字特征,這是由于計算機抽取數(shù)字特征方面的能力遠遠超過于人,這些數(shù)字特征包括統(tǒng)計平均值、方差、協(xié)方差矩陣、和特征值、特征向量以及矩等。特征提取所用的變換T就是基于K-L變換的PCA方法和Fishe:判別方法,而特征選擇的約束條件就是最小均方誤差。特征臉方法是一種簡單,快速

58、,實用的基于變換系數(shù)特征的算法,它存在如下優(yōu)點:</p><p>  (1)圖像的原始灰度數(shù)據(jù)直接用來學習和識別,不需任何低級或中級處理:</p><p>  (2)不需要人臉的幾何和反射知識;</p><p>  (3)通過低維子空間表示對數(shù)據(jù)進行壓縮;</p><p>  (4)與其他匹配方法相比,識別簡單有效。但是,由于特征臉方法在本質

59、上依賴于訓練集和測試集圖像的灰度相關性,而且要求測試圖像與訓練集比較像,所以它有著很大的局限性,表現(xiàn)在以下方面;</p><p>  (5)對尺度變化很敏感,因此在識別前必須先進行尺度歸一化處理,而且由于PCA在圖像空間是線形的,它不能處理幾何變化;</p><p>  (6)只能處理正面人臉圖像,在姿態(tài),發(fā)型和光照等發(fā)生變化時識別率明顯下降;</p><p>  

60、(7)要求背景單一,對于復雜變化背景,需首先進行復雜的圖像分割處理;</p><p><b>  第4章 仿真實驗</b></p><p><b>  4.1 流程圖</b></p><p>  圖4.1 整體流程圖</p><p>  先確定訓練樣本和測試樣本,之后經(jīng)過PCA變換矩陣達到降維的目的

61、,投影到降維子空間中形成相應的坐標,最后用最鄰近距離分類法進行識別。</p><p>  圖4.2 訓練部分流程圖</p><p>  確定訓練樣本,之后去均值,計算總體散度矩陣,利用奇異值分解后經(jīng)過PCA變換矩陣達到降維的目的。</p><p><b>  4.2仿真結果</b></p><p>  圖4.4人臉識別仿

62、真結果</p><p>  提取面部特征,將人臉圖像看成高維向量,將其組成一個向量矩陣,對每一幅圖像進行變換(即在特征空間中進行投影)計算其協(xié)方差矩陣,故經(jīng)過PCA 變換去除了數(shù)據(jù)間的相關性,減小了冗余。達到了降維的目的。選取大的特征值,即將特征值按從大到小排序,選取前k個特征值對應的特征向量,主成分矩陣為樣本在該特征空間上的投影,從而計算出特征向量和特征值,對于要測試的人臉,將其在該子空間上投影,得到其坐標,和

63、樣本空間上各個人臉的坐標相比較,距離最近的即為該人臉的識別結果。</p><p>  有圖可知:上面四幅圖為樣本在降維子空間上的投影,下面四幅圖為要檢測的人臉在降維子空間上的投影,用最鄰近距離分類法,陰影部分距離最近的即為識別結果。</p><p><b>  第5章 總結與展望</b></p><p><b>  5.1 總結<

64、;/b></p><p>  本文以人臉識別算法中特征提取、分類器設計作了系統(tǒng)的研究,在理論、方法和應用上進行了一系列探索,所取得的主要成果總結如下:</p><p>  1.概述了人臉識別技術應用的難點,發(fā)展與現(xiàn)狀,研究內容與主要方法,及常用的人臉識別標準數(shù)據(jù)庫。</p><p>  2.論證了基于主分量分析和線性可分性分析的人臉識別方法的優(yōu)缺點,分析了特征

65、維數(shù)和訓練樣本個數(shù)對識別性能的影響。</p><p>  PCA作為一種多元數(shù)據(jù)處理方法,它可以最優(yōu)地表達原始數(shù)據(jù),是滿足最小均方誤差意義下的最優(yōu),可以表達原始數(shù)據(jù)的變化。</p><p>  但作為分類來講,我們需要的是能將數(shù)據(jù)分開的最優(yōu)的方向,考慮到數(shù)據(jù)的非線性,可能不存在好的線性分類,故應改考慮核PCA方法,即KPCA?,F(xiàn)將低維數(shù)據(jù)映射到高維特征空間中,在該特征空間中可以應用線性分類

66、算法,這將是下一步要做的工作。</p><p><b>  5.2 展望</b></p><p>  北京準備在2008年奧運會使用人臉識別系統(tǒng)。</p><p>  人臉識別系統(tǒng)其實是臺特殊的攝像機,判斷速度相當快,只需要0.01秒左右,由于利用的是人體骨骼的識別技術,所以即使易容改裝,也難以蒙過它的眼睛。而且“人臉識別系統(tǒng)”具有存儲功能,只

67、要把一些具有潛在危險性的“重點人物”的“臉部特寫”輸入存儲系統(tǒng),重點人物如擅自闖關,就會在0.01秒之內被揪出來,同時向其他安保中心“報警”。另外,某些重要區(qū)域如控制中心只允許特定身份的工作人員進出,這時候面部檔案信息未被系統(tǒng)存儲的所有人全都會被拒之門外。</p><p>  與以前的指紋識別系統(tǒng)相比,人臉識別系統(tǒng)有很多的改進。用于人臉識別的攝像機一天24小時都可工作,第一它不侵犯人權,第二它是很安全的,無論室內

68、還是戶外均可使用。人臉識別系統(tǒng)意味著每個人的臉上都貼著名字,外人看不見,但監(jiān)控系統(tǒng)能看得見。而且被觀察的人不知道有設備在監(jiān)視他,起到了科技奧運、文明奧運的功能。</p><p>  人臉的自動分割。人臉識別技術應該包括復雜背景下的人臉定位和純臉分割,以及人臉識別兩個方面的工作。要想使人臉識別技術得到廣泛的發(fā)展和應用,首先必須要解決人臉自動分割問題。而人臉的自動分割是一個很有挑戰(zhàn)性的研究課題。</p>

69、<p>  基于代數(shù)特征的人臉識別方法。它的有點在于應用簡單,算法穩(wěn)健,隨著新的分類算法的出現(xiàn),基于代數(shù)特征的人臉識別方法仍然有很大的發(fā)展空間。</p><p>  基于多特征信息融合的方法。人臉面部的細節(jié)信息非常重要,對表情的識別起著極其重要的作用, 如何充分利用人臉本身的豐富信息將是面部表情識別研究一個值得探索的方向。</p><p>  基于多分類器融合的表情識別方法,由

70、于不同的分類器想對于不同的特征和環(huán)境有著不同的性能, 研究一個良好的融合策略將是提高人臉識別系統(tǒng)的一個很好的研究方向。</p><p><b>  參考文獻</b></p><p>  [1] HongZiquan.AlgebraicFeatureExtractionofImagforRecognition[J]Pattern Recognition , 1991.

71、22(1):43~44.</p><p>  [2] Yuille A L. Detection Templates for Face Recognition[J]Cognitive Neuroscience , 1991. 191~200</p><p>  [3] 盧春雨,張長水.局域區(qū)域特征的快速人臉檢測法.[J]北京;清華大學學報.1999. 96(1);4~6.</p>

72、;<p>  [4] 陳剛,戚飛虎.實用人臉識別系統(tǒng)的本征臉法實現(xiàn).[D]2001年5月. 23(1):45~46 .</p><p>  [5] 杜平,徐大為,劉重慶. 基于整體特征的人臉識別方法的研究[J].2003年6月. 49(3);382~383.</p><p>  [6] Chow G, Li X. Towards A System for Automatic

73、Facial Feature Detection[J] 1993. 29(3);2~3.</p><p>  [7] 楊奕若,王煦法,楊未來.人臉全局特征識別研究.[Z]1997年11月. 33(5): 871~875.</p><p>  [8] 邊肇祺, 張學工, 閻平凡, 等. 模式識別[D]. 北京: 清華大學出版社, 2000. 30(2)16~17.</p>&l

74、t;p><b>  附錄</b></p><p>  % Kernel PCA toy example for k(x,y)=exp(-||x-y||^2/rbf_var), cf. Fig. 4 in </p><p>  % @article{SchSmoMue98,</p><p>  % author = "B

75、.~{Sch\"olkopf} and A.~Smola and K.-R.~{M\"uller}",</p><p>  % title = "Nonlinear component analysis as a kernel Eigenvalue problem",</p><p>  % journal = {Ne

76、ural Computation},</p><p>  % volume = 10,</p><p>  % issue = 5,</p><p>  % pages = "1299 -- 1319",</p><p>  % year =</p><p

77、><b>  1998}</b></p><p>  % This file can be downloaded from http://www.kernel-machines.org.</p><p>  % Last modified: 4 July 2003</p><p>  % parameters</p><

78、;p>  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%</p><p>  rbf_var = 0.1;</p><p><b>  xnum = 4;</b></p><p><b>  ynum = 2;</b>

79、;</p><p>  max_ev = xnum*ynum;</p><p>  % (extract features from the first <max_ev> Eigenvectors)</p><p>  x_test_num = 15;</p><p>  y_test_num = 15;</p>&

80、lt;p>  cluster_pos = [-0.5 -0.2; 0 0.6; 0.5 0];</p><p>  cluster_size = 30;</p><p>  % generate a toy data set</p><p>  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

81、%%%%%%%%%%%%%%%%</p><p>  num_clusters = size(cluster_pos,1);</p><p>  train_num = num_clusters*cluster_size;</p><p>  patterns = zeros(train_num, 2);</p><p>  range =

82、1;</p><p>  randn('seed', 0);</p><p>  for i=1:num_clusters,</p><p>  patterns((i-1)*cluster_size+1:i*cluster_size,1) = cluster_pos(i,1)+0.1*randn(cluster_size,1);</p>

83、<p>  patterns((i-1)*cluster_size+1:i*cluster_size,2) = cluster_pos(i,2)+0.1*randn(cluster_size,1);</p><p><b>  end</b></p><p>  test_num = x_test_num*y_test_num;</p>&

84、lt;p>  x_range = -range:(2*range/(x_test_num - 1)):range;</p><p>  y_offset = 0.5;</p><p>  y_range = -range+ y_offset:(2*range/(y_test_num - 1)):range+ y_offset;</p><p>  [xs, y

85、s] = meshgrid(x_range, y_range);</p><p>  test_patterns(:, 1) = xs(:);</p><p>  test_patterns(:, 2) = ys(:);</p><p>  cov_size = train_num; % use all patterns to compute the covari

86、ance matrix</p><p>  % carry out Kernel PCA</p><p>  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%</p><p>  for i=1:cov_size,</p><p>  for

87、j=i:cov_size,</p><p>  K(i,j) = exp(-norm(patterns(i,:)-patterns(j,:))^2/rbf_var);</p><p>  K(j,i) = K(i,j);</p><p><b>  end</b></p><p><b>  end</b

88、></p><p>  unit = ones(cov_size, cov_size)/cov_size;</p><p>  % centering in feature space!</p><p>  K_n = K - unit*K - K*unit + unit*K*unit;</p><p>  [evecs,evals]

89、= eig(K_n);</p><p>  evals = real(diag(evals));</p><p>  for i=1:cov_size,</p><p>  evecs(:,i) = evecs(:,i)/(sqrt(evals(i)));</p><p><b>  end</b></p>

90、<p>  % extract features</p><p>  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%</p><p>  % do not need the following here - only need test point features</

91、p><p>  %unit_train = ones(train_num,cov_size)/cov_size;</p><p>  %for i=1:train_num,</p><p>  % for j=1:cov_size,</p><p>  % K_train(i,j) = exp(-norm(patterns(i,:)-pa

92、tterns(j,:))^2/rbf_var);</p><p><b>  % end</b></p><p><b>  %end</b></p><p>  %K_train_n = K_train - unit_train*K - K_train*unit + unit_train*K*unit;</p&g

93、t;<p>  %features = zeros(train_num, max_ev);</p><p>  %features = K_train_n * evecs(:,1:max_ev);</p><p>  unit_test = ones(test_num,cov_size)/cov_size;</p><p>  K_test = zer

94、os(test_num,cov_size);</p><p>  for i=1:test_num,</p><p>  for j=1:cov_size,</p><p>  K_test(i,j) = exp(-norm(test_patterns(i,:)-patterns(j,:))^2/rbf_var);</p><p><b

95、>  end</b></p><p><b>  end</b></p><p>  K_test_n = K_test - unit_test*K - K_test*unit + unit_test*K*unit;</p><p>  test_features = zeros(test_num, max_ev);</

96、p><p>  test_features = K_test_n * evecs(:,1:max_ev);</p><p><b>  % plot it</b></p><p>  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%</p>

97、;<p>  figure(1); clf</p><p>  for n = 1:max_ev,</p><p>  subplot(ynum, xnum, n);</p><p>  axis([-range range -range+y_offset range+y_offset]);</p><p>  imag = r

98、eshape(test_features(:,n), y_test_num, x_test_num);</p><p>  axis('xy')</p><p>  colormap(gray);</p><p><b>  hold on;</b></p><p>  pcolor(x_range, y

99、_range, imag);</p><p>  shading interp</p><p>  contour(x_range, y_range, imag, 9, 'b');</p><p>  plot(patterns(:,1), patterns(:,2), 'r.')</p><p>  text

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論