2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩193頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、人臉識(shí)別是一個(gè)古老而又年輕的學(xué)術(shù)問題,人們對(duì)它的探索已經(jīng)跨越了三個(gè)世紀(jì)。早在1888年,《Nature》雜志首次發(fā)表了利用人臉進(jìn)行身份識(shí)別的文章,掀開了人類對(duì)人臉識(shí)別探索的序幕。120年后的2008年,《Science》雜志刊登了關(guān)于“100%自動(dòng)人臉識(shí)別精度”技術(shù)評(píng)論,指出現(xiàn)實(shí)環(huán)境下的高精度人臉識(shí)別仍然是一個(gè)遙遠(yuǎn)的目標(biāo),需要我們持續(xù)開展創(chuàng)新的研究工作。
   人臉識(shí)別是一個(gè)特殊的復(fù)雜模式識(shí)別問題,它具有:1)訓(xùn)練集合的高維性和

2、小樣本性:2)圖像的類內(nèi)變化遠(yuǎn)大于類間變化:3)特征空間內(nèi)樣本的結(jié)構(gòu)復(fù)雜等特點(diǎn)。然而,現(xiàn)有的識(shí)別算法大多從特定目標(biāo)函數(shù)出發(fā),缺乏對(duì)人臉自身屬性的考慮。它們雖然能夠從數(shù)學(xué)上很好地描述具有固定變化的數(shù)據(jù)集,從而取得很高的識(shí)別精度,卻不能解決現(xiàn)實(shí)復(fù)雜環(huán)境下的人臉識(shí)別問題。為了從根本上提高技術(shù)水平,使得算法能夠應(yīng)對(duì)現(xiàn)實(shí)環(huán)境的復(fù)雜性和不可預(yù)測性,本文引入了兩個(gè)人臉識(shí)別的新思路。第一,從人臉類別在特征空間中的類別分布特點(diǎn)出發(fā),利用人臉類別分布的先驗(yàn)

3、知識(shí),設(shè)計(jì)適應(yīng)人臉自身屬性的新特征提取算法;第二,引入心理學(xué)、神經(jīng)科學(xué)等跨學(xué)科知識(shí),利用多層次的仿生手段,設(shè)計(jì)生物啟發(fā)式人臉特征提取算法。以這兩種思路為指導(dǎo),面向現(xiàn)實(shí)環(huán)境下的高精度人臉識(shí)別需求,本文主要進(jìn)行了如下研究:
   (1)從全局散度分析、局部重疊分析、流形結(jié)構(gòu)分析和分類錯(cuò)誤四個(gè)角度出發(fā),利用實(shí)驗(yàn)手段探索了人臉圖像空間中的類別分布特性。各個(gè)類別的人臉圖像在測量空間中呈現(xiàn)出相似的結(jié)構(gòu),而且高度重疊?;谌四橆悇e結(jié)構(gòu)的特殊性

4、,提出人臉空間類別分布的兩個(gè)先驗(yàn)假設(shè):第一,每類的協(xié)方差矩陣相等,同時(shí)類內(nèi)散度遠(yuǎn)大于類間散度,使得每類的協(xié)方差矩陣都近似等于全局的協(xié)方差矩陣。第二,不同人之間的類間散度存在于同一子空間中,而且該類間子空間的主方向與類內(nèi)散度的子空間主方向是不“沖突”的。這兩個(gè)先驗(yàn)知識(shí)使得算法可以不用局限于特定人的訓(xùn)練集合,轉(zhuǎn)而采用大規(guī)模的通用數(shù)據(jù)庫對(duì)人臉識(shí)別中的特征抽取模型進(jìn)行訓(xùn)練。在FERET數(shù)據(jù)庫上的大規(guī)模實(shí)驗(yàn)證明,在基于類別結(jié)構(gòu)先驗(yàn)知識(shí)的通用學(xué)習(xí)框

5、架下,采用經(jīng)典線性鑒別分析方法就可以獲得大大超過國際評(píng)測最好結(jié)果的精度。
   (2)通過對(duì)當(dāng)前特征抽取算法的深入分析,提出了一個(gè)基于投影尋蹤技術(shù)的算法框架,統(tǒng)一了主成分分析、獨(dú)立成分分析、線性鑒別分析、局部保持投影、非監(jiān)督鑒別投影等主流的特征抽取算法,給出了人臉識(shí)別中的特征抽取問題的一種新穎的綜合性表述。在投影尋蹤框架中,算法首先通過白化變換對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,隨后利用優(yōu)化技術(shù)尋找具有最優(yōu)投影特性的低維投影向量?;谕队皩ほ櫩蚣?/p>

6、的實(shí)驗(yàn)驗(yàn)證了當(dāng)前的非監(jiān)督特征抽取算法都不能很好地尋找低維特征投影,它們?cè)谌四樧R(shí)別中的高性能主要來源于白化過程對(duì)人臉類別結(jié)構(gòu)的變換,而并非以往研究中聲稱的低維投影。為了充分利用人臉類別結(jié)構(gòu)的先驗(yàn)知識(shí),本文提出了一個(gè)局部尋蹤算法,在白化空間內(nèi)最大限度地保持樣本的局部鄰近特性。在AR和FERET數(shù)據(jù)庫上的實(shí)驗(yàn)表明局部尋蹤算法的非監(jiān)督和監(jiān)督版本、線性和核版本都能獲得高于當(dāng)前同類算法的精度。
   (3)從“樣本均勻化”的幾何直覺出發(fā),提

7、出了局部離散尋蹤算法,解決單訓(xùn)練樣本條件下的人臉識(shí)別難題。該算法的目標(biāo)是使得在特征空間中靠近的類別變得分散,降低類間樣本混淆的風(fēng)險(xiǎn),從而提高識(shí)別精度。局部尋蹤算法引入了兩種樣本均勻化的新方法:第一,基于奇異值分解的新白化變換理論-該變換可以在小樣本情況下把訓(xùn)練樣本集變換成一個(gè)規(guī)范正交集,使得樣本間距完全均勻。第二,局部離散投影-對(duì)主成分分析進(jìn)行局部化改造,可以在降低數(shù)據(jù)維數(shù)的同時(shí)使得原來局部聚集的樣本變得稀疏。該算法的核版本能夠進(jìn)一步提

8、高算法對(duì)非線性結(jié)構(gòu)的學(xué)習(xí)能力,在使用更小量的特征的情況下獲得同等精度。在包含1196人的大規(guī)模FERET數(shù)據(jù)庫上,局部離散尋蹤算法僅采用每人單樣本的訓(xùn)練就可以獲得遠(yuǎn)遠(yuǎn)高于FERET’97評(píng)測最好結(jié)果的精度水平。為了進(jìn)一步提高精度水平,本文還提出了融合通用特征模型和特定人特征模型的人臉識(shí)別新方法,在FERET評(píng)測的duplicate測試圖像集中的識(shí)別精度超過90%,為該測試集至今發(fā)表的最高識(shí)別精度。
   (4)從心理學(xué)、神經(jīng)科學(xué)

9、與模式識(shí)別的交叉性出發(fā),提出一種多層次的生物啟發(fā)特征提取方法。該方法包含三個(gè)層次。第一,在低層特征生成階段,采用了一組源于視覺通路早期階段響應(yīng)特性的生物啟發(fā)式特征來表示人類圖像。這些特征針對(duì)多方面的視覺特性,涵蓋了空間局部性、空間頻率選擇性、邊緣方向選擇性、色度選擇性等。第二,從低層特征到高層特征的映射采用了一個(gè)增量式的魯棒鑒別分析模型。首先使用增量式主成分分析方法把高維低層特征映射為通用的中層特征,再使用魯棒鑒別分析模型映射為專用于身

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論