2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩167頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、在日常生活的許多場(chǎng)合中,我們經(jīng)常需要向別人明示自己的身份以便獲得某種權(quán)利或者許可。例如,在登陸操作系統(tǒng)時(shí),我們通過輸入用戶名和密碼向計(jì)算機(jī)證明自己的身份,以便獲得使用計(jì)算機(jī)的權(quán)利;在登機(jī)時(shí),我們通過出示證件向機(jī)場(chǎng)安檢人員證明自己的身份,以便獲得登機(jī)的許可;在出入海關(guān)時(shí),我們通過虹膜識(shí)別或者指紋識(shí)別向海關(guān)出入境管理人員證明自己的身份,以便獲得出入境的許可,等等。因此,如何有效、方便、快捷地進(jìn)行個(gè)人身份認(rèn)證,保障人們的合法權(quán)益和各種社會(huì)活動(dòng)

2、的合法性和有效性,已經(jīng)成為一個(gè)必須解決的關(guān)鍵社會(huì)問題。
   身份認(rèn)證就是通過各種技術(shù)或者非技術(shù)手段,向?qū)Ψ阶C明自己的身份,以便獲得某種權(quán)利或者許可。傳統(tǒng)的身份認(rèn)證方式主要通過身份標(biāo)識(shí)知識(shí)(如密碼、口令等)和身份標(biāo)識(shí)物品(如鑰匙、身份證等)來證明身份,但由于主要借助體外物,一旦證明身份的標(biāo)識(shí)知識(shí)(或標(biāo)識(shí)物品)泄露(或被盜),其身份就容易被他人冒充(或取代)。因此,傳統(tǒng)的身份認(rèn)證方式給我們的生活帶來了諸多不便和很多安全隱患,已經(jīng)越

3、來越難以滿足社會(huì)的需求。
   人的生物特征(如虹膜、視網(wǎng)膜、指紋等)由于具有唯一性、終生不變性、且不會(huì)被遺忘和丟失、不易偽造和被盜等優(yōu)點(diǎn),正成為身份認(rèn)證的一個(gè)新介質(zhì),具有廣闊的應(yīng)用前景?;谏锾卣鞯纳矸菡J(rèn)證技術(shù)就是利用人體固有的生理特征(如人臉、虹膜、指紋等)和行為特征(如聲音、簽名、步態(tài)等)來進(jìn)行個(gè)人身份的鑒定。常用的生物特征包括人臉、虹膜、視網(wǎng)膜、手形、指紋、聲音、簽名、步態(tài)等。利用上述提及的其中一個(gè)特征(模態(tài)),我們就

4、可以構(gòu)建單模態(tài)生物特征識(shí)別系統(tǒng),而同時(shí)利用兩種或多種特征(模態(tài))則可以構(gòu)建多模態(tài)生物特征識(shí)別系統(tǒng)。由于基于生物特征的身份認(rèn)證方式具有傳統(tǒng)身份認(rèn)證方式無法比擬的優(yōu)勢(shì),近年來已廣泛應(yīng)用于金融服務(wù)、人機(jī)交互、視頻監(jiān)控、信息安全、刑偵鑒定等領(lǐng)域。同時(shí)許多人都存在一個(gè)錯(cuò)誤的觀念,認(rèn)為基于生物特征的身份認(rèn)證技術(shù)已經(jīng)相當(dāng)成熟。然而事實(shí)恰恰相反,基于生物特征的身份認(rèn)證技術(shù)中依然存在著許多問題等待解決,仍然是一個(gè)具有挑戰(zhàn)性的重要的研究課題。例如:指紋識(shí)別

5、技術(shù)中低質(zhì)量指紋圖像、小面積指紋圖像和扭曲指紋圖像的匹配問題,人臉識(shí)別技術(shù)中的開放問題(Open Problems),單模態(tài)生物特征識(shí)別技術(shù)中的小樣本問題和冒充問題,等等。
   由于基于生物特征的身份認(rèn)證技術(shù)在實(shí)際應(yīng)用中表現(xiàn)出的問題,本文針對(duì)一些關(guān)鍵問題進(jìn)行了研究,主要包括低質(zhì)量指紋圖像的方向場(chǎng)估計(jì)問題、低質(zhì)量人臉圖像的超分辨率問題,單模態(tài)生物特征識(shí)別算法的通用性問題,多模態(tài)生物特征識(shí)別技術(shù)中的魯棒性問題,具體研究?jī)?nèi)容和結(jié)果主

6、要包括:
   (1)提出基于主要脊和次要脊的指紋方向場(chǎng)估計(jì)方法。作為指紋的全局特征,指紋方向場(chǎng)在自動(dòng)指紋識(shí)別系統(tǒng)中扮演了至關(guān)重要的角色。針對(duì)方向場(chǎng)估計(jì)算法存在估計(jì)精度不高、計(jì)算時(shí)間開銷過大的現(xiàn)象,提出一種基于指紋塊中主要脊和次要脊的指紋方向場(chǎng)估計(jì)方法。該方法主要包括4個(gè)處理步驟:預(yù)處理原始指紋圖像,利用上半鄰域搜索算法提取指紋前景塊中的主要脊和次要脊,利用脊的直線模型估計(jì)指紋前景塊方向,以及采用修正方案提高方向場(chǎng)估計(jì)的精度。本

7、文方法適用于所有類型的指紋圖像。實(shí)驗(yàn)結(jié)果表明,該方法不僅具有令人滿意的估計(jì)精度,而且擁有很高的計(jì)算效率。更重要的是,算法還具有很強(qiáng)的魯棒性,并且即使在低質(zhì)量指紋數(shù)據(jù)庫(kù)上,該算法也能夠有效地提高指紋識(shí)別系統(tǒng)的性能。
   (2)提出基于學(xué)習(xí)的兩步互相關(guān)人臉圖像超分辨率方法。人臉圖像超分辨率是指從輸入的低分辨率人臉圖像合成出其高分辨率人臉圖像。由于現(xiàn)有的基于學(xué)習(xí)的兩步人臉超分辨率算法分開計(jì)算第一步的全局模型和第二步的局部模型,因此,

8、計(jì)算時(shí)間開銷大,并且合成的高分辨率人臉圖像視覺效果差。為了克服這些問題,本文提出一種基于學(xué)習(xí)的兩步互相關(guān)人臉圖像超分辨率方法,該方法有效地建立了全局模型和局部模型之間的聯(lián)系。在第一步(全局階段)中,通過聯(lián)合可操縱金字塔(SteerablePyramid)的分解(Decomposition)和重建(Reconstruction)生成一幅全局高分辨率人臉圖像:在第二步(殘差補(bǔ)償階段)中,為了補(bǔ)償全局高分辨率人臉圖像的面部精細(xì)特征,在全局階段

9、求解得到的權(quán)重向量和候選樣本的基礎(chǔ)上,采用鄰域重建算法來獲取高分辨率殘差人臉圖像。最后,將高分辨率殘差人臉圖像疊加到全局高分辨率人臉圖像上就得到了最終的高分辨率人臉圖像。與現(xiàn)有算法相比,采用本文方法合成的高分辨率人臉圖像更忠實(shí)于原始高分辨率人臉圖像,并且在殘差補(bǔ)償階段,由于利用全局階段得到的權(quán)重向量和候選樣本來計(jì)算高分辨率殘差人臉圖像,因此,極大地降低了計(jì)算的復(fù)雜度,同時(shí)又不會(huì)丟失面部精細(xì)特征。此外,本文方法還可以用在圖像修復(fù)領(lǐng)域用來恢

10、復(fù)人臉圖像中破損區(qū)域,實(shí)驗(yàn)結(jié)果表明,即使人臉圖像嚴(yán)重破損,應(yīng)用本文方法仍可以恢復(fù)出具有良好視覺效果的圖像。
   (3)建立基于局部拓?fù)浣Y(jié)構(gòu)保存映射的統(tǒng)一的單模態(tài)生物特征識(shí)別系統(tǒng)。在傳統(tǒng)的單模態(tài)生物特征識(shí)別系統(tǒng)中,針對(duì)不同的生物特征,具有特定的識(shí)別算法。因此,傳統(tǒng)的單模態(tài)生物特征識(shí)別系統(tǒng)通用性能差。本文建立了一種統(tǒng)一的單模態(tài)生物特征識(shí)別系統(tǒng),該系統(tǒng)具有良好的通用性,適用于人臉、掌紋、步態(tài)等絕大部分生物特征識(shí)別。本系統(tǒng)主要包括三個(gè)

11、方面:(ⅰ)單位化原始生物特征數(shù)據(jù):(ⅱ)利用局部拓?fù)浣Y(jié)構(gòu)保存映射(Local Topology Structure Preserving Projections,LTSPP)算法確定單位化生物特征數(shù)據(jù)的內(nèi)蘊(yùn)低維子空間;(ⅲ)在確定的低維子空間上利用類內(nèi)距離和執(zhí)行分類。針對(duì)該系統(tǒng),本文還提出了LTSPP算法,該算法是一種新穎的子空間學(xué)習(xí)方法,它不僅考慮了類間信息,而且還充分利用了類內(nèi)的局部拓?fù)浣Y(jié)構(gòu)信息。在表達(dá)不同類的分離性能上,LTSP

12、P算法能將不同類的數(shù)據(jù)映射得盡可能遠(yuǎn):同時(shí),LTSPP算法通過利用線性重構(gòu)系數(shù)保存了類內(nèi)數(shù)據(jù)的局部拓?fù)浣Y(jié)構(gòu)。與其它子空間學(xué)習(xí)算法相比,LTSPP算法判別能力更強(qiáng),更適合于生物特征識(shí)別。此外,對(duì)原始數(shù)據(jù)進(jìn)行單位化處理以及在確定的低維子空間上利用類內(nèi)距離和執(zhí)行分類都能有效地提高生物特征識(shí)別系統(tǒng)的性能。在Yale人臉數(shù)據(jù)庫(kù)和HumanID步態(tài)數(shù)據(jù)庫(kù)上反復(fù)進(jìn)行了識(shí)別實(shí)驗(yàn),令人信服的實(shí)驗(yàn)結(jié)果表明:本文建立的統(tǒng)一的單模態(tài)生物特征識(shí)別系統(tǒng)是有效性的,

13、并且,與其它的子空間學(xué)習(xí)算法相比,本文提出的LTSPP算法能產(chǎn)生更好的識(shí)別性能。
   (4)提出基于貝葉斯層次模型的多模態(tài)生物性別識(shí)別方法。為了達(dá)到魯棒性強(qiáng)、識(shí)別正確率高的性別識(shí)別性能,本文使用貝葉斯層次模型通過指紋模態(tài)和人臉模態(tài)來判斷人的性別。與以往使用指紋的某種具體特征來進(jìn)行性別識(shí)別的方法不同,本文使用“詞袋模型”來分別進(jìn)行指紋圖像和人臉圖像的特征表達(dá)?!霸~袋模型”是由一組視覺詞構(gòu)成的。在本文中,我們提出了一種新的監(jiān)督方法

14、來構(gòu)造視覺詞,使用該方法得到的視覺詞消除了圖像特征表達(dá)中冗余的特征維度,而加強(qiáng)了對(duì)性別分類有幫助的維度。進(jìn)一步地,為了進(jìn)行性別識(shí)別,我們分別將每種模態(tài)的圖像特征表達(dá)嵌入產(chǎn)生式模型--貝葉斯層次模型中,并分別訓(xùn)練每種模態(tài)下的男性和女性的產(chǎn)生式模型。對(duì)任一給定的測(cè)試對(duì)象,我們分別估計(jì)其在不同模態(tài)下的性別。這種不同模態(tài)下的性別估計(jì),是通過計(jì)算該模態(tài)下兩種產(chǎn)生式模型的似然概率來實(shí)現(xiàn)的。最后,在決策層,通過融合不同模態(tài)下得到的性別估計(jì)來獲得最終的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論