2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩107頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、隨著網(wǎng)絡(luò)與通訊技術(shù)的飛速發(fā)展和人類(lèi)物理與虛擬活動(dòng)空間的不斷擴(kuò)展,人們對(duì)于信息安全性的要求日益提高,需要進(jìn)行人的身份識(shí)別的場(chǎng)合也越來(lái)越多。生物特征識(shí)別技術(shù)是通過(guò)計(jì)算機(jī)利用人的生理特征或行為特征來(lái)判別一個(gè)人的身份。人臉識(shí)別技術(shù)是生物特征識(shí)別技術(shù)領(lǐng)域中重要的組成部分,它根據(jù)人面部影像中的有效信息進(jìn)行個(gè)人身份識(shí)別。與其它生物特征識(shí)別技術(shù)相比,人臉識(shí)別具有方便快捷、非接觸無(wú)侵犯性采集、可交互性等諸多優(yōu)勢(shì),已成為了生物特征識(shí)別技術(shù)中的一個(gè)研究熱點(diǎn),

2、并且具有廣闊的應(yīng)用前景。在過(guò)去幾十年中,很多學(xué)者在模式識(shí)別領(lǐng)域中提出了大量的特征抽取方法,比如用來(lái)處理線性問(wèn)題的經(jīng)典算法線性鑒別分析,以及在支持向量機(jī)基礎(chǔ)上演變得來(lái)的一系列基于核技巧的特征抽取方法,它們被普遍的應(yīng)用在非線性問(wèn)題的處理過(guò)程中。本文對(duì)線性特征和非線性特征的抽取方法做了深入的分析和研究,在特征抽取過(guò)程中盡可能多的融入樣本的結(jié)構(gòu)信息以保留更多的鑒別信息,同時(shí)更關(guān)注提出算法的效率和性能。本文的主要工作及創(chuàng)新如下:
   核

3、策略是基于統(tǒng)計(jì)學(xué)習(xí)理論和支持向量機(jī)技術(shù)發(fā)展起來(lái)的,是解決非線性問(wèn)題的一個(gè)有效的手段。本文提出了基于支持向量機(jī)(SVM)和決策樹(shù)(DT)的幾種新分類(lèi)器算法。首先對(duì)傳統(tǒng)支持向量機(jī)和模糊支持向量機(jī)(FSVM)處理多類(lèi)問(wèn)題的算法缺陷進(jìn)行分析,然后在DT-FSVM和最近鄰分類(lèi)器的基礎(chǔ)上,提出基于樣本區(qū)域分析(SRA)的混合分類(lèi)器算法(SRA-DT-FSVM),該算法中樣本區(qū)域分析的概念被提出。在線性鑒別分析(LDA)的人臉特征空間中,分別對(duì)算法F

4、SVM,DT-FSVM,SRA-DT-FSVM以及Binary-DT-SVM進(jìn)行了全面的性能比較。通過(guò)在ORL人臉庫(kù)上的實(shí)驗(yàn)結(jié)果表明,提出的新方法是有效的,并且通過(guò)引入三叉決策樹(shù),我們較大幅度的提高了傳統(tǒng)FSVM的分類(lèi)速度。
   傳統(tǒng)的線性鑒別分析方法在特征提取過(guò)程中使用的是2值情況下的判別標(biāo)準(zhǔn),也就是說(shuō):對(duì)于給定的一個(gè)樣本,在特征提取過(guò)程中的判別依據(jù)是要么這個(gè)樣本屬于某個(gè)類(lèi),要么不屬于某個(gè)類(lèi),每次執(zhí)行的均是一個(gè)硬分類(lèi)標(biāo)準(zhǔn)。比

5、如在一些經(jīng)典的人臉識(shí)別算法中,人臉數(shù)據(jù)的采集往往會(huì)受到表情、光照、姿態(tài)等各種環(huán)境條件的影響?;趯?duì)這一思想的考慮,我們?cè)趥鹘y(tǒng)的代數(shù)特征提取方法之中引入模糊集理論,隱含的將樣本的幾何結(jié)構(gòu)信息融入到樣本的代數(shù)特征提取過(guò)程之中。在此基礎(chǔ)上,我們提出了一種松弛條件下的完全模糊線性鑒別分析策略,通過(guò)對(duì)隸屬度函數(shù)中的歸一化條件進(jìn)行松弛化處理,重新設(shè)計(jì)模糊隸屬度矩陣的計(jì)算公式,從而得到更加有效的模糊樣本特征向量集。該方法步驟同傳統(tǒng)模糊線性鑒別分析方法

6、相比有效解決了離群樣本的模糊特征抽取問(wèn)題,并且充分考慮了每個(gè)樣本所包含的隸屬度信息。與此同時(shí),為了避免分類(lèi)器出現(xiàn)不可分區(qū)域現(xiàn)象,我們同時(shí)采用提出的DT-FSVM算法作為模糊分類(lèi)器,由此建立了一個(gè)完整的模糊線性鑒別分析策略,即分別提出一種模糊特征抽取方法和模糊分類(lèi)器,并將兩者有效結(jié)合,形成一個(gè)完整的模糊線性鑒別分析算法。
   小樣本問(wèn)題是在利用Fisher線性鑒別準(zhǔn)則做特征提取過(guò)程中經(jīng)常會(huì)遇到的,本文為解決小樣本問(wèn)題提出了一種基

7、于對(duì)稱零空間準(zhǔn)則的LDA特征抽取算法(OSNS),該算法通過(guò)重構(gòu)Fisher鑒別準(zhǔn)則,在兩個(gè)具有對(duì)稱性質(zhì)的散布矩陣的零空間及其互補(bǔ)空間內(nèi)利用投影數(shù)據(jù)的最大可分性,同時(shí)獲得了更多的有助于分類(lèi)的鑒別信息。OSNS算法解決了傳統(tǒng)Fisher鑒別分析方法只計(jì)算一個(gè)散布矩陣零特征空間的缺陷,加強(qiáng)了類(lèi)內(nèi)和類(lèi)間兩個(gè)散布矩陣在重構(gòu)鑒別準(zhǔn)則下所對(duì)應(yīng)的特征空間之間的內(nèi)在聯(lián)系,同時(shí)解決了傳統(tǒng)Fisher線性變換方法中的最終特征維數(shù)受類(lèi)別數(shù)限制的問(wèn)題。在選取的

8、幾個(gè)標(biāo)準(zhǔn)人臉數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果驗(yàn)證了該算法的有效性。
   序貫最小優(yōu)化(SMO)算法是一種SVMs訓(xùn)練算法,該算法將一個(gè)大型QP問(wèn)題分解為一系列最小規(guī)模的QP子問(wèn)題,從而避免了多樣本情形下的數(shù)值解不穩(wěn)定及耗時(shí)問(wèn)題,同時(shí)也不需要大的矩陣存儲(chǔ)空間。本文在模糊支持向量機(jī)以及決策樹(shù)(DT-FSVM)的基礎(chǔ)上,提出模糊序貫最小優(yōu)化算法(DT-FSMO)并對(duì)它進(jìn)行了分析和研究,在對(duì)人臉圖像進(jìn)行獨(dú)立成分分析(ICA)后,用該算法進(jìn)行多類(lèi)人臉

9、識(shí)別,通過(guò)在ORL人臉庫(kù)上的實(shí)驗(yàn)結(jié)果表明,SMO的分類(lèi)性能與輸入樣本的稀疏程度有密切關(guān)系,表明DT-FSMO方法在低特征向量維數(shù)的前提F對(duì)提高圖像識(shí)別的性能是有效的。
   模式分類(lèi)在面臨非線性高維數(shù)據(jù)下的小樣本問(wèn)題時(shí)通常十分困難。本文提出一種核的四重子空間學(xué)習(xí)(KFS)方法。首先通過(guò)構(gòu)造基于類(lèi)內(nèi)和類(lèi)間散布矩陣的混合鑒別準(zhǔn)則,獲得分布在各子空間中降維樣本的最優(yōu)鑒別信息。其次通過(guò)向量點(diǎn)積,利用核鑒別分析方法(KFD)對(duì)非線性鑒別信

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論