

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、大數(shù)據(jù)蘊(yùn)含大發(fā)展,結(jié)合不斷提升的高性能計(jì)算機(jī)更是給機(jī)器視覺(jué)技術(shù)帶來(lái)日新月異的發(fā)展。深度卷積神經(jīng)網(wǎng)絡(luò)也正是借著這股力量才大放異彩,其主要應(yīng)用包括語(yǔ)音識(shí)別、圖像處理、自然語(yǔ)言處理等。本文就當(dāng)前大環(huán)境下研究了卷積神經(jīng)網(wǎng)絡(luò)模型在靜態(tài)環(huán)境下人臉識(shí)別領(lǐng)域的應(yīng)用。相對(duì)傳統(tǒng)人臉識(shí)別方法而言,卷積神經(jīng)網(wǎng)絡(luò)模型不需要人工進(jìn)行大量而又復(fù)雜的特征提取算法設(shè)計(jì),僅需要設(shè)計(jì)一個(gè)可行的網(wǎng)絡(luò)模型,再將大量的人臉訓(xùn)練數(shù)據(jù)集加載到網(wǎng)絡(luò)模型中,然后進(jìn)行自動(dòng)訓(xùn)練,這樣就可以得
2、到很好的識(shí)別率。把訓(xùn)練好的模型保存下來(lái),那么這個(gè)模型就是一個(gè)端到端的人臉特征提取器。該方法雖然操作簡(jiǎn)單,但是需要根據(jù)訓(xùn)練數(shù)據(jù)集設(shè)計(jì)合理的網(wǎng)絡(luò)結(jié)構(gòu),而且最難的關(guān)鍵點(diǎn)是超參數(shù)的調(diào)整和優(yōu)化算法的設(shè)計(jì)。因此本文結(jié)合殘差網(wǎng)絡(luò)和融合網(wǎng)絡(luò)構(gòu)建了兩個(gè)與計(jì)算資源和數(shù)據(jù)資源相匹配的網(wǎng)絡(luò)模型,并通過(guò)反復(fù)調(diào)整超參數(shù)和調(diào)試優(yōu)化器使其在訓(xùn)練集上能夠收斂,最終還取得較好的識(shí)別率。
本文的主要研究?jī)?nèi)容和創(chuàng)新點(diǎn)如下:
1.介紹了卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)理論
3、知識(shí)。卷積神經(jīng)網(wǎng)絡(luò)本質(zhì)上是深層次的稀疏的傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò),因此本文先從傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)的模型結(jié)構(gòu)、前向和反向傳播算法進(jìn)行了詳細(xì)的分析;然后過(guò)渡到卷積神經(jīng)網(wǎng)絡(luò)的相關(guān)理論,對(duì)其重要組成部分如卷積層、激勵(lì)層、池化層和全連接層進(jìn)行了具體的闡述;最后對(duì)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)的一些注意事項(xiàng)進(jìn)行了說(shuō)明。
2.對(duì)深度學(xué)習(xí)框架TensorFlow的系統(tǒng)架構(gòu)和編程模型作了一些說(shuō)明,并對(duì)人臉數(shù)據(jù)進(jìn)行預(yù)處理,包括人臉檢測(cè)、數(shù)據(jù)增強(qiáng)、圖像標(biāo)準(zhǔn)化和人臉中心損
4、失。
3.提出了基于改進(jìn)的MyVGGNet和MySqueezeNet網(wǎng)絡(luò)的人臉識(shí)別。首先分析了模型VGGNet-16和SqueezeNet的網(wǎng)絡(luò)結(jié)構(gòu)及相關(guān)參數(shù),然后本文提出將原VGGNet-16和SqueezeNet的網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)進(jìn)行優(yōu)化,并在每個(gè)卷積層和激勵(lì)層之間添加批歸一化層,在VGGNet-16網(wǎng)絡(luò)末尾用1個(gè)1×1的卷積層代替三個(gè)全連接層,還增加全局平均池化層,得到新的MyVGGNet和MySqueezeNet模型,最
5、終這兩個(gè)模型不僅解決原模型對(duì)硬件要求高、有限數(shù)據(jù)量產(chǎn)生過(guò)擬合等問(wèn)題,還成功應(yīng)用到人臉識(shí)別的任務(wù)中。這樣就遷移了原網(wǎng)絡(luò),在人臉識(shí)別任務(wù)中更容易獲得最優(yōu)解,最后在LFW數(shù)據(jù)集上分別獲得94.3%和95.1%的準(zhǔn)確率。
4.提出了基于二叉樹(shù)型融合網(wǎng)絡(luò)BTreeFuseNet_v1和BTreeFuseNet_v2的人臉識(shí)別。首先對(duì)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化問(wèn)題和融合原理作了分析;然后結(jié)合殘差學(xué)習(xí),融入分支并行、融合和級(jí)聯(lián)三種結(jié)構(gòu),采用ReLU
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別的研究與應(yīng)用.pdf
- 基于端到端深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉圖像識(shí)別研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)算法研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究與實(shí)現(xiàn).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情和性別識(shí)別.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)和性別識(shí)別研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別及硬件實(shí)現(xiàn).pdf
- 基于自編碼和卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉基準(zhǔn)點(diǎn)定位研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉深度特征提取與應(yīng)用方法研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究.pdf
- 基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)方法研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的車型識(shí)別.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人體姿勢(shì)估計(jì)研究.pdf
- 基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)和識(shí)別算法研發(fā).pdf
- 基于神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法研究.pdf
評(píng)論
0/150
提交評(píng)論