

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、本文研究了簡(jiǎn)單背景下,發(fā)生尺度、角度、位置變化的目標(biāo)的神經(jīng)網(wǎng)絡(luò)識(shí)別、定位方法。內(nèi)容涉及模糊分割技術(shù)、BP神經(jīng)網(wǎng)絡(luò)、主元分析技術(shù)。 文章采用對(duì)整幅圖像識(shí)別,同加窗匹配的方法相比,省略了逐行逐列搜索目標(biāo)的過(guò)程。當(dāng)目標(biāo)在圖像中所占比例超過(guò)三分之二時(shí),應(yīng)用神經(jīng)網(wǎng)絡(luò)識(shí)別出目標(biāo),便可大致找到目標(biāo)位置,但當(dāng)目標(biāo)在圖像中所占比例較小且不在中心附近時(shí),則除了識(shí)別出目標(biāo)外還需要對(duì)目標(biāo)定位。為此本文除了對(duì)神經(jīng)網(wǎng)絡(luò)目標(biāo)識(shí)別方法進(jìn)行了研究外,還對(duì)目標(biāo)定位
2、方法進(jìn)行了討論。文章主要研究?jī)?nèi)容包括以下幾個(gè)方面內(nèi)容: 詳細(xì)分析了多層前饋神經(jīng)網(wǎng)絡(luò)的描述及BP算法工作過(guò)程。介紹了隱層的選擇及隱層神經(jīng)元數(shù)選擇的一些經(jīng)驗(yàn)方法。針對(duì)BP算法存在的問(wèn)題,從初始權(quán)值的選取,網(wǎng)絡(luò)訓(xùn)練過(guò)程參數(shù)調(diào)整等方面進(jìn)行優(yōu)化改進(jìn),實(shí)驗(yàn)證明加快了訓(xùn)練速度,改善了BP網(wǎng)絡(luò)的學(xué)習(xí)效果。 表示目標(biāo)的特征向量是否能恰當(dāng)反映目標(biāo)本質(zhì)特性也對(duì)網(wǎng)絡(luò)能否學(xué)習(xí)成功至關(guān)重要,因此本文闡述了兩種不同的目標(biāo)表示方法,即基于不變矩的目標(biāo)表
3、示法和基于主分量的目標(biāo)表示法。針對(duì)對(duì)原始圖像直接提取不變矩存在的問(wèn)題,提出一種先對(duì)圖像預(yù)處理,再提取圖像不變矩的處理過(guò)程。并且在圖像預(yù)處理的環(huán)節(jié),分析了模糊閾值法原理,提出了一種基于模糊理論的閾值分割法,實(shí)驗(yàn)表明該種方法同其他幾種選取閾值方法相比,具有一定優(yōu)勢(shì)。 文章針對(duì)數(shù)學(xué)方法求取主分量困難的情況,采用神經(jīng)網(wǎng)絡(luò)提取主分量,簡(jiǎn)化了求取過(guò)程,并以主分量作為BP網(wǎng)絡(luò)的輸入特征向量,進(jìn)行目標(biāo)識(shí)別。 在利用神經(jīng)網(wǎng)絡(luò)目標(biāo)識(shí)別時(shí),當(dāng)
4、目標(biāo)在圖像中所占比例較小,且其位置不在整幅圖像中心附近時(shí),僅僅識(shí)別出目標(biāo)還不能確定目標(biāo)位置,因此文章討論了目標(biāo)定位方法,分析了多種定位方法的優(yōu)缺點(diǎn),嘗試應(yīng)用神經(jīng)網(wǎng)絡(luò)方法對(duì)目標(biāo)定位,該方法同其他數(shù)學(xué)目標(biāo)定位方法相比,在于定位過(guò)程簡(jiǎn)單(只有乘法和加法運(yùn)算),且不需要對(duì)圖像預(yù)處理。 本文的創(chuàng)新點(diǎn): 1.針對(duì)對(duì)原始圖像提取不變矩存在的問(wèn)題,提出先對(duì)圖像預(yù)處理,再提取不變矩的處理過(guò)程。并且在圖像的預(yù)處理過(guò)程中,提出一種基于模糊理論
5、的閾值分割法,該方法能快速有效的實(shí)現(xiàn)圖像分割。 2.提出在網(wǎng)絡(luò)學(xué)習(xí)過(guò)程中加入可變的動(dòng)量因子,減小了網(wǎng)絡(luò)振蕩,加快網(wǎng)絡(luò)收斂速度。 3.使用主元神經(jīng)網(wǎng)絡(luò)求取圖像的主分量,提出以主分量作為改進(jìn)BP神經(jīng)網(wǎng)絡(luò)的輸入特征向量,進(jìn)行目標(biāo)識(shí)別。 4.提出對(duì)整幅圖像識(shí)別,再通過(guò)定位網(wǎng)絡(luò)進(jìn)行目標(biāo)定位的識(shí)別定位方法。同在整幅圖像內(nèi)加窗匹配的識(shí)別定位方法相比,不需要在圖像中逐行逐列進(jìn)行搜索。通過(guò)神經(jīng)網(wǎng)絡(luò)對(duì)整幅圖像識(shí)別時(shí),當(dāng)目標(biāo)在圖像中存
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于神經(jīng)網(wǎng)絡(luò)的飛機(jī)目標(biāo)識(shí)別研究.pdf
- 基于細(xì)胞神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的雷達(dá)目標(biāo)識(shí)別.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的紅外目標(biāo)識(shí)別研究.pdf
- 基于BP神經(jīng)網(wǎng)絡(luò)的水下目標(biāo)識(shí)別方法研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的軍事目標(biāo)識(shí)別方法研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的紅外圖像目標(biāo)識(shí)別研究.pdf
- 基于細(xì)胞神經(jīng)網(wǎng)絡(luò)的移動(dòng)目標(biāo)識(shí)別.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的空中聲目標(biāo)識(shí)別研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別技術(shù)研究.pdf
- 數(shù)據(jù)融合中基于神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別方法研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)集成學(xué)習(xí)的SAR目標(biāo)識(shí)別方法研究.pdf
- 基于RBF神經(jīng)網(wǎng)絡(luò)的人形目標(biāo)識(shí)別.pdf
- 基于神經(jīng)網(wǎng)絡(luò)融合的目標(biāo)識(shí)別技術(shù)研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像飛機(jī)目標(biāo)識(shí)別研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的顯微視覺(jué)多目標(biāo)識(shí)別.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的三維飛機(jī)目標(biāo)識(shí)別研究.pdf
- 一種基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別方法研究.pdf
- 基于脈沖耦合神經(jīng)網(wǎng)絡(luò)的遙感圖像自動(dòng)目標(biāo)識(shí)別方法研究.pdf
- 空間點(diǎn)目標(biāo)識(shí)別的模糊神經(jīng)網(wǎng)絡(luò)方法研究.pdf
評(píng)論
0/150
提交評(píng)論