

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著科學(xué)技術(shù)的發(fā)展和信息的日益豐富,機(jī)器視覺(jué)受到了廣泛的重視。如何應(yīng)用計(jì)算機(jī)模仿人類(lèi)處理圖像的機(jī)制來(lái)快速而準(zhǔn)確地將海量圖片進(jìn)行識(shí)別和分類(lèi),需要同時(shí)結(jié)合計(jì)算機(jī)科學(xué)、生物物理學(xué)以及心理學(xué)的研究。通常,這類(lèi)研究會(huì)結(jié)合基于人眼的視覺(jué)注意機(jī)制,也就是當(dāng)人眼接觸一個(gè)視覺(jué)場(chǎng)景時(shí),會(huì)注意場(chǎng)景中更為顯著或者更為感興趣的區(qū)域,然后視作為重要區(qū)域進(jìn)行優(yōu)先處理。根據(jù)這一特性,目前已經(jīng)有很多基于顯著性的計(jì)算模型。在此基礎(chǔ)上也有很多學(xué)者提出將任務(wù)驅(qū)動(dòng)的模型與其結(jié)合
2、,從而能夠?qū)μ囟ǖ膱D像進(jìn)行分類(lèi)和識(shí)別。本文以視覺(jué)顯著性的計(jì)算模型為基礎(chǔ),進(jìn)行圖像識(shí)別的研究。
首先介紹了人眼視覺(jué)的生理結(jié)構(gòu),分析了基于視覺(jué)信息處理機(jī)制的視覺(jué)顯著性計(jì)算模型和利用具有先驗(yàn)知識(shí)的貝葉斯識(shí)別模型。接下來(lái),詳細(xì)的闡述了將ITTI顯著性模型和貝葉斯模型相結(jié)合的圖像識(shí)別算法。該算法在提取顯著性特征后,選用高斯密度分布函數(shù)來(lái)擬合特征值得到訓(xùn)練參數(shù),并作為先驗(yàn)知識(shí)。在識(shí)別時(shí),基于訓(xùn)練參數(shù)進(jìn)行貝葉斯識(shí)別。這一模型較好的實(shí)現(xiàn)了基于
3、先驗(yàn)知識(shí)的視覺(jué)特征,進(jìn)行有目的的圖像識(shí)別和分類(lèi)。本文的研究?jī)?nèi)容主要是基于該模型提出改進(jìn)的算法。
其次,研究了貝葉斯模型中似然函數(shù)的估計(jì)方法。原模型中主要采用高斯概率密度函數(shù)來(lái)擬合特征值的分布,但隨著訓(xùn)練圖片的增多,特征值包含的信息更豐富,分布更復(fù)雜,單一高斯模型的誤差更大。本文選用的混合高斯模型彌補(bǔ)了這一不足,通過(guò)對(duì)特征值進(jìn)行聚類(lèi),然后對(duì)每一聚類(lèi)進(jìn)行單一高斯擬合,有效地提高了擬合精度從而提高識(shí)別的效率。
基于混合高斯
4、模型的思想,提出了一個(gè)根據(jù)特征值的分布特性自動(dòng)選擇其分布函數(shù)的自適應(yīng)系統(tǒng)。這一系統(tǒng)采用兩個(gè)判定,根據(jù)特征值分布的特點(diǎn),在單一高斯、雙高斯以及混合高斯模型中進(jìn)行選擇。從而提高了處理速度和識(shí)別效率。
為了提高自適應(yīng)系統(tǒng)的識(shí)別效率,本文又結(jié)合ITTI顯著性模型的特點(diǎn),提出了改進(jìn)的顯著性度量的方法。主要是基于已經(jīng)學(xué)習(xí)到的圖像集合的特征分布特性,為每幅子特征圖添加權(quán)值系數(shù),從而更加突出顯著區(qū)域。經(jīng)過(guò)多次實(shí)驗(yàn)發(fā)現(xiàn),這一基于統(tǒng)計(jì)特性的加權(quán)方
5、法,在特定的圖像數(shù)據(jù)庫(kù)中是有效的,能提高自適應(yīng)系統(tǒng)的識(shí)別效率。但是其廣泛的適用性還有待進(jìn)一步研究。
本文提出的改進(jìn)算法主要是基于顯著性引導(dǎo)的圖像識(shí)別系統(tǒng)。在給定某一對(duì)象的多幅訓(xùn)練圖的前提下,本系統(tǒng)經(jīng)過(guò)學(xué)習(xí)得到對(duì)象的一個(gè)具體描述,然后對(duì)包含對(duì)象的待測(cè)圖像進(jìn)行識(shí)別,給出這個(gè)圖片會(huì)被正確識(shí)別的概率列表。本文針對(duì)ALOI圖像數(shù)據(jù)庫(kù)進(jìn)行大量的實(shí)驗(yàn),結(jié)果顯示,本文提出的改進(jìn)算法有效的提高了識(shí)別的效率,并且此自適應(yīng)系統(tǒng)在時(shí)間消耗上小于混合高
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于視覺(jué)顯著性的圖像分割方法研究.pdf
- 基于局部特征與視覺(jué)顯著性的圖像目標(biāo)識(shí)別研究.pdf
- 基于視覺(jué)顯著性的目標(biāo)識(shí)別.pdf
- 基于視覺(jué)顯著性檢測(cè)的圖像分類(lèi).pdf
- 基于視覺(jué)顯著性的圖像檢索算法研究.pdf
- 基于視覺(jué)顯著性的圖像質(zhì)量評(píng)價(jià)方法研究.pdf
- 基于智能優(yōu)化和視覺(jué)顯著性的圖像融合研究.pdf
- 基于圖像配準(zhǔn)與視覺(jué)顯著性檢測(cè)的指針儀表識(shí)別研究.pdf
- 基于視覺(jué)機(jī)制的圖像和視頻的顯著性檢測(cè).pdf
- 基于語(yǔ)義的視覺(jué)顯著性研究.pdf
- 基于顯著性的圖像分割研究.pdf
- 基于視覺(jué)顯著性的遙感圖像飛機(jī)檢測(cè)算法研究.pdf
- 基于視覺(jué)機(jī)制的圖像顯著性檢測(cè)及檢索算法研究.pdf
- 考慮視覺(jué)顯著性的圖像質(zhì)量評(píng)估.pdf
- 結(jié)合視覺(jué)顯著性的圖像質(zhì)量評(píng)價(jià)方法研究.pdf
- 基于顯著性的視覺(jué)目標(biāo)跟蹤研究.pdf
- 基于視覺(jué)顯著性的圖像目標(biāo)檢測(cè)設(shè)計(jì)與實(shí)現(xiàn).pdf
- 仿真假體視覺(jué)下基于視覺(jué)顯著性計(jì)算模型的物體識(shí)別研究.pdf
- 基于顯著性的移動(dòng)圖像檢索.pdf
- 基于機(jī)器視覺(jué)的棉花葉部特征圖像識(shí)別的研究.pdf
評(píng)論
0/150
提交評(píng)論