版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、近年來(lái),隨著Internet的快速發(fā)展和普及,在網(wǎng)絡(luò)上存儲(chǔ)、傳播著海量的信息和數(shù)據(jù),尤其是圖像和視頻。因而,按照語(yǔ)義快速方便地分類(lèi)和檢索圖像越來(lái)越重要。但是,由于光照、尺度、旋轉(zhuǎn)、視角、姿態(tài)等變化,正確地識(shí)別場(chǎng)景和物體類(lèi)別難度依然很大。此外,由于人們對(duì)圖像的視覺(jué)感知不同所造成的視覺(jué)歧義,對(duì)識(shí)別算法提出了新的要求。本文主要研究如何快速準(zhǔn)確地識(shí)別場(chǎng)景和物體類(lèi)別。
首先,本文設(shè)計(jì)了一個(gè)實(shí)用場(chǎng)景和物體類(lèi)別識(shí)別系統(tǒng)并提出了一種新的多重特
2、征通道圖像表示。為了勝任不同的場(chǎng)景和物體類(lèi)別識(shí)別任務(wù),本系統(tǒng)首先從給定圖像中提取多個(gè)特征“通道”,每個(gè)特征通道利用詞包模型計(jì)算圖像或子圖像的視覺(jué)單詞直方圖,并通過(guò)空間金字塔引入單詞之間的位置信息。各個(gè)特征通道的主要區(qū)別在于詞包模型中采用哪種特征檢測(cè)器/特征描述符組合,因而具有不同水平的辨識(shí)能力和不變性。這種多重特征通道圖像表示為有效地組織和利用各種稀疏或稠密特征檢測(cè)器、局部特征描述符提供了一個(gè)統(tǒng)一的框架。對(duì)于每個(gè)特征通道,該系統(tǒng)然后使用
3、基于直方圖交叉核或x2核的支持向量機(jī)計(jì)算圖像屬于各個(gè)可能類(lèi)別的得分。最后利用邏輯推理或統(tǒng)計(jì)推理的方法,綜合所有特征通道的識(shí)別結(jié)果得到測(cè)試圖像的識(shí)別結(jié)果?;诙嘀靥卣魍ǖ赖膶?shí)用場(chǎng)景和物體類(lèi)別識(shí)別方法計(jì)算復(fù)雜性低、通用性強(qiáng),而且對(duì)基準(zhǔn)場(chǎng)景和物體圖像庫(kù)的平均識(shí)別率高于大多數(shù)流行方法,表明了該方法的有效性和合理性。
其次,本文研究了不同特征通道的組合問(wèn)題,提出了四種規(guī)則(統(tǒng)稱(chēng)為x-max):max-max、sum-max、prod-m
4、ax和classifier-max。x-max通過(guò)不同的方式組合各“單”特征通道的識(shí)別結(jié)果,進(jìn)而得到圖像的最終類(lèi)別。其中,max-max、sum-max和prod-max分別由各單特征通道得分的極大值、算術(shù)平均值和幾何平均值確定測(cè)試圖像屬于某個(gè)可能類(lèi)別的得分;而classifier-max根據(jù)第一級(jí)分類(lèi)器得到的各單特征通道的識(shí)別結(jié)果,由第二級(jí)分類(lèi)器確定測(cè)試圖像屬于某個(gè)可能類(lèi)別的得分。在x-max中,最后得分最高的類(lèi)便是測(cè)試圖像的識(shí)別結(jié)果
5、。與場(chǎng)景和物體類(lèi)別識(shí)別中兩種最流行的特征組合規(guī)則(多核學(xué)習(xí)和線性規(guī)劃提升)相比,x-max規(guī)則的優(yōu)點(diǎn)有三:一是它基于分布式組合的思想,魯棒性高,每個(gè)組合節(jié)點(diǎn)處理負(fù)擔(dān)小,并便于并行處理;二是擴(kuò)展性強(qiáng),當(dāng)加入新的特征通道時(shí),只需學(xué)習(xí)與新特征通道有關(guān)的分類(lèi)器,毋需重新從頭開(kāi)始學(xué)習(xí)所有分類(lèi)器;三是計(jì)算復(fù)雜性低,適用于識(shí)別大型場(chǎng)景和物體圖像庫(kù)。對(duì)五個(gè)基準(zhǔn)圖像庫(kù)的實(shí)驗(yàn)結(jié)果表明,與多核學(xué)習(xí)和線性規(guī)劃提升相比,使用x-max組合多重特征通道,時(shí)間復(fù)雜度
6、降低了1-2個(gè)數(shù)量級(jí),平均識(shí)別準(zhǔn)確率高于多核學(xué)習(xí),并接近線性規(guī)劃提升。
最后,本文提出了一種新的基于金字塔主題直方圖(PHOTO)和AdaBoost分類(lèi)器的場(chǎng)景和物體類(lèi)別識(shí)別算法。概率隱語(yǔ)義分析(pLSA)在文本語(yǔ)義分析和處理中用來(lái)挖掘文本文檔的主題。本文在pLSA模型的基礎(chǔ)上,通過(guò)空間金字塔引入位置信息,利用EM算法計(jì)算圖像金字塔中各個(gè)單元格的主題混合系數(shù)向量,并拼接形成一個(gè)“長(zhǎng)”向量(稱(chēng)為金字塔主題直方圖(PHOTO))用
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于場(chǎng)景相關(guān)信息的物體識(shí)別方法的研究.pdf
- 非類(lèi)別限定的物體識(shí)別學(xué)習(xí)模型構(gòu)建.pdf
- 基于視角和類(lèi)別流形的目標(biāo)跟蹤識(shí)別.pdf
- 復(fù)雜場(chǎng)景下基于深度學(xué)習(xí)的物體檢測(cè)與識(shí)別算法研究.pdf
- 室內(nèi)場(chǎng)景物體同時(shí)識(shí)別與建模.pdf
- 基于Kinect的場(chǎng)景分割和目標(biāo)識(shí)別研究.pdf
- 基于物體的相似性預(yù)測(cè)未知物體所處場(chǎng)景的研究.pdf
- 基于物體候選區(qū)域和改進(jìn)隨機(jī)蕨的室內(nèi)物體識(shí)別算法研究.pdf
- 基于深度學(xué)習(xí)的場(chǎng)景識(shí)別研究.pdf
- 基于物體檢測(cè)的場(chǎng)景分類(lèi)方法研究.pdf
- 基于內(nèi)容的視頻場(chǎng)景分割.pdf
- 基于場(chǎng)景內(nèi)與物體語(yǔ)義相關(guān)的聲音對(duì)場(chǎng)景的解碼研究.pdf
- 基于場(chǎng)景的姓名識(shí)別.pdf
- 基于視頻的場(chǎng)景分析和異常行為識(shí)別.pdf
- 基于內(nèi)容的視頻場(chǎng)景分析方法研究.pdf
- 基于特征匹配的物體識(shí)別研究.pdf
- 基于輪廓的物體識(shí)別算法研究.pdf
- 基于圖像的物體識(shí)別算法研究.pdf
- 基于Shape Context的物體識(shí)別.pdf
- 基于機(jī)器學(xué)習(xí)的物體識(shí)別.pdf
評(píng)論
0/150
提交評(píng)論