版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、視覺(jué)對(duì)象分類是對(duì)一組視覺(jué)圖像自動(dòng)地進(jìn)行對(duì)象分類或者判定某幅圖像是否屬于某個(gè)類別,定位并提取出圖像中感興趣的目標(biāo),這是計(jì)算機(jī)視覺(jué)和模式識(shí)別領(lǐng)域中一個(gè)熱點(diǎn)難點(diǎn)問(wèn)題,對(duì)圖像內(nèi)容理解、圖像檢索等有著重要的意義。由于在現(xiàn)實(shí)世界中圖像是千變?nèi)f化的,存在著視角、亮度、尺度等變化,且其數(shù)據(jù)量在與日俱增,使得傳統(tǒng)的手工視覺(jué)對(duì)象提取非常困難。因而需要引入機(jī)器學(xué)習(xí)的方法,根據(jù)圖像的底層視覺(jué)特征對(duì)其語(yǔ)義概念進(jìn)行分類和學(xué)習(xí),建立復(fù)雜的視覺(jué)對(duì)象分類模型。目前國(guó)內(nèi)外
2、通常使用圖像的底層視覺(jué)特征如顏色、紋理、形狀以及對(duì)象的空間關(guān)系等信息來(lái)表示圖像的內(nèi)容,但從計(jì)算機(jī)所表達(dá)出的視覺(jué)特征到圖像的實(shí)際語(yǔ)義表達(dá)之間存在著巨大的“語(yǔ)義鴻溝”。本文的研究方向是視覺(jué)對(duì)象分類,主要針對(duì)在使用傳統(tǒng)的機(jī)器學(xué)習(xí)方法時(shí)使用人工標(biāo)記費(fèi)時(shí)費(fèi)力的缺點(diǎn),以及在“Bag of Words ”圖像表示模型中存在的語(yǔ)義描述能力有限的缺點(diǎn),對(duì)現(xiàn)有的多示例學(xué)習(xí)算法進(jìn)行了改進(jìn)。主要研究?jī)?nèi)容如下:
⑴結(jié)合分割區(qū)域的多示例學(xué)習(xí)。該算法是
3、在MILES 算法的基礎(chǔ)上,與結(jié)合分割進(jìn)行多示例學(xué)習(xí)并進(jìn)行目標(biāo)檢測(cè)與提取。該方法在“Bag of Words ”圖像表示模型的基礎(chǔ)上,將一副圖像看作一個(gè)包,表示該圖像的若干視覺(jué)單詞作為包中示例,并把視覺(jué)單詞辭典作為特征空間,通過(guò)對(duì)包中示例個(gè)數(shù)統(tǒng)計(jì)將其映射到特征空間中,考慮到1-norm SVM具有較好的稀疏性,隨后用其來(lái)挑選重要特征的同時(shí)對(duì)圖像進(jìn)行分類;此后為了實(shí)現(xiàn)目標(biāo)的提取,需要對(duì)判定為正的圖像進(jìn)行示例判定,然后根據(jù)判定為正的示例所在
4、位置作為相應(yīng)的目標(biāo)“種子”點(diǎn),進(jìn)一步與圖像分割結(jié)果相結(jié)合,最終實(shí)現(xiàn)了目標(biāo)提取。在Caltech 101 標(biāo)準(zhǔn)圖像集上進(jìn)行實(shí)驗(yàn)的實(shí)驗(yàn)證明了該算法的有效性。
⑵基于視覺(jué)短語(yǔ)的多示例學(xué)習(xí)。針對(duì)“Bag of Words ”圖像表示模型中,視覺(jué)單詞的產(chǎn)生過(guò)程僅采用無(wú)監(jiān)督聚類方法,忽略了視覺(jué)單詞相互之間的空間信息,導(dǎo)致其語(yǔ)義描述能力有限且區(qū)分性能弱等缺點(diǎn),本章提出了一種高階的視覺(jué)特征取代視覺(jué)單詞,即通過(guò)視覺(jué)單詞在空間中的空間相互關(guān)系
5、構(gòu)建具有語(yǔ)義區(qū)分能力的視覺(jué)短語(yǔ),可以提高“Bag of Words ” 圖像表示模型的準(zhǔn)確性。鑒于傳統(tǒng)的基于“Bag of Words ”模型的分類方法性能容易受到圖像中背景、遮擋、尺度變化明顯等因素影響導(dǎo)致分類精度較低等問(wèn)題,本文在視覺(jué)短語(yǔ)的基礎(chǔ)上,結(jié)合多示例學(xué)習(xí)思想,提出了一種用于圖像分類的多視覺(jué)短語(yǔ)學(xué)習(xí)方法,使最終的分類模型可以反映出圖像類別的區(qū)域特性。在一些標(biāo)準(zhǔn)的圖像測(cè)試集合Caltech 101和Scene 15 進(jìn)行實(shí)驗(yàn),實(shí)
6、驗(yàn)結(jié)果表明該算法的具有很好的分類性能,與現(xiàn)有算法相比分類準(zhǔn)確率相對(duì)提高了約9%和7%左右。
⑶多核多示例學(xué)習(xí)。視覺(jué)對(duì)象往往需要多種特征來(lái)進(jìn)行描述的,在采用一種特征的情況的下分類會(huì)不準(zhǔn)確,考慮到多示例學(xué)習(xí)可以處理微弱標(biāo)記的圖像且分類精度較高,然而在多示例學(xué)習(xí)中,通常只可以用一個(gè)特征對(duì)示例進(jìn)行描述。因而考慮采用多核的方法在多示例學(xué)習(xí)中引入多種特征。因而,提出了一個(gè)多核多示例學(xué)習(xí)框架,用于解決多示例情況下的多特征學(xué)習(xí)問(wèn)題。該框架
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于多示例多標(biāo)簽學(xué)習(xí)的圖像分類標(biāo)注.pdf
- 基于多示例多標(biāo)記學(xué)習(xí)的自然場(chǎng)景圖像分類.pdf
- 基于多示例學(xué)習(xí)的話者屬性分類研究.pdf
- 基于多核多示例學(xué)習(xí)的洗車行為識(shí)別方法研究.pdf
- 基于主動(dòng)學(xué)習(xí)的多示例文本分類研究.pdf
- 一種基于集成學(xué)習(xí)的多示例分類模型.pdf
- 基于多示例學(xué)習(xí)的超聲乳腺腫瘤良惡性分類.pdf
- 多示例學(xué)習(xí)算法研究.pdf
- 基于多示例學(xué)習(xí)的心電圖分析和圖像分類算法研究.pdf
- 基于多示例學(xué)習(xí)的中文文本表示及分類研究.pdf
- 基于多示例學(xué)習(xí)的淺表器官超聲圖像分類方法研究.pdf
- 基于直推式多示例學(xué)習(xí)的圖像分類算法研究.pdf
- 基于特征學(xué)習(xí)的多示例多標(biāo)記學(xué)習(xí)研究.pdf
- 快速多核學(xué)習(xí)分類研究及應(yīng)用.pdf
- 基于主動(dòng)學(xué)習(xí)的多示例多標(biāo)簽學(xué)習(xí)算法研究.pdf
- 基于多核學(xué)習(xí)的醫(yī)學(xué)圖像模式分類.pdf
- 多核學(xué)習(xí)下的場(chǎng)景分類方法研究.pdf
- 多示例多標(biāo)記哈希學(xué)習(xí)方法研究.pdf
- 基于多示例多標(biāo)簽分類的Web文本挖掘研究.pdf
- 自然場(chǎng)景圖像中多示例多標(biāo)記分類研究.pdf
評(píng)論
0/150
提交評(píng)論