版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、近年來(lái)互聯(lián)網(wǎng)的發(fā)展和基于社交網(wǎng)絡(luò)的多媒體應(yīng)用的流行,使得互聯(lián)網(wǎng)中的圖像數(shù)量呈現(xiàn)爆炸式的增長(zhǎng)。圖像數(shù)量的增長(zhǎng)帶來(lái)了新的思想和發(fā)展機(jī)遇的同時(shí),給檢索和管理帶來(lái)挑戰(zhàn)。作為能夠有效的組織、管理大規(guī)模圖像數(shù)據(jù)的一種方法,圖像自動(dòng)標(biāo)注技術(shù)成為當(dāng)前研究的熱點(diǎn)。
為了回避當(dāng)前圖像相關(guān)技術(shù)中尚不成熟的圖像語(yǔ)義相似度計(jì)算問(wèn)題,本文首先從針對(duì)大規(guī)模圖像庫(kù)的近似重復(fù)圖像檢索方法入手,通過(guò)研究相關(guān)局部特征、視覺(jué)詞袋模型等相關(guān)方法技術(shù),討論了如何通過(guò)維數(shù)
2、低、易獲取的特征進(jìn)行近似重復(fù)圖像檢索的方法,然后探討了如何利用詞向量模型選擇有價(jià)值的標(biāo)注詞。本文的主要內(nèi)容如下:
通過(guò)對(duì)不同分類的圖像的快速魯棒特征(SURF)向量集合以及特征點(diǎn)尺度信息進(jìn)行統(tǒng)計(jì)分析,并分析特征向量集合與拉普拉斯響應(yīng)符號(hào)的關(guān)系,提出一種利用圖像快速魯棒特征集合的統(tǒng)計(jì)特征的圖像表示方法。該方法將快速魯棒特征的各個(gè)維度及尺度信息視為各自獨(dú)立的隨機(jī)變量,利用拉普拉斯響應(yīng)區(qū)分不同數(shù)據(jù),通過(guò)分維度計(jì)算快速魯棒特征向量集合
3、的一階中心絕對(duì)矩、帶權(quán)一階中心絕對(duì)矩等統(tǒng)計(jì)特征組成特征向量,并結(jié)合支持向量機(jī)進(jìn)行圖像分類。在Cord1K圖像庫(kù)上的實(shí)驗(yàn)表明,該方法查準(zhǔn)率較SURF直方圖方法和三通道Gabor紋理特征方法分別提高17.6%和5.4%。通過(guò)與HSV直方圖特征進(jìn)行高級(jí)特征融合,可獲得良好的分類性能。與SURF直方圖結(jié)合HSV直方圖方法、三通道Gabor紋理特征結(jié)合HSV直方圖方法、基于視覺(jué)詞典的多示例學(xué)習(xí)方法相比,查準(zhǔn)率分別提高了5.2%,6.8%,3.2%
4、。
提出一種結(jié)合快速魯棒特征中的部分維度與局部顏色直方圖特征的局部圖像表示方法。其中,結(jié)合視覺(jué)詞袋方法后,縮減后的SURF特征具有與128維SURF特征近似的分類性能。在Corel1K圖像庫(kù)上的實(shí)驗(yàn)表明,該方法平均查準(zhǔn)率較多示例學(xué)習(xí)方法提高了3.2%。
提出一種結(jié)合圖像快速魯棒特征中的部分維度特征集合統(tǒng)計(jì)特征與顏色直方圖的圖像表示方法。該方法綜合利用以上研究?jī)?nèi)容,可以較低的維數(shù)描述圖像的紋理構(gòu)成、顏色分布特性。基于該
5、方法的近似重復(fù)圖像檢索方法,可在規(guī)模為千萬(wàn)級(jí)的數(shù)據(jù)庫(kù)中檢索出多種經(jīng)低強(qiáng)度編輯、視點(diǎn)移動(dòng)等原因產(chǎn)生的近似重復(fù)圖像,且對(duì)主場(chǎng)景相似而部分物體不同的圖像具有較低的檢索能力。因而適用于基于搜索的圖像標(biāo)注技術(shù)中。
提出一種基于詞向量的圖像標(biāo)注方法。該方法利用詞向量模型衡量詞匯與詞匯間聯(lián)系的緊密程度,并通過(guò)這一指標(biāo),計(jì)算詞匯的綜合價(jià)值;將綜合價(jià)值高的詞匯作為圖像的標(biāo)注詞。在SogouP2.0數(shù)據(jù)集上的實(shí)驗(yàn)表明,該方法有效,但需進(jìn)一步改進(jìn)。
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 圖像檢索中自動(dòng)標(biāo)注與快速相似搜索技術(shù)研究.pdf
- 基于顏色搜索圖像的技術(shù)研究.pdf
- 基于最優(yōu)搜索的圖像檢索技術(shù)研究.pdf
- 基于內(nèi)容的圖像自動(dòng)標(biāo)注若干關(guān)鍵技術(shù)研究.pdf
- Web圖像搜索中基于GPU的圖像分割技術(shù)研究.pdf
- 基于互聯(lián)網(wǎng)數(shù)據(jù)集的圖像標(biāo)注技術(shù)研究.pdf
- 圖像自動(dòng)標(biāo)注與檢索技術(shù)研究.pdf
- 基于多標(biāo)記學(xué)習(xí)的圖像標(biāo)注關(guān)鍵技術(shù)研究.pdf
- 醫(yī)學(xué)圖像的語(yǔ)義標(biāo)注技術(shù)研究與應(yīng)用.pdf
- 基于內(nèi)容的圖像元搜索引擎技術(shù)研究.pdf
- 基于對(duì)象和動(dòng)作聯(lián)合建模的圖像標(biāo)注技術(shù)研究.pdf
- 圖像的自動(dòng)語(yǔ)義標(biāo)注技術(shù)研究與實(shí)現(xiàn).pdf
- 基于內(nèi)容的圖像搜索中索引及優(yōu)化技術(shù)研究.pdf
- 基于內(nèi)容的圖像搜索技術(shù)的研究
- 基于內(nèi)容圖像搜索引擎關(guān)鍵技術(shù)研究.pdf
- 面向圖像標(biāo)注的圖像分割與特征提取技術(shù)研究.pdf
- 基于視覺(jué)圖像的三維模型檢索與語(yǔ)義標(biāo)注技術(shù)研究.pdf
- 基于多種圖像特征的圖像標(biāo)注研究.pdf
- 最近鄰搜索及圖像修復(fù)技術(shù)研究.pdf
- 基于XML的多媒體標(biāo)注技術(shù)研究.pdf
評(píng)論
0/150
提交評(píng)論