

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著移動(dòng)互聯(lián)的發(fā)展,用戶自制的多媒體數(shù)據(jù)開(kāi)始大量出現(xiàn),其所具有的高維、信息復(fù)雜和無(wú)標(biāo)簽或弱標(biāo)簽等特性給多媒體數(shù)據(jù)分析帶來(lái)了巨大的挑戰(zhàn)。傳統(tǒng)的基于向量表達(dá)的學(xué)習(xí)方法在對(duì)多媒體數(shù)據(jù)向量化過(guò)程中,破壞了多媒體數(shù)據(jù)中固有空間結(jié)構(gòu),另外向量化過(guò)程產(chǎn)生的高維向量導(dǎo)致了“維度災(zāi)難”問(wèn)題。由于圖像和視頻的自然表達(dá)方式是張量形式,因此基于張量表達(dá)的學(xué)習(xí)方法越來(lái)越受到圖像處理和視頻分析領(lǐng)域的關(guān)注。但是基于張量表達(dá)的方法目前大部分被用在子空間學(xué)習(xí)或者低階張量
2、空間中,這在實(shí)際應(yīng)用中存在很多限制或者約束。在高階張量學(xué)習(xí)模型中,有的研究工作在支持向量回歸和嶺回歸中引入了張量的CP(CANDECOMP/PARAFAC)分解,從而得到了支持張量回歸和張量嶺回歸模型。但是由于CP分解存在張量秩不唯一問(wèn)題,導(dǎo)致模型的分析準(zhǔn)確率下降。
為了解決CP分解中存在的張量秩不唯一問(wèn)題,本文第二章通過(guò)引入結(jié)構(gòu)化稀疏方法,使張量經(jīng)過(guò)CP分解以后在每一個(gè)因子矩陣上產(chǎn)生不同的稀疏效果。然后在模型中加入聯(lián)合稀疏約
3、束,使得所有因子矩陣產(chǎn)生相同的列稀疏。最終通過(guò)計(jì)算選擇,保留下來(lái)的非稀疏列數(shù)目即為張量的秩,從而達(dá)到自動(dòng)選擇張量秩的目的。由于加入了兩種不同的稀疏約束,因此可以充分發(fā)掘每一個(gè)因子矩陣的稀疏信息,然后利用這些稀疏信息進(jìn)行張量秩的選擇。另外,為了解決視覺(jué)詞袋(Bag-of-Words,BoWs)在統(tǒng)計(jì)量化過(guò)程中造成的結(jié)構(gòu)信息丟失的問(wèn)題,本文在第二章提出了張量視覺(jué)詞袋模型。實(shí)驗(yàn)證明張量視覺(jué)詞袋與其他向量表示方法相比,能更有效的表示多媒體數(shù)據(jù)包
4、含的內(nèi)容。本章提出的算法與張量視覺(jué)詞袋相結(jié)合在視頻和圖像分析中取得了更好的效果。雖然有的研究工作已經(jīng)提出了基于CP分解的張量回歸模型,但是CP分解造成的張量秩不唯一問(wèn)題依然存在。在本文的第三章通過(guò)在張量模型中引入張量Tucker分解方法,得到了Tucker。嶺回歸算法。本文第四章利用結(jié)構(gòu)化稀疏以及張量Tucker分解方法將向量邏輯回歸模型擴(kuò)展到其對(duì)應(yīng)的張量模型。第三、四章得到的張量學(xué)習(xí)算法有效的解決了CP分解后張量秩不唯一的問(wèn)題。算法的
5、有效性在不同的2階和3階多媒體數(shù)據(jù)集中得到了驗(yàn)證。
傳統(tǒng)的監(jiān)督學(xué)習(xí)方法,當(dāng)數(shù)據(jù)維數(shù)過(guò)高并且有標(biāo)簽訓(xùn)練數(shù)據(jù)太少的時(shí)候,容易產(chǎn)生“過(guò)擬合”問(wèn)題,從而降低其學(xué)習(xí)的準(zhǔn)確率。半監(jiān)督的學(xué)習(xí)方法在訓(xùn)練過(guò)程中可以利用無(wú)標(biāo)簽的數(shù)據(jù)信息,因此在處理現(xiàn)實(shí)數(shù)據(jù)時(shí)被廣泛應(yīng)用??紤]到在現(xiàn)實(shí)世界中存在大量無(wú)標(biāo)簽或者弱標(biāo)簽的視頻數(shù)據(jù),但是有標(biāo)簽的視頻很少,而且人為標(biāo)注這些無(wú)標(biāo)簽視頻代價(jià)過(guò)高。為了更有效地處理現(xiàn)實(shí)世界的復(fù)雜視頻數(shù)據(jù),本文第五章提出了一種半監(jiān)督的
6、遷移學(xué)習(xí)方法。首先在視頻特征基礎(chǔ)上建立基于圖模型的半監(jiān)督分類(lèi)器,從而可以充分的利用無(wú)標(biāo)簽的視頻信息提高分類(lèi)器的準(zhǔn)確率。另外利用視頻關(guān)鍵幀和圖像之間的共享特征,建立遷移學(xué)習(xí)模型,從而可以利用圖像包含的相關(guān)信息強(qiáng)化分類(lèi)結(jié)果。最后將兩個(gè)分類(lèi)器放在統(tǒng)一的框架中進(jìn)行優(yōu)化,利用圖像以及無(wú)標(biāo)簽視頻的相關(guān)信息得到更加有效的視頻分類(lèi)模型。在標(biāo)準(zhǔn)視頻數(shù)據(jù)集以及現(xiàn)實(shí)世界收集的視頻數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),結(jié)果表明第五章的提出的方法比相關(guān)最新算法更有效。為了有效的利用
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 半監(jiān)督學(xué)習(xí)及其在社交媒體分析中的應(yīng)用.pdf
- 英語(yǔ)學(xué)習(xí)中多媒體的運(yùn)用.pdf
- 基于無(wú)監(jiān)督特征學(xué)習(xí)的多媒體內(nèi)容理解算法研究.pdf
- 基于集成的半監(jiān)督學(xué)習(xí)和主動(dòng)學(xué)習(xí)算法研究.pdf
- 呈現(xiàn)方式在多媒體學(xué)習(xí)中的作用.pdf
- 基于半監(jiān)督和無(wú)監(jiān)督學(xué)習(xí)的特征選擇算法研究.pdf
- 半監(jiān)督流形學(xué)習(xí)算法在視頻分析中的應(yīng)用.pdf
- 基于聚類(lèi)分析的標(biāo)簽傳播半監(jiān)督學(xué)習(xí)研究.pdf
- 基于半監(jiān)督學(xué)習(xí)的舌色分析方法研究.pdf
- 多媒體教學(xué)的應(yīng)用現(xiàn)狀和分析
- [學(xué)習(xí)]多媒體使用調(diào)查分析
- 語(yǔ)音情感識(shí)別中主動(dòng)學(xué)習(xí)和半監(jiān)督學(xué)習(xí)方法研究.pdf
- 基于聚類(lèi)分析的標(biāo)簽傳播半監(jiān)督學(xué)習(xí)研究
- 基于半監(jiān)督學(xué)習(xí)的子空間分析方法研究.pdf
- 多媒體學(xué)習(xí)中增加相關(guān)認(rèn)知負(fù)荷影響學(xué)生學(xué)習(xí)的實(shí)驗(yàn)研究.pdf
- 結(jié)合從句識(shí)別和半監(jiān)督集成學(xué)習(xí)的遠(yuǎn)程監(jiān)督關(guān)系抽取.pdf
- 多視圖的半監(jiān)督學(xué)習(xí)研究.pdf
- 基于半監(jiān)督機(jī)器學(xué)習(xí)的文本情感分析技術(shù).pdf
- 半監(jiān)督流形學(xué)習(xí)的算法分析與應(yīng)用.pdf
- 多媒體教學(xué)在化學(xué)學(xué)習(xí)中的應(yīng)用
評(píng)論
0/150
提交評(píng)論