版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著處理器性能的提高和視頻處理技術(shù)的發(fā)展,未來(lái)的視頻監(jiān)控將逐漸實(shí)現(xiàn)高清化和智能化。然而終端監(jiān)控設(shè)備由于受到計(jì)算資源的限制,往往不能滿足高分辨率視頻的處理要求。為此本文采用詞包模型(Bag of Words Models,BoW)的思想來(lái)解決背景估計(jì)問題,設(shè)計(jì)了基于詞包模型的背景建模的新方法。該方法不僅大大節(jié)省了內(nèi)存的消耗,而且背景模型的精度較高。
本文首先提出一種基于局部詞包模型的背景建模方法。該方法通過增量K均值聚類為每
2、個(gè)塊建立獨(dú)立的背景詞包模型,由于聚類可以很好地對(duì)前景和背景進(jìn)行分類,所以該方法取得了較好的前景提取效果。然而該方法在模型更新時(shí)會(huì)面臨復(fù)雜的單詞合并問題,而且和以往的算法相比并沒有節(jié)省計(jì)算資源。
因此本文又提出了一種基于全局詞包模型的背景建模方法,在一定程度上突破了以往的研究思想。該方法事先對(duì)訓(xùn)練樣本進(jìn)行K均值聚類生成規(guī)模固定的詞包,而且訓(xùn)練樣本可以是內(nèi)容無(wú)關(guān)的。然后每個(gè)塊共享全局詞包建立各自的背景模型,在背景估計(jì)過程中只需
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于碼本學(xué)習(xí)的背景建模方法研究.pdf
- 基于關(guān)鍵詞依賴的用戶興趣模型建模方法的研究.pdf
- 基于背景建模的運(yùn)動(dòng)目標(biāo)檢測(cè)方法研究.pdf
- 基于鄰域相關(guān)性的背景建模方法研究.pdf
- 基于改進(jìn)自適應(yīng)混合高斯模型的背景建模及對(duì)象計(jì)數(shù)方法研究.pdf
- 基于詞袋模型的圖像分類方法研究.pdf
- 基于長(zhǎng)時(shí)間視頻序列的背景建模方法研究.pdf
- 動(dòng)態(tài)場(chǎng)景的背景建模方法研究.pdf
- 基于非參數(shù)方法的局部背景建模技術(shù).pdf
- 基于遞歸誤差補(bǔ)償?shù)奶卣鞅尘敖7椒?pdf
- 基于背景建模的高性能視頻編碼方法研究.pdf
- 基于T-S模型的建模方法的研究.pdf
- 基于信息熵的多模型建模方法研究.pdf
- 基于概率主題模型的情境建模方法研究.pdf
- 基于ER模型的多維數(shù)據(jù)建模方法研究.pdf
- 基于詞袋模型的物體識(shí)別方法研究.pdf
- 基于免疫原理的多模型建模方法研究.pdf
- 基于模型集群分析的軟測(cè)量建模方法研究.pdf
- 基于視覺詞包模型的大規(guī)模目標(biāo)分類和檢索.pdf
- 基于眾包和概率模型的實(shí)體解析方法研究.pdf
評(píng)論
0/150
提交評(píng)論