面向智能視頻監(jiān)控的前景提取和動(dòng)作識(shí)別技術(shù)研究.pdf_第1頁(yè)
已閱讀1頁(yè),還剩121頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、隨著當(dāng)今社會(huì)的不斷發(fā)展,各種治安事件和恐怖主義事件層出不窮,給社會(huì)管理工作帶來(lái)了極大的挑戰(zhàn)。為了達(dá)到安全防控的目的,快速應(yīng)對(duì)突發(fā)事件,人們需要一種能夠更加及時(shí)地獲取信息和利用信息的方法。值得慶幸的是,隨著計(jì)算機(jī)技術(shù)和網(wǎng)絡(luò)技術(shù)的快速發(fā)展,構(gòu)建大規(guī)模網(wǎng)絡(luò)化的視頻監(jiān)控系統(tǒng)已經(jīng)成為了可能,視頻監(jiān)控系統(tǒng)已經(jīng)成為了一種現(xiàn)代城市所必需的新型基礎(chǔ)設(shè)施。但是,隨著監(jiān)控?cái)?shù)據(jù)量的爆炸性增長(zhǎng),傳統(tǒng)的人工監(jiān)控方式已經(jīng)不能滿足需求,必須推動(dòng)研制新一代基于人工智能,

2、可以對(duì)視頻進(jìn)行自動(dòng)分析、識(shí)別和檢索的智能視頻監(jiān)控系統(tǒng),已經(jīng)成為了安防界和科研界的共識(shí)。
   在諸多智能視頻監(jiān)控技術(shù)研究領(lǐng)域中,如何獲取監(jiān)控視頻中與人體對(duì)應(yīng)的前景并對(duì)其動(dòng)作進(jìn)行識(shí)別是一個(gè)重要的研究課題。但是,由于人體可以活動(dòng)的自由度相當(dāng)高,并且在外觀和動(dòng)作方面的個(gè)體差異性很大,對(duì)其進(jìn)行精確高效的自動(dòng)分析面臨著許多困難。本文針對(duì)智能視頻監(jiān)控中的前景提取與動(dòng)作識(shí)別問(wèn)題,圍繞三個(gè)關(guān)鍵子問(wèn)題,即視頻中運(yùn)動(dòng)前景的提取、運(yùn)動(dòng)前景的去模糊、人

3、體動(dòng)作識(shí)別,進(jìn)行了研究,提出了相應(yīng)的解決方法。本文的主要內(nèi)容概括如下:
   首先,對(duì)智能視頻監(jiān)控中前景提取和動(dòng)作識(shí)別問(wèn)題進(jìn)行了介紹,對(duì)一些基本概念和方法進(jìn)行了歸納,然后圍繞三個(gè)關(guān)鍵子問(wèn)題進(jìn)行展開(kāi),對(duì)傳統(tǒng)方法、技術(shù)現(xiàn)狀和發(fā)展趨勢(shì)進(jìn)行了綜述,對(duì)容易混淆的術(shù)語(yǔ)做出了定義。
   其次,傳統(tǒng)的背景建模方法沒(méi)有考慮視頻在時(shí)間和空間鄰域內(nèi)的信息冗余,從而造成了背景模型的過(guò)度臃腫。本文針對(duì)這種弊病,提出了基于視頻塊的背景建模技術(shù),在

4、塊的層次上對(duì)背景進(jìn)行了建模,大大降低了算法的空間復(fù)雜度;同時(shí),方法簡(jiǎn)化了色彩編碼本模型,降低了時(shí)間復(fù)雜度,使查找速度得到提升。
   再次,傳統(tǒng)處理視頻圖像模糊方法針對(duì)的場(chǎng)景是相機(jī)抖動(dòng)產(chǎn)生的模糊,不能適應(yīng)視頻監(jiān)控等場(chǎng)景下因?yàn)槲矬w運(yùn)動(dòng)所產(chǎn)生的模糊。為此,本文提出了一種針對(duì)視頻中運(yùn)動(dòng)前景的模糊估計(jì)方法。該方法采用仿射運(yùn)動(dòng)模型來(lái)描述物體運(yùn)動(dòng),利用KLT特征對(duì)物體運(yùn)動(dòng)的模型參數(shù)進(jìn)行了估計(jì),并依此得出了點(diǎn)傳播函數(shù)。本文提出了一種新的蒙板估

5、計(jì)方法,利用先前估計(jì)出的點(diǎn)傳播函數(shù)對(duì)蒙板進(jìn)行了細(xì)化,從而對(duì)前景進(jìn)行精確的提取。與傳統(tǒng)的蒙板提取方法相比,本文的方法不僅不需要手工交互,而且受噪聲影響更小。另外,本文提出了一種基于迭代的理查德露西反卷積方法,可以利用空間變化的點(diǎn)傳播函數(shù)對(duì)圖像進(jìn)行還原。
   最后,本文突破了人體動(dòng)作識(shí)別的底層特征和分類(lèi)模型的傳統(tǒng)搭配模式,提出將局部特征和流形學(xué)習(xí)進(jìn)行結(jié)合的總體框架。在這一新的框架下,采用時(shí)空興趣點(diǎn)作為人體動(dòng)作的局部特征描述符。同時(shí)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論