基于雙流CNN的異常行為分類算法研究.pdf_第1頁
已閱讀1頁,還剩57頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、 國內(nèi)圖書分類號: TP391.4 學校代碼: 10213 國際圖書分類號: 621.3 密級: 公開 工程 工程碩士學位論文 碩士學位論文 基于雙流CNN的異常行為分類算法研究 碩 士 研 究 生 : 王昕培 導 師 : 王鴻鵬教授 申 請 學 位 : 工程碩士 學 科

2、: 計算機技術 所 在 單 位 : 深圳研究生院 答 辯 日 期 : 2016年12月 授予學位單位 : 哈爾濱工業(yè)大學 哈爾濱工業(yè)大學工程碩士學位論文 -I- 摘 要 隨著人們對公共安全的關注以及監(jiān)控設備的普及,通過人力對監(jiān)控視頻中的人體行為進行分類存在著效率低、成本高、誤檢率高等問題,如何高效、準確地對視頻中的人體動作進行分類,從而分析視頻中是否有異常行為是計算機視覺方向一個重要的研究課題。 本文基于雙流

3、卷積神經(jīng)網(wǎng)絡, 運用光流圖像和彩色圖像作為網(wǎng)絡輸入, 進行動作分類和異常行為分類。相較于應用特定的人工提取特征,卷積神經(jīng)網(wǎng)絡學習能力強, 但是需要大量訓練數(shù)據(jù), 而且容易造成過擬合。 為了解決這些問題,我們需要對圖像樣本進行信息增益,并適當調整網(wǎng)絡結構,以便在異常行為分類任務上獲得較好的效果。 本文針對異常行為分類任務, 通過整合不同數(shù)據(jù)集, 構建了涵蓋生活中常見動作和異常動作的視頻數(shù)據(jù)集。在特征表示方面,選用光流法來表達視頻動態(tài)信息,

4、針對傳統(tǒng)光流計算慢、空幀多等缺點,提出了自適應光流法來準確地表示運動時序信息,并通過對多幀光流圖像進行疊加獲得動作的動態(tài)趨勢信息。由于異常行為分類任務復雜、數(shù)據(jù)樣本缺乏,我們使用隨機裁剪、翻轉等信息增益方式來增加樣本數(shù)量、防止網(wǎng)絡的過擬合。在網(wǎng)絡模型方面,加深原有的雙流CNN網(wǎng)絡層次,通過調整超參數(shù)、改變網(wǎng)絡結構等具體方式,來增強網(wǎng)絡的學習能力和泛化能力,以提高異常行為分類的準確率。 最后,本文比較了改進后的網(wǎng)絡模型和原有模型以及人工提

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論