基于深度學(xué)習(xí)的溯源視頻目標(biāo)檢測與識別.pdf_第1頁
已閱讀1頁,還剩73頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、隨著攝像頭安裝數(shù)量的日益增多,以及智慧城市和公共安全需求的日益增長,采用人工的視頻監(jiān)控方式已經(jīng)遠(yuǎn)遠(yuǎn)不能滿足需要。深度學(xué)習(xí)是近十年來人工智能領(lǐng)域取得的最重要的突破之一。目前深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)方法已經(jīng)在人臉識別、行人檢測、圖像分類等方面取得了優(yōu)異的成績,并獲得了廣泛的應(yīng)用。
  本文主要對深度學(xué)習(xí)技術(shù)在溯源計算領(lǐng)域和其他工程領(lǐng)域的具體應(yīng)用進(jìn)行探索。針對溯源監(jiān)控視頻中視頻信息處理的問題,通過收集建立深度學(xué)習(xí)數(shù)據(jù)集和公開數(shù)據(jù)集中訓(xùn)練

2、的離線卷積神經(jīng)網(wǎng)絡(luò)模型,結(jié)合視頻和采集處理技術(shù)以及web展示技術(shù)完成視頻中感興趣物體的在線檢測、識別以及展示,設(shè)計出一套滿足實(shí)際應(yīng)用要求的智能視頻監(jiān)控系統(tǒng)。
  本文的主要貢獻(xiàn)如下:
  1.基于目標(biāo)檢測的需求,在視頻處理過程中,使用幀差法解決視頻關(guān)鍵幀難以確定的問題,并使用混合高斯建模法和幀差法設(shè)計了一種運(yùn)動目標(biāo)檢測的方法,該方法可以有效的克服前景提取過程中噪聲和陰影的干擾。
  2.針對傳統(tǒng)目標(biāo)分類準(zhǔn)確率不高的問題

3、,收集溯源視頻中目標(biāo)集合,完成目標(biāo)的分類和標(biāo)注,并基于該數(shù)據(jù)集,使用深度學(xué)習(xí)平臺caffe設(shè)計和訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)的離線模型,以提高分類的準(zhǔn)確率。
  3.根據(jù)系統(tǒng)實(shí)現(xiàn)的需求,基于“運(yùn)動檢測+CNN”和“Faster-RCNN”,使用離線訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)模型,結(jié)合Redis進(jìn)行數(shù)據(jù)傳遞和web應(yīng)用平臺LAMP設(shè)計和實(shí)現(xiàn)實(shí)時的目標(biāo)檢測和識別系統(tǒng)。
  最后,在以Tesla K40為基礎(chǔ)搭建的硬件平臺中,文章訓(xùn)練的CNN模型在溯

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論