2011年--外文翻譯--基于動態(tài)系統(tǒng)和卡爾曼濾波的目標跟蹤算法(譯文)_第1頁
已閱讀1頁,還剩7頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、<p>  中文2615字,1885單詞,8500英文字符</p><p>  出處:Wang H, Huo L, Zhang J. Target tracking algorithm based on dynamic template and Kalman filter[C]//Communication Software and Networks (ICCSN), 2011 IEEE 3rd Int

2、ernational Conference on. IEEE, 2011: 330-333.</p><p><b>  畢業(yè)論文(設計)</b></p><p><b>  外文翻譯</b></p><p>  學生姓名 </p><p>  學 號

3、 </p><p>  院 系 電子與信息工程學院</p><p>  專 業(yè) 電子信息工程</p><p>  指導老師 </p><p>  二O一四 年 十二 月 二十一 日</p><p>  基于動態(tài)系統(tǒng)和卡爾曼濾波的目標跟蹤算法</p>

4、<p>  王洪曼 霍玲玲 張靜</p><p>  遼寧師范大學計算機與信息技術學院 大連 中國</p><p>  awanghm@163.comhuolingling625@163.com zhangjing9986@163.com</p><p>  摘要:目標跟蹤的目的是尋找圖像序列的幀間目標。許多被提出的跟蹤算法實現(xiàn)了克服噪聲,遮擋,雜波

5、,和前景目標或者背景環(huán)境變化的困難。對于傳統(tǒng)的基于卡爾曼濾波的跟蹤算法,由于圖像中的背景噪聲而有檢測過程的幾個候選區(qū)域,從而導致在視頻序列中的錯誤或丟失目標的跟蹤結果。我們提出了一個結合動態(tài)模板的卡爾曼濾波的目標跟蹤算法。動態(tài)模板是目標模型在下一幀的選擇標準;它可以通過計算動態(tài)模板和候選區(qū)域之間的距離來選擇最佳候選區(qū)域作為目標模型。實驗表明,該算法具有更好的跟蹤精度,并具有良好的魯棒性的背景干擾。</p><p>

6、;  關鍵詞:目標跟蹤,卡爾曼濾波,動態(tài)模板,候選區(qū)域</p><p><b>  I、引言</b></p><p>  目標跟蹤技術廣泛應用于智能監(jiān)控,視頻壓縮,圖像處理等領域。跟蹤場景和光照的變化增加了目標跟蹤的復雜性。這也是一個極大的挑戰(zhàn)。一般來說,解決這個問題有[ 1 ]的兩種方法:一是基于特征的模式匹配方法,另外一個是基于參數(shù)估計的方法。</p>

7、<p>  我們使用基于特征的模式匹配方法,采用動態(tài)模板從幾個候選區(qū)域選擇最佳區(qū)域,然后利用卡爾曼濾波預測下一幀的目標區(qū)域,然后我們根據(jù)預測結果達到新的動態(tài)模板。基于卡爾曼濾波的跟蹤算法是主要方法,卡爾曼濾波和動態(tài)模板的結合提高了跟蹤效果。</p><p>  本文的其余部分組織如下。第II部分描述了算法。第III部分展示了實驗結果。第IV部分是得出的結論。</p><p>

8、<b>  II、算法描述</b></p><p>  A、顏色直方圖的特征提取</p><p>  提取特征[ 2 ]的四種主要方法:灰色直方圖[ 3 ] [ 4 ],顏色直方圖[ 5 ] [ 6 ],[ 1 ]邊緣直方圖和紋理特征提取[ 5 ]。本文我們考慮了顏色直方圖作為特征提取的目標模型研究。RGB顏色空間的光照易受照明的影響。為了在一個具體應用鐘使用一個好的

9、顏色空間,在顏色空間之間需要色彩轉換。因此, RGB空間被轉換到HSV空間[ 7 ] [ 8 ] [ 9 ],轉換公式如下[ 3 ]:</p><p>  V= max(R,G, B) (1)</p><p>  S =(max(R,G, B) -

10、min(R,G, B)) / max(R,G,B) (2)</p><p>  H= (3)</p><p>  其中R,G和B是從0到255;H是從0到360;S是從0到1,V是從0到255 。在我們的方法中,H,S和V為非等間隔量化,然后

11、三個顏色分量表示為一維特征向量 分為256個層次。在這里,f為圖像的特征向量,包含 的特征,S和V,圖像中每個像素的直方圖對應的H,S和V的三個顏色分量,因此 F的定義是這樣的:</p><p>  F(i, j) = H (i, j) XQsXQv + S(i, j) XQv+ V (i, j) 1 i M ,1 j N (4)其中m和n是一個圖像的大小;

12、 和 分別為是S和V定量。H被量化為16進制;S和V被量化為4進制,在這里特征向量 計算為:</p><p><b> ?。?)</b></p><p><b> ?。?)</b></p><p>  是F中每個像素的數(shù)目;H t是直方圖中各層次比例,H f是向量特征。</p><p>

13、  B、Kalman濾波模型</p><p>  Kalman濾波有兩個基本方程:狀態(tài)方程和測量方程[ 10 ]。</p><p><b>  (7)</b></p><p><b> ?。?)</b></p><p>  方程(7)是狀態(tài)方程;方程(8)是測量方程。在方程(7)和(8)中,

14、 和 代表測量噪聲和過程噪聲, 狀態(tài)向量 , 和 代表物體運動時在X軸和Y軸的位置, 和 代表物體在X軸和Y軸移動的速度;A是狀態(tài)轉移矩陣,B=I是控制矩陣,I是單位矩陣, 是觀測矩陣, 是測量矩陣。</p><p>  方程(7)和方程(8)構成了Kalman濾波的目標跟蹤系統(tǒng),卡爾曼濾波方程分為兩組:時間更新和測量更新。</p

15、><p><b>  時間更新方程</b></p><p><b> ?。?)</b></p><p><b>  (10)</b></p><p><b>  測量更新方程</b></p><p><b>  (11)<

16、;/b></p><p><b>  (12)</b></p><p><b> ?。?3)</b></p><p><b>  C、動態(tài)模板</b></p><p>  當我們使用背景減除法檢測的目標,會因為在跟蹤過程中圖像噪聲的影響和目標趨向出現(xiàn)的改變而出現(xiàn)錯誤的目標

17、。選擇適當?shù)哪P团c目標匹配是很有必要的。在我們的研究中我們使用動態(tài)模板來解決這個問題。我們考慮卡爾曼濾波的預測結果作為下一幀的動態(tài)模板。動態(tài)模板用于從多個候選區(qū)域模型中檢測出目標模型,選擇基于圖像相似性度量。它決定于動態(tài)模板和候選區(qū)域之間的相似度,選出來模型區(qū)域是候選區(qū)域中和動態(tài)模板具有最小距離的區(qū)域。距離是有巴氏距離[ 11 ]計算出來的,它是由手段協(xié)方差決定的,Bhattacharyya距離公式的定義為(14):</p>

18、<p>  d=0.125X x +0.25Xlog (14)</p><p><b> ?。?5)</b></p><p><b>  (16)</b></p><p><b> ?。?7)</b></p><p>

19、;  其中 是矩陣的均值, 是矩陣的協(xié)方差,這里k只需要1或2,當k等于1, 和 分別是目標模型的均值和協(xié)方差,當k等于2, 和 分別是候選區(qū)域的均值和協(xié)方差,|·|代表行列式,在這里 和 是常數(shù)。 代表( )的轉置,L(·)代表Cholesky分解[ 12 ]。</p><p>  D、基于動態(tài)跟蹤算法描述模板和卡爾曼濾波</p><p>  跟蹤算法的流程圖如圖1所

20、示。首先,初始化Kalman數(shù)學參數(shù)模型。然后根據(jù)背景減法計算目標的初始模型 [ 13 ]。我們可以提取顏色直方圖表示的背景特征,而且利用當前幀與背景幀圖像的減法檢測運動目標。然后我們可以找到最大的檢測區(qū)域作為運動目標模板,記錄目標模板的中心位置,大小和顏色直方圖信息,其中中心的位置信息作為卡爾曼濾波器的狀態(tài)向量,包括中心坐標和速度, 。</p><p>  然后,我們用卡爾曼濾波預測目標的位置 。預測的計

21、算方程是(9),(10)和 。其次,更新目標狀態(tài)。它包括更新目標的估計狀態(tài)值 和誤差協(xié)方差矩陣 .</p><p>  下一步,我們確定動態(tài)模板。把 作為動態(tài)模板的中心位置,動態(tài)模板大小與前一幀目標模型相同。動態(tài)模板是下一幀的目標模型的選擇標準。</p><p>  基于背景減除法的方法,我們可以獲得運動目標的多個候選區(qū)域,并將候選區(qū)域與動態(tài)模板進行匹配。Bhattachary

22、ya距離來計算匹配過程中動態(tài)模板和候選區(qū)域的距離。尋找到最佳匹配區(qū)域過程就是找到的最小距離候選區(qū)域和動態(tài)模板。</p><p>  在檢測過程中,如果沒有新的目標區(qū)域,在當前幀把前面的檢測作為目標位置;如果檢測到的目標區(qū)域小于某一閾值,我們考慮目標消失了。在卡爾曼預測到當前幀后,動態(tài)模板也已更新。</p><p><b>  III、實驗結果</b></p>

23、;<p>  在這一部分中,我們分兩個數(shù)據(jù)展示我們的研究成果:高速公路視頻和CAVIAR的視頻[ 14 ],原圖像的大小為352×240,汽車跟蹤對象的大小是可變的。后者的圖像是384×288,而且有很多的環(huán)境噪聲在這段視頻中。</p><p>  圖2和圖3分別展示了一些典型的跟蹤結果。我們也在在圖2和圖3的跟蹤過程中給出了幾種動態(tài)模板。跟蹤過程實驗結果表明,該方法可以在跟蹤過

24、程中恢復噪聲的干擾,從而提高跟蹤結果。</p><p><b>  IV、結論</b></p><p>  我們提出了一種基于動態(tài)模板和卡爾曼濾波的跟蹤算法。該算法的顏色特征與動態(tài)模板相結合來選取最合適的目標模型,然后采用卡爾曼濾波器預測目標。實驗結果表明,該算法簡單但有效,具有噪聲干擾的光照和目標的變化而影響現(xiàn)場更好的魯棒性。這種方法可用于更復雜的情況下,多目標跟蹤

25、,這是我們下一步的研究。</p><p><b>  確認</b></p><p>  這個項目是由中國遼寧省自然科學基金項目(no.20102123)。</p><p><b>  參考文獻:</b></p><p>  [1] Wei-Jin Liu and Yu-Jin Zhang, “Edg

26、e-color-histogram and Kalman filter-based real-time object tracking,” [J].TsinghuaUniv (Sci & Tech), vol.48, no. 7, 2008. (in Chinese)</p><p>  [2] Eli Peli, “Feature Detection Algorithm Based on A Syste

27、m Model,”Proceeding of IEEE, vol.90, no.1, pp.78-93, 2002.</p><p>  [3] Alvy Ray Smith, “Color Gamut Transform pairs,” Siggraph 78 Conference Proceedings, August 1978, 12-19</p><p>  [4] Yi-Xin

28、Liu and Yi-Zheng Guo, “Gray-scale Histograms Feature Extraction Using Matlab,” [J]. Computer Knowledge and Technology, vol. 5, no. 32, pp. 9032-9034, November 2009.(in Chinese)</p><p>  [5] Jun-Qiu Wang and

29、Yasushi Yagi, ”Integrating Color and Shape-Texture Features for Adaptive Real-Time Object Tracking,” IEEE Transactions on Image Processing, vol.17, no.2,pp.235-240, February 2008.</p><p>  [6] Hui Lin, “Stud

30、y on Object Tracking Technology Based on Color-Space 2D Histogram,” [J]. Computer & Digital Engineering, vol. 37, no. 12, pp.126-129, 2009.(in Chinese)</p><p>  [7] Chung-Wei Juan and Jwu-Sheng Hu, “A Ne

31、w Spatial-Color Mean-Shift Object Tracking Algorithm with Scale and Orientation Estimation,” IEEE International conference on Robotics and Automation Pasadena, CA, USA, May 2008</p><p>  [8] Mei-Hong Shi, Li

32、ang Shen, Shi-Zhong long and Xi-Min HU, “The revision of conversion formula from RGB color space to HSV color space,” [J]. Basic Sciences Journal of Textile Universities, vol. 21, no. 3, pp. 351-356, September 2008.(in C

33、hinese)</p><p>  [9] Sangoh Jeong, “Histogram-Based Color Image Retrieval, ” Psych221/EE362 Project Report, March 2001 (http://wenku.baidu.com/view/383e661da300a6c30c229f52.html)</p><p>  [10] T

34、ai-Fan Quan, “Target Tracking: Advanced Theory and Techniques,”Beijing: National Defense Industry Press, 2009. (in Chinese)</p><p>  [11] Bi-Chuan Shen, Qi-JIan Mao and Yi Lv, “Scene change detection in vide

35、o stream based on Bhattacharyya distance,”</p><p>  [12] Journal of Chongqing University of Posts and Telecommunications (Natural Science Edition), vol. 21, no. 1, February 2009. (in Chinese)</p><

36、p>  [13] Gui-Ming Wu, Yong Dou and Miao Wang, “A Find-Grained Parallel Algorithm for the Cholesky Decomposition,” [J]. Computer Engineering & Science, vol. 32, no. 9, 2010.(in Chinese)</p><p>  [14] P

37、ing Yu and Hao Xie, “Moving Objects Detection and tracking Algorithm Based on Kalman Filter,” [J].Heilongjiang Science and Technology Information, January 2010.(in Chinese) http://groups.inf.ed.ac.uk/vi</p><p&

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論