人體行為檢測和識別-畢業(yè)論文_第1頁
已閱讀1頁,還剩31頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、<p>  本科生畢業(yè)設(shè)計(論文)</p><p>  題 目: 人體行為檢測與識別 </p><p>  姓 名: </p><p>  學 號: </p><p>  系 別:

2、 </p><p>  專 業(yè): </p><p>  年 級: </p><p>  指導教師: </p><p>  2015 年 4 月 20 日</p>

3、<p><b>  獨創(chuàng)性聲明</b></p><p>  本畢業(yè)設(shè)計(論文)是我個人在導師指導下完成的。文中引用他人研究成果的部分已在標注中說明;其他同志對本設(shè)計(論文)的啟發(fā)和貢獻均已在謝辭中體現(xiàn);其它內(nèi)容及成果為本人獨立完成。特此聲明。</p><p>  論文作者簽名: 日期: </p><

4、p>  關(guān)于論文使用授權(quán)的說明</p><p>  本人完全了解華僑大學廈門工學院有關(guān)保留、使用學位論文的規(guī)定,即:學院有權(quán)保留送交論文的印刷本、復印件和電子版本,允許論文被查閱和借閱;學院可以公布論文的全部或部分內(nèi)容,可以采用影印、縮印、數(shù)字化或其他復制手段保存論文。保密的論文在解密后應(yīng)遵守此規(guī)定。</p><p>  論文作者簽名: 指導教師簽名:

5、 日期: </p><p><b>  人體行為檢測與識別</b></p><p><b>  摘要</b></p><p>  人體行為檢測與識別是當前研究的重點,具有很高的研究價值和廣闊的應(yīng)用前景。主要應(yīng)用在型人機交互、運動分析、智能監(jiān)控和虛擬現(xiàn)實也稱靈境技術(shù)(VR)領(lǐng)域,對于研究人體檢測和識別有著

6、重要的意義。因為人的運動的復雜性和對外部環(huán)境的多變性,使得人們行為識別和檢測具有一些挑戰(zhàn)。對人類行為和檢測的研究目前處于初級階段,有待進一步研究和開發(fā)。</p><p>  本文基于matlab人體行為識別和檢測的研究,本文主要研究的是從圖像中判斷出目標處于何種行為,例如常見的走、坐、躺、跑、跳等行為的識別。從現(xiàn)有的很多主流研究成果來看,最常見的行為識別系統(tǒng)結(jié)構(gòu)包括幾個模塊:目標檢測、目標跟蹤、行為識別。本文首先

7、對圖像進行判斷是否有人體目標,識別出人體后對圖像進行灰度化,在對灰度圖像用背景差法與背景圖像比對,最后,比對提取出的人體來判斷人體處于何種行為。</p><p>  關(guān)鍵詞:matlab,膚色識別,行為檢測</p><p>  Human behavior detection and recognition </p><p><b>  Abstract&

8、lt;/b></p><p>  Matlab human behavior recognition and detection of computer vision, intelligent video surveillance, human motion analysis, the nature of the interaction, virtual application prospect and r

9、eality of the economic value of the field, so a lot of research a hot topic these problem areas. Because of the complexity and diversity of human movement of the external environment, so that human behavior recognition h

10、as some challenges. The study of human behavior in its infancy now, pending further study an</p><p>  Recognition matlab studied human behavior recognition and detection based on paper studies is judged from

11、 the image in which the target behavior, such as a common walk, sit, lie down, running, jumping and other acts. From the many existing mainstream research point of view, the most common gesture recognition system archite

12、cture consists of several modules: target detection, target tracking, behavior recognition. Firstly, the images to determine whether there are human targets identified after t</p><p>  Keywords: matlab, colo

13、r identification, behavior detection</p><p><b>  目 錄</b></p><p><b>  第1章 緒論6</b></p><p>  1.1 研究背景6</p><p>  1.2 研究意義7</p><p>

14、;  1.3 研究內(nèi)容7</p><p>  1.4 論文組織8</p><p>  第2章 基于人臉檢測的人體識別9</p><p><b>  2.1人臉特征9</b></p><p>  2.2 基于膚色的人臉檢測9</p><p>  第3章 行為識別13</p>

15、<p>  3.1 灰度化13</p><p>  3.2背景差分法算法14</p><p>  3.3背景差閾值分割法16</p><p>  3.4通過長寬判斷人體行為16</p><p><b>  3.4小結(jié)19</b></p><p><b>  結(jié)論2

16、0</b></p><p><b>  參考文獻21</b></p><p><b>  謝辭23</b></p><p>  附錄二 文獻翻譯28</p><p><b>  第1章 緒論</b></p><p><b> 

17、 1.1 研究背景</b></p><p>  隨著社會的發(fā)展,人民生活的提高,人們越來越關(guān)注安全問題,對視頻監(jiān)控系統(tǒng)的需求也爆發(fā)式擴張,如停車場,超市,銀行,工廠,礦山等安全有監(jiān)控設(shè)備,但監(jiān)控系統(tǒng)不會主動實時監(jiān)控。因為它們通常在相機發(fā)生后的異常,但只有在記錄進行了觀察和分析,以捕獲存儲的視頻圖像結(jié)果,然后知事實發(fā)生。因此迫切需要一種監(jiān)視系統(tǒng),它能夠在24小時的連續(xù)實時監(jiān)測,并且相機自動分析人類行為識

18、別的有效的分析所捕獲的圖像數(shù)據(jù)。此外,當發(fā)生異常時,系統(tǒng)能夠守護人員準確及時報警,從而避免犯罪和其他異常情況的發(fā)生。隨著監(jiān)控系統(tǒng)到位,以幫助人們甚至完成監(jiān)控任務(wù)??梢詼p少人力和財力的投入,由于就業(yè)監(jiān)視人員進行。另外,如果長時間不運動圖像信息記錄,保存幾下,就失去了意義和視頻監(jiān)控系統(tǒng)的存儲資源浪費存儲空間。因此,傳統(tǒng)的監(jiān)視系統(tǒng)浪費了大量的人力,并有可能引起報警,性能差的實時監(jiān)控的泄漏。監(jiān)控等實時行為分析系統(tǒng)來識別人體,不僅可以替代監(jiān)控人員

19、的工作的一部分,提高監(jiān)測系統(tǒng)的自動化水平,同時也提高監(jiān)視存儲的效率,還有一個廣泛的應(yīng)用,并在視頻監(jiān)視系統(tǒng)的潛在經(jīng)濟價值之前。由于人的行為具有自由的偉大程度,因為身體寬松長裙不同程度和它的外貌和從圖像捕獲設(shè)</p><p><b>  1.2 研究意義</b></p><p>  人體行為檢測與識別技術(shù)除了在智能監(jiān)控系統(tǒng)中具有有廣泛的應(yīng)用前景和潛力,在計算機視覺中是一個

20、極具有吸引力及挑戰(zhàn)性的問題。人體運動的視覺分析是一個新興前沿的研究領(lǐng)域,涉及模式識別,圖像處理,計算機視覺,人工智能等多門學科。它可以廣泛應(yīng)用于許多領(lǐng)域,如:運動捕捉,人機交互,監(jiān)控和安全,環(huán)境控制和監(jiān)測,體育及娛樂分析等,特別是在視頻監(jiān)控方面可廣泛應(yīng)用于銀行、郵電、教育、交通、公安、監(jiān)獄、法庭、大型公共設(shè)施、公共場所(銀行、醫(yī)院、停車場、商店、等公共場所甚至家庭庭院內(nèi))、大型倉庫及軍事基地等場所,在國防與公共安全領(lǐng)域起著日益重要的作用

21、。綜上所述,因此,人體動作的視覺分析具有極大的商業(yè)價值與現(xiàn)實意義。</p><p><b>  1.3 研究內(nèi)容</b></p><p>  本文主要對人體行為檢測和識別方法進行研究,主要研究內(nèi)容如下: </p><p> ?。?)判斷是否為人體</p><p>  在目標提取之前,首先要對輸入的圖片進行檢測。本文通過膚

22、色檢測判斷目標是否為人體。</p><p><b> ?。?)人體目標提取</b></p><p>  如果是人體導入背景圖片與背景圖片做差,再通過背景差閾值分割法進行提取。</p><p><b> ?。?)行為識別</b></p><p>  在解決了以上的問題之后,接下來就是要選擇一種合適的算

23、法來進行人體姿態(tài)識別,這也是本文研究的重點和難點。本文采用一種人體目標的連通區(qū)域的長寬比例來對人體行為進行識別。</p><p><b>  1.4 論文組織</b></p><p>  論文的結(jié)構(gòu)安排如下:</p><p>  第一章闡述了人體行為識別技術(shù)的研究背景、研究意義以及本文所研究的主要內(nèi)容等。 </p><p&g

24、t;  第二章運用膚色識別技術(shù)判斷人和非人的區(qū)別</p><p>  進行圖片處理灰度化,在通過背景圖片與圖片做差,再通過背景差閾值分割法進行提取,再通過連通區(qū)域的長寬比來判斷何種行為</p><p>  第2章 基于人臉檢測的人體識別</p><p><b>  2.1人臉特征</b></p><p>  人臉是一個很

25、常見的,非常復雜的區(qū)域具有很強的代表性,是人體生物特征最直接的表現(xiàn),并與其他人的特點相比中包含的臉部的其他生物信息有以下幾個特點:</p><p> ?。?)是最豐富的面部特征。</p><p> ?。?)應(yīng)用非常方便,無需使用其他輔助設(shè)備。</p><p> ?。?)人臉特征是最熟悉的人性化特點,很容易被別人接受;</p><p>  (4

26、)人臉包含特征信息可直接用于使用,它不易被仿冒;</p><p>  在人類的知識里面,人們對人的理解是最豐富的,人臉的結(jié)構(gòu)非常清晰,從臉部和五官的位置之間的關(guān)系非常了解對方,人類已經(jīng)沒有什么困難判斷一個給定的通過人臉檢測或識別個人身份的圖像是否具有正面是真的很難。另外,通過觀察一個面的外部特征,它可以在很大程度上決定一個人的性別,表情,種族,身份和性格等直到與心理因素的某些內(nèi)容。但是,自動檢測與識別的臉是一個具

27、有挑戰(zhàn)性的經(jīng)典研究,特別是要建立一個實用的系統(tǒng),可全自動面部識別是非常困難的。主要的困難主要有以下幾個方面:</p><p>  (1)面部器官,形狀,尺寸,顏色,質(zhì)地和千變?nèi)f化的面部表情,是很復雜的,很難形容一個統(tǒng)一的模式;</p><p>  (2)人臉表面經(jīng)常有一些配套的異物,如眼鏡,胡須,耳環(huán)等;</p><p> ?。?)的復合物的實際應(yīng)用中,如復雜的背景

28、,光強,臉姿勢如此不確定。</p><p>  2.2 基于膚色的人臉檢測</p><p>  人臉非常重要的一個特性是膚色。研究表明:盡管不同種族、不同年齡、不同性別的人膚色看起來也會不相同,不同主要體現(xiàn)在亮度上面,根據(jù)亮度提取的色度空間里,不一樣的膚色分布是具有聚類性的。在多種彩色空間里選取YCbCr彩色空間進行膚色的提取,是利用了膚色在色度空間里的聚類性。</p>&l

29、t;p>  顏色空間顏色空間是定義、創(chuàng)建和觀察顏色的方法。另外還有一些針對某些類型的圖像應(yīng)用通過統(tǒng)計或物理分析,由RGB線性或非線性導出的顏色空間,靜態(tài)膚色模型目前常用的靜態(tài)膚色建模方法有三種類型:辨別膚色范圍、高斯密度函數(shù)的估計和直方圖的統(tǒng)計,本文采用辨別膚色范圍的方法。規(guī)定膚色范圍用數(shù)學表達式明確規(guī)定膚色范圍是一種簡單的膚色建模方式,假設(shè)輸入像素的顏色落入RCr=[140;170]和RCb=[80;120]限定的矩形區(qū)域,就認

30、為是屬于皮膚顏色像素。在不同的亮度分量y上的矩形區(qū)域(RCr,RCb)不同。這種簡單的判斷方式運行起來即快速又高效,特別是在實時系統(tǒng)中更具有可用的價值。</p><p>  由統(tǒng)計表明不同種族的人類的皮膚顏色區(qū)別主要受亮度的影響,而受顏色的影響比較小,所以直接考慮YCbCr空間的CbCr分量,映射為CbCr空間,在CbCr空間下,受亮度變化的影響少,且是兩維獨立分布。通過實踐,選取大量皮膚顏色樣本進行統(tǒng)計,發(fā)現(xiàn)皮

31、膚顏色在CbCr空間的分布呈現(xiàn)出良好的聚類特性。</p><p>  統(tǒng)計分布滿足:80Cb120 </p><p>  并且滿足:140Cr170 </p><p>  不同人類的皮膚雖然相差很大,但在色度

32、上的差異遠遠小于亮度上的差異,其實不同人的皮膚顏色在色彩上比較接近,但在亮度上的差異很大,在二維色度平面上,皮膚顏色的區(qū)域比較集中,可以用高斯分布描述。</p><p>  其中每個像素的灰度對應(yīng)該點與皮膚顏色的相似度,相似度的計算公式如下:</p><p>  (2.21) </p><p>  其中m為均值,m=E(x),C為協(xié)方差矩陣,</p&g

33、t;<p>  , (2.22) </p><p>  膚色分布的2D高斯模型G(m,V2)也可表示為</p><p>  (2.23)

34、 </p><p>  其中,為相應(yīng)的平均值,為協(xié)方差矩陣。</p><p>  根據(jù)膚色識別原理識別人體膚色,再根據(jù)裸露皮膚最大的區(qū)域為人臉如圖2-2所示:</p><p>  圖2-2(1)臥姿的人臉定位</p><p>  圖2-

35、2(2)跳躍的人臉定位</p><p>  圖2-2(3)行走時的人臉定位</p><p>  圖2-2(4)坐姿的人臉定位</p><p>  圖2-2(5)奔跑時的人臉定位</p><p><b>  第3章 行為識別</b></p><p>  日常生活人的基本姿態(tài)有站、坐、躺,組成一個姿態(tài)

36、集合A:</p><p>  A={跳,走,跑,坐,躺} (3.1)</p><p>  當前檢測的姿態(tài),但是只有當圖片中有人體時才能被檢測出來,所以當圖片中沒有人體時則認為圖片中的信息是非人體。</p><p>  圖3-1 識別流程圖</p><p><b>  3.1 灰度化</b>&l

37、t;/p><p>  顏色可分為彩色和黑白。顏色中不包含任何的色彩成分,僅由白色和黑色組成的是黑白。在顏色模型RGB中,當R=G=B,那么顏色(R,G,B)則表示為一種黑白的顏色;其中R=G=B的值是灰度值,所以黑白色即灰度顏色?;叶扰c彩色之間是可以相互轉(zhuǎn)化的,由灰度化轉(zhuǎn)為彩色的稱為偽彩色處理過程;由彩色轉(zhuǎn)化為灰度的叫做灰度化處理過程。</p><p>  相應(yīng)地,數(shù)字圖像可區(qū)分為灰度圖像和彩

38、色圖像。通過偽彩色處理和灰度化處理,可以使偽彩色圖像與灰度圖像之間進行相互轉(zhuǎn)化。</p><p>  使彩色的R,G,B分量值相等的過程就是灰度化。灰度的級別只有256級,即灰度圖像僅能表現(xiàn)256種顏色(灰度),主要是因為R,G,B的取值范圍是0 ~ 255。</p><p>  灰度化的處理方法主要有如下3種[6]:</p><p> ?。?)最大值法:使R,G,

39、B的值等于3個值中最大的一個,即</p><p>  (3.11) </p><p>  利用這種方法可以形成高亮度的灰度圖像。</p><p> ?。?)平均值法:利用R,G,B的值求出平均值,即</p><p><b>  (3.12)</b></p>&

40、lt;p>  平均值法可以形成相對比較柔和的灰度圖像。</p><p>  (3)加權(quán)平均值法:依據(jù)重要性或其他指標給R,G,B賦上不同的權(quán)值,并且使R,G,B的值加權(quán)平均,即</p><p><b>  (3.13)</b></p><p>  其中Wr,Wg,Wb分別為R,G,B的權(quán)值。當Wr,Wg,Wb取不相同的值時,加權(quán)平均值法就

41、會形成不同的灰度圖像。綠色是人眼最敏感度的顏色,紅色次之,對藍色最低,因此使將得到比較合理的灰度圖像。由理論和實驗推導證明,當Wr = 0.30,Wg =0.59,Wb=0.11時,即當</p><p><b>  (3.14)</b></p><p><b>  (3.15)</b></p><p>  時,能得到最合適

42、的灰度圖像。</p><p>  3.2背景差分法算法 </p><p>  背景差分法別名背景減法,背景差分法的原理是將當前的圖像與背景圖像進行差分來得到目標區(qū)域,這種方法能很好的識別和提取運動目標,是目前運動分割中最常用的一種方法。但是需要構(gòu)建一幅背景圖像,這幅背景圖像必須不含要檢測的目標或其他不需要檢測目標,并且應(yīng)該能不斷的更新來分辨當前背景的變化。</p><p

43、>  背景差分法法是靜止背景下運動目標識別和分割的另一種做法。如不考慮噪音n(x,y,t)的影響,視頻幀圖像I(x,y,t)可以看作是由背景圖像b(x,y,t)和運動目標m(x,y,t)組成:</p><p><b> ?。?.21)</b></p><p>  由式(4-14)可得運動目標m(x,y,t):</p><p><b&

44、gt; ?。?.22)</b></p><p>  而在實際中,受噪音的影響,式(4-15)不能得到真正的運動目標,而是由運動目標區(qū)域和噪音組成的差分圖像d(x,y,t),即:</p><p><b> ?。?.23)</b></p><p>  得到運動目標需要依據(jù)某一判斷原則進一步處理,最常用的方法為閾值分割的方法:</p

45、><p><b> ?。?.24)</b></p><p><b>  式中T為一閾值</b></p><p>  圖3-2(1)為背景差分法的流程圖:</p><p><b>  圖3-2(1)</b></p><p>  背景差分法實現(xiàn)步驟:</p

46、><p>  通過這次畢業(yè)設(shè)計的摸索,可將背景差分法的實現(xiàn)步驟總結(jié)如下:</p><p>  (1)進行圖像的預(yù)處理:主要包括對圖像進行灰度化以及濾波。</p><p>  (2)背景建模:這是背景差法較為重要的第一步。目前大多的思路都是根據(jù)前N幀圖像的灰度值進行區(qū)間統(tǒng)計從而得到一個具有統(tǒng)計意義的初始背景。由于背景比較簡單則選取圖3-1(2)作為背景圖:</p&g

47、t;<p>  圖3-2(2)為背景圖片</p><p>  (3)前景提?。簩D像與背景做差,即可求得背景差圖,然后根據(jù)一定的方法對改圖進行二值化,最終獲得運動前景區(qū)域,即實現(xiàn)圖像分割。</p><p>  關(guān)于圖像的二值化,目前主要的難點在于閾值的選取,隨著運動物體在整個監(jiān)控區(qū)域內(nèi)的運動,所拍攝的圖片具有不同的灰度特性,因此閾值的選取是一個研究熱點,目前多采用的方法有最大

48、類間方差法,一維交叉熵閾值法,二維交叉熵閾值法以及其他的自適應(yīng)閾值選取方法等。由于本人對此研究不深,故選固定的閾值。</p><p>  3.3背景差閾值分割法</p><p>  運用閾值法原理進行分割,閾值法是比較簡單的圖像分割方法,是一種常常運用的并行區(qū)域的技術(shù)。閾值是用運在區(qū)分目標圖片和背景圖片的灰度門限。如果要檢測的圖像只有目標和背景兩類,那么只需要選取一個閾值這種方法稱為單閾值

49、分割,這種方法是將圖像中每個像素中的灰度值與閾值相對比,灰度值大于閾值的算一種,灰度值小于閾值的為另一種。如果圖像中存在多個檢測目標或無關(guān)目標,那么就選多個閾值將每個目標及背景區(qū)分開,這種方法稱為多閾值分割閾值,由于本人只有一個目標則采用單閾值分割,圖3-3(1)為分割前后的比對</p><p><b>  sitwalk</b></p><p><b>

50、  圖3-3(1)</b></p><p>  3.4通過長寬判斷人體行為</p><p>  行為分析最基本的兩個問題:行為描述和行為識別。 </p><p>  由于人體具有一定的比例關(guān)系,例如,手臂在身體的上半部分,腳在身體的下半部分。可以想象,如果在某個區(qū)域內(nèi)白點數(shù)(白色像素達標目標)比較多,則說明有肢體出現(xiàn)在該區(qū)域。如果事先能夠定義好所有可能的

51、姿態(tài)集合,并根據(jù)每一個姿態(tài)確定其區(qū)域組合,即可事先對姿態(tài)的判斷。以左腳為例,若通過計算、和區(qū)的目標比例(即白點數(shù)與該區(qū)域的比例)后發(fā)現(xiàn)中的目標比例最大,則可判定左腳有拾起動作,角度大概在20~40之間。為了更好地確定動作的角度,可以把區(qū)域劃分得更細(該算法首先需要確定人體的標準位置,用紅色矩形框標出,計算出矩形框的高H和寬L,根據(jù)高寬的比例來判斷人體的姿態(tài)。</p><p>  這種方法的缺點在于,在除法運算的角

52、度是粗糙的,進行更詳細的動作,如拾取小角度肢,四肢彎曲(如臀部)等不能分割,分辨不夠精確。有極個別的行為長寬比會重合,行為識別結(jié)果如圖3-1所示</p><p>  圖3-4(1)臥姿判斷</p><p>  圖3-4(2)坐姿判斷</p><p>  圖3-4(4)行走判斷</p><p>  圖3-4(4)跳躍判斷</p>

53、<p>  圖3-4(5)奔跑判斷</p><p><b>  3.4小結(jié)</b></p><p>  本章是基于第1章識別出人臉之后進行姿態(tài)識別的著重介紹,首先運用背景差分法,排除背景對識別的干擾;然后進行人體目標的提取,再根據(jù)外接框的長寬比,以此判斷出人體處于何種姿態(tài)。</p><p><b>  結(jié)論</b>

54、;</p><p>  經(jīng)過這次畢業(yè)設(shè)計,我擺脫了單純的理論知識狀態(tài),鍛煉了我的綜合運用專業(yè)知識的實際設(shè)計,提高我查閱文獻資料的水平,也由畢業(yè)論文的設(shè)計,這給我寫的論文的能力得到提高。盡管畢業(yè)設(shè)計過程繁瑣,內(nèi)容復雜,但它讓我收獲更加豐富。讓我對于理解和使用MATLAB程序設(shè)計得到了提高和加深。和老師溝通是也使自己的設(shè)計有新的要求和更深刻的了解。</p><p>  在設(shè)計過程中,程序始終困

55、擾著我,因為在這個領(lǐng)域只是剛剛?cè)腴T,也可以說是只懂一些簡單的指令,為了做出滿意的畢設(shè),經(jīng)常求教與老師,老師也很耐心的解決了我的問題,使我的設(shè)計指導的問題得以解決。這讓我意識到,不管我們必須學會與他人溝通。正是這樣的設(shè)計讓我積累了大量的實踐經(jīng)驗,相信腦海里的知識,讓我在今后的工作中表現(xiàn)出較高的彈性和學習,更多的理解和溝通能力。</p><p>  論文從來不知道怎么寫,這個畢業(yè)設(shè)計,這給了我很大的信心順利完成時間表

56、,讓我對專業(yè)前景有信心同時還學習了專業(yè)知識。</p><p><b>  參考文獻</b></p><p>  [1] 李智毅.新一代Web應(yīng)用開發(fā)技術(shù)AJAX[C]//孫立峰.第二屆和諧人機環(huán)境聯(lián)合學術(shù)會議論文集. 北京:清華大學出版社,2007.31-34</p><p>  [2] 王培,馮曼菲.Web 2.0開發(fā)技術(shù)詳解[M].北京:人

57、民郵電出版社,2006.389-403,495-520.</p><p>  [3] Garrett J J. Ajax:A New Approach to Web Applications[EB/OL]. http://www.adaptivepath.com/publications/essays/archives/000385.php,2005-2-18</p><p>  [4]

58、[美]Ryan Asleson , Nathaniel T.Schutta.Ajax 基礎(chǔ)教程,金靈等譯.北京:人民郵電出版社,2006.</p><p>  [5] 徐馳. Ajax模式在異步交互Web環(huán)境中的應(yīng)用[J]. 計算機技術(shù)與發(fā)展,2006,16(11):229-233.</p><p>  [6] 姚國新.基于Ajax的WEB應(yīng)用技術(shù)的研究與實現(xiàn)[D]:[碩士學位論文].陜西

59、:西北大學信息科學與技術(shù)學院,2006.</p><p>  [7] 劉相濱,向堅持,王勝春,等.人行為識別與理解研究探討[J].計算機與現(xiàn)代化.2004(12):10-15.</p><p>  [8] 王亮,胡衛(wèi)明,譚鐵牛.人運動的視覺分分析綜述[J],計算機學報.2002(25):19-23.</p><p>  [9] 韓思奇,王蕾.圖像分割的閾值法綜述[J

60、].系統(tǒng)工程與電子技術(shù),2002(24):12-17.</p><p>  [10] 朱秀昌,劉峰,胡棟編著.數(shù)字圖像處理與圖像通信[M].北京郵電大學出版色.2002:234-259.</p><p>  [11] 張宏林,蔡銳.數(shù)字銅線模式識別及工程實踐[M].北京人民郵電出版社.2007:325-373.</p><p>  [12] 黃福珍,蘇劍波.人臉檢測

61、[M].上海交通大學出版社.2006:257-369.</p><p>  [13] 胡學龍.數(shù)字圖像處理(第2版)[M].電子工業(yè)出版社.2011;137-152. </p><p>  [14] 于殿泓.圖像檢測與處理技術(shù)[M].西安電子科大.2006:125-141. </p><p>  [15] 王志波,陳慶財.步態(tài)識別綜述[J].辦公自動化.2012(0

62、4):23-39.</p><p>  [16] 周維柏,李蓉.基于軌跡特征分析的行人異常行為識別[J].電腦編輯技巧與維護.2010(12):35-51.</p><p>  [17] 于海濱.基于頭部特征提取的人體檢測與跟蹤及其應(yīng)用[D].浙江大學.2007:1-9.</p><p>  [18] 劉翔樓,張明,鄧艷茹.一種人臉對象的區(qū)域分割方法[J].科學技術(shù)

63、與工程.2011(12):21-34.</p><p>  [19] 張洪明,趙德斌,高文.基于膚色模型、神經(jīng)網(wǎng)絡(luò)和人臉結(jié)構(gòu)模型的平面旋轉(zhuǎn)人臉檢測[J].計算機學報.2002(11):15-27.</p><p>  [20] 張繼濤,王偉,高君林.基于膚色分割和模板匹配的人臉檢測技術(shù)研究與實現(xiàn)[J].自然科學報.2009(01):30-45.</p><p>  

64、[21] 朱喜.基于FPGA的圖像預(yù)處理單元的設(shè)計與實現(xiàn)[D].湖南大學.2010:5-17.</p><p>  [22] 馮柳.基于FPGA的圖像處理算法的研究與設(shè)計[D].西南交通大學.2008:12-21.</p><p>  [23] 梁路宏,艾海舟,徐光欲.人臉檢測研究綜述[J].計算機學報.2002(25):5-10.</p><p>  [24] D

65、axis J,Bobick A.The Recognition of Human Movement Using Temporal Templates[J].IEEE Trans PAMI,2001,15(3):257-267.</p><p>  [25] Kale A, Roy-Chowbury A, Chellappa R Fusion of gait and face for human Identific

66、ation[C] In: Intl confon Acoustics, Acoustics, speech and Signal. Processing Canada: Montreal, 2004,22-37.</p><p>  [26] A F Bobick,J W Davis.The recognition of human movement using temporal templates[J],IEE

67、ETrans.Pattern Anal.& Mach.Intell.,2001,3(21):257-267.</p><p><b>  謝辭</b></p><p>  在本文即將結(jié)束之際,大學的生活即將結(jié)束,在這期間在導師韓霜的悉心指導下,我不僅學到了很多專業(yè)技術(shù)知識,而且懂得了很多人生道理,這將使我一生受用。首先,我要衷心地感謝我的導師韓霜。論文選題、研

68、究思路以及論文的 撰寫等方面都匯集了印老師大量的心血。感謝老師們在大學期間對我思想方法的指導,使我專業(yè)知識的學習和實踐能力都有了很大的提高。</p><p>  衷心感謝所有在學習期間給予我?guī)椭椭С值膸熼L和朋友,謝謝他們在各方面的幫助,很高興能和他們一起分享學習和生活的快樂。深深地感謝父母對我養(yǎng)育之恩和諄諄教誨,雖然現(xiàn)在不在身邊,但是他們總是給我鼓勵,教我戰(zhàn)勝困難,他們的支持給了我戰(zhàn)勝困難的勇氣。最后,向所有關(guān)

69、心,幫助,理解和愛護過我的老師,同學,家人表示深深地感謝! 感謝我的家人還有我的室友同學以及所有幫助過我的其他老師和朋友們,正是因為你們對我的殷切期望和默默支持,我才能一心一意完成這篇論文,謝謝你們的支持、鼓勵。</p><p>  感謝我的父母,感謝他們這么多年來給我生活和學習上的關(guān)愛與支持,沒有 他們的鼓勵與支持,我不可能順利的完成學業(yè)。</p><p>  附錄1 部分關(guān)鍵源碼及解

70、釋</p><p>  在這部分,將結(jié)合具體的源代碼具體說明系統(tǒng)的執(zhí)行流程和邏輯。</p><p><b>  %申明數(shù)據(jù)庫的位置</b></p><p>  input = 'dataset';</p><p>  %申明前景檢測輸出圖像的位置</p><p>  output

71、= 'forground';</p><p>  output2 = 'result';</p><p>  str1 = dir(input); %存儲每個動作的文件夾</p><p>  bk = imread('bk.png');%讀入背景圖片</p><p>  bk = rgb2gra

72、y(bk);</p><p>  % 彩色背景轉(zhuǎn)灰度背景</p><p>  threshold = 40; %背景差閾值</p><p>  radio_jump = [];</p><p>  radio_lie = [];</p><p>  radio_run = [];</p><p>

73、;  radio_sit = [];</p><p>  radio_walk = [];</p><p>  for x = 3:length(str1) %循環(huán)每個動作文件夾</p><p><b>  x</b></p><p>  str2 = dir([input '\' str1(x).nam

74、e '\*.png']); %存儲每個動作文件中的圖片信息</p><p>  mkdir_fun(output, str1(x).name); % 在前景輸出文件夾中,為每個動作創(chuàng)建文件夾</p><p>  mkdir_fun(output2, str1(x).name);</p><p>  for y = 1:length(str2) % 循

75、環(huán)每個圖片</p><p><b>  y</b></p><p><b>  %讀入圖片</b></p><p>  im = imread([input '\' str1(x).name '\' str2(y).name]);</p><p>  im_gray

76、= rgb2gray(im);%彩色圖轉(zhuǎn)灰度圖</p><p>  diff = abs(double(im_gray) - double(bk));</p><p>  fg = diff>threshold; % 背景差閾值分割法,求前景</p><p>  fg = medfilt2(fg); %中值濾波去噪點</p><p>

77、  bb = regionprops(fg,'BoundingBox');</p><p>  area = regionprops(fg,'Area');</p><p>  %尋找最大連通域的外接框的坐標</p><p>  max_index = 1;</p><p>  max_area = 0;<

78、;/p><p>  for z = 1:size(area,1)</p><p>  if area(z).Area >= max_area;</p><p>  max_area = area(z).Area;</p><p>  max_index = z;</p><p><b>  end</

79、b></p><p><b>  end</b></p><p>  %[x y x_with y_with]</p><p>  %計算外接框的長寬比</p><p>  radio = bb(max_index).BoundingBox(3)/bb(max_index).BoundingBox(4);</

80、p><p><b>  if x == 3</b></p><p>  radio_jump = [radio_jump;radio];</p><p><b>  end</b></p><p><b>  if x == 4</b></p><p>  

81、radio_lie = [radio_lie;radio];</p><p><b>  end</b></p><p>  if x == 5 </p><p>  radio_run = [radio_run;radio];</p><p><b>  end</b></p>&l

82、t;p><b>  if x == 6</b></p><p>  radio_sit = [radio_sit;radio];</p><p><b>  end</b></p><p><b>  if x == 7</b></p><p>  radio_walk

83、= [radio_walk;radio];</p><p><b>  end</b></p><p>  imshow(im)</p><p>  % 判斷外接框內(nèi)是否有膚色, 如果有膚色, 才是人, 才進入行為判斷</p><p>  c = floor(bb(max_index).BoundingBox(1)) ;

84、 %x</p><p>  r = floor(bb(max_index).BoundingBox(2)); %y</p><p>  c_width = bb(max_index).BoundingBox(3); %x_with</p><p>  r_width = bb(max_index).BoundingBox(4); % y_with</p>

85、<p>  rectangle('Position', [c r c_width r_width])</p><p>  sum_im = im(r:r+r_width,c:c+c_width,:); %外接框圖像</p><p>  skin = skin_fun(sum_im); %尋找是否有膚色</p><p>  skin =

86、medfilt2(skin);</p><p>  bb_skin = regionprops(skin,'BoundingBox'); %如果有膚色,切割出連通域</p><p>  min_index = 1;</p><p>  min_height = 720;</p><p>  for z = 1:size(bb_

87、skin,1)</p><p>  if bb_skin(z).BoundingBox(2) <= min_height;</p><p>  min_height = bb_skin(z).BoundingBox(2);</p><p>  min_index = z;</p><p><b>  end</b>

88、</p><p><b>  end</b></p><p>  c2 = floor(bb(max_index).BoundingBox(1))+floor(bb_skin(min_index).BoundingBox(1)) ; %x</p><p>  r2 = floor(bb(max_index).BoundingBox(2))+fl

89、oor(bb_skin(min_index).BoundingBox(2)); %y</p><p>  c_width2 = bb_skin(min_index).BoundingBox(3); %x_with</p><p>  r_width2 = bb_skin(min_index).BoundingBox(4); % y_with</p><p>  if

90、 size(bb_skin,1) >=1 %如果找到膚色</p><p>  rectangle('Position', [c r c_width r_width])</p><p>  rectangle('Position', [c2 r2 c_width2 r_width2])</p><p>  text(c2+c_

91、width2+5,r+r_width2+5,'face') ;</p><p><b>  %jump</b></p><p>  if radio<= 0.5</p><p>  text(c-5,r-5,'jump') ;</p><p><b>  end<

92、/b></p><p><b>  %lie</b></p><p>  if radio>= 1</p><p>  text(c-5,r-5,'lie') ;</p><p><b>  end</b></p><p><b>  %

93、run</b></p><p>  if radio >0.54 && radio<0.6</p><p>  text(c-5,r-5,'run') ;</p><p><b>  end</b></p><p><b>  %sit</b>

94、;</p><p>  if radio >=0.6 && radio <1</p><p>  text(c-5,r-5,'sit') ;</p><p><b>  end</b></p><p><b>  %walk</b></p>

95、<p>  if radio<=0.54 && radio>0.5</p><p>  text(c-5,r-5,'walk') ;</p><p><b>  end</b></p><p>  else %如果沒找到膚色</p><p>  text(c-5,r-

96、5,'No Human') ;</p><p><b>  end</b></p><p>  saveas(gcf,[output2 '\' str1(x).name '\' str2(y).name]);</p><p>  pause(0.005)</p><p> 

97、 imwrite(fg,[output '\' str1(x).name '\' str2(y).name]);</p><p><b>  end</b></p><p><b>  end</b></p><p>  % mean(radio_jump) 0.468</p>

98、<p>  % max(radio_jump) 0.6440</p><p>  % min(radio_jump) 0.3299</p><p>  % mean(radio_lie) 4.4732</p><p>  % max(radio_lie) 6</p><p>  % min(radio_lie) 1.4</

99、p><p>  % mean(radio_run) 0.57</p><p>  % max(radio_run) 0.7</p><p>  % min(radio_run) 0.34</p><p>  % mean(radio_sit) 0.6</p><p>  % max(radio_sit) 0.7

100、</p><p>  % min(radio_sit) 0.59</p><p>  % mean(radio_walk) 0.4</p><p>  % max(radio_walk) 0.54</p><p>  % min(radio_walk) 0.27</p><p>  plot(radio_jum

101、p,'b');</p><p><b>  hold on;</b></p><p>  plot(radio_lie,'g');</p><p><b>  hold on;</b></p><p>  plot(radio_run,'k');<

102、;/p><p><b>  hold on;</b></p><p>  plot(radio_sit,'y');</p><p><b>  hold on;</b></p><p>  plot(radio_walk,'r');</p><p>

103、;<b>  附錄二 文獻翻譯</b></p><p>  Complex Ridgelets for Image Denoising</p><p>  Wavelet transforms have been successfully used in many scientific fields such as image compression, image d

104、enoising, signal processing, computer graphics,and pattern recognition, to name only a few.Donoho and his coworkers pioneered a wavelet denoising scheme by using soft thresholding and hard thresholding. This approach app

105、ears to be a good choice for a number of applications. This is because a wavelet transform can compact the energy of the image to only a small number of large coefficients a</p><p>  and Donoho pointed out,

106、this algorithm exhibits visual artifacts: Gibbs phenomena in the neighbourhood of discontinuities. Therefore, they propose in a translation invariant (TI) denoising scheme to suppress such artifacts by averaging over the

107、 denoised signals of all circular shifts. The experimental results in confirm that single TI wavelet denoising performs better than the non-TI case. Bui and Chen extended this TI scheme to the multiwavelet case and they

108、found that TI multiwavelet denoising</p><p>  along the lines x1cos_ + x2sin_ = constant. In the direction orthogonal to these ridges it is a wavelet.Ridgelets have been successfully applied in image denoisi

109、ng recently. In this paper, we combine the dual-tree complex wavelet in the ridgelet transform and apply it to image denoising. The approximate shift invariance property of the dual-tree complex wavelet and the good prop

110、erty of the ridgelet make our method a very good method for image denoising.Experimental results show that by using dua</p><p><b>  復雜脊波圖像去噪</b></p><p>  小波變換已成功地應(yīng)用于many scientific f

111、ields such as image compression, i許多科學領(lǐng)域,如圖像壓縮,圖像age denoising, signal processing, com去噪,信號處理,計算機圖形,ics, and pattern recognition, to name only a feIC和模式識別,僅舉幾例。Donoho和他的同事們提出了小波閾值去噪通過軟閾值和閾值.這種方法的出現(xiàn)對于大量的應(yīng)用程序是一個好的選擇。這是因為一個

112、小波變換能結(jié)合的能量,在一小部分的大型系數(shù)和大多數(shù)的小波系數(shù)中非常小,這樣他們可以設(shè)置為零。這個閾值的小波系數(shù)是可以做到的只有細節(jié)的小波分解子帶。我們有一些低頻波子帶不能碰觸,讓他們不閾值。眾所周知,Donoho提出的方法的優(yōu)勢是光滑和自適應(yīng)。然而,Coifman和Donoho指出,這種算法展示出一個視覺產(chǎn)出:吉布斯現(xiàn)象在鄰近的間斷。因此,他們提出對這些產(chǎn)出去噪通過平均抑制所有循環(huán)信號。實驗結(jié)果證實單目標識別小波消噪優(yōu)于沒有目標識別的情

113、況。Bui和Chen擴展了這個目標識別計劃,他們發(fā)現(xiàn)多小波的目標</p><p>  研究脊波變換的數(shù)多年來打破了小波變換的局限性。將小波變換產(chǎn)生的二維圖像在每個規(guī)模大的小波系數(shù)的分解。有這么多的大系數(shù),對于圖像去噪有很多困難。我們知道脊波變換已經(jīng)成功用于分析數(shù)字圖像。不像小波變換,脊波變換過程首先計算積分在不同的方向和位置的數(shù)據(jù)。沿著“x1cos_ + x2sin_ = 常數(shù)” 一條線的脊波是不變的。在這些脊的

114、方向正交小波變換是一。最近脊波已成功應(yīng)用于圖像去噪。在本文中,我們結(jié)合dual-tree complex wavelet in the ridgelet transfo二元樹復小波的脊波變換中并將其應(yīng)用到圖像降噪。這種近似二元樹性能的復雜變性小波和良好性能的脊波使我們有更好的方法去圖像去噪。實驗結(jié)果表明,采用二元樹復雜脊波在所有去噪圖像和許多不同噪音中我們的算法獲得較高的峰值信噪比(PSNR)。</p><p>

115、<b>  讀書的好處</b></p><p>  1、行萬里路,讀萬卷書。</p><p>  2、書山有路勤為徑,學海無涯苦作舟。</p><p>  3、讀書破萬卷,下筆如有神。</p><p>  4、我所學到的任何有價值的知識都是由自學中得來的。——達爾文</p><p>  5、少壯不

116、努力,老大徒悲傷。</p><p>  6、黑發(fā)不知勤學早,白首方悔讀書遲?!佌媲?lt;/p><p>  7、寶劍鋒從磨礪出,梅花香自苦寒來。</p><p>  8、讀書要三到:心到、眼到、口到</p><p>  9、玉不琢、不成器,人不學、不知義。</p><p>  10、一日無書,百事荒廢?!悏?lt;

117、/p><p>  11、書是人類進步的階梯。</p><p>  12、一日不讀口生,一日不寫手生。</p><p>  13、我撲在書上,就像饑餓的人撲在面包上?!郀柣?lt;/p><p>  14、書到用時方恨少、事非經(jīng)過不知難?!懹?lt;/p><p>  15、讀一本好書,就如同和一個高尚的人在交談——歌德<

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論