

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、目標識別和定位是增強現(xiàn)實(AugmentedReality,AR)中的重要環(huán)節(jié),可實現(xiàn)空間目標的識別和相機相對于目標的位姿估計。在增強現(xiàn)實系統(tǒng)中,通過將計算機產(chǎn)生的虛擬物體或信息與真實場景疊加在一起,為實現(xiàn)融合效果的感官真實性,首先識別待“增強”的目標真實場景,并保證虛擬對象和現(xiàn)實場景的匹配精度和動態(tài)一致性,這就需要實時跟蹤現(xiàn)實世界中相機的位姿。
由于現(xiàn)實環(huán)境比較復(fù)雜,在目標識別及相機位姿估計過程中,首先需要解決的問題是提
2、取高效穩(wěn)定的特征匹配點對,利用匹配結(jié)果識別相同或相近物體,估計相鄰視圖之間的變換矩陣,進而得到相機在不同位置的外部參數(shù)矩陣??梢?,特征的匹配精度及匹配效率直接影響目標識別和定位方法的準確性及實時性,特征匹配已成為目標識別和定位的關(guān)鍵技術(shù)。目前,常用的特征描述及匹配方法主要可分為兩類:基于不變量的局部描述算子的特征識別及匹配和基于統(tǒng)計學(xué)習(xí)方法的特征識別及匹配方法。然而,特征匹配及相機位姿估計存在以下三方面問題:
(1)局部不
3、變性特征采用高強度的特征描述以提高其對環(huán)境的適應(yīng)性,不僅包含關(guān)鍵點自身的信息,還聯(lián)合關(guān)鍵點周圍對其有貢獻的像素構(gòu)建出高維的特征向量描述子,維數(shù)越高,魯棒性越好,但計算復(fù)雜度越高。SIFT算子是128維的特征向量,SURF算子是64維向量,顯然,較高的維度使這類算子的提取及匹配過程計算量負擔(dān)大、運算速度慢,且需占用大量的內(nèi)存空間。當(dāng)環(huán)境中有數(shù)千上萬個特征時,局部特征將無法滿足實時系統(tǒng)的要求,且對于實時AR系統(tǒng)在移動終端上的應(yīng)用擴展非常不利
4、。
(2)基于統(tǒng)計學(xué)習(xí)方法的特征識別及匹配方法把計算量轉(zhuǎn)移到離線分類器的訓(xùn)練,在線特征匹配具有計算量小的優(yōu)勢,但該類算法特征識別及匹配效果受分類器性能影響,隨機性較強,穩(wěn)定性較差。隨機蕨(RandomFerns)[1][2][3]方法由V.Lepetit等人在2009年提出,采用樸素貝葉斯分類模型,是迄今效果最好的機器學(xué)習(xí)特征匹配方法,但也存在匹配精度不足的問題。由于樸素貝葉斯分類模型本身的特性,需假設(shè)各特征屬性之間相互獨
5、立,并對特征屬性進行隨機分組。然而,由于特征屬性由灰度比較得到,圖像的像素之間又必然存在聯(lián)系,隨機分組忽略了不同屬性組合對分類器的重要性不同。而不恰當(dāng)?shù)膶傩詣澐謺绊懛诸惼鞯馁|(zhì)量,并最終導(dǎo)致分類結(jié)果隨機性較強,匹配率較低。
(3)在相機內(nèi)部參數(shù)已知情況下,已知空間目標點與其像點的匹配對應(yīng)關(guān)系,可求解相機相對位姿,也被稱為PnP(Perspective-n-Point)問題?,F(xiàn)有的PnP算法大致可分為迭代算法和非迭代算法兩類
6、。非迭代算法采用代數(shù)方法直接求出相對位姿,該類算法具有運算量小、計算速度快等優(yōu)點,但受誤差影響大,且精度不高,常應(yīng)用于迭代算法的初值計算。迭代算法是將PnP問題表示為受約束的非線性優(yōu)化問題,通過求解該優(yōu)化問題得到相機相對位姿的數(shù)值解。該類方法精度較高,但計算量較大,且受初始值的影響算法通常會收斂到局部最小值而不是全局最小值,或收斂到錯誤解。因此尋求一種折中的PnP問題解決方法,對于實現(xiàn)快速準確的目標定位非常關(guān)鍵。
針對以上
7、問題,目前目標識別和定位的研究目的可總結(jié)為:一是簡化局部不變性特征提取,并采用有效的數(shù)據(jù)結(jié)構(gòu)及搜索查詢算法,提高特征匹配的速度;二是發(fā)展完善基于統(tǒng)計學(xué)習(xí)的特征匹配方法,降低時間復(fù)雜度,并提供有意義的信息指導(dǎo)屬性組合劃分,降低盲目性,不斷提高特征識別率和匹配精度;三是設(shè)計精度較高,且計算量較小的相機位姿確定方法,并盡量減少初始值對估測結(jié)果的影響。
本文以目標識別和定位為研究對象,重點系統(tǒng)研究了特征匹配技術(shù)及相機位姿估計方法,
8、本文主要工作如下:
(1)局部不變性特征的快速匹配方法
由于局部不變性特征匹配的高強度描述特性,為降低高維矩陣匹配的計算量,并減少對內(nèi)存的消耗。多維二進制索引樹(Kd-樹)是把二叉樹推廣到多維數(shù)據(jù)的一種主存數(shù)據(jù)結(jié)構(gòu),本文采用擴展Kd-樹建立多維索引,并利用最近鄰查詢算法在Kd-樹中檢索與查詢點距離最近的數(shù)據(jù)點,即待匹配點。Kd-樹的引入極大方便高維特征點的搜索操作,但查詢得到的結(jié)果并不一定是正確的匹配對,本文
9、采用隨機抽樣一致性(RANSAC)提純匹配點對,給定合適的迭代參數(shù),RANSAC可得到較好的擬合結(jié)果。圖像拼接的應(yīng)用實例驗證了特征匹配的有效性。
(2)基于條件互信息量的隨機蕨特征匹配方法
本文重點研究隨機蕨算法,利用條件互信息量[4][5指導(dǎo)特征屬性的組合劃分,提出了一種基于條件互信息量的隨機蕨特征匹配方法,以MI-Ferns表示,其主要內(nèi)容包括:訓(xùn)練樣本獲取,特征屬性劃分,離線分類器訓(xùn)練及在線特征識別及匹
10、配。其中,最關(guān)鍵的部分是分類器的離線訓(xùn)練階段,訓(xùn)練的結(jié)果直接影響在線特征匹配效果。本文提出的MI-Ferns方法改善了隨機蕨蕨叢構(gòu)建的盲目性對分類結(jié)果的影響,提高了離線分類器的分類性能。另外,由于特征屬性間的條件互信息量計算僅存在于離線階段,因此不會增加在線匹配的運算時間。仍利用RANSAC方法剔除誤匹配點,進一步提高匹配精度。通過實驗對比原有隨機蕨算法(RF)與改進隨機蕨方法(MI-Ferns)的特征識別率和匹配性能,驗證了改進隨機蕨
11、方法的有效性及較高的匹配精度。
(3)相機位姿估計方法研究
相機位姿估計有多種方法,從課題實際需求出發(fā),本文設(shè)計了一種計算量較小,受環(huán)境噪聲影響小的相機位姿確定系統(tǒng)。該系統(tǒng)中,由改進的隨機蕨算法提供特征匹配對,相機模型采用小孔成像模型,并根據(jù)張氏標定算法求取攝像機的內(nèi)部參數(shù)矩陣,采用一種非迭代的PnP方法[6]估計相機的投影矩陣。該方法將空間坐標點和圖像特征點均表示為4個虛擬控制點,把PnP問題轉(zhuǎn)化為估計4個
12、虛擬控制點在相機坐標系中的坐標值問題。該方法計算簡單,但精度與迭代方法相比仍然較低。因此本文采用高斯-牛頓非線性算法對求解結(jié)果進行優(yōu)化,非迭代算法求取的結(jié)果作為優(yōu)化的初始值,使得該方法的計算精度可達到Lu于2000年提出的最經(jīng)典的迭代方法[7]的精度,且優(yōu)化算法的引入沒有明顯增加計算量。
實驗結(jié)果表明,基于不變量的局部特征匹配技術(shù),對光照、尺度、遮擋等條件下具有一定的適應(yīng)能力,改進的隨機蕨算法識別率較好,其匹配結(jié)果經(jīng)RAN
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于目標標識特征分析和匹配的視頻運動目標識別.pdf
- 基于人類回聲定位的目標識別方法研究.pdf
- 基于改進的SIFT特征匹配方法在目標識別中的應(yīng)用研究.pdf
- 基于特征級融合的目標識別方法研究.pdf
- 基于AR的數(shù)控加工仿真中目標識別與定位方法研究.pdf
- 基于智能輔助視域盲區(qū)目標識別與匹配.pdf
- SAR成像目標識別子區(qū)選取與匹配方法研究.pdf
- 基于輪廓特征的目標識別研究.pdf
- 基于局部圖像特征的目標識別和分類方法研究.pdf
- 基于單目視覺的目標識別與定位研究.pdf
- 基于單目視覺的目標識別與定位.pdf
- 基于圖像的目標識別與跟蹤方法研究.pdf
- 基于HOG特征的目標識別算法研究.pdf
- 衛(wèi)星目標識別與特征參數(shù)提取方法研究.pdf
- 基于局部特征幾何結(jié)構(gòu)的目標識別方法研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的目標識別及定位方法的研究.pdf
- 基于全維視覺的目標識別與定位.pdf
- 基于LARK和近鄰結(jié)構(gòu)匹配的紅外目標識別方法.pdf
- 基于窄帶微動特征的空間錐體目標識別方法研究.pdf
- 基于雙目立體視覺的目標識別與定位研究.pdf
評論
0/150
提交評論