

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、本文將集中討論安裝有雙目視覺系統(tǒng)的MT-AR移動機(jī)器人的跟蹤系統(tǒng)設(shè)計與實現(xiàn),目的是使得機(jī)器人能在正常環(huán)境下對跟蹤目標(biāo)物進(jìn)行跟蹤并作出正確的運(yùn)動反饋。在研究機(jī)器人內(nèi)部魯棒性跟蹤算法基礎(chǔ)上,課題將對安裝雙目視覺系統(tǒng)的移動機(jī)器人跟蹤與運(yùn)動控制展開研究與討論。
與單目視覺移動機(jī)器人跟蹤系統(tǒng)不同,課題使用了一種基于立體視覺的機(jī)器人跟蹤平臺。機(jī)器人內(nèi)部跟蹤算法使用了一種半監(jiān)督學(xué)習(xí)模型,利用采樣樣本的重疊率先驗信息,改進(jìn)了傳統(tǒng)的多實例學(xué)習(xí)跟
2、蹤算法。其中多實例學(xué)習(xí)中包模型判別函數(shù)直接在實例水平使用Fisher線性判別函數(shù)構(gòu)建。為了增強(qiáng)機(jī)器人實驗中跟蹤魯棒性,機(jī)器人跟蹤模塊使用了目標(biāo)回找機(jī)制,在目標(biāo)物突然消失場景中仍能重新找回丟失目標(biāo)。
傳統(tǒng)的“基于檢測來跟蹤”的算法使用在線分類器來跟蹤目標(biāo),由于采用的是自學(xué)習(xí)過程,跟蹤過程中目標(biāo)跟蹤失敗分類器會很容易退化。針對此問題,本文的機(jī)器人內(nèi)部算法使用了一種改進(jìn)的基于半監(jiān)督學(xué)習(xí)的多示例學(xué)習(xí)跟蹤(MILFLD)。首先,課題以采
3、樣樣本與跟蹤目標(biāo)的重疊率信息為先驗構(gòu)建半監(jiān)督學(xué)習(xí)模型,這種半監(jiān)督學(xué)習(xí)模型結(jié)合了有標(biāo)簽與無標(biāo)簽數(shù)據(jù),能有效克服傳統(tǒng)的基于檢測來跟蹤的算法中目標(biāo)漂移問題。其次,多示例學(xué)習(xí)中包模型判別函數(shù)的構(gòu)建利用了Fisher線性判別函數(shù),直接在實例水平選取最優(yōu)分類器。最后,本文從梯度下降的視角來優(yōu)化分類器的選取,每一次弱分類器的選取都以損失函數(shù)減少最多為條件,這樣可以從抑制誤差傳播角度看待分類器的選取,當(dāng)前幀訓(xùn)練得到的強(qiáng)分類器對于下一幀同樣具有判別性。為
4、了驗證機(jī)器人內(nèi)部跟蹤算法的跟蹤精度與魯棒性,課題在不同場景下對MILFLD算法做出10組驗證性實驗。實驗結(jié)果表明本文算法能有效地應(yīng)對各種現(xiàn)實場景下運(yùn)動目標(biāo)的跟蹤,在尺度與光照變化、快速運(yùn)動、存在目標(biāo)相似物以及部分遮擋情況時,都具備非常良好的跟蹤穩(wěn)定性與魯棒性。為了驗證機(jī)器人在實際環(huán)境中的跟蹤精度好壞,課題在現(xiàn)實場景中對機(jī)器人運(yùn)動跟蹤同樣做了幾組實驗。由實際場景中雙目視覺機(jī)器人跟蹤結(jié)果可以看出,本文提出的算法能有效解決移動機(jī)器人目標(biāo)跟蹤中
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于雙目視覺的移動機(jī)器人目標(biāo)跟蹤技術(shù).pdf
- 移動機(jī)器人雙目視覺導(dǎo)航技術(shù)研究.pdf
- 基于雙目視覺的移動機(jī)器人目標(biāo)跟蹤.pdf
- 基于雙目視覺的移動機(jī)器人導(dǎo)航技術(shù)研究.pdf
- 基于DSP的移動機(jī)器人雙目視覺技術(shù)研究.pdf
- 移動機(jī)器人視覺跟蹤技術(shù)研究.pdf
- 基于雙目視覺的移動機(jī)器人跟蹤運(yùn)動物體研究.pdf
- 基于雙目視覺的移動機(jī)器人室內(nèi)導(dǎo)航方法.pdf
- 基于雙目視覺的移動機(jī)器人局部路徑規(guī)劃.pdf
- 基于雙目視覺的移動機(jī)器人SLAM算法研究.pdf
- 移動機(jī)器人雙目視覺自主導(dǎo)航定位技術(shù)研究.pdf
- 基于移動機(jī)器人的雙目立體視覺技術(shù)研究.pdf
- 移動機(jī)器人雙目立體視覺技術(shù)研究.pdf
- 移動機(jī)器人雙目視覺定位與圖像處理的研究
- 移動機(jī)器人雙目視覺的三維重構(gòu).pdf
- 基于雙目視覺的室內(nèi)移動機(jī)器人定位研究.pdf
- 基于雙目視覺的移動機(jī)器人地圖構(gòu)建研究.pdf
- 單目視覺移動機(jī)器人目標(biāo)跟蹤算法研究.pdf
- 基于固定雙目視覺的移動機(jī)器人避障方法研究.pdf
- 移動機(jī)器人雙目視覺系統(tǒng)的研究與應(yīng)用.pdf
評論
0/150
提交評論