版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著科技的進(jìn)步,機(jī)器視覺在工業(yè)應(yīng)用中發(fā)揮了越來越大的作用。在工業(yè)機(jī)器人分揀工件過程中,需要對(duì)目標(biāo)進(jìn)行精確定位。圖像配準(zhǔn)是目標(biāo)精識(shí)別的一大主要解決手段,利用圖像配準(zhǔn)可以使圖像識(shí)別精度達(dá)到亞像素級(jí)。在復(fù)雜的場(chǎng)景中,圖像配準(zhǔn)問題往往得不到封閉解,目標(biāo)精識(shí)別的誤匹配率往往很大。如何提高復(fù)雜場(chǎng)景下工件目標(biāo)的配準(zhǔn)正確率以及配準(zhǔn)精度,是現(xiàn)階段需要解決的重點(diǎn)難題之一。
本文以復(fù)雜場(chǎng)景下工業(yè)零件作為識(shí)別和配準(zhǔn)對(duì)象,首先利用基于二次閾值分割的方向
2、倒角匹配法對(duì)工件目標(biāo)進(jìn)行粗略定位,然后改進(jìn)三種傳統(tǒng)的配準(zhǔn)算法分別對(duì)工件目標(biāo)進(jìn)行精確配準(zhǔn),最后進(jìn)行實(shí)驗(yàn)驗(yàn)證,并通過坐標(biāo)轉(zhuǎn)換,測(cè)定三種改進(jìn)的配準(zhǔn)算法在復(fù)雜場(chǎng)景下對(duì)工件目標(biāo)精定位的性能,主要完成的研究工作如下:
?。?)研究了基于二次閾值分割的方向倒角模板匹配算法。首先利用大津法對(duì)復(fù)雜背景下的目標(biāo)圖像進(jìn)行圖像分割,得到目標(biāo)和雜亂物的前景圖像,然后利用迭代閾值法對(duì)前景圖像進(jìn)行進(jìn)一步分割,分割之后得到目標(biāo)物體。經(jīng)測(cè)試,該算法的工件平均識(shí)別
3、率達(dá)到72%以上,匹配率為99.25%。
?。?)重點(diǎn)研究了三種傳統(tǒng)配準(zhǔn)算法,對(duì)這三種算法進(jìn)行改進(jìn),得到約束SIFT特征配準(zhǔn)算法,信賴域阻尼高斯牛頓法圖像配準(zhǔn)算法和類SIFT去噪TICP算法。
首先,根據(jù)復(fù)雜場(chǎng)景下工件目標(biāo)的具體特征,對(duì) SIFT配準(zhǔn)算法加入約束 SIFT特征配準(zhǔn)概念,利用魯棒性高的ShapeMatch模板匹配對(duì)目標(biāo)進(jìn)行匹配,獲得粗略幾何變換信息,尋找模板圖像和待配準(zhǔn)圖像的匹配特征點(diǎn)對(duì),剔除誤匹配點(diǎn)對(duì),
4、再利用隨機(jī)抽樣一致性法對(duì)匹配點(diǎn)對(duì)進(jìn)行更加魯棒的幾何變換參數(shù)估計(jì)。仿真結(jié)果顯示,該算法在x、y方向上的誤差均值分別為0.030個(gè)像素和0.041個(gè)像素,旋轉(zhuǎn)角度誤差為0.11°,配準(zhǔn)準(zhǔn)確率為90.7%。
其次,針對(duì)高斯牛頓法的不足之處:若初始迭代點(diǎn)距離目標(biāo)點(diǎn)很遠(yuǎn)時(shí),迭代步長(zhǎng)過大無法找到極值;在復(fù)雜場(chǎng)景下,容易陷入局部解。本文提出信賴域阻尼高斯牛頓法,即每次配準(zhǔn)迭代時(shí)設(shè)定置信區(qū)間,在信賴區(qū)間內(nèi)進(jìn)行阻尼高斯牛頓法搜索極值點(diǎn)。仿真結(jié)果
5、顯示,信賴域阻尼高斯牛頓法的x、y方向上的定位誤差分別為0.0345個(gè)像素和0.0736個(gè)像素,旋轉(zhuǎn)角度誤差為0.0984°,配準(zhǔn)準(zhǔn)確率為86.7%。
最后,針對(duì)傳統(tǒng)迭代最近點(diǎn)法在復(fù)雜場(chǎng)景下配準(zhǔn)目標(biāo)時(shí),容易陷入局部解的問題,提出了類SIFT去噪TICP算法,該算法利用類SIFT算子對(duì)目標(biāo)區(qū)域進(jìn)行魯棒去噪,然后使用截?cái)嗟罱c(diǎn)法(TICP)進(jìn)行配準(zhǔn)。仿真結(jié)果顯示,該算法在x和y方向上的定位誤差分別為0.043個(gè)像素和0.054
6、2個(gè)像素,旋轉(zhuǎn)角度平均誤差為0.0998°,配準(zhǔn)方面的準(zhǔn)確率為90.0%。
?。?)設(shè)計(jì)了復(fù)雜場(chǎng)景下目標(biāo)真實(shí)位置測(cè)定實(shí)驗(yàn),測(cè)定了本文工件目標(biāo)精定位算法的性能,結(jié)果顯示:約束SIFT特征配準(zhǔn)算法、信賴域阻尼高斯牛頓法、類SIFT去噪TICP算法在x方向上的誤差均值分別小于0.6mm、0.4mm、0.5mm,在y方向上的誤差均值分別小于0.7mm、0.55mm、0.5mm,運(yùn)行時(shí)間分別為0.18s~0.22s、0.88s~0.94s
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 復(fù)雜場(chǎng)景下單目標(biāo)視覺跟蹤算法研究.pdf
- 基于雙目視覺的無夾具工件定位方法研究.pdf
- 復(fù)雜場(chǎng)景中視覺運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤.pdf
- 基于單目視覺的目標(biāo)識(shí)別與定位.pdf
- 復(fù)雜場(chǎng)景下運(yùn)動(dòng)目標(biāo)的視覺跟蹤方法研究.pdf
- 基于雙目視覺的運(yùn)動(dòng)目標(biāo)定位研究.pdf
- 基于單目視覺的目標(biāo)物定位算法研究.pdf
- 復(fù)雜場(chǎng)景中多目標(biāo)視覺跟蹤技術(shù)研究.pdf
- 復(fù)雜場(chǎng)景下的單目標(biāo)視覺跟蹤算法研究.pdf
- 基于單目視覺的目標(biāo)識(shí)別與定位研究.pdf
- 基于單目視覺的目標(biāo)定位技術(shù)研究.pdf
- 復(fù)雜場(chǎng)景條件下視覺目標(biāo)漸進(jìn)搜索方法研究.pdf
- 基于雙目視覺的自然場(chǎng)景感知.pdf
- 基于機(jī)器視覺的目標(biāo)分類與場(chǎng)景定位研究.pdf
- 基于雙目視覺的機(jī)械臂目標(biāo)定位與抓取.pdf
- 基于單目視覺的室內(nèi)目標(biāo)定位技術(shù)研究.pdf
- 基于SIFT算法的雙目視覺目標(biāo)識(shí)別與定位.pdf
- 基于單目視覺的運(yùn)動(dòng)目標(biāo)跟蹤定位技術(shù)研究.pdf
- 基于計(jì)算機(jī)視覺的復(fù)雜場(chǎng)景下目標(biāo)跟蹤研究.pdf
- 彩色圖像分割與復(fù)雜場(chǎng)景下視覺目標(biāo)跟蹤方法研究.pdf
評(píng)論
0/150
提交評(píng)論