基于自標定的機器人視覺定位研究.pdf_第1頁
已閱讀1頁,還剩50頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、在機器人系統(tǒng)中引入視覺反饋控制,有利于增加機器人的靈活性,提高控制精度.通過"示教"方法實現(xiàn)眼在手的視覺伺服是機器人研究領(lǐng)域的一個熱點問題.本文針對自標定方法在機器人視覺定位中的應(yīng)用研究,進行如下幾個方面的工作: 1 通過對Mendonca-Cipolla和GChesi自標定算法的分析,提出了一種改進的基于自適應(yīng)遺傳算法(AGA)的自標定位置視覺伺服算法.首先對本質(zhì)矩陣進行奇異值分解,依據(jù)3個奇異值的特性在線生成目標函數(shù),在進行

2、動態(tài)自標定的同時,完成視覺伺服過程. 采用AGA動態(tài)優(yōu)化攝像機內(nèi)參數(shù),克服了G.chesi方法中要求攝像機內(nèi)參數(shù)不可變的限制,通過設(shè)置參數(shù)范圍可精確逼近5個內(nèi)參數(shù).另外算法不需要物體精確的3維模型,僅僅只需8個空間固定點坐標信息.仿真結(jié)果表明,該算法應(yīng)用于基于位置的視覺伺服時比G.chesi方法運算速度更快,同時魯棒性更強. 2 針對自適應(yīng)遺傳算法算法中存在的內(nèi)參數(shù)分布區(qū)間大,編碼時間長,不利于實時控制的不足,將改進后的

3、變尺度混沌優(yōu)化算法用于優(yōu)化動態(tài)生成的目標函數(shù),以提高運算速度.先把混沌變量映射到待尋優(yōu)的5個內(nèi)參數(shù)區(qū)間,通過設(shè)置內(nèi)外兩層循環(huán),內(nèi)循環(huán)進行混沌搜索,外循環(huán)負責(zé)縮小內(nèi)參數(shù)搜索區(qū)間,避免了混沌優(yōu)化在內(nèi)參數(shù)區(qū)間的盲目重復(fù)搜索,提高了搜索效率. 3 以MOTOMAN-SV3XL型工業(yè)機器人為實驗對象,首先采用Harris角點檢測算法提取角點.為獲得高精度的基本矩陣,進一步采用互相關(guān)對稱性匹配,建立兩個視角間的對應(yīng)關(guān)系并做標記.最后加上視差

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論