面向室內(nèi)場(chǎng)景的3D場(chǎng)景重建與語(yǔ)義理解.pdf_第1頁(yè)
已閱讀1頁(yè),還剩104頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、場(chǎng)景感知與理解是計(jì)算機(jī)視覺(jué)、人工智能、智能機(jī)器人的一項(xiàng)長(zhǎng)期目標(biāo)。近年來(lái),隨著深度傳感器的發(fā)展,基于深度攝像頭的室內(nèi)場(chǎng)景感知技術(shù)得到了越來(lái)越多的關(guān)注與研究。本文關(guān)注于室內(nèi)場(chǎng)景的構(gòu)建與理解,提出了從RGB-D場(chǎng)景構(gòu)建,RGB-D圖像語(yǔ)義理解到語(yǔ)義場(chǎng)景地圖的構(gòu)建一整套系統(tǒng)。具體如下:
  第一,本文采用RGB-D圖像進(jìn)行場(chǎng)景拼接,構(gòu)建全局場(chǎng)景地圖。利用幀間對(duì)齊技術(shù)進(jìn)行圖像拼接,并用環(huán)檢測(cè)和位姿圖優(yōu)化的方法消除幀間累積誤差,從而保證可以進(jìn)

2、行大尺度的場(chǎng)景構(gòu)建,在全局場(chǎng)景表示方面,提出了點(diǎn)云與Mesh兩種表示方法。
  第二,為了達(dá)到語(yǔ)義理解的目的,對(duì)RGB-D圖像進(jìn)行語(yǔ)義分割,其目的是將圖像中的每個(gè)像素點(diǎn)都分類成類別。將每個(gè)像素點(diǎn)與兩種類別相關(guān)聯(lián):物體類別與結(jié)構(gòu)類別。結(jié)構(gòu)類別保證人們可以宏觀結(jié)構(gòu)上理解圖像(如家具、墻、小物體的分布),而物體類別可以使我們了解到圖像中物體的具體分布。通過(guò)條件隨機(jī)場(chǎng)模型(CRF)的聯(lián)合推理實(shí)現(xiàn)圖像的語(yǔ)義分割。
  第三,通過(guò)將RG

3、B-D場(chǎng)景重建技術(shù)和語(yǔ)義分割技術(shù)相結(jié)合,就可以構(gòu)建全局場(chǎng)景的語(yǔ)義地圖,但是RGB-D圖像序列的語(yǔ)義分割結(jié)果不具有時(shí)序一致性,本文通過(guò)計(jì)算幀間超像素的對(duì)應(yīng)關(guān)系捕獲時(shí)序性信息,將其建模為高階勢(shì)能,利用高階CRF模型進(jìn)行推理,從而加強(qiáng)時(shí)序性約束,得到時(shí)序一致的語(yǔ)義地圖。
  第四,人工標(biāo)注圖像進(jìn)行訓(xùn)練往往要耗費(fèi)大量人工與時(shí)間,本文提出減少人工標(biāo)注工作量的方法。先從圖像序列中選出極少的圖像進(jìn)行人工標(biāo)注,再利用標(biāo)注傳播的方法自動(dòng)標(biāo)注剩余圖像

4、和場(chǎng)景,從而解決訓(xùn)練圖像需要大量人工標(biāo)注的問(wèn)題。
  本文的主要貢獻(xiàn)與創(chuàng)新之處在于:
  第一,本文通過(guò)多種方法保證了RGB-D重建系統(tǒng)的魯棒性、實(shí)時(shí)性、尺度性和自主性。魯棒性方面,本文將基于特征點(diǎn)對(duì)齊和基于ICP對(duì)齊的技術(shù)進(jìn)行了結(jié)合,從而減少失敗的情況。實(shí)時(shí)性方面,本文對(duì)重建過(guò)程中的幾乎所有算法實(shí)現(xiàn)了GPU加速,包括角點(diǎn)、ORB特征點(diǎn)計(jì)算、特征點(diǎn)匹配、RANSAC算法、ICP算法、稀疏化算法、Marching cubes算

5、法等等。在尺度性上,本文采用環(huán)檢測(cè)與全局位姿圖優(yōu)化的方法進(jìn)行誤差消除,保證全局一致性。自主性方法,本文使用可佳機(jī)器人平臺(tái),利用其導(dǎo)航系統(tǒng)實(shí)現(xiàn)服務(wù)機(jī)器人自主構(gòu)建室內(nèi)場(chǎng)景3D地圖的功能。
  第二,本文利用多種上下文關(guān)系進(jìn)行RGB-D圖像的語(yǔ)義分割。通過(guò)CRF圖模型,本文實(shí)現(xiàn)了圖像場(chǎng)景類別、超像素的物體類別和結(jié)構(gòu)類別的聯(lián)合推理。同時(shí)建立了多種成對(duì)點(diǎn)勢(shì)能關(guān)系,包括場(chǎng)景與物體關(guān)系、物體與物體關(guān)系、物體與結(jié)構(gòu)關(guān)系、空間位置關(guān)系等。通過(guò)圖模型

6、的聯(lián)合推理,保證了分類結(jié)果在空間上的一致性。
  第三,本文通過(guò)對(duì)RGB-D圖像序列計(jì)算時(shí)序信息,擴(kuò)展CRF模型的高階勢(shì)能,利用高階勢(shì)能加強(qiáng)時(shí)序約束來(lái)保證最終語(yǔ)義地圖的時(shí)序一致性,提高了語(yǔ)義地圖準(zhǔn)確度。
  第四,本文利用RGB-D圖像序列之間的3D位姿關(guān)系,通過(guò)找出最小的可以覆蓋整個(gè)場(chǎng)景的標(biāo)注幀,利用標(biāo)注傳播的技術(shù)進(jìn)行圖像的自動(dòng)標(biāo)注,大大減少了人工標(biāo)注訓(xùn)練數(shù)據(jù)的工作量。實(shí)驗(yàn)表明對(duì)于1831幀的圖像序列,只需人工標(biāo)注22幀的

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論