基于Agent的多機器人信息融合與協(xié)調(diào)研究.pdf_第1頁
已閱讀1頁,還剩93頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

1、隨著現(xiàn)代科學技術(shù)的飛速發(fā)展,機器人的開發(fā)與應用范圍的不斷擴大。對于不同的工作任務和不同的工作環(huán)境,尤其是一些大型復雜的工作任務及環(huán)境,單體機器人在信息的獲取、處理及控制等方面能力有限的問題日益突出。因此,需要利用多機器人協(xié)作來提高工作能力。 多機器人系統(tǒng)是當前機器人技術(shù)領域的一個研究熱點,具有多學科交叉融合的顯著特點。本文以多機器人系統(tǒng)為研究背景,結(jié)合MAS(即多智能體系統(tǒng))的體系結(jié)構(gòu)以及協(xié)調(diào)與合作技術(shù),針對多機器人系統(tǒng)中信息的

2、融合,多機器人協(xié)調(diào)中的任務分配與規(guī)劃,對抗環(huán)境下的多機器人協(xié)調(diào)等問題對進行了深入研究,提供了有效的解決方案,主要工作和貢獻如下: 1.從分析和研究多Agent的體系結(jié)構(gòu)入手,提出了一種基于多Agent的信息融合模型,每個Agent分別對局部環(huán)境進行觀測,對局部環(huán)境信息產(chǎn)生各自的信念,融合中心對不同Agent的信念進行融合并得出最終的決策。在多Agent協(xié)調(diào)的學習與對策中,重點研究與分析了多Agent強化學習算法和Markov對策

3、。 2.提出了一種多Agent的分布式?jīng)Q策方法,構(gòu)建了基于證據(jù)推理的Agent信息模型和基于可傳遞置信模型的多Agent決策框架,并給出了相應的算法。通過在機器人足球賽中的應用,對賽場環(huán)境信息及對手態(tài)勢進行分析,得出有效的決策結(jié)論。 3.提出了一種基于知識的強化函數(shù)設計方法。在實際應用系統(tǒng)中對強化學習算法進行了改進,將經(jīng)驗信息和先驗知識引入到強化函數(shù)中,構(gòu)建了綜合終極目標的獎懲信息和Agent動作策略的獎懲信息的強化函數(shù)

4、。在機器人足球賽中的應用和實驗結(jié)果表明,基于知識的強化函數(shù)的學習效果明顯優(yōu)于傳統(tǒng)的強化函數(shù)。 4.提出了一種基于分布式強化學習的多Agent協(xié)調(diào)模型并給出了相應的算法。在研究和分析多Agent環(huán)境中的分布式強化學習的基礎上,設計了一種多級模型來解決多Agent協(xié)調(diào),利用協(xié)調(diào)級完成系統(tǒng)任務的分解與子任務分派,利用任務級完成各個子任務的執(zhí)行。在機器人足球賽中的結(jié)果表明,本方法的效果要優(yōu)于傳統(tǒng)的強化學習方法。 5.提出了一種基

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論