基于模糊Q學習的Agent智能決策研究與實現.pdf_第1頁
已閱讀1頁,還剩55頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、強化學習是一種無監(jiān)督的機器學習技術,能夠利用不確定的環(huán)境獎賞發(fā)現最優(yōu)的行為序列,實現動態(tài)環(huán)境下的在線學習,因此被廣泛用于Agent的智能決策。目前主流的強化學習算法是Q學習算法,但Q學習本身存在一些問題。首先,Q學習算法不能適用于連續(xù)狀態(tài)空間和動作空間的學習,其次,當狀態(tài)空間很大時,Q表在內存中的存儲以及查詢都變得十分困難。最后,Q學習算法的學習速度較慢。本文針對RoboCup中的具體問題,結合模糊推理系統對Q學習算法進行了一些擴充和改

2、進,使其適用于復雜環(huán)境下的Agent智能決策。本文的主要研究工作如下: 1.提出一種模糊Q學習算法,通過模糊推理系統將連續(xù)的狀態(tài)空間映射到連續(xù)的動作空間,然后通過學習得到一個完整的規(guī)則庫。這個規(guī)則庫可以為Agent的動作選擇提供依據,通過這個規(guī)則庫可以實現動態(tài)規(guī)劃。我們將這個算法應用于RoboCup中,實現了踢球策略的優(yōu)化。 2.針對RoboCup中的截球問題,提出了一種多回報模糊Q學習算法。該算法采用模糊邏輯對狀態(tài)空間

3、進行泛化,能夠實現連續(xù)狀態(tài)空間和離散動作序列的學習,通過學習得到一個完整的規(guī)則庫。為了實現Agent短期利益和長期回報間的平衡,算法從不同角度考慮動作的回報值。我們應用該算法成功的解決了RoboCup中的截球問題和2VS1高層決策問題。 3.提出了一種基于先驗知識的模塊化FuzzyQ學習算法,用于解決連續(xù)狀態(tài)空間下的多Agent學習問題。該算法采用模糊推理系統進行狀態(tài)空間的泛化,使用先驗知識以提高算法在初始階段的性能。另外,為了

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論