基于逆向強化學習的報酬函數(shù)構(gòu)建.pdf_第1頁
已閱讀1頁,還剩70頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、近幾年來,強化學習和學徒學習作為機器學習的兩個子領(lǐng)域得到了極大的發(fā)展。在目前的強化學習技術(shù)中,報酬函數(shù)的自動構(gòu)建是迫切需要解決的問題。對于學徒學習,首先要構(gòu)建出專家的報酬函數(shù)才能從專家的演示軌跡中得到專家的控制策略。本論文的研究內(nèi)容是報酬函數(shù)的自動構(gòu)建問題,該問題被稱為逆向強化學習問題。逆向強化學習的思想是在一個馬爾可夫決策過程問題中,觀察專家在其中的行為軌跡,并依據(jù)該專家軌跡還原或近似“還原”與其對應(yīng)的專家報酬函數(shù),解決了一些環(huán)境中不

2、能具體描述報酬函數(shù)的問題。
  本文的研究內(nèi)容分為兩個方面。一方面將基于靈敏度的學習優(yōu)化問題的思想與標準逆向強化學習相結(jié)合,得到一種基于靈敏度的逆向強化學習分析框架。該分析框架將報酬函數(shù)僅與狀態(tài)有關(guān)的基本逆向強化學習推廣到報酬函數(shù)不僅與狀態(tài)有關(guān)而且與行動有關(guān)的情況。另一方面將逆向強化學習算法分為兩大類,并對這兩類方法加以比較。一類是在值函數(shù)空間內(nèi)的方法,另一類是在策略空間內(nèi)的方法,其中在值函數(shù)空間內(nèi)的方法包括基于最大邊際的逆向強化

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論