基于強化學習的異構多智能體區(qū)域覆蓋算法研究.pdf_第1頁
已閱讀1頁,還剩76頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、面向地-空多智能體系統(tǒng)的區(qū)域覆蓋問題,建立了基于分布式部分可觀測馬爾可夫決策模型(DEC-POMDPs)描述觀測異構、驅動模式異構的多智能體系統(tǒng),通過強化學習算法解決多智能體系統(tǒng)的路徑規(guī)劃及避障問題,主要包括以下幾個方面的研究內(nèi)容:
  首先介紹了由馬爾可夫決策模型(MDP)向DEC-POMDPs模型的演變過程。由于智能體模型觀測的局部特性和不確定性,各智能體獲得的觀測不再具備馬爾可夫性,導致DEC-POMDPs模型求解最優(yōu)結果時

2、策略空間維度爆炸——即NEXP完全問題。
  其次,針對單智能體搭建了基于POMDP模型的區(qū)域覆蓋仿真場景,利用QMDP算法和Q-learning算法求解行動策略。通過調整模型參數(shù),分析了觀測不確定性和觀測精度對POMDP強化學習收斂效果的影響。
  再次,實現(xiàn)了基于DEC-POMDPs模型的多智能體在線規(guī)劃算法,并搭建了多個多智能體仿真場景,驗證算法的有效性。考慮到通訊動作的低耗時和高時效性,根據(jù)通訊動作判斷智能體是否獲得

3、聯(lián)合觀測,設計一種包含多個強化學習模塊的異構多智能體強化學習決策框架,在不影響分布式強化學習收斂速度的前提下,有效降低了通訊頻率,提高了多智能體系統(tǒng)在隱性馬爾科夫決策過程中的狀態(tài)辨識度和決策效率。
  為了方便理論驗證和理論分析,開發(fā)了基于MATLAB軟件的多智能體強化學習工具箱,搭建了完善的強化學習仿真運算框架,實現(xiàn)了智能體運動學模型、地圖環(huán)境仿真、強化學習算法等模塊,設計實現(xiàn)了持久層模塊,借助數(shù)據(jù)庫技術改善了MATLAB軟件處

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論