가치 기반 다중 에이전트 강화학습 알고리즘들의 비교 분석 실험

Journal of Advanced Technology Research, Vol. 5, No. 2, pp. 6-12, 12월. 2020
10.11111/JATR.2020.5.2.006, Full Text:
Keywords: 다중 에이전트 강화학습, 협력적인 다중 에이전트 작업, 가치-기반 강화학습
Abstract

현실의 복잡한 환경에서 다중 에이전트는 분산된 방식으로 행동을 조절해야 한다. 시뮬레이션 등 많은 다중 에이전트 환경에서는 중앙 집중 훈련 및 분산 수행(centralized training with decentralized execution; CTDE) 방식이 활용되고 있다. 중앙 집중 훈련 및 분산 수행 환경에서의 다중 에이전트 학습을 위한 가치 기반(value-based) 다중 에이전트 알고리즘에 대한 많은 연구가 이루어졌다. 이러한 알고리즘들은 Independent Q-learning (IQL)이라는 강력한 벤치 마크 알고리즘으로부터 파생되어 다중 에이전트의 공동의 행동-가치의 분해(Decomposition) 문제에 대해 집중적으로 연구되었다. 본 논문에서는 앞선 연구들에 관한 알고리즘들에 대한 분석과 실용적이고 일반적인 도메인에서의 실험 분석을 통해 검증을 수행한다.


Statistics
Show / Hide Statistics

Statistics (Cumulative Counts from September 1st, 2017)
Multiple requests among the same browser session are counted as one view.
If you mouse over a chart, the values of data points will be shown.


Cite this article
[IEEE Style]
J. Kim, C. Ji, Y. Han, "Comparative Analysis Experiment of Value-Based Multi-Agent Reinforcement Learning Algorithms," Journal of Advanced Technology Research, vol. 5, no. 2, pp. 6-12, 2020. DOI: 10.11111/JATR.2020.5.2.006.

[ACM Style]
Ju-Bong Kim, Chang-Hun Ji, and Youn-Hee Han. 2020. Comparative Analysis Experiment of Value-Based Multi-Agent Reinforcement Learning Algorithms. Journal of Advanced Technology Research, 5, 2, (2020), 6-12. DOI: 10.11111/JATR.2020.5.2.006.