多智能体自适应算法

多智能体自适应算法

        针对复杂多变的游戏场景使得多智能体强化学习模型性能降低的问题,meta-MARL算法将基于actor-critic框架的多智能体强化学习算法COMA与元学习算法MAML相结合应用到星际争霸场景中,结合元学习的思想以帮助其快速适应新的场景,在不断变化的复杂环境中正常运行。

        meta-MARL算法基于Python3.6+环境下的pytorch、numpy等依赖库开发。算法输入为智能体数量、场景及对手决策的难易程度,输出为各智能体的决策动作。在代码的实现过程中,参考了COMA、MAML等第三方开源代码。


算法名称
meta-MARL
算法接口
python main.py --map=8m --difficulty=7
输入
智能体数量,场景及对手策略的难易程度
输出
各智能体的决策动作
依赖库
Python 3.6+、torch、numpy、smac
参考资源
COMA、MAML

gitlab链接:meta-MARL · GitLab (crowdhmt.com)

你可能感兴趣的文章

相关问题

1 条评论

请先 登录 后评论
尹懋龙
尹懋龙

10 篇文章

作家榜 »

  1. 解弘艺 17 文章
  2. 高曾谊 16 文章
  3. 胡中天 14 文章
  4. 旺仔牛奶opo 14 文章
  5. LH 14 文章
  6. 罗柏荣 13 文章
  7. Panda-admin 13 文章
  8. 林晨 12 文章