基于深度强化学习的目标跟踪sim-to-real迁移策略

一种基于零和博弈的奖励函数用以加快目标跟踪算法收敛,做到策略自适应不同场景

     传统的目标跟踪算法存在难以鲁棒跟踪、迁移效果不理想等问题,而深度强化学习的高学习探索能力可以适应复杂多变的环境,做到一种策略适应不同的场景。难以收敛是深度强化学习算法目前存在的最大问题之一,针对此问题,团队提出一种基于零和博弈的奖励函数用以加快算法收敛,并将其部署到大疆Robomaster EP平台,验证其算法效果。


算法名称
基于深度强化学习的目标跟踪
算法接口
python test.py
输入
跟踪器数量、目标数量、环境模型
输出
基于不同智能体跟踪策略
依赖库
python3.6,pytorch1.2,opencv-python3.4
参考资源
End-to-end Active Object Tracking and Its Real-world Deployment via Reinforcement


Gitlab链接:
STR· GitLab (crowdhmt.com)   
















    

你可能感兴趣的文章

相关问题

0 条评论

请先 登录 后评论
LH
LH

9 篇文章

作家榜 »

  1. 尹懋龙 10 文章
  2. LH 9 文章
  3. mingze 8 文章
  4. admin 6 文章
  5. hcshen 5 文章
  6. Marco Legend 4 文章
  7. 旺仔牛奶opo 3 文章
  8. Hao98 2 文章