人类的运动控制在自然、高效地执行复杂运动方面一直是有效的,而且不需要太多的思考。这是由于中枢神经系统(CNS)中存在运动协同作用。运动协同作用允许中枢神经系统使用一组较小的变量来控制一大群肌肉;从而简化了对协调和复杂运动的控制。
现在,日本东北大学(Tohoku University)的研究人员在使用深度强化学习(DRL)算法的机器人代理中观察到了类似的概念。
DRL允许机器人代理在其虚拟环境中学习可能的最佳动作。它可以解决复杂的机器人任务,同时最大限度地减少人工操作并实现峰值性能。另一方面,经典算法需要人工干预才能为出现的每个新任务找到特定的解决方案。
然而,将人类世界的运动协同应用到机器人世界并非易事。尽管许多研究支持在人类和动物运动控制中使用运动协同作用,但其背景过程仍在很大程度上是未知的。
在目前的研究中,日本东北大学的研究人员在名为HalfCheetah和FullCheetah的行走机器人代理上使用了两种DRL算法。这两种算法分别是经典DRL TD3和高性能DRL SAC。
这两个机器人特工的任务是在给定的时间内向前跑得尽可能远。机器人总共完成了300万步。协同信息未用于-à-vis drl,但机器人代理在其整个运动中表现出运动协同的出现。
东北大学教授兼该研究的合著者Mitsuhiro Hayashibe指出:“我们首先以定量的方式证实,运动协同作用甚至可以像人类一样在深度学习中出现。”Hayashibe教授补充说:“在使用深度学习后,机器人代理提高了它们的运动性能,同时通过使用运动协同来限制能量消耗。”
展望未来,研究人员的目标是用不同的身体模型探索更多的任务,以进一步证实他们的发现。
引用此页: