DeepMind的AI再次打败人类玩家,“攻下”57款雅达利游戏
Agent57为我们构建更加强大的AI决策模型奠定了基础。
AI打游戏会比普通人优秀?DeepMind给了肯定的答案。近日,DeepMind宣布它们的智能体Agent57首次在所有57款雅达利游戏上超越人类玩家。
近年来,DeepMind一直在研究提高智能体在游戏环境下的智能性,通常情况下,智能体在游戏中能够应对的环境越复杂,它在真实环境中的适应能力也会越强。
此次Agent57挑战的街机学习环境(Arcade Learning Environment,ALE)包括57款游戏,为智能体的强化学习提供了复杂的挑战。
而之所以会选择雅达利游戏作为训练的数据集,DeepMind表示雅达利游戏足够多样化,可以评估智能体的泛化性能,其次它可以模拟在真实环境中可能遇到的情况,并且雅达利游戏是由独立的组织构建,可以避免实验偏见。
据悉,Agent57在多台计算机上并行执行,并启用强化学习算法(Reinforcement learning,RL)驱动智能体采取行动,使得奖励的效果最大化。此前,强化学习在游戏领域就取得不少进展,比如OpenAI的OpenAI Five和DeepMind的AlphaStar RL智能体分别打败了99.4%的Dota 2玩家和99.8%的星际2玩家。
图 | Agent57的框架
雅达利游戏中的Montezuma、Revenge和Pitfall都很难,AI必须先尝试多种不同的策略,才能找到可行的方法。而在Solaris和Skiing游戏中,需要一段时间才能显示决策结果,这意味着AI必须在相当长的时间内收集尽可能多的信息。
Agent57通过让不同的计算机研究游戏的各个方面来克服了这些难题,然后将收集到的信息反馈给一个控制器,由控制器对所有这些因素进行分析以制定出最佳策略。
DeepMind将Agent57与当前最先进的算法MuZero、R2D2和NGU做了比较,Agent57显示出了更高的平均性能(100)。
研究团队表示,“这并不意味着雅达利游戏研究的结束,我们不仅要关注数据效率,也需要关注总体表现,未来的主要改进可能会是Agent57在探索、规划和信度分配上。”比如减少AI运行的算力,在集合中的一些较简单的游戏中变得更好。
Agent57在雅达利游戏中取得超越人类玩家的成绩,为我们构建更加强大的AI决策模型奠定了基础:AI不仅可以自动完成重复性的任务,也可以自动推理环境。
最新活动更多
-
即日-11.13立即报名>>> 【在线会议】多物理场仿真助跑新能源汽车
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 【限时免费下载】TE暖通空调系统高效可靠的组件解决方案
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论