DeepMind与暴雪合作推进的星际争霸2人工智能研究正面临重重挑战。当前的人工智能在完整对战中难以击败游戏内置的简单电脑玩家。然而,双方于8月推出的SC2LE研究环境为后续被广泛利用。中国科学院自动化研究所的研究团队近期提出了一项名为MSC的新数据集,旨在促进宏观运营任务的研究。值得一提的是,该团队在10月8日的星际争霸AI竞赛AIIDE 2024中取得了第四名,部分研究人员也是竞赛团队的一员。

研究项目GitHub链接:[https://github.com/wuhuikai/MSC](https://github.com/wuhuikai/MSC)

尽管深度学习在Atari游戏、围棋以及第一人称3D射击游戏Doom中表现出色,但在即时战略游戏星际争霸面前,人工智能的发展遭遇了难题。星际争霸的动作和状态空间巨大,且游戏设定中的战争迷雾使得对手状态不完全透明。

DeepMind的最新研究显示,训练基于深度神经网络的端到端星际争霸2人工智能极为困难。尽管如此,Vinyals等科学家提出了SC2LE平台,并已训练出用于游戏的DNN网络A3C,但A3C仍无法战胜游戏内建的简单电脑玩家。中国科学院的研究人员认为,结合微观操作、建造指令预测和全局状态评估的智能体将是研究的下一步。

在微观操作方面,人工智能可以轻松达到近似人类的表现,但宏观运营仍是一道难题。一个有前景的方向是通过机器学习学习职业玩家的经验,利用游戏Replay培养“大局观”,并通过DNN进行建造指令预测。

星际争霸1拥有大量用于宏观运营学习的Replay数据集,但这些数据集存在局限性,如缺乏标准预处理和预定义的集。最大的星际争霸1数据集StarData包含约6.5万条游戏录像,但只有少数包含最终结果。DeepMind的SC2LE则包含了80万条星际争霸2的Replay,适用于多种宏观运营任务。

为了推进研究,中国科学院的研究人员基于SC2LE构建了MSC数据集,这是目前适用于星际争霸2宏观运营的最大数据集。研究人员定义了处理SC2LE中Replay的标准步骤,并将数据集分为训练、验证和测试集,同时展示了全局状态评估和建造顺序预测的基线模型和结果。

宏观运营是星际争霸系列游戏中玩家需掌握的关键能力,也是AI研究的热点。此前的研究存在诸多限制,如缺乏标准预处理和预定义的集。MSC数据集的推出,为宏观运营的研究提供了新的可能性和工具。