从信心满满到麻木绝望,这是有「不败少年」之称的南韩棋士李世乭,在2016年与Google开发的人工智慧AlphaGo对弈的心情转折。
从李世乭败给人工智慧(AI)开始,一般大众逐渐正视AI的潜在发展性,而相较于双方都能掌握赛局全面资讯的围棋,在电竞中,因为仅能掌握视野裡的片段讯息,且是动态进行、反应时间短暂、複杂度远远高出许多,这也是为什麽像DeepMind、OpenAI这些人工智慧公司都纷纷将AI与电竞结合,不论是训练选手,或是击败选手,AI让我们看见电竞的另一种可能。
今夏挑战团体战,OpenAI再度获胜
「如果你不关心AI的安全性,现在应该要这麽做,AI造成的威胁比北韩更高。」特斯拉执行长马斯克(Elon Musk)会这麽说,是因为由他创办的非营利人工智慧组织OpenAI,开发出的AI机器人,2017年成功在电竞游戏《Dota 2》中击败人类选手。
OpenAI技术长葛瑞格.布洛克曼(Greg Brockman)表示,OpenAI完全是透过自学,训练出一套专属的战略玩法,且整个训练过程仅花了两週,赛后马斯克表示,「这是OpenAI首次在比围棋更複杂的电竞项目中击败人类。」一席话暗指OpenAI的成就胜于AlphaGo。
不过这麽说或许不全然公平,曾在Google大脑团队工作过的研究员丹尼.布里兹(Denny Britz)认为,OpenAI击败人类并没有实质上的重大突破,因为这场比赛採一对一的模式,并非一般电竞比赛的多人团体战,在战术规划、协作能力等,複杂度根本不能相比。
此外,OpenAI是由《Dota 2》的API(应用程式介面)製作,因此机器可以事先掌握像是准确攻击距离数值,这些人类选手无法得到的游戏资讯,因此在基础上本身就不公平。布里兹认为AI并未有突破性的进展,只是研究人员用正确的方式绕过现有技术的限制来解决问题,并直言AI要在电竞中击败人类,还需要至少一、两年的时间。
然而OpenAI採自主学习模式,有可能发展出人类不曾使用的玩法,而最终人类可以向AI选手学习新的战略玩法,来精进自己的技能。2018年六月,OpenAI团队已经成功製作一款能够在《Dota 2》中以「团体战」形式,击败5名顶尖业馀玩家的AI软体「OpenAI Five」;AI与AI之间能够相互配合,被认为是电脑科学领域的新里程碑。
既能给人类新战略,也能让AI更聪明
就在击败李世乭后,Google的AI团队DeepMind与暴雪娱乐(Blizzard Entertainment),于2017年合作一项结合游戏《星际争霸2》的研究计画,不过跟OpenAI与人类竞赛的目的不同,DeepMind是要把游戏当成训练AI的工具,让AI变得更聪明、更精准。
《星际争霸2》是专业电竞比赛中的比赛项目之一,是一款高度複杂的游戏,玩家必须兼顾建构防御、採集资源、发展武器等工作,任务复杂且多样,不同玩法也会导致不同的结果。
看中这款游戏的複杂性,DeepMind推出将《星际争霸2》用于训练AI的介面API,资料库中集合了高达6万5千场的电竞比赛影像,让AI学习人类的战术,团队也将游戏中的特定元素,像是地图探索、资源收集分拆出来,让AI可以针对弱项单独训练,并将这些数据反馈给研究人员。
DeepMind研究员奥里欧.凡尼尔斯(Oriol Vinyals)认为,比起围棋,《星际争霸2》的複杂度更接近现实生活中的情况。围棋落点的可能性是10的170次方,而《星际争霸2》的複杂度至少要再加上100个零,不过目前AI在《星际争霸2》的探索仍处在早期阶段,反应能力仍不够准确。
与此同时,Google也开源了一个新的AI开源项目,AIY Projects,AIY 全称是 Artificial Intelligence Yourself,顾名思义就是利用 AI 来进行的 DIY 功能套件。套件包含人工智能语音识别开发套件和人工智能图像识别开发套件两个产品,目的是让人人都可以使用人工智能进行开发工作,将AI技术由浅入深的应用到游戏电竞等各个人类称霸的领域。
然而透过DeepMind、OpenAI的例子,已可以看到「AI+电竞」迈出关键性一步,不论是用来训练选手,或测试新的AI技术,也许未来AI科学家可以跟游戏发行商合作,在高度複杂的游戏中,结合AI科技来提升游戏本身以外的价值,加速AI整体发展速度。或许正如同DeepMind顾问大卫.邱吉尔(David Churchill)说的:「我们正在替未来可以用于真实世界的科技,打造一个测试的温床。」
领取专属 10元无门槛券
私享最新 技术干货