前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >不好,两群AI打起来了!“幕后主使”是上海交大~

不好,两群AI打起来了!“幕后主使”是上海交大~

作者头像
量子位
发布2018-03-22 17:38:07
9250
发布2018-03-22 17:38:07
举报
文章被收录于专栏:量子位
夏乙 若朴 发自 凹非寺 量子位 出品 | 公众号 QbitAI

你们这些科学家在干什么!怎么教会AI打群架啦!

成百上千的AI agent,分成两支AI大军对战起来。从动图中还可以看出来,它们的战斗方式并不是简单的平A,包围、游击等等高级战术在这三场AI战役中悉数登场。

战役发生的地点,是上海交大中英联合AI研究小组Geek.ai最新发布的强化学习平台:MAgent

强化学习平台不少,MAgent是一个异类。OpenAI Gym、微软Malmo等等前辈几经改进,却都只能训练一个或者几个智能体,就算它们强调“multi-agent”,最多也不过支持几十个而已。

而在MAgent平台上,可以训练比更多还更多的agent,支持的量级可达到从数百到数百万。开发团队称之为“many-agent”。

量子位暂时按捺住把它翻译成“智能体大军”的冲动,在本文中就叫“群智能体”吧。

把这么多agent放在一起,要研究什么呢?我们先来看一段视频:

搭配BGM看小方块跑来跑去,莫名的燃~

Geek.ai团队说,把成百上万的agent聚集在一个环境中,是为了研究Artificial Collective Intelligence(ACI),也就是AI如何群策群力,创造集体智慧。ACI的研究虽然还很初步,但已经在股票交易、策略博弈、城市交通优化等等领域有所应用。

AI的集体智慧

在上面的视频里,成群的AI聚在一起形成了一个小社会,出现交流、竞争、合作等社会现象,里面的agent个体也会有种种社会行为。

视频就展示了基于MAgent设计的三个群智能体环境:追逐(Pursuit)、采集(Gathering)和战斗(Battle),大致相当于人类老祖宗们常做的三件事:一起打猎、出去摘果子、和另一拨老祖宗打架。

我们可以来看看agent在这三种环境中的行为:

追逐

在追逐环境中,红色智能体代表捕食者、蓝色表示猎物、灰色的是墙。捕食者包围、锁定猎物,接下来就能在攻击时就能得到奖励,而猎物被攻击会受到惩罚。

我们可以看到局部合作行为的出现。经过训练,四个捕食者会合作包围一个猎物,还会在包围猎物时利用墙壁作为辅助。

采集

在采集环境中,红色方块是食物,蓝色的是agent,agent可以互相攻击,吃到(采集到)食物就会获得奖励。有两个选择摆在他们面前:是直接去吃掉食物,还是杀死竞争者独占食物。

于是,竞争出现了。

经过训练,agent在一开始时会选择直接冲过去吃掉食物,如果两个agent相遇,就会尝试杀死对方、独占食物、获得奖励。食物越少,agent越好斗。

战斗

战斗环境,就是我们在文章最开头看到的AI打群架啦。

这其中既有合作又有竞争,红色和蓝色agent分别组成两支军队,杀死对手就能获得奖励,被杀死就会被惩罚。也就是说,agent在这个环境中的任务,是和队友合作去消灭敌军。

这些agent通过简单的自我对局训练,学会了全局和局部策略,包括包围、游击等等。

MAgent详情

在MAgent平台上,每个agent都是一个小方块,带有详细的局部信息,有些还带有全局信息。agent可以移动、旋转、攻击。

它们背后有一个C++引擎,支持多样化的agent,通过简单设置状态空间、行为空间和agent的属性,可以创造出多样的环境。

为了让用户灵活地设计环境,MAgent还提供一种用来描述奖励、agent标志、事件的语言,还支持“与/或/非”逻辑运算。

另外,MAgent还提供一个简单的图形化渲染器,对环境和agent的当前状态进行交互式展示,用户可以拖动、缩放窗口,甚至可以操纵游戏中的agent。

更多详情,可以看看MAgent的论文,或者把代码拿来上手试一试。

论文(将在AAAI-18 Demonstrations Program上展示):

MAgent: A Many-Agent Reinforcement Learning Platform for Artificial Collective Intelligence Lianmin Zheng, Jiacheng Yang, Han Cai, Weinan Zhang, Jun Wang, Yong Yu http://cn.arxiv.org/abs/1712.00600

代码:

https://github.com/geek-ai/MAgent

背后的Geek(们)

这篇论文的共同第一作者,是上海交大的郑怜悯(Lianmin Zheng)和杨嘉成(Jiacheng Yang)。

公开信息显示,今年陈天奇团队发布TVM时,郑怜悯的名字曾出现在致谢名单中。去年上海交大第六届智能车校内赛上,郑怜悯和同学组队获得信标导引组的一等奖。中学时期,郑怜悯还曾获得温州市“小科学家”称号。

郑怜悯和杨嘉成,都是上海交大致远学院(基础学科拔尖学生培养试验计划)2015级计算机科学班的学生。

这篇论文的其他作者还包括,Han Cai、Weinan Zhang(张伟楠)、Jun Wang、Yong Yu(俞勇)。

其中,张伟楠是上海交通大学,计算机科学与工程系助理教授。他的研究兴趣包括机器学习和大数据挖掘,尤其是深度学习和(多智能体)强化学习的架构、机制、训练方法以及在真实场景中的应用。

张伟楠2016年从伦敦大学学院获得博士学位,2011年在上海交大ACM班获得学士学位。他曾在MediaGamma、微软研究院、Google和DERI实习。

Jun Wang是伦敦大学学院的信息系统和数据科学教授。他同时也是一家AI创业公司MediaGamma的联合创始人兼首席科学家,这家公司专注于实时决策。

Jun Wang博士毕业于荷兰代尔夫特理工大学,硕士毕业于新加坡国立大学,学士毕业于南京的东南大学。

俞勇是上海交通大学计算机科学与工程系教授,致远学院计算机科学方向项目主任,也被称为上海交大ACM总教头。

Han Cai的信息量子位没有查询到。

另外补充一个信息,Jun Wang和张伟楠等人,成立了一个名为Geek.AI的团队,这是一个中英联合AI研究小组。

这个研究小组专注于机器学习的高级问题和方法,包括监督/无监督学习(涵盖大多数预测应用,如推荐系统、图像识别和网页排名等),强化学习(涵盖所有决策应用,例如下围棋、自动驾驶、竞拍和智能选股等)。

除了他们两位,小组成员还包括Dell Zhang(张德),伦敦大学伯贝克学院,计算机科学高级讲师。他主要从事机器学习、数据挖掘、信息抽取、NLP、社会网络分析等领域的研究。

OMT

还有一事。

郑怜悯在GitHub上公布了他参与的几个项目,其中有一个Python写成的网页版“狼人杀”,中午没事儿可以试一下~

地址在此:http://wolf-killer.herokuapp.com/

初次登录,需要你填写用户名和密码,如果想下次继续登录,千万记好密码。登录之后就能创建游戏,或者加入房间了。

大概就是下面这个样子。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-12-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • AI的集体智慧
    • 追逐
      • 采集
        • 战斗
        • MAgent详情
        • 背后的Geek(们)
        • OMT
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档