首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

特大喜讯!娄底冷江一中毕业的清华博士廖方舟战胜各国高手扬名美国洛杉矶

廖方舟是冷水江一中2009届326班毕业的校友,他当年以优异的成绩考入清华大学,是冷水江一中众多学霸中的佼佼者。此次比赛,渗入了他多年的愿望,能否找到攻克癌症的前沿技术一直是他前进的方向,也许正是带着这种科学家的使命感与责任感成就了他们团队的成绩。

清华大学张钹院士带领的人工智能创新团队:清华大学计算机系博士生董胤蓬、廖方舟(原冷水江一中326班学生)和庞天宇(指导教师:朱军、胡晓林、李建民、苏航),在NIPS 2017 AI对抗性攻防竞赛中获得冠军,战胜来自斯坦福、约翰霍普金斯大学等世界著名高校在内的100多支代表队,在人工智能技术的鲁棒性和安全性应用方面迈出了重要一步。

清华大学计算机系博士生廖方舟(原冷水江一中326班学生)

以深度学习为代表的人工智能系统近年来在图像分类、目标识别等诸多任务中都获得了突破性进展,但是研究发现深度学习模型在鲁棒性上存在严重的不足,很多在特定数据集上测试性能良好的模型反而会被一些人眼不容易识别的「对抗」样本欺骗,导致出现高可信度的错误判断,这就给未来人工智能技术的应用带来严重的安全隐患,引起了国内外诸多研究机构的广泛关注。

针对这一问题,谷歌大脑(Google Brain)于 NIPS2017 上组织了面向对抗样本攻防(Adversarial Attacks and Defenses)的竞赛。清华大学计算机系博士生董胤蓬、廖方舟和庞天宇(指导教师:朱军、胡晓林、李建民、苏航)所组成的代表队在全部三项比赛任务中(有/无特定目标攻击;攻击检测),全部获得冠军,战胜了包括斯坦福、约翰霍普金斯大学等世界著名高校在内的 100 多支代表队,在人工智能模型的鲁班性和安全性应用方面迈出了重要一步。

清华大学计算机系博士生廖方舟(原冷水江一中326班学生)在竞赛中做展示

对抗样本是指攻击者通过向真实样本中添加人眼不可见的噪声,导致深度学习模型发生预测错误的样本,如下图所示:给定一张图片(雪山或河豚),攻击方给图片添加了微小的扰乱,尽管人眼很难发觉,但是模型却高概率的将其误分(狗或螃蟹)。

对抗样本示例,左列为真实样本,中间列为噪声,右列为对抗样本。

随着深度学习在各个领域发挥着日益重要的作用, 防止对抗样本对深度学习系统的干扰、提高模型的鲁棒性和可靠性成为关键的研究课题, 特别是在一些对于可靠性要求很高的应用领域, 例如自动驾驶、医疗、金融、安全等。

正是由于对抗样本具有重要的学术研究和实际应用价值,谷歌在 NIPS2017 上组织了首届对抗性攻防竞赛,旨在推动此领域的发展。比赛分为三个项目,包括无目标地生成对抗样本(分类错误即可)、有目标地生成对抗样本(分类错误为指定类别)和防御对抗样本。比赛采用对抗式模式,通过攻击者和防守者互相对抗,计算攻击和防御的成绩。

清华大学团队在全部三个项目中取得了第一名的成绩,并在有目标攻击和防御两个项目上取得了远超过第二名的得分。在比赛中,该团队提出了基于动量的迭代式攻击方法和高层特征指导的降噪器,展示出了很好的攻击和防御效果,为此领域的发展做出了突出的贡献,为人工智能系统在实际应用中的鲁棒性和安全性检验提供了新的验证基准。技术细节在后续的报道中会进一步跟进。

清华大学团队部分成员与竞赛组织者 Ian Goodfellow、Alexey Kurakin 的合影

NIPS 是机器学习领域的顶级国际会议,于 12 月 4 日-9 日在美国洛杉矶的长滩举行,该团队今年有 4 篇论文被录用。至今,该团队已经连续 8 年均有论文在 NIPS 发表。

为娄底拥有廖方舟这样的精英学子点赞!

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171213B0898000?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券