前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >可怕!斯坦福AI看脸即知性取向,国外媒体和网友都炸了

可怕!斯坦福AI看脸即知性取向,国外媒体和网友都炸了

作者头像
量子位
发布2018-03-27 14:56:01
9810
发布2018-03-27 14:56:01
举报
文章被收录于专栏:量子位
安妮 李林 编译整理 量子位 出品 | 公众号 QbitAI

事情开始于一项斯坦福大学的新研究。

研究人员Yilun Wang与Michal Kosinski用监督学习算法创造出一种新模型,可以直接从面相判断一个人的性取向,研究论文也即将发表在美国心理学学术月刊《Journal of Personality and Social Psychology》上。

纳尼?!还能根据面相判断性取向?确定我是在看科学期刊而不是误入路边看面相算命的小摊摊?

带着众多问号,我们翻看了实验研究。

面相识“同”?

研究人员首先从交友网站的公开信息中收集了14776人的35326张照片,想在照片中提取面部特征。从脸型、嘴型、鼻型、眉形到面部的毛发,这些特征全部被提取并量化。

研究人员先标记面部特征,同时用倾斜度、转动和偏转角度等参数定位人脸

之后,研究人员用深度神经网络(DNN)从中提取与性取向有关的特征。在此,他们引入VGG-Face DNN模型,想通过面部表情、背景、光线、图像属性(亮度或对比度等)等因素来表示图像中的人脸。

系统识别的可以预测性取向的面部特征

随后,研究人员用预测模型、逻辑回归等奇异值分解(SVD)等方法将图像分类,判断哪些图像中的人为同性恋。

这是由数千张图片组成的合成脸,展示了系统观察到的面部特征细微差别。右图中的绿色/红色线条分别代表男女异性恋者/同性恋者面部器官的位置形状

最后,研究人员随意挑选图像,让电脑猜测受试者的性取向,结果证明AI系统的表现明显优于人类——

在没有穿搭风格、人物动作等因素影响的情况下,就单一面部信息而言,分类器识别男女性取向的准确率分别达到了81%和71%。

研究人员还设计对照组让人类判断照片中人的性取向。实验证明,人类对男女性取向识别准确率分别为61%和54%。对比看来,算法的准确率明显优于人类的直觉判断。

如果通过5张以上照片让系统识别人类性取向,则男女性取向准确率分别提高到91%和83%。

研究人员意外地发现,性取向与面部特征存在些许关联,一般情况下,男同有“女性化”特征,女同有“男性化”特征。比如,男同的下颚、鼻子和前额比直男大,与异性恋女性相比,女同的下颚更大,额头更小。

作者简介

这篇论文的作者是Yilun Wang和Michal Kosinski。两个人一起收集了数据并进行分析,论文为Michal Kosinski执笔完成。

量子位经过查询发现,Yilun Wang现在的身份是IDG资本驻旧金山湾区的投资顾问,投资领域专注于AI、机器人、机器学习、计算机视觉等。此前,Yilun曾在Google、百度深度学习研究院、格灵深瞳、微软等公司实习。

Yilun Wang本科毕业于浙江大学,2016年在斯坦福获硕士学位。

而Michal Kosinski博士是斯坦福商学院的助理教授。2014年,Kosinski在剑桥大学获得心理学博士学位。先后供职于微软研究院、剑桥大学,并有过创业经历。

Kosinski还是一位活跃在各种活动和采访中的学者。

今年初的CeBIT’17大会上,Kosinski发表了一场题为《The End of Privacy》(隐私的终结)的演讲。(当然他在别的场合也经常讲这个)

其实Kosinski的这个演讲,跟上面的主题一脉相承。

在《隐私的终结》里,Kosinski指出人们已经在网上留下太多的数字足迹,只需要通过一个强大的算法,把所有这些零散的足迹手机起来,就能描绘出你的真实样貌。

我们本来制作了一个压好字幕的视频,不过两次腾讯都没审核通过。所以,直接放一个YouTube地址吧:

https://youtu.be/DYhAM34Hhzc

各方评论

对于这项研究,部分美国媒体“表示强烈谴责和极大的愤慨”,比如TechCrunch。

他们在标题上指责这项研究“显示了数据时代的黑暗面”,还说这项研究“除了将一个已经很脆弱的人群暴露在新型的系统化虐待之下,还直接打击了我们的平等观念:不能以貌取人、也不能通过一两张照片这么简单的东西来判断性取向这样的隐私。”

英国的《经济学人》情绪稳定,不过《卫报》脑补了一些应用场景,比如怀疑自己形婚了,用这个AI gaydar来测一测自己的另一半,或者青少年用它来测自己、测同学……

《卫报》还”采访了多伦多大学心理学副教授Nick Rule,这位学者曾经研究过gaydar背后的科学,而对于斯坦福的这项研究,他认为非常“令人不安”,担心可能有人出于恶意来“根据人们的外表来分析他们、识别他们”。

reddit上网友的反应就淡定得多,量子位摘录一些网友评论如下:

“所以,他们造了一个Gaydar?”

“Stereotype的存在看来是有原因的”

“好吧……我觉得我还挺擅长通过长相判断谁是同性恋。但如果我说“Joe看起来90%是gay”,是不是不道德?”

“可怕。”

“第一个数据集来自‘一家美国交友网站’。我感觉这说的是OKCupid。”

“我真不明白这有什么可怕的。这个研究可以非常有用,而且不违背道德。”

“我觉得这进一步增强了我们对于性别的认知,我之前不知道面孔中还包含了这么多和性取向有关的信息。”

“很多判断都是基于穿着打扮。如论文中的例子,面部毛发较少常被归为男同(训练数据没包括熊?)戴着棒球帽的常被归为女同。”

“放在交友网站上的照片,可能会包括与性取向有关的隐藏信息。”

“我没看得太仔细,有点疑惑是为什么用预构建和预训练的神经网络,而不是自己训练?他们的确自己训练了,而且表现更好,但他们担心过拟合。我不知道为什么。”

“DNN能够进行纯粹的面部特征分离,不受面部表情、背景、光照、头部方向、图像属性(亮度、对比度)等因素的影响。这能消除图片噪声带来的过拟合风险。”

你怎么看这件事?欢迎在下方留言给我们~

论文下载

在量子位微信公众号(ID:QbitAI)后台的对话界面回复“gaydar”,即可收到这份有趣的论文。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-09-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 面相识“同”?
  • 作者简介
  • 各方评论
  • 论文下载
相关产品与服务
腾讯云 TI 平台
腾讯云 TI 平台(TencentCloud TI Platform)是基于腾讯先进 AI 能力和多年技术经验,面向开发者、政企提供的全栈式人工智能开发服务平台,致力于打通包含从数据获取、数据处理、算法构建、模型训练、模型评估、模型部署、到 AI 应用开发的产业 + AI 落地全流程链路,帮助用户快速创建和部署 AI 应用,管理全周期 AI 解决方案,从而助力政企单位加速数字化转型并促进 AI 行业生态共建。腾讯云 TI 平台系列产品支持公有云访问、私有化部署以及专属云部署。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档