人工智能,简称AI,可以通过已有数据总结经验,从而对未知事情做出把握判断。
现在的人工智能,真的是越来越全能,别说什么写诗、画画、确诊疾病了,据悉,通过一张照片,就能判断出此人的性取向。
这就意味着,不管是你是男性还是女性,只要一张照片,这个AI系统就能得出,你是否有同性倾向,据悉,准确率还挺高。
究竟,人工智能是怎么做的呢?
斯坦福大学研究团队,先是从美国约会网站当中,提取了3万多的面部样本,将这些图片放在一个软件当中,软件会为人脸图编号,研究人员再用每个人1-5照片,而用户自己会报告性倾向和性行为。
研究人员通过图片提取特征,来估计某种事的可能。再通过较多的数据进行学习,然后将结果应用在样本的判断当中。
AI 系统发现:和直男相比,男同性恋者通常颌骨较窄,鼻子较长,前额较大,即看起来更偏清秀的“瓜子脸”;与直女相比,女同性恋者的下颚较大,前额较小,看起来更“俊朗”。
下面用图来说明:
左边是异性恋者脸部图,右边则是同性恋者脸部图。看该图很明显,右图中的男女外形更中性,性别的典型特征没有左边明显。除此,女同性恋者的笑容比异性恋者少。打扮方面,女同一般无明显女性化的修饰风格。
AI系统能判断人的性倾向,但这个准确率又有多少呢?链知道要告诉你,准确率很高。
通过一张照片,系统判断男女的准确率分别达到了81% 和 71%,而人类判断的准确率只有61% 和 54%。由此看来,系统判断比人类判断的准确率要高。
照这么说,以为要想知道明星是不是同性恋,直接把照片给人工智能系统,不就能知道结果了。细想一下,这项研究,明显就是侵犯了他人的性取向隐私呀。毕竟性取向,每个人的隐私,除了自己亲密朋友,其他人不能随便知道。某些地方,性取向若被公开,会给自己带来影响。因为在一些国家,同性恋仍属于犯罪行为。
对此,研究人员表示,对这个结果,整个研究团队也感到不安,所以当初,他们花了好长时间来考虑,是否要告诉大家。最终他们公开了论文,这项研究果真引起了大波浪。但是他们承认,这项技术确实有侵犯隐私的风险。
AI系统一旦流传开,个人照片就很有可能在未经本人的允许下,进行测试。一旦测出某人有同性倾向,那么,某人就有可能遭受很多的流言蜚语。你觉得,这是不是很危险的事?
这项技术除了可以用来判断性倾向,未来还可以用来检测情绪、智商、犯罪的倾向上。不过,人工智能本无罪,但是随着人工智能越来越进步,未来确有可能会被人拿来做坏事。
本文系【链知道】原创首发,转载请注明出处!
领取专属 10元无门槛券
私享最新 技术干货