如果没有威尔史密斯的《机械公敌》,MIT的这款机器人将是世界上第一个机器人精神病患者。
MIT的科学家,将Reddit(美国的社交新闻站点,全球流量第四,slogan是先于新闻发生,鼓励用户自己生产内容和发表专题,开放投票功能,票数高的会排在前列)中的一些暴力和死亡的负面图像数据,喂给一名人工智能机器人,成功将其变成一位精神病患者,还给他取了一个名字叫Norman。Norman是希区柯克1960年电影《心理学(Psycho)》中的角色。
麻省理工学院的科学家Pinar Yanardag,Manuel Cebrian和Iyad Rahwan专门训练Norman,给图像配字幕:抽取图像叙事信息并以书面形式产生相应的描述。所以用罗夏墨迹测试(著名的心理学实验,用于测试人类潜意识)去建立对照组,检查机器人的图像解读模型是否完善,是最好不过了。但结果是让人不寒而栗的。在看到某个墨迹区域之后,Norman产生了电击和撞车的诡异解释,而对照组里的标准人工智能只会看到雨伞和婚礼蛋糕。
因此,世界上第一个精神病患者AI,Norman诞生于这样一个事实,即用于训练机器学习算法的数据可以显著影响其行为。因此,当人们谈论人工智能算法存在偏见和不公平时,罪魁祸首往往不是算法本身,而是提供给它的偏见数据。相同的方法可以在图像中看到非常不同的东西,算法是一种决策,如果训练错误的(或正确的!)数据集,依然会产生内容偏差。虽然一个案例,但是我们看到了数据偏差产生的巨大影响。
他们的研究证明了,改变算法的输入内容可以极大地影响其后的行为。科学家们认为,很多互联网公司提供的内容被指责为偏见或不公平,例如Facebook前员工爆出的网站专门压制保守派新闻,“罪魁祸首往往不是算法本身,而是偏见的数据。”
类似的,各种种族主义的偏见都有被误解为算法的案例,那么,现在可以考虑翻案了。MIT数字经济倡议联合委员会主任表示,只要“输入数据准确无误”,人工智能就可以保持有效和无偏见。
这个研究帮助人类更好的理解了AI,正视了各种互联网内容的质量问题。但是很多人已经对AI的技术发展和应用感到担忧。
只是暴露在负面形象和压抑思维中,AI的移情逻辑就无法打开。新南威尔士大学临床神经心理学教授斯凯麦克唐纳说,Aldebaran Robotics的“Pepper”机器人可能是训练人类同理心的最接近的实验之一,机器人专家希望有一天人工智能能够通过观察一个人的面部表情来理解人类的情感。然而,如果数据偏差就会导致如此大的逆转的话,麦克唐纳认为,技术“距离完全理解人类同理心如何运作的复杂性还有很长的路要走。”
温馨提示
如果你喜欢本文,请分享到朋友圈,想要获得更多信息,请关注我。
领取专属 10元无门槛券
私享最新 技术干货