首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

种族主义机器人的崛起:人工智能能够很快地发展自己的偏见

一项新的研究表明,机器人可以教会自己如何对待其他形式的比自己价值更低的生命——包括人类。

专家说,对他人的偏见并不需要很高的认知能力,而且很容易通过人工智能机器表现出来。

这些机器可以互相教对方排除他人的价值。

最新的发现是基于计算机模拟AIS,或虚拟代理,形成一组,并相互作用。

来自卡迪夫大学和麻省理工学院的计算机科学和心理学专家已经表明,一组自主的机器仅仅通过相互识别、复制和学习这种行为就表现出了偏见。

似乎偏见是一种特定于人们的现象,它需要人类认知来形成对某个人或群体的观点或刻板印象。

基于学习公共记录和人类产生的其他数据,一些类型的计算机算法已经显示出偏见,如种族主义和性别歧视。

最新的研究证明了人工智能能自行进化成有偏见的群体的可能性。

卡迪夫大学计算机科学与信息学学院的罗杰·惠特克(Roger Whitaker)教授是该研究报告的合著者,他说,通过反复进行几千次模拟,我们开始了解偏见是如何演变的,以及促进或阻碍偏见的条件。

我们的模拟表明,偏见是自然界的一种强大力量,通过进化,偏见很容易在虚拟群体中受到激励,从而损害了与他人的广泛联系。

“保护不受歧视群体影响可能无意中导致个人进一步形成歧视群体,导致人口分裂。这种广泛的偏见很难扭转。

这些发现涉及个人通过优先复制那些获得更高短期回报的信息来更新他们的偏见水平,这意味着这些决定不一定需要先进的认知能力。

本文由玻璃小帅原创,欢迎关注。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180909A0IM3V00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券