专家说,对他人的偏见不需要高水平的认知能力,很容易被人工智能机器展示。
这些机器可以相互教授将其他人排除在其直接群体之外的价值。
最新发现基于计算机模拟AI或虚拟代理如何形成一个组并相互交互。
来自卡迪夫大学和麻省理工学院的计算机科学和心理学专家表明,自主机器组通过简单地识别,复制和学习这种行为来表现出偏见。
偏见似乎是一种特定于人的现象,需要人类认知来形成某个人或群体的观点或刻板印象。
某些类型的计算机算法已经表现出偏见,例如种族主义和性别歧视,基于对公共记录和人类产生的其他数据的学习。
然而,最新研究表明人工智能可以自行发展偏见群体。
为了确定人工智能是否可以自己获得偏见,科学家们进行了一次模拟,看到机器人参与了一场给予和接受的游戏。
在游戏中,每个人都决定是否向自己组内的某人或另一组人捐款。
游戏测试个人的捐赠策略 - 检查他们对外人的偏见程度。
当游戏展开并且超级计算机进行数千次模拟时,每个人都开始通过复制其他人来学习新的策略 - 无论是在他们自己的团队中还是在整个人群中。
“通过运行这些模拟成千上万次,我们开始了解偏见如何演变以及促使或阻碍偏见的条件,”该研究的共同作者,卡迪夫大学计算机科学学院的Roger Whitaker教授说。和信息学。
“我们的模拟表明,偏见是一种强大的自然力量,通过进化,它很容易在虚拟人群中被激励,从而损害与他人更广泛的联系。
“对偏见群体的保护可能会无意中导致个人形成更多的偏见群体,导致人口分化。这种普遍存在的偏见很难逆转。
调查结果涉及个人通过优先复制那些获得较高短期收益的人来更新他们的偏见水平,这意味着这些决定不一定需要高级认知能力。
人工智能如何学习?
AI系统依赖于人工神经网络(ANN),它试图模拟大脑的工作方式以便学习。
可以训练人工神经网络以识别信息模式 - 包括语音,文本数据或视觉图像 - 并且是近年来人工智能的大量发展的基础。
传统的AI使用输入来通过提供大量信息来“教授”关于特定主题的算法。
实际应用包括谷歌的语言翻译服务,Facebook的面部识别软件和Snapchat的图像改变实时过滤器。
输入该数据的过程可能非常耗时,并且仅限于一种类型的知识。
一种称为对抗性神经网络的新型人工神经网络将两个AI机器人的智慧相互对立,这使得他们可以相互学习。
此方法旨在加快学习过程,并改进AI系统创建的输出。
惠特克教授补充说:“能够识别歧视和复制他人的自主机器将来可能容易受到我们在人口中看到的偏见现象的影响,这是可行的。”
“我们看到的许多人工智能开发涉及自治和自我控制,这意味着设备的行为也受到周围其他人的影响。
“车辆和物联网”是最近的两个例子。我们的研究提供了理论上的洞察力,模拟代理人定期呼吁其他人获得某种资源。
该研究的另一个有趣发现是,在特定条件下,偏见更难以占据。
惠特克教授说,随着人口数量的增加,非偏见群体的联盟可以合作而不被剥削。
“这也削弱了他们作为少数群体的地位,降低了对偏见持有的敏感性。
“但是,这也要求代理人更倾向于在团队之外进行互动。”
该研究的完整发现发表在“科学报告”杂志上。
领取专属 10元无门槛券
私享最新 技术干货