Facebook在将一段黑人男子的视频误标为“灵长类”后道歉,这是科技公司用来自动推荐和其他功能的人工智能系统一系列种族歧视行为的最新一起。
据《纽约时报》周五报道,Facebook用户最近观看了《每日邮报》的一段视频,视频中有黑人男子与白人警察和平民发生争执的片段,他们收到了一个系统提示,问他们是否愿意“继续观看有关灵长类动物的视频”。
脸书发言人达尼·利弗在给媒体的一份声明中表示:“这显然是一个不可接受的错误,当我们意识到发生了这种情况时,我们关闭了整个话题推荐功能,以便我们可以调查原因,防止类似事件再次发生。”
她说:“正如我们所说的,虽然我们对人工智能进行了改进,但我们知道它并不完美,我们还有更多的进展要做。”“我们向任何可能看到这些无礼建议的人道歉。”
Facebook经常吹嘘自己的人工智能是通过用户上传的图片来进行训练的。
这不是科技公司第一次因其人工智能系统中的种族偏见而受到抨击。
2015年,谷歌在其照片应用程序错误地将黑人识别为“大猩猩”后道歉。
将黑人识别为大猩猩
一年后的另一起事件是在谷歌搜索“三个黑人少年”的照片会出现嫌疑犯大头照,搜索“三个白人少年”则出现满面微笑的白人少年。同年,微软的人工智能聊天机器人Tay开始散布种族歧视言论,不得不被下线。
其他种族偏见渗透到科技产品中的迹象包括,INS的滤镜会让皮肤变白或过分渲染种族特征,Snapchat的滤镜会使用黑脸或讽刺亚洲人的形象。
领取专属 10元无门槛券
私享最新 技术干货