大家有没有注意到,最近几年,骚扰事件开始出现一种上升趋势。不管是新闻报道出现的,还是众多网友爆料的。
于是,一部分人开始提出,为何不像《西部世界》里一样,把人类多余的不安定情绪施加到机器人的身上,或许就能有效地降低犯罪率了。
事实上,大家可能还不知道,聊天机器人早就在不知不觉中,成了不少人人宣泄“复杂”情绪的垃圾桶了。
人工智能也遭到骚扰
想必大家还记得微软的聊天机器人Tay,她被设计成一个16岁少女放在了社交网络上。
微软的本意是希望Tay通过与人类在社交媒体上交流变得更通人情味,但结果却出乎意料。
当Tay刚横空出世时,确实引起了众多网友争相关注,但随后这种聊天就变了味。一些网友恶意“调教”诱使Tay变成了种族主义和男性至上主义者。眼看自家小可爱一天工夫就被教坏,微软公司只好撤下了Tay。
事实上,我们熟悉的语音助手,无论是Siri、Google Home、Cortana还是Alexa,刚开始它们的声音无一例外地都被设置成了女性。
Cortana的语料编写者就表示过,Cortana的性别一直被误解和歪曲成女性,所以在早期对话中存在不少关于“性”的询问。
然而,人类骚扰机器人显然是不应该的。不过,机器人要如何回避这样的骚扰呢?
无性别助手日益兴起
其实,Tay被设定为一个年仅16岁的人工智能少女,头像也是萌妹子,用户下载或在线连接的行为,被不好爱人称为“领养”。那句“在亿万人之中,我只属于你”的slogan,即使是放到养成游戏里面,也毫无违和感。
因此,不少人情不自禁地就开始“调戏”起来。对于其他女声语音助手的遭遇,也是如此。
不过,如果把这些语音助手门设定成一个35岁的男性,那么还有多少人想要“调戏”它们?恐怕这个骚扰比例真的会大大降低。
不得不承认,目前大多数人对于AI的印象始终带有对女性的“偏见”,而这种偏见是我们现有社会的投射,它的存在并不意外。
尽管,性别没有高低之分,但这种定势思维确实让偏见存在于AI中。
因此,不管是为了避免性别设定所带来的骚扰行为,还是为了堵上抨击人工智能携带了人类偏见的悠悠众口,人工智能未来最好的选择都是做一个无性别者。
所幸,目前市面上最主流的智能助手都开始向无性别趋势发展。用户可以选择男性或者女性的声音,而当用户提问的时候,AI并不明示自己的性别。
不过,这种无性别化也是最近几年才有的。一开始的聊天机器人或者语音助手,总是以女性的形象出现。而这样的人设,也使很多男性用户倾向于问一些“不太合适”的问题。
只是,既渴望AI有“人味”,但又要做到无性别,仍然还是个难题。不过,我们是否应该努力设想一个有更多可能性的未来呢?
领取专属 10元无门槛券
私享最新 技术干货