作者:Josh Feast
翻译:王子龙
校对:王琦
本文阐述导致AI偏见的原因并提出应用的解决方案。
图片来源:哈佛商业评论工作人员 / UNSPLASH
任何对AI偏见的审查都需要意识到一个事实:这些偏见主要源于人类固有的偏见。我们创建、训练的模型和系统就是我们人类自己的真实写照。
因此AI从人类那里学习到了性别偏见也就不足为奇了。例如,亚马逊的Alexa和苹果的Siri等常见AI系统的核心—自然语言处理(natural language processing, NLP)就存在性别偏见,而这并不是孤例。此前还发生了几起明显带有性别偏见色彩的案例,包括能够识别性别的计算机视觉系统,其在识别女性时报告的错误率更高,尤其是对于那些肤色较深的女性。
为了开发出更公平的技术,整个行业的研究人员和机器学习团队必须共同努力来纠正这种不平衡。幸运的是,我们开始看到有新的研究致力于解决这些问题。
其中需要特别提到的是目前正在进行的关于词嵌入(Word-embeddings)的偏见研究,词嵌入将词转换为数字表示,然后在自然语言处理模型中用作输入。词嵌入将词表示为序列或数字向量,如果两个词意思相近,它们的映射(associated embedding)在数学意义上也是相近的。词嵌入通过评估单词出现的上下文来编码信息。例如,AI能够客观地把“女王”一词填充到“男人是国王,女人是X”这句话中的X处。但当AI填写“父亲是医生,母亲是护士”这样的句子时,就会引起潜在的问题。这句话中固有的性别偏见反映了我们社会中对妇女的过时看法,这种看法既没有事实根据,也不平等。
很少有研究对情感相关的演讲中的性别偏见进行评估,而情感AI在未来的工作、营销以及几乎所有你能想到的行业中开始扮演更重要的角色。在人类社会中,当一个人对某一类人情感的误解多于另一类时,偏见就会产生。例如,错误地认为某一类人比另一类人更容易生气。目前的机器也有同样的偏见,它们将与情感相关的信息错误地分类。要理解为什么会这样,以及我们如何解决这个问题,先去了解造成AI偏见的原因就显得重要了。
什么导致了AI偏见?
在机器学习的背景下,偏见可能意味着某些人口统计类别的误差更大。因为找不到这种偏见的根源,所以在开发和训练机器学习模型时,研究人员必须考虑许多变量,包括以下因素:
机器学习团队避免性别偏见的四个最佳解决方案
和生活中的许多事情一样,AI偏见的原因和解决方案并不是非黑即白的。“公平”本身甚至也必须通过量化来减轻偏见所带来的不必要影响。对于那些想要利用AI的力量,但又担心产生偏见的管理者来说,落实下面的方法对于你的机器学习团队很重要。
虽然研究这些原因和解决办法是非常重要的第一步,但仍有许多悬而未决的问题需要回答。除了训练机器学习模型之外,业界还需要开发更全面的方法以解答造成上述三个主要偏见的原因。此外,为了应对日益增加的多样性,未来的研究应该考虑性别变量的更广泛表示,如跨性别者、非二元性别等,以此来增强我们对此的理解。
我们有义务创造对每个人都有效和公平的技术。我相信,如果我们能够共同解决这些问题,AI的收益将超过风险。这取决于该领域的所有从业者和领袖合作、研究和开发解决方案,以减少AI对任何人的偏见。
原文标题:
4 Ways to Address Gender Bias in AI
原文链接:
https://hbr.org/2019/11/4-ways-to-address-gender-bias-in-ai
编辑:黄继彦
译者简介
王子龙,新加坡国立大学智能系统硕士在读。关注数据科学如何更好地创造出商业价值,感兴趣的方向有自然语言处理和智能流程自动化。希望自己能广泛地阅读好的文章并从中获得启发,也非常高兴能和大家一起学习、分享知识。