前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >独家 | 改善AI性别偏见的4种方法

独家 | 改善AI性别偏见的4种方法

作者头像
数据派THU
发布2019-12-12 18:08:04
7730
发布2019-12-12 18:08:04
举报
文章被收录于专栏:数据派THU

作者:Josh Feast

翻译:王子龙

校对:王琦

本文阐述导致AI偏见的原因并提出应用的解决方案。

图片来源:哈佛商业评论工作人员 / UNSPLASH

任何对AI偏见的审查都需要意识到一个事实:这些偏见主要源于人类固有的偏见。我们创建、训练的模型和系统就是我们人类自己的真实写照。

因此AI从人类那里学习到了性别偏见也就不足为奇了。例如,亚马逊的Alexa和苹果的Siri等常见AI系统的核心—自然语言处理(natural language processing, NLP)就存在性别偏见,而这并不是孤例。此前还发生了几起明显带有性别偏见色彩的案例,包括能够识别性别的计算机视觉系统,其在识别女性时报告的错误率更高,尤其是对于那些肤色较深的女性。

为了开发出更公平的技术,整个行业的研究人员和机器学习团队必须共同努力来纠正这种不平衡。幸运的是,我们开始看到有新的研究致力于解决这些问题。

其中需要特别提到的是目前正在进行的关于词嵌入(Word-embeddings)的偏见研究,词嵌入将词转换为数字表示,然后在自然语言处理模型中用作输入。词嵌入将词表示为序列或数字向量,如果两个词意思相近,它们的映射(associated embedding)在数学意义上也是相近的。词嵌入通过评估单词出现的上下文来编码信息。例如,AI能够客观地把“女王”一词填充到“男人是国王,女人是X”这句话中的X处。但当AI填写“父亲是医生,母亲是护士”这样的句子时,就会引起潜在的问题。这句话中固有的性别偏见反映了我们社会中对妇女的过时看法,这种看法既没有事实根据,也不平等。

很少有研究对情感相关的演讲中的性别偏见进行评估,而情感AI在未来的工作、营销以及几乎所有你能想到的行业中开始扮演更重要的角色。在人类社会中,当一个人对某一类人情感的误解多于另一类时,偏见就会产生。例如,错误地认为某一类人比另一类人更容易生气。目前的机器也有同样的偏见,它们将与情感相关的信息错误地分类。要理解为什么会这样,以及我们如何解决这个问题,先去了解造成AI偏见的原因就显得重要了。

什么导致了AI偏见?

在机器学习的背景下,偏见可能意味着某些人口统计类别的误差更大。因为找不到这种偏见的根源,所以在开发和训练机器学习模型时,研究人员必须考虑许多变量,包括以下因素:

  • 不完整的或偏斜的训练数据集:当训练数据中缺少某种人口统计类别时,就会出现这种情况。在那些有缺失人口统计类别的新数据上使用这些数据训练的模型时,则不能正确地衡量。例如,如果女性演讲者只占你训练数据的10%,那么当你将一个训练过的机器学习模型应用于女性时,很可能会产生更高程度的误差;
  • 训练模型所用的标签:绝大多数商业AI系统使用有监督机器学习,这意味着训练数据是被打上标签的,标签用来训练模型如何作出反应。通常情况下,这些标签是人类想出的,考虑到人们经常表现出偏见(既有有意识的,也有无意识的),这些偏见会无意地编码到由此产生的机器学习模型中。考虑到机器学习模型被训练出来用于估计这些标签,这种对特定性别不公平的分类将被编码到模型,这会导致偏见;
  • 特征和建模技术:机器学习模型的输入值或者实际的模型训练过程中都可能因为测量而产生偏见。例如,几十年来,语音合成,即把文本转换为语音的技术(例如:斯蒂芬·霍金的声音)和自动语音识别,即把语音转换为文本的技术(例如:CC字幕)都有该情况发生。与男性相比,女性演讲者的表现不佳,这是由于对演讲者的分析和建模对于声带较长、音调较低、个子较高的人来说更准确。因此,语音技术对于具有这些特征的演讲者(通常是男性)来说是最准确的,而对于那些音调较高的演讲者(通常是女性)来说就不那么准确了。

机器学习团队避免性别偏见的四个最佳解决方案

和生活中的许多事情一样,AI偏见的原因和解决方案并不是非黑即白的。“公平”本身甚至也必须通过量化来减轻偏见所带来的不必要影响。对于那些想要利用AI的力量,但又担心产生偏见的管理者来说,落实下面的方法对于你的机器学习团队很重要。

  • 确保训练样本的多样性(例如,在训练数据中使用与男性差不多数量的女性音频样本)。
  • 确保给音频打标签的人们有着多元化的背景。
  • 针对不同人口统计类别,鼓励机器学习团队分别评估模型的准确程度。并且当某个类别被不公平地对待时要能识别得出来。
  • 通过收集更多与敏感群体相关的训练数据来解决不公平的问题。在此基础上,可以应用新的机器学习去除偏见技术,该技术不仅惩罚主要变量的识别错误,还额外惩罚造成不公平的错误。

虽然研究这些原因和解决办法是非常重要的第一步,但仍有许多悬而未决的问题需要回答。除了训练机器学习模型之外,业界还需要开发更全面的方法以解答造成上述三个主要偏见的原因。此外,为了应对日益增加的多样性,未来的研究应该考虑性别变量的更广泛表示,如跨性别者、非二元性别等,以此来增强我们对此的理解。

我们有义务创造对每个人都有效和公平的技术。我相信,如果我们能够共同解决这些问题,AI的收益将超过风险。这取决于该领域的所有从业者和领袖合作、研究和开发解决方案,以减少AI对任何人的偏见。

原文标题:

4 Ways to Address Gender Bias in AI

原文链接:

https://hbr.org/2019/11/4-ways-to-address-gender-bias-in-ai

编辑:黄继彦

译者简介

王子龙,新加坡国立大学智能系统硕士在读。关注数据科学如何更好地创造出商业价值,感兴趣的方向有自然语言处理和智能流程自动化。希望自己能广泛地阅读好的文章并从中获得启发,也非常高兴能和大家一起学习、分享知识。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-12-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据派THU 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档