虽然关于机器学习将取代人类工作的方法已有很多文章,但公众对人工智能使用有偏见的数据集的后果关注却很少。例如,当软件工程师主要用白人男性的图像训练他们的面部识别算法时会发生什么? Buolamwini最近在麻省理工学院的研究表明,使用有明显倾向的数据使该算法本身已成为偏见。
Buolamwini在麻省理工学院进行研究,以了解计算机如何识别人们的脸部。每当她坐在系统的前置摄像头前面时,不会识别她的脸。但是当她戴上一个简单的白色面具时,脸部跟踪动画突然点亮了屏幕。她当时敏感的感觉到这涉及更广泛的问题,于是她对微软、IBM和Face ++的面部识别系统进行了研究。Buolamwini向这些系统展示了1000个面孔,希望它们将每个面孔识别为男性或女性。结果表明,这三家公司在识别人性别时之间,对男性的识别做得非常出色。但是,当涉及到黑皮肤的女性时,结果令人沮丧。黑皮肤女性的错误比白色皮肤男性多34%,并随着女性肤色变暗,算法准确预测其性别的机会接近抛硬币,即面部检测系统在接近一半的时间内出现性别错误。Buolamwini的项目表明对偏见的担忧正在为人工智能的普遍焦虑添加新的维度。
另一个例子在2016年曝光,当时微软发布了它的AI chatbot Tay到Twitter上。工程师通过与其他Twitter用户交互来对机器人编程以更好的了解人类行为。但在短短的16个小时之后,Tay被迫关闭,因为它的推文已出现性别歧视等问题。专家后来表示,虽然微软对Tay的模仿行为做了很好的教导,但对于什么样的行为是恰当的还不够。
人工智能的偏见与人工智能对目前工作状态的影响同样重要。 个人认为人工智能对工作的影响并不负面,相反更大的问题是利用历史数据、AI驱动的系统如何作出正确判断。 历史数据可能充满了偏见之类的事情。当将判断权交给机器的权力时,机器同样会将这种偏见进行到底。到目前为止,由算法引起的偏见的例子看起来很平常,但总体而言,它们可能会产生影响,特别是有那么多公司竞相将AI融入他们的应用程序和服务中。近几个月来,有几位研究人员指出,即使是谷歌翻译,也显示出性别歧视的迹象,在从土耳其语等性别中性语言翻译时,也会自动为男性主导的工作提供“他”这样的词,反之亦然。
当你期望人工智能是合乎逻辑和客观的时候,这些例子听起来可能令人惊讶。 人们总是认为机器是理性的,但是人们并没有意识到,由于这种创新的新技术,人们虽然没有理由质疑AI,但他注定要重复过去的错误。今天的工程师们过度关注如何构建算法来解决复杂问题,但没有关注如何构建一种算法来监视其他算法如何执行的。今天很多人工智能配置的方式,基本上就像一个黑匣子,神经网络不擅长解释他们为什么做出决定。麻省理工学院Buolamwini的研究指出用于训练算法的图像和数据缺乏多样性。幸运的是,对于数据集问题,这一个可以解决的问题。Buolamwini将研究结果发送给微软,IBM和Face ++之后,IBM做出更新。更新后的系统现在将深色皮肤女性分类成功率为96.5%。
领取专属 10元无门槛券
私享最新 技术干货