北京时间6月24日晚间消息,据国外媒体报道,当前的人工智能(AI)技术仍存在诸多偏见,从某种角度讲,这也是相当危险的。
这是一张令人震惊的图片,凸显了人工智能(AI)研究根深蒂固的偏见。将美国第一位黑人总统巴拉克·奥巴马(Barack Obama)的一张低分辨率照片,输入到一个“消除马赛克”(生成清晰图像)算法中,输出的结果竟是一个白人男子。
这不仅仅是奥巴马一个人的问题。使用同一算法,输入女演员Lucy Liu或国会女议员亚历山大·奥卡西奥·科尔特斯(Alexandria Ocasio-Cortez)的低分辨率照片,得到的高分辨率图像,面部同样是白色的。
正如一条很受欢迎的推文(Twitter消息)引用奥巴马的例子所说:“这张照片充分说明了人工智能偏见的危险。”但是,是什么导致了这些输出呢,它们到底告诉了我们关于人工智能偏见的什么信息呢?
首先,我们需要稍微了解一下这个图像生成技术。生成上述清晰图像的程序是一种名为“PULSE”的算法,它使用一种被称为“放大”(upscaling)的技术来处理视觉数据。
就像人们在电视和电影中看到的“放大和增强”,但与好莱坞不同的是,真正的软件不能无中生有地产生新数据。为了将低分辨率图像转换为高分辨率图像,软件必须使用机器学习来填补空白。
具体到PULSE,完成这项工作的算法是StyleGAN,由英伟达研究人员开发。
PULSE所做的是,使用StyleGan来“想象”低分辨率图片的高分辨率版本。这不是通过“增强”原始的低分辨率图像来实现的,而是通过生成一个全新的高分辨率人脸来实现的。
而PULSE的创建者表示,趋势很明显:当使用该算法放大低分辨率像素化图像时,该算法通常会更多地生成具有高加索特征的人脸(即白种人人脸)。该算法的创建者在Github上写道:“与生成有色人种的脸相比,PULSE似乎更容易生成白种人的脸。此偏差可能继承自训练StyleGAN的数据集。“
换言之,由于训练StyleGan所使用的数据,当它试图设计出一个低分辨率图像的高分辨率版本时,它默认使用白种人特征。
事实上,这个问题在机器学习中非常常见,这也是面部识别算法在非白人和女性面孔上表现较差的原因之一。用于训练人工智能的数据通常偏向单一的人口统计学,即白人男性,当一个程序看到数据不在这个人口统计学中时,它的表现就很差。还有一个不算巧合的巧合,主导人工智能研究的恰是白人男性。
但是,奥巴马的例子到底揭示了关于偏见的什么,以及它所代表的问题可能如何得到解决,这些都是复杂的问题。事实上,它们是如此复杂,以至于这张图像在人工智能学者、工程师和研究人员之间引发了激烈的分歧。
在技术层面上,一些专家甚至不确定,这究竟是不是数据集偏见的一个例子。但不管是什么原因,算法的输出似乎是有偏见的。而且,在该工具广泛使用之前,研究人员没有注意到这一点。
人工智能问责研究人员黛博拉·拉吉(Deborah Raji)称,这种偏见在人工智能世界里太典型了。拉吉说:“考虑到有色人种的基本存在,不对这种情况进行测试是令人震惊的。有色人种不是异类,不能轻易忽视他们。”
领取专属 10元无门槛券
私享最新 技术干货