编辑 | TGS 发布 | ATYUN订阅号
近年来,由于人工智能技术的一些飞跃,计算机已经学会了更清晰地观察世界。但业内人士都清楚,这些人工智能算法的缺陷。最近一项实验表明,最好的人工智能视觉系统可能会在看到一张照片吐出种族污蔑、性别刻板印象,或者一个诋毁对方性格的词汇。
现在,机器学习视觉的科学家们已经消除了一些隐藏在他们上课使用数据中的人类偏见。他们表示,这些变化可以帮助人工智能更公平地看待事物。但这些努力却也表明,消除人工智能系统的偏见仍然很困难,部分原因是它们仍然依赖人类来训练它们。
消除人工智能偏见,主要旨在消除隐藏的偏见和偏见的自动化系统。这是一个至关重要的问题,因为人工智能的部署速度很快,而且可能会产生严重影响。偏见已经在面部识别系统、招聘程序和网络搜索背后的算法中得到了确认。视觉系统正被应用于警务等关键领域,在这些领域,偏见可能会让监控系统更容易将少数族裔误当成罪犯。
2012年,一个名为ImageNet的项目在释放人工智能潜力方面发挥了关键作用,该项目为开发人员提供了一个巨大的库,用于训练计算机识别视觉概念,包括从鲜花到滑雪板的所有东西。斯坦福、普林斯顿和北卡罗来纳大学的科学家们向该团队支付了一小笔钱,让他们给1400多万张图片贴上标签,逐渐积累了大量的数据。
当这个数据集被输入一个大型神经网络时,它会创造出一个图像识别系统,以惊人的准确性识别事物。该算法从许多例子中学习,以识别揭示高级概念的模式,如:构成幼犬纹理和形状的像素。一项测试使用ImageNet开发的算法的竞赛表明,最好的深度学习算法能够正确地将图像和人进行分类。建立在ImageNet上的系统的成功,引发了一波人工智能的热潮和投资,以及其他领域的进步,带来了先进的智能手机摄像头和自动化车辆等新技术。
但在之后的几年里,其他研究人员发现了ImageNet数据中隐藏的问题。例如,如果标记为“程序员”的图像库是倾斜的,那么使用数据训练的算法可能会假设程序员是白人。
最近,一个名为“挖掘人工智能”的病毒网络项目也强调了添加到ImageNet上的标签中的偏见。通过这个项目的网站(现在已经下线了),人们可以提交一张照片,看到隐藏在使用数据集训练的人工智能模型中的术语。这些之所以存在,是因为添加标签的人可能在“老师”或“女人”之类的标签之外还添加了贬义的术语、词汇。
ImageNet团队分析了他们的数据集,以揭示这些和其他来源的偏见,然后采取措施解决这些问题。团队评估了照片中的人口和地理多样性,并开发了一种工具来呈现更多样化的图像。例如,通常情况下,“程序员”这个词可能会产生大量白人在电脑前的照片。但有了该组织计划在未来几个月发布的新工具,就可以生成一组在性别、种族和年龄方面表现出更大多样性的图像,并用于训练人工智能算法。
end