微软正在创建一个“先知”工具
来捕捉 AI 算法偏见
微软正在开发一个工具来自动识别一系列不同 AI 算法中的偏见。这在自动侦查可能渗入机器学习的不平等方面,是迄今为止最大胆的尝试,且它还能帮助企业在利用人工智能的同时防止无意间歧视某些群体。
算法偏见是研究人员和技术专家日益担忧的问题,由于算法将做重要决定的过程自动化,因此存在着这样的风险:偏见也可能自动化和大规模地产生作用,并且让受害者更难以察觉。
从事偏见检测控制面板研究的微软高级研究员里奇·卡鲁纳说:“透明度、可理解性和解释这类东西对这个领域来说是全新的,我们很少有人有足够的经验来明白我们该寻找的东西,以及偏见可能潜伏在我们模型中的所有方式。”
脸书在 5 月 2 日的年度开发者大会上宣布了其自己的偏见检测工具。这个工具命名为“公平畅行”,如果算法根据一个人的种族、性别或年龄做出了不公平的判断,它就会自动发出警告。
脸书在 5 月 2 日的年度开发者大会上宣布了其自己的偏见检测工具。这个工具命名为“公平畅行”,如果算法根据一个人的种族、性别或年龄做出了不公平的判断,它就会自动发出警告。
文章来源:MIT Technology Review
翻译:流利阅读
领取专属 10元无门槛券
私享最新 技术干货