导读
人工智能是这个时代最具变革性的力量之一,帮助我们解决社会难题的同时,也引发了一系列的伦理担忧。关注人工智能带来的安全、隐私、尊严等方面的风险正是欧盟人工智能战略和政策的侧重点。欧盟委员会致力于制定一个以人为中心的人工智能道德准则,确保在人类社会在人工智能的发展过程中全面获益。2019年2月,欧洲政策研究中心(CEPS)发布《人工智能的伦理、治理和政策挑战》,报告对人工智能技术的发展水平和主要弊端准确定位,结合欧盟现有法律体系和政策框架,分析人工智能对欧盟社会体系产生的巨大影响,人工智能技术联合评估工作组提出相关政策建议。
01
人工智能算法不受监督,加剧社会偏见并引发多重问题。人工智能是大数据和物联网的核心领域,其功能集中在三方面:优化、搜索和诊断预测,如优化物流和供应链、诊断疾病、预测和预防流行病等。人工智能正在深刻变革现有商业模式,逐步成为资本和劳动力市场的重要支柱。但其算法借助深度学习和神经网络等不受监督的学习方法,易造成决策的随机性和不确定性,加剧社会偏见和歧视,同时引发“深度造假”现象,导致社会信任危机的出现。人工智能目前并未朝着模拟人类感知、意识或知觉的方向发展,所有应用都属于“弱”人工智能的特定领域,利用人工智能的巨大潜力辅助人脑而非代替人脑,是弥补人工智能诸多弊端的方法之一。
02
欧盟制定人工智能道德准则,或成为全球政策引领者。欧盟在技术监管方面处于世界领先地位,为促进人工智能的健康正向发展,确保未来人工智能系统的安全可靠运行,欧盟面向人工智能开发人员、供应商和分销商,以及使用或部署人工智能的组织、公共行政部门制定了人工智能道德准则,监管滥用人工智能的行为。一是部署人工智能的相关人员和组织要优先保障数据安全;二是确保人工智能系统公开透明;三是建立对AI系统的究责机制,确保算法公平。
03
人工智能技术联合评估工作组对欧盟道德准则的几点建议。一是注重隐私和数据保护,进一步完善保护隐私、加密等概念标准;二是重构问责机制,确保对人工智能系统及其成果负责和问责;三是欧盟人工智能的发展应侧重人才培养,更好构建人机共生关系。
领取专属 10元无门槛券
私享最新 技术干货