图片来自网络
12月19日,由欧洲委员会人工智能高级专家组(AI HLEG)制定的人工智能道德准则草案发布,其最终版本将于2019年3月完成。
准则草案出版的目的是与人工智能领域的利益攸关方分享工作进展,并收集他们对文件本身的意见。
为此,AI HLEG将启动利益相关方进行磋商,该磋商将于2018年12月18日至2019年1月18日期间继续开放。
协商过程完成后,AI HLEG将于2019年3月向委员会提交指南的最终版本。最终目标是将欧洲的道德方法发布至全球舞台。
信息源:
https://ec.europa.eu/knowledge4policy/publication/draft-ethics-guidelines-trustworthy-ai_en
点评
该指南早先泄露的版本中包含一个泾渭分明的“应用人工智能的警戒区” (Red Lines for the Application of AI),即“不应在欧盟领土上发生” (should not happen on EU-territory)的人工智应用不完全清单。 但在12月19日正式发布的指南草案中,口径变成要解决人工智能提出的关键问题(Critical Concerns),并指出HLEG并没有在人工智能领域的应用程度上达成一致,也正是因此,HLEG才向各人工智能的利益攸关方征集意见。
公布的准则草案中列出的关键问题应用有四个:未经同意的识别(identification without consent)、隐蔽人工智能系统(covert AI systems)、未经同意的规范和大众公民评分(normative & mass citizen scoring without consent)以及致命自治武器系统(Lethal Autonomous Weapons Systems)。
欧盟一直在技术应用的伦理层面有很强的前瞻意识。今年GDPR的颁布规定了大数据时代的伦理红线和考量原则。这次的AI道德指南草案进一步显示了欧盟对保护个人面对技术的选择权、知情权的重视。
而欧盟在面对人工智能伦理判断时展现出的不统一与不确定,在一定程度上反应了人类距离形成新的技术价值观的共识还有一段距离。这次的草案以及2019年3月的终稿,只是人类面对加速到来的技术风险时代塑造相应社会关系和安全机制的第一步。
领取专属 10元无门槛券
私享最新 技术干货