人工智能,可以说是人类历史上最重要和最具争议性的发明之一。风险预防的相关理论同样可以应用于人工智能立法领域,通过预防原则,防止人工智能的发展侵犯人类权益,尊重伦理原则和价值。欧盟委员会于2018年12月发布的《可信人工智能伦理指南草案》可为相关领域的立法所借鉴。
第一,应把保护人类能动性作为人工智能研发的底线原则。人工智能的发展不应妨碍人类自治,人类不从属于人工智能系统,也不应受到人工智能系统的胁迫。正如电影《阿丽塔》所表现的,即便有一天机器可以大范围提高人类能力,但是大脑必须是自然的人类。人类与人工智能系统互动时必须保持充分有效的自我决定权,有权选择退出。
第二,确保公平应成为人工智能研发的基本准则。在人工智能系统的开发、使用和管理过程中要确保公平。开发人员和实施者需要确保不让特定个人或少数群体遭受偏见、侮辱和歧视,避免将弱势人口置于更为不利的地位。在发生危害时,可以为用户提供有效补救。政府还可以提供机制,保障特殊群体的需求。
第三,透明性应成为人工智能运行的基本要求。在使用人工智能收集个人信息时,比如人脸识别等,必须保障个体的知情权。保证人们知晓使用目的、使用方式等,并拥有选择退出的权利。
第四,人工智能系统的全生命周期都必须保护隐私数据。这包括用户提供的所有数据,以及在与人工智能系统交互过程中生成的关于用户的所有信息。
第五,可设计类似于环境影响评价的制度,在项目设计之初就预估出人工智能系统的伦理影响,保证企业将对法律和伦理价值观的遵守融入到人工智能系统本身的设计之中。
同时,还要建立起责任机制。我国目前立法中尤其缺乏对侵权责任者的追究机制,追责机制需要具体、可操作。
科技的发展有利有弊,但总体而言利大于弊。不应因噎废食,恐惧于科技的发展,要善于利用科技增进人类福祉。政府的主要责任是监管和制定标准。
领取专属 10元无门槛券
私享最新 技术干货