北京日报客户端 | 作者 杨延超
中国社会科学院法学研究所研究员杨延超在《群言》杂志撰文指出:
在大模型时代,人工智能技术的广泛应用催生了全新的犯罪形态,这些犯罪可能涉及人身安全、财产权益和金融市场的稳定,甚至对公共安全构成威胁。这些可能出现的犯罪形态有其独特特征。
总的来说,大模型时代的人工智能犯罪具有隐蔽性强、成本低和破坏性大的特点。这些特点使其更加难以防范,对社会的安全和稳定构成了更大的威胁。因此,需要加强对人工智能技术的监管,以防止其被用于危害公共安全的活动。
面对人工智能技术被用于犯罪活动的挑战,欧美等国采取了一系列措施,涵盖立法、监管和政策制定等多个方面,旨在确保人工智能的安全使用、防止滥用,保护公民的基本权利,并促进人工智能的投资和创新。
第一,立法和监管措施。2019年美国通过了《自动程序披露和问责法》,强制数字平台公开披露其使用“旨在在线复制人类活动的自动化软件程序或过程”的情况。2022年2月,部分美国国会议员围绕算法失能侵权提出了制定《算法责任法案》的构想,要求自动化决策系统具有更高的透明度,并建立问责制。2021年4月欧盟发布了《关于制定人工智能统一规则并修订某些欧盟立法的条例》,这是全球首个全面的人工智能法律框架。为了进一步加强网络和信息系统的安全,欧盟在2022年12月通过了《关于在欧盟全境实施高水平网络安全措施的指令》和《数字运营弹性法案》。欧盟《人工智能法(草案)》建立了针对高风险人工智能系统的风险预防机制,以保护自然人的安全、健康及其享有的欧盟宪章规定的基本权利。
第二,政策制定和实施。美国在2022年10月发布了《人工智能权利法案蓝图:让自动化系统为美国人民服务》。这份文件旨在“指导自动化系统的设计、开发和部署,保护美国公民权利”。
第三,研究和探索。美国联邦贸易委员会正在研究生成式人工智能可能加剧诈骗和欺诈的问题,以便更好地理解和应对这种新的犯罪形式。欧盟正在积极探索人工智能的监管模式,如推出监管沙盒。
第四,国际合作。美国和欧盟已经开始在人工智能治理方面进行合作,并推动全球人工智能治理的进程,例如,美国和欧盟都是“全球人工智能伙伴关系”的成员。
总的来说,在面对人工智能犯罪的挑战时,各国需要加强合作,共同制定和实施有效的人工智能治理策略。 (郑之侨辑)
领取专属 10元无门槛券
私享最新 技术干货