各国在制定人工智能政策或法律时不应各行其是,而应该从国际监管的层面进行协调,以避免因分散的国内监管方法的不完善和碎片化而产生的风险。在此背景下,国际社会应考虑成立一个新的政府间国际组织,我们可称之为国际人工智能组织(IAIO),作为讨论和参与人工智能国际标准制定活动的国际论坛。
著名物理学家史蒂芬·霍金认为,强大的人工智能(AI)的崛起,要么是人类历史上最好的事,要么是最糟的;是好是坏现在仍难以确定,但我们应该竭尽所能,确保其未来发展对人类有利。由此可见,随着人工智能的飞速发展,人类在享受技术革命带来的前所未有技术红利之时,也必须从政策、法律层面及时采取措施,以应对这种高深莫测的技术背后可能蕴含的巨大风险。
人工智能对国内和国际社会的挑战
AI的应用能让人类社会更有效、更好、更安全吗?还是AI的应用会成为毁灭人类的罪魁祸首?上述问题的答案很大程度上取决于我们如何利用这种强大的新兴技术。特别是由于近些年AI技术突飞猛进,人机交互的数量急剧增加,从而使得上述问题的讨论变得更为热烈。
图片来自网络
面对人工智能可能对人类社会带来的冲击,特别是技术进步带来的法律真空,一些有识之士长期以来一直呼吁各国在人工智能的监管方面进行合作。部分国家或地区已经开始着手解决人工智能带来的政策挑战。加拿大、中国、日本、美国和欧盟各自推出了促进人工智能发展和商业化的雄伟战略,以便在即将到来的人工智能驱动的全球经济时代仍然保持经济竞争力。还有许多学术机构或公私团体支持政府推动人工智能的研发和规制,例如国际人工智能与法律协会、人工智能伙伴关系、新西兰人工智能论坛以及欧盟“机器人研发计划”(SPARC)。在现实中,各国法院也面临各种与人工智能相关的争端,虽然法院的裁决在一定程度上有助于澄清与人工智能相关的法律灰色地带,但也有一些裁决反映了部分法官完全缺乏AI专业知识,从而加剧了法律适用的混乱。因此无论是政策制定者,还是争端裁决者,都有必要加强人工智能专业知识的素养。
简而言之,人工智能革命及其给社会带来的挑战都是非常真实的,各国政策制定者应及时采取因应措施。但是,各国应谨慎采用纯粹的国内方法。首先,当一个问题的监管具有超越国界的外部性时,就像当前人工智能的情况一样,不同的国内监管方法往往可能会引发冲突,从而使受多个国家法律制度管辖问题的监管变得困难重重。因此仅依靠一国的法律很难解决这种跨国性的问题,问题的跨国性质与管理该问题的各国法律之间的差异给跨国监管带来了压力。其次,跨国法律秩序的特点是一系列复杂的、多方向的进程,这些进程遵循自己的逻辑,并且毋庸置疑地会影响规范的权威性。最后,尽管法律规范的合法性主要来自社会的而非道德的根源,但在制定人工智能国内或国际法律规则时,道德因素应值得考虑并且将在塑造新的法律体系中发挥关键作用。
图片来自网络
因此,各国在制定人工智能政策或法律时不应各行其是,而应该从国际监管的层面进行协调,以避免因分散的国内监管方法的不完善和碎片化而产生的风险。在此背景下,国际社会应考虑成立一个新的政府间国际组织,我们可称之为国际人工智能组织(IAIO),作为讨论和参与人工智能国际标准制定活动的国际论坛。IAIO不仅应由各国政府组成,还应广泛吸收人工智能行业和学术组织等多元化利益相关者参与,这是由于人工智能不仅非常前沿,而且极其复杂,甚至在很大程度上尚属于未知领域,而这些行业或组织的跨学科专业知识可以为政策制定者起草人工智能国际监管制度时提供不可或缺的帮助。
人工智能国际监管机制的基本框架
鉴于人工智能对人类社会影响的严重性和全球性,人工智能的监管机制不应限于单个国家内部或少数国家之间,而应建立一个面向世界上所有国家,而且至少涵括当前主要国家在内的国际监管机制。总体而言,人工智能国际监管机制应重点考虑如下几个方面的因素。
有约束力的承诺vs灵活的合作安排:如前所述,人工智能将从根本上改变整个人类社会。人工智能的国际监管机制除了硬性的法律义务之外,必须铭记于心的是,当前关于人工智能,以及人工智能与人类的相互作用的研究甚为粗浅,这意味着我们甚至无法掌握即将发生的变化的范围和程度,更不用说它们将引发的问题的维度。人工智能带来的问题可能以快速和目前难以想象的方式发生变化,基于过去的经验,这种状况并不完全有利于达成国际共识。因此,在考虑制定一个更具约束力的合作框架之前,国际监管机制需要保持一定的灵活性以便熟悉当前的问题,厘清差异并建立共同点。
图片来自网络
国际规制vs国家自主权:人工智能技术的武器化和某些数据挖掘实践显然与国家安全攸关,涉及特别敏感的国家主权领域。至少在构建人工智能国际监管的最初阶段,国家在IAIO的权限方面可能会基于国家主权而踟蹰不前。然而,从长远来看,强有力的集体监督和执法机制可能是必不可少的,以便遏制对违法行为和机会主义行为的激励。因此,具有约束力的立法、争议解决和执法权威的高度制度化的组织将更适合作为新的国际人工智能监管机构。然而,现实是,在IAIO的确切目的、成员资格、规范问题以及一般指导方针得到充分明确之前,这种高度制度化的国际监管机制尚难以实现。
信息的分享vs信息的保密:历史经验表明,各国在分享重要技术的信息方面一般都很谨慎,鉴于人工智能技术的重要性,各国可能倾向于对人工智能信息的严密控制。但是,如果国际社会希望就硬性的法律承诺(例如关于人工智能应用的条约)达成共识,各国可能需要提供更多的信息以确保条约的遵守。这再一次表明,在当前人工智能监管的国际机制应保留更大的弹性,当然,若假以时日,应逐渐向更硬性和严密的国际监管机制迈进。
长期低交易成本vs低缔约成本:鉴于关于人工智能的国际讨论才刚刚开始,各国可能会对这一具有高度影响领域的监管产生不同的偏好,短期内达成可行的国际共识的可能性相当困难。然而至关重要的是,对于防止滥用人工智能应用造成社会危害,并确保人工智能的兴起有利于人类的福祉而言,迅速地监管反应势在必行。因此,在当下较为宽松的监管机制和低组织化形式可能将降低缔约成本,只有在拥有足够的专业知识和政治共识、能更好地评估各种政策选择潜在的影响时,才可能制定更加健全的监管机制。
复杂的集中管理vs简单的功能管理:就IAIO管理的复杂程度而言,阶段性的安排也值得考虑。在IAIO的初始阶段,在确定组织宗旨、成员资格、需要监管的问题,以及监管的主要议程的初始阶段,可能管理越简单越好。但是,随着有法律约束力的监管机制的出现,客观上要求更强有力的监管、争端解决和执行机制。
常规管理vs不确定性管理:鉴于人工智能的新颖性、极端复杂性、不可预见的演变以及在情况复杂的成员之间可能引发争议的预期,IAIO应明确其调整领域,而非对不确定的议题进行管理。因此,国际社会需要时间和监管机制的灵活性来建立共同的理念、利益、合作机制和解决方案,这些因素可以构成未来更正式的合作安排的基础。
图片来自网络
总之,至少在最初阶段,IAIO应该从非正式的国际组织开始,以相对较低的组织形式,并采用柔性的软法规定,如非约束性的建议、指南和标准,为各国在构思和设计与AI相关的管理政策时提供参考。当务之急是IAIO应该在各国制定自己的、不同的AI政策之前尽早促进国际社会在这一领域的国际合作,否则这些不同的政策很可能成为国际合作的巨大障碍。未来国际社会是否希望在某些领域采取更正式的合作,还有待观察。值得强调的是,在IAIO建立监管机制的过程中,应广泛吸收人工智能技术、法律、政治、伦理等领域的专家,以及来自公共部门、行业和学术界各种感兴趣的利益相关者进行定期地磋商,以确保充分考虑到所有相关的观点和建议。
(作者:曾炜,福建农林大学公共管理学院教授、博士生导师)
领取专属 10元无门槛券
私享最新 技术干货