“高级AI可能造成地球生命史上的深刻变化。”
这是非盈利机构Future of Life发布的一封公开信里的警告。这封公开信呼吁人类暂停开发比目前GPT模型更强大的人工智能,为时至少6个月。相关网页显示,已经有上千名重量级大佬签名联署,包括特斯拉创始人马斯克、苹果联合创始人沃兹尼亚克等。
在AI领域,Stability AI的CEO莫斯塔克以及DeepMind实验室的研究人员也在公开信上署名。截至发稿,最受瞩目的OpenAI公司创始人阿尔特曼还没有正式回应这封公开信。
在普通人还在担心AI抢了自己的饭碗时,大佬们似乎看到了更深的一层担忧。
签署这封信的纽约大学教授马库斯说:“这封信措辞并不完美,但精神是正确的:我们需要放慢脚步,直到我们更好地理解AI的后果。AI可能会造成严重伤害,而大公司对他们正在做的事情越来越保密,这使得社会很难抵御可能出现的任何伤害。”
资料图 图据视觉中国
公开信全文如下:
广泛的研究表明,具有和人类竞争能力的AI系统可能对社会构成深远的风险。正如广泛认可的“Asilomar有益AI原则”所述,高级AI可能造成地球生命史上的深刻变化,人们应谨慎对此进行规划和管理。不幸的是,这种程度的重视并没有发生,最近几个月AI实验室陷入了一场失控的竞赛,没有人——甚至包括AI的创造者——都无法理解、预测或可靠地控制AI的行为。
当代人工智能系统现在在一般任务上变得可以和人类竞争,对此我们必须扪心自问:我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们应该自动化所有的工作,包括那些富有意义的人类工作吗?我们是否应该发展最终可能超过我们并取代我们的非人类思维?我们应该冒失去对我们文明的控制的风险吗?只有当我们确信AI的影响是积极的并且它们的风险是可控的时候,才应该开发强大的AI系统。这种信心必须有着充分的理由,并随着AI潜在影响的扩大而增加对AI的审视力度。OpenAI最近关于通用人工智能的声明指出,“在未来某些时刻,在开始训练系统之前进行独立审查可能很重要,并且对于最先进的系统来说,我们应该同意限制其算力增长的速度。”对此我们表示同意,那个“某些时刻”就是现在。
因此我们呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为时至少6个月。这种暂停应该是公开的和可验证的,验证过程应包括所有关键参与者。如果相关方不能迅速实施这种暂停,政府应介入管理。
AI实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,无可置疑。并不意味着人类从总体上暂停AI开发,只是要从当前危险的竞赛中退出来,装上“紧急功能的”刹车,避免人类进入更大的不可预测的黑箱。
人工智能研究和开发应该重新聚焦于使系统更加准确、安全、可解释、透明、稳健、值得信赖。AI开发人员必须与政策制定者合作,以显著加快开发强大的AI治理系统。这个治理系统至少应包括:专门负责AI领域的有能力的监管机构来监督和跟踪高性能人工智能系统和大量计算能力;建立水印系统,以帮助人们区分真实与AI合成内容;强大的审核和认证系统应对人工智能造成的伤害的责任;为AI安全研究提供强大的公共资金支持。
人类可以享受人工智能带来的繁荣未来,收获科技进步的果实。我们需要负责任地监督AI的发展,并让社会有机会逐步适应AI带来的冲击。人类以前也曾叫停过有可能带来伤害的科技发展,这次面对人工智能也不例外。让我们享受一个漫长的AI夏天,而不是毫无准备地陷入秋天。
红星新闻记者 王雅林 实习生 郑直
责编 任志江 编辑 王禾
领取专属 10元无门槛券
私享最新 技术干货