当地时间周四,全球首届人工智能安全峰会在英国落下帷幕,马斯克与英国首相苏纳克探讨AI的风险与回报颇受业界瞩目。
其中,马斯克再呼吁要竖起AI监管大旗,苏纳克也警告称AI可能会带来核战争规模般的风险。
AI监督
在两人的对话中,马斯克将人工智能描述为“历史上最具颠覆性的力量”,并表示我们最终将“拥有比最聪明的人类更聪明的东西”。
同时,他也将人工智能比作一把”双刃剑”。这项技术在他看来至少有80%的机率对人类有益,20%的机率会带来危险,有可能成为人类面临的“最大威胁”之一。
“人工智能很可能成为一股向善的力量,但它变坏的可能性并不是零。”
对于人工智能将如何影响工作时,马斯克预测人类劳动力将被淘汰。
“总有一天,我们将不需要工作。如果你想找一份工作来满足个人需求,你可以找一份工作,但人工智能将能够做一切事情。”“这是否会让人们感到舒服还不清楚,未来的挑战之一将是我们如何找到生活的意义。”
关于监管,马斯克最新表示,监管“确实会很烦人,但我认为多年来我们已经了解到,有裁判是一件好事。”
他指出,应设立一个中立的“第三方裁判”机构以监督AI公司的开发活动。这将有助于及时发现领先AI公司的活动趋势和潜在问题。
同时强调,制定有效的AI监管规则需要对其发展有深入了解,因此,他并不担心在没有充足理解的情况下过早制定相关规则。
关于政府应该采取哪些措施来“管理和减轻”人工智能的风险时,马斯克确认需要政府干预,并表示他不同意“不到 1% 的监管”。
近十年来,马斯克一直在警告人工智能可能威胁人类的生存。当人工智能潮席卷全球之际,今年7 月,马斯克宣布他正在组建xAI来“理解现实”。他曾表示:“从人工智能安全的角度来看,一个具有最大好奇心、试图理解宇宙的人工智能将是有利于人类的。”
马斯克和苏纳克一致认为,可能需要物理“开关”来防止机器人以危险的方式失控,并参考了《终结者》系列电影和其他科幻电影。苏纳克称:“所有这些具有相同情节的电影基本上都以人关掉它而结束。”
会上,苏纳克也警告说,AI可能会给人类带来与核战争规模相当的风险。他对先进的AI模型给公众带来的风险感到担忧。
“开发这项技术的人们已经提出了AI可能带来的风险,重要的是不要对此过于危言耸听。关于这个话题存在争议。业内人士对此看法并不一致,我们也无法确定。”“但有理由相信,它可能会带来与大流行病和核战争规模相当的风险,这就是为什么,作为领导人,我们有责任采取行动,采取措施保护人民,这正是我们正在做的事情。”
《布莱切利宣言》
此前一天,在这场人工智能安全峰会上,英国政府公布了《布莱切利宣言》。
这是一份来自中国、印度、美国和欧盟等28个国家和地区的代表签署通过的全球首个人工智能协议,旨在解决前沿人工智能模型可能会面临的失控和滥用的风险,警告人工智能可能造成“灾难性”伤害。
宣言指出,AI为全球带来了巨大的机遇,它有潜力改变或增强人类福祉、和平与繁荣。同时,AI还带来了重大风险,包括在日常生活领域。
“所有问题都至关重要,我们确认解决它们的必要性和紧迫性。”
AI能产生的许多风险本质上是国际性的,因此最好通过国际合作来解决。
“为了实现这一点,我们申明,为了所有人的利益,AI应该以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用。”
宣言提到,鼓励所有相关行为者就衡量、监测和减轻潜在有害能力以及可能出现的相关影响的计划提供适合具体情况的透明度和问责制,特别是防止滥用和控制问题以及其他风险的放大。
在合作的背景下,宣言重点关注两个要点:一、识别共同关注的AI安全风险,建立针对它们的科学和基于证据的“认识理解”,并在能力不断增强的情况下维持这种认识理解,以更广泛的全球方法来了解AI对我们社会的影响。
二、各国各自制定基于风险的政策,并酌情开展合作。“为了推进这一议程,我们决心支持一个具有国际包容性的前沿人工智能安全科学研究网络,以对尚未完全了解的人工智能风险和能力加深理解。”
据悉,下一届人工智能安全峰会将于 2024 年由韩国和法国主办。
领取专属 10元无门槛券
私享最新 技术干货