前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >AI=核武器?谷歌前CEO语惊四座

AI=核武器?谷歌前CEO语惊四座

作者头像
新智元
发布于 2022-08-26 06:38:38
发布于 2022-08-26 06:38:38
3660
举报
文章被收录于专栏:新智元新智元


新智元报道  

编辑:拉燕

【新智元导读】谷歌前首席执行官Schmidt认为,AI就像核武器一样。你同意这个说法吗?

把AI比作核武器,你觉得合理吗?

谷歌前首席执行官Eric Schmidt将人工智能比作核武器,并呼吁建立一个相互保证的威慑制度。

类似于核武器的那种。

人工智能和核武器一样危险吗?

7月22日,Schmidt在阿斯彭安全论坛「关于国家安全和人工智能」的小组讨论中,谈到了人工智能的危险性。

在回答有关科技界道德价值的问题时,Schmidt表示,早期他自己在谷歌公司时,也曾低估了大数据的力量。

时至今日,他呼吁,科技应该要更好地符合其服务对象的伦理和道德。然后他就在人工智能和核武器之间做了一个有些出格的类比。

Schmidt预计,在不久的将来,中国和美国需要围绕人工智能做点什么。

AI和机器学习一样,都是令人印象深刻且经常被误解的技术。

在很大程度上,它并不像人们认为的那样聪明。它可以制作出杰作级的艺术品,甚至在「星际争霸II」中击败人类。

然而,试图让它完成更复杂的任务,如驾驶汽车穿越大城市,短期内还实现不了。

Schmidt想象,在不久的将来,中国和美国都会有关于AI的安全方面的担忧,迫使两国围绕人工智能达成一种威慑条约。

他类比了20世纪50年代和60年代,当时外交部门围绕地球上最致命的武器精心制定了一系列控制措施。

但是,在全世界通过《禁止核试验条约》、《第二阶段谈判协议》和其他具有里程碑意义的立法的地步之前,广岛和长崎的已经被毁灭了。

美国在二战结束时用原子弹摧毁了两个城市,杀死了数以万计的人,并向世界证明了核武器的恐怖力量。

我们可以说,没有美国这一出,人们通过上述这些条约和协议的动力可能就不会那么强了。

随后,俄罗斯和中国的政府便急于获得这种武器。

目前,人类与这些武器共处的方式是通过一种叫做「相互确保摧毁」(MAD)的机制。这是一种威慑理论,内容是如果一个国家发射核弹,其他国家也将进行反制发射。

虽说人工智能还没有证明自己有接近核武器的破坏力。但身居要职的人害怕这项新技术,而且,通常是出于一些不那么正确的原因。

甚至,还有人建议将核武器的控制权交给人工智能,他们认为,理论上AI能比人类更好地决定武器的使用。

这不让身居高位的人更害怕了嘛。

人工智能的问题不在于它具有核武器的潜在破坏力,而在于人工智能的好坏只取决于设计它的人,他们反映了创造者的价值观。

这也就是典型的「垃圾进,垃圾出」的问题。种族主义的算法造就了种族主义的机器人,所有的人工智能都带有其创造者的偏见。

AI是其创造者的反映

无独有偶,Demis Hassabis,DeepMind的首席执行官,就这个话题可能比Schmidt还更了解一点。

Hassabis训练的人工智能正在击败「星际争霸II」的玩家。7月和Lex Fridman播客的采访中,Fridman问Hassabis,像人工智能这样强大的技术应该如何被控制,以及Hassabis本人如何避免被这种强大的力量所腐蚀。

Hassabis表示,「人工智能是一个很庞杂的想法。谁来建造,这些人信仰哪种文化,他们有什么价值观等等,这些都很重要。人工智能系统会自己学习......但系统中会有该系统创造者的文化和价值观的残留物。」

人工智能是其创造者的反映,它不可能在120万吨的爆炸中夷平一座城市。

除非人类教它这么做。

参考资料:

https://www.vice.com/en/article/3adbwy/eric-schmidt-thinks-ai-is-as-powerful-as-nukes

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-07-31,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
谷歌前CEO:AI就像核武器,大国之间需要建立‘AI威慑’,确保相互毁灭
大数据文摘出品 谷歌前首席执行官埃里克·施密特(Eric Schmidt)在一次访谈中,将人工智能比作核武器,并呼吁建立一个类似的相互确保毁灭的威慑机制,以防止世界上最强大的国家因为AI相互毁灭。 相互保证毁灭(Mutually Assured Destruction,简称M.A.D.机制,亦称共同毁灭原则)是一种“俱皆毁灭”性质的思想。对立的两方中如果有一方全面使用则两方都会被毁灭,被称为“恐怖平衡”。 施密特将AI与核武器相对比,表示中美未来可能要缔结类似于禁止“核试验”相似的条约,以防止AI毁灭世界
大数据文摘
2022/07/26
5110
谷歌前CEO:AI就像核武器,大国之间需要建立‘AI威慑’,确保相互毁灭
OpenAI拟将ChatGPT军用?与五角大楼合作军事禁令解除,谷歌前CEO:AI会变成核弹
自大语言模型诞生以来,人们对其可能带来的影响的讨论就没停过。不过,更多人还是从普通人的视角出发,从LLM能对人们的日常工作生活带来哪些变化来思考的问题。
新智元
2024/01/23
1450
OpenAI拟将ChatGPT军用?与五角大楼合作军事禁令解除,谷歌前CEO:AI会变成核弹
霍金、马斯克携手力推23条原则 告诫AI发展底线(附圆桌视频)
作者|任杰,邱猛,Aileen “一个好的未来是什么样子?” 特斯拉首席执行官伊隆·马斯克(Elon Musk)在加利福尼亚州阿西洛马的Beneficial AI会议上发言。 “我们正走向超级智能,亦或是人类文明的结束。” 全球2000多人,包括844名人工智能和机器人领域的专家联合签署了23条AI发展原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。 宇宙学家斯蒂芬·霍金和特斯拉首席执行官埃伦·马斯克本周公开大力支持了一系列原则,用以确保拥有自主思考能力的机器保
大数据文摘
2018/05/23
1.2K0
当前摆在人工智能面前的5个难题
本文介绍了人工智能在理解人类语言、机器人附能、防黑客攻击、玩游戏、辨别是非等方面的应用,以及人工智能在现实任务协作方面的局限性。文章还讨论了如何让AI系统具有更强大的能力和道德意识,以及如何防止AI系统产生偏见和歧视。
人工智能的秘密
2018/01/08
8010
《资讯》霍金:人工智能的威胁就像核武器,世界将发生10大变化!
著名科学家霍金,被誉为“宇宙之王”,他认为:人类迄今为止最为深刻的影响就是人工智能的崛起,对于人工智能,他有以下十点深刻的思考: 1 在我的一生中,我见证了很多社会深刻的变化。其中最深刻,同时也是对人类影响与日俱增的变化就是人工智能的崛起。人工智能可能是人类文明史上最伟大的事件,它要么是人类历史上最好的事,要么是最糟的。如果我们不能学会如何避免风险,那么我们会把自己置于绝境。 如果有人设计计算机病毒,那么就有人设计不断自我完善、直到最终超越人类的人工智能,其结果将是一种新的生命形式。 人工智能的真正风险
企鹅号小编
2018/01/16
6200
《资讯》霍金:人工智能的威胁就像核武器,世界将发生10大变化!
ChatGPT启示录!OpenAI街尾这家博物馆,展示人类毁灭未来
新智元报道   编辑:Ellie 桃子 【新智元导读】随着ChatGPT的大热,人们对AGI的讨论也日渐激烈。开在旧金山的错位博物馆,构想了AGI将大部分人类摧毁的未来世界。 「Sorry for killing most of humanity!」 3月3日,位于旧金山的错位博物馆(Misalignment Museum)正式开幕。 这是一家艺术博物馆,里面陈列出关于通用人工智能(AGI)对人类未来影响的展品。 最让人瞩目的作品是「回形针拥抱」,在其上方还贴上了「抱歉杀死了大部分人类」标语。 有趣的是,
新智元
2023/03/29
3060
ChatGPT启示录!OpenAI街尾这家博物馆,展示人类毁灭未来
这是硅谷狂人马斯克对未来做出的11个大胆预测,人工智能比核武器更危险
近几年以来,美国硅谷科技界领军人物、特斯拉和SpaceX首席执行官伊隆·马斯克(Elon Musk)在各种场合,对即将到来的新技术进行了一些大胆的预测,以下为他预测的核心内容: 1.早在2015年,伊隆·马斯克在接受Marketplace采访时表示:“在我看来,除了火箭,其它所有的交通运输工具都是毫无疑问的最终都会变成电动的,不是采用一半的电动,而是全电动。” 在今年7月份的美国州长级会议上,马斯克又重申了他的大胆预测,他表示飞机、火车、汽车、所有的船只,都将会变成全电动动力。 2.在今年7月28日
企鹅号小编
2018/01/19
7950
这是硅谷狂人马斯克对未来做出的11个大胆预测,人工智能比核武器更危险
Deepmind AI在《星际争霸2》血虐99.8%人类,登顶宗师段位
对于大多数游戏玩家来说,游戏内置的电脑AI,似乎都是一个笑话,更应该被称为“人工智障”。
新智元
2020/04/21
6270
Deepmind AI在《星际争霸2》血虐99.8%人类,登顶宗师段位
马斯克就人工智能再次发出警告,内心究竟在恐惧什么?丨科技云·视角
“如果你不担心人工智能的安全性,那么现在你应该担心。它比朝鲜核武器危险得多。”近日马斯克在Twitter上称。
科技云报道
2022/04/14
7270
马斯克就人工智能再次发出警告,内心究竟在恐惧什么?丨科技云·视角
【业界】埃隆·马斯克:“记住我的话,人工智能比核武器危险得多。”
AiTechYun 编辑:xiaoshan 特斯拉(Tesla)和SpaceX的老板埃隆·马斯克(Elon Musk)对人工智能的危险警告已经加倍。 埃隆·马斯克在SXSW音乐节上发言。照片来自Chr
AiTechYun
2018/03/27
8420
【业界】埃隆·马斯克:“记住我的话,人工智能比核武器危险得多。”
图灵奖得主Bengio最新长文:人类大脑是生物机器,一定会有超级智能AI超越它
这是1968年科幻电影《2001:太空漫游》中的经典场景,人工智能HAL9000拒绝了人类的请求,由此展开了殊死搏斗。
量子位
2023/08/03
2120
图灵奖得主Bengio最新长文:人类大脑是生物机器,一定会有超级智能AI超越它
马斯克等116名AI大佬紧急上书联合国,呼吁不要打开“机器人武器”的潘多拉魔盒
大数据文摘作品,转载要求见文末 编译 | 宁云州、钱天培、杨捷 日前,在世界最大的人工智能会议之一的IJCAI 2017上,116名世界领先的机器人和人工智能公司的领导人联名发布了一封公开信,敦促联合国紧急处理可致命自动武器(通常称为“杀手机器人”),并禁止它们在国际上使用。 116位AI和机器人界大佬联名呼吁禁止“杀手机器人” 随着人工智能的发展,计算机开始在各个领域上渐渐超过人类,近些年更是在围棋甚至Dota2上也超越了人类,而作为AI特殊的应用领域之一,自动武器系统的危险性不言而喻,如果被别有用心之人
大数据文摘
2018/05/24
5890
迈克尔•戴尔:人工智能杀手?技术反乌托邦?不存在的
Dell Technologies的首席执行官迈克尔•戴尔(左)和Pivotal的首席执行官Rob Mee(右) 迈克尔•戴尔,Dell Technologies的创始人,认为,技术将继续“为人类带来非常积极的成果”。 他表示,无论计算机变得多么聪明,它们始终与人类大脑存在根本区别。 目前人们对技术公司给社会带来的影响持普遍怀疑的态度,尤其是对于人工智能,各种顾虑甚嚣尘上。迈克尔·戴尔在Pivotal举行的会议上向在座的高管们也发表了其观点。 一些技术高管和观察家担心人工智能会导致大规模失业、广泛的社
企鹅号小编
2018/01/15
7590
迈克尔•戴尔:人工智能杀手?技术反乌托邦?不存在的
AI领域最有影响力100人!Hinton只排31、Bengio竟然没有上榜?
大家好我是三金,今天又是开开心心的一天,如题目和上图所示,我今天在上班摸鱼的时候发现了这样一份号称是“AI领域最有影响力的100人”的榜单。
Amusi
2021/01/28
4230
AI领域最有影响力100人!Hinton只排31、Bengio竟然没有上榜?
业界 | 马斯克参加反对AI武器宣言,全球2400名研究者共同签名
在2018年7月18日召开的斯德哥尔摩IJCAI上,马斯克和一个成立仅三年的组织“未来生命研究所”再一次被推上舆论的风口浪尖。
大数据文摘
2018/07/31
3770
业界 | 马斯克参加反对AI武器宣言,全球2400名研究者共同签名
游戏人工智能 读书笔记 (二) 游戏人工智能简史
关于作者:Fled在新加坡国立大学获得博士学位,现就职于腾讯游戏AI研究中心。 本文内容包含以下章节: Chapter 1.2 A Brief History of Artificial Intelligence and Games 本书英文版: Artificial Intelligence and Games - A Springer Textbook 从历史来看,在很长的时间里,创造一个可以代替人类玩游戏的机器人是唯一的在游戏中应用人工智能的方式。而在人工智能发展的早期,绝大部分游戏AI的研究
腾讯高校合作
2019/07/02
6270
游戏人工智能 读书笔记 (二) 游戏人工智能简史
推荐 | 对话徐英瑾:也要给机器人做“思想工作”
人类对于人工智能的想象由来已久,或许你会想到古代神话传说,神话故事里技艺高超的工匠可以制作人造人,并为其赋予智能或意识。而今天提到的人工智能不是故事,也非幻想,我们的身边到处都是“人工智能”的初级阶段
机器人网
2018/04/20
1.1K0
推荐 | 对话徐英瑾:也要给机器人做“思想工作”
专家呼吁禁止杀手机器人
来自加拿大和澳大利亚的机器人和人工智能领域的专家们呼吁政府对杀手机器人下达禁令,专家们反对自动化武器的使用,并且认为它们的研发和使用越过了道德底线。 在新南威尔士大学Toby Walsh的组织下,澳大
人工智能快报
2018/03/15
8080
专家呼吁禁止杀手机器人
图灵三巨头激战持续升级!吴恩达痛批美国AI禁令扼杀开源,马斯克都下场了
相对Hinton、Bengio等人呼吁加强对AI技术监管,否则可能引发危险的「AI末日论」,LeCun和吴恩达坚决站在另一边——
新智元
2023/11/02
3440
图灵三巨头激战持续升级!吴恩达痛批美国AI禁令扼杀开源,马斯克都下场了
面对AI灭世主义:智能并非全部
AI灭世主义者早就迷失在一种伪装成贝叶斯分析的宗教当中。这是Oxide公司CTO在接受TNS采访时说的。
云云众生s
2024/03/28
1230
推荐阅读
谷歌前CEO:AI就像核武器,大国之间需要建立‘AI威慑’,确保相互毁灭
5110
OpenAI拟将ChatGPT军用?与五角大楼合作军事禁令解除,谷歌前CEO:AI会变成核弹
1450
霍金、马斯克携手力推23条原则 告诫AI发展底线(附圆桌视频)
1.2K0
当前摆在人工智能面前的5个难题
8010
《资讯》霍金:人工智能的威胁就像核武器,世界将发生10大变化!
6200
ChatGPT启示录!OpenAI街尾这家博物馆,展示人类毁灭未来
3060
这是硅谷狂人马斯克对未来做出的11个大胆预测,人工智能比核武器更危险
7950
Deepmind AI在《星际争霸2》血虐99.8%人类,登顶宗师段位
6270
马斯克就人工智能再次发出警告,内心究竟在恐惧什么?丨科技云·视角
7270
【业界】埃隆·马斯克:“记住我的话,人工智能比核武器危险得多。”
8420
图灵奖得主Bengio最新长文:人类大脑是生物机器,一定会有超级智能AI超越它
2120
马斯克等116名AI大佬紧急上书联合国,呼吁不要打开“机器人武器”的潘多拉魔盒
5890
迈克尔•戴尔:人工智能杀手?技术反乌托邦?不存在的
7590
AI领域最有影响力100人!Hinton只排31、Bengio竟然没有上榜?
4230
业界 | 马斯克参加反对AI武器宣言,全球2400名研究者共同签名
3770
游戏人工智能 读书笔记 (二) 游戏人工智能简史
6270
推荐 | 对话徐英瑾:也要给机器人做“思想工作”
1.1K0
专家呼吁禁止杀手机器人
8080
图灵三巨头激战持续升级!吴恩达痛批美国AI禁令扼杀开源,马斯克都下场了
3440
面对AI灭世主义:智能并非全部
1230
相关推荐
谷歌前CEO:AI就像核武器,大国之间需要建立‘AI威慑’,确保相互毁灭
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档