前往小程序,Get更优阅读体验!
立即前往
社区首页 >专栏 >为防范 AI 背叛人类,Google、微软等巨头决心联手合作

为防范 AI 背叛人类,Google、微软等巨头决心联手合作

作者头像
BestSDK
发布于 2018-02-27 08:05:10
发布于 2018-02-27 08:05:10
7640
举报
文章被收录于专栏:BestSDKBestSDK

从《2001:太空漫游》到《黑客帝国》,电影和科幻作家一直都在提醒我们要警惕人工智能,因为它们随时都有可能背叛人类甚至毁灭人类。随着人类在人工智能领域不断取得突破,这种担忧正在越来越多地被人们提及。

现在,Google 母公司 Alphabet、Facebook、微软、IBM 和 亚马逊这 5 家在人工智能领域积极布局的科技巨头也意识到了这个问题,他们正打算为人工智能制定一套成熟的道德标准。

根据《纽约时报》的报道,这 5 家公司近期举行了一场会谈,在人工智能对劳动市场、交通和战争等方面的道德伦理标准展开了讨论。他们还打算成立一个相关的行业协会,这个协会的目的是确保人工智能有利于人类而不是伤害人类,但参会者还没有确定具体的协会名称。

虽然科技巨头们都在积极研究人工智能,但警惕人工智能统治人类的呼声也不绝于科技界。例如在今年 6 月份举办的 Code Conference 上,特斯拉和 Space X 的创始人伊隆·马斯克就曾说过,按照人工智能的发展,未来人类在智力上将被远远抛在后面,并沦落为人工智能的宠物。

去年 7 月,马斯克还资助了未来生命研究所(Future of Life Institute) 1000 万美元,该机构主要评估和分析人工智能带来的风险。

随后史蒂芬·霍金也在一场电视节目里声称硅谷某处的一些实验室正在酝酿一个邪恶的计划,而人工智能将会以比人类更快的速度进化,它们的目标是人类无法预测的。

“一旦机器达到了一种可以自我进化的关键阶段,我们就无法预测它们的使命是否和人类一样了。”霍金说。

对此,谷歌董事长 Eric Schmidt 回应称,人工智能将会以人类的福祉为发展方向,而且将会有一个系统来组织人工智能向不对的方向发展。“我们都看过那些科幻电影。”他说,“但是在现实世界中,人类肯定知道如何在人工智能变得危险的时候关闭掉它的系统。”

不仅是科技公司和民间组织想要让人工智能在道德和法律上走向正规化,政府机构也参与到了这场讨论中。今年 5 月,美国政府在西雅图举办了第一次关于AI法律法规的白宫探讨会。

本次探讨会的主题是“政府应不应该对人工智能进行管理”,但会议并没有就此议题得出结论,更不用说出台具体的监管措施了。

因此,在政府没有做出具体的动作之前,科技公司们已经开始行动了——他们决定自己制定框架,让人工智能研究能够进行下去,并确保它不会伤害人类。

参与本次行业讨论的微软研究人员 Eric Horvitz 曾在斯坦福大学创办过一个叫“人工智能百年研究”的协会,该协会最近发表了其 2016 年的研究报告。

在这份名为《2030 年的人工智能与生活》的报告中,作者认为人工智能“很可能受到监管。”报告称:“研究组达成的共识是,试图监管人工智能的努力常常受到误导,因为我们没有对人工智能这一概念的明确定义,因此在不同领域,我们需要考虑不同的风险。”

这份报告还建议政府机构提升对人工智能的专业认识,并加强在人工智能领域的公共和私人投资。

一份关于本次会议的备忘录显示,这 5 家公司将于 9 月中旬宣布建立监管人工智能的行业组织。有知情人士表示,Alphabet 的子公司 Google DeepMind 要求以独立的身份参与此行业协会。

该协会将以全球网络倡议(Global Network Initiative)等人权组织的模式组建,但更加关注言论自由和隐私权问题。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2016-09-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 BestSDK 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
AI规则迎来进化:从“阿西莫夫三原则”到“李彦宏四原则”
在硅谷久负盛名的波士顿机器人旗下的四足机器人,即将在明年量产,进入家庭场景。机器人正在离我们越来越近,很多人看完波士顿机器人的各种视频,都后背发凉:这么强大的机器人,放到家里,走在路上,伤害人类怎么办?很多机器人的体积是人类的好几倍,看上去比人类强大很多。
罗超频道
2018/07/23
1.3K0
AI规则迎来进化:从“阿西莫夫三原则”到“李彦宏四原则”
科技巨头将组AI界的“正义者联盟”,but你们的苹果不参与
人工智能的浪潮已经席卷了各个行业,并取得了一系列突破性进展,从语音识别的工具到无人驾驶汽车,再到可自动作战的新一代武器系统等,将人类的生活水平、科技发展带上了一个前所未有的新高度。但与此同时,“威胁论
AI科技评论
2018/03/07
7030
科技巨头将组AI界的“正义者联盟”,but你们的苹果不参与
【马斯克为 AI 怼上扎克伯格】人工智能威胁人类文明,历史争论总结
【新智元导读】扎克伯格与马斯克就人工智能威胁的争议已经火遍全球。这不是马斯克第一次因为说 AI 威胁人类生死存亡而与人怼起来。你并不能说马斯克不懂 AI——实际上,马斯克可以说是个在 AI 产学研方面都有相当涉猎的人。马斯克对 AI 威胁的认识到底是客观、超前还是危言耸听?看完这篇文章后,欢迎留下你的观点。 马斯克谈“AI 威胁”又成新闻头条,这次怼他的是扎克伯格 Facebook CEO 马克·扎克伯格在线上与其他大人物公开互动并不常见。当他这样做的时候,一般都很友善,并且经过编排,比如说当年他请微软创始
新智元
2018/03/23
8390
【马斯克为 AI 怼上扎克伯格】人工智能威胁人类文明,历史争论总结
把“AI威胁论”观念植入马斯克大脑的那个人,现在“反水”了
唐旭 发自 凹非寺 量子位 报道 | 公众号 QbitAI 如何把一个想法植入富豪的大脑?要么来一套“盗梦空间”,要么写一本书。 Nick Bostrom(尼克·波斯特洛姆),牛津大学人类未来研究院院长、教授、哲学家,畅销书《超级智能》的作者——比尔·盖茨和马斯克都将他的书列为必读推荐,马斯克甚至出资100万英镑支持他的机构继续自己的研究。 Bostrom被认为是在很大程度上影响了马斯克对于AI态度的人。 2014年8月,刚刚读完《超级智能》的马斯克难掩内心澎拜,并在推特上第一次呼吁人们警惕人工智能的威胁,
量子位
2018/03/28
7440
把“AI威胁论”观念植入马斯克大脑的那个人,现在“反水”了
观点 | 人工智能应该如何监管?华盛顿大学教授 Oren Etzioni 给出了他的“人工智能三定律”
AI 科技评论按:8月中旬的时候,斯克等 26 国 AI 技术领袖公车上书要求联合国禁止“杀人机器人”的研发与使用这件事唤起了人们对人工智能使用和监管的新一轮担忧。现在 AI 已经开始取代部分人的工作,以后 AI 难道还要用来杀死人类吗?虽然全球各大 AI 研究机构都在尽量开放自己的成果,促进发展的同时避免技术垄断来减少人们的担心,但仅仅“开放”并不能解决一切问题。 近日,AI 研究机构艾伦人工智能研究院(Allen Institute for Artificial Intelligence)院长、华盛
AI科技评论
2018/03/14
7680
观点 | 人工智能应该如何监管?华盛顿大学教授 Oren Etzioni 给出了他的“人工智能三定律”
人类文明新一轮的冲击,人工智能崛起!
企鹅号小编
2018/01/03
8670
人类文明新一轮的冲击,人工智能崛起!
无人驾驶迎来大考,安全守则出炉仍然困难重重
艾萨克·阿西莫夫在曾他的科幻小说里提出了机器人三定律。尽管看上去简单明了,但随着小说的展开你会发现它蕴藏着意料之外的复杂性。
大数据文摘
2019/12/06
3690
只有开源才能拯救AI
导语 | 随着 AI 技术的蓬勃发展,大模型的开源化正成为人工智能领域的新潮流,但同时引发的伦理和安全风险也饱受大家关注,如何把握平衡其中的尺度成为开源的一大难题。我们又应该如何有效进行开源治理?未来将走向何方?今天,我们特邀了开源社联合创始人、腾讯云 TVP 刘天栋老师,他首先从 AI 智能体热点现象切入,而后过渡到开源面临的机遇与挑战,最后层层剖析 AI 开源的治理之道。
TVP官方团队
2023/12/30
2240
只有开源才能拯救AI
【钢铁侠发飙】马斯克怒怼哈佛大学教授:你对通用人工智能一无所知
---- 新智元报道 来源:Fortune、Wired 作者:张乾、肖琴 【新智元导读】最近,哈佛大学教授Steven Pinker指责马斯克一边高喊人工智能会威胁人类,一边又做自动驾驶,是自相矛盾。马斯克在推特上隔空回应:Pinker并不懂通用人工智能和狭义人工智能的威胁。很多人也存在“非黑即白”的偏见。此外,前谷歌CEO施密特也认为,至少在下一个十年,机器还不可能奴役或消灭人类。 世上并没有那么多非黑即白的事情。 马斯克一边高喊人工智能是人类威胁,一边又在做L5自动驾驶,很多人认为他这
新智元
2018/03/12
8090
【钢铁侠发飙】马斯克怒怼哈佛大学教授:你对通用人工智能一无所知
李开复:我反对马斯克“AI末日论”,科幻跟科学是两码事
李根 发自 凹非寺 量子位 报道 | 公众号 QbitAI 十天前,硅谷钢铁侠、特斯拉CEO伊隆·马斯克在几十位美国州长面前,声称AI是对人类存在的最大威胁,并且呼吁加强对AI的监管。 虽然马斯克鼓吹这一论调已经多年,但这次整个AI界似乎都站到了他的对面,对他的批评声不绝于耳,直到Facebook创始人扎克伯格出手,事件到达了高潮。 “我认为那些对AI持否定态度或者鼓吹末日论的人,其实根本没理解什么是AI。他们的看法太消极了,甚至有些不负责任”,扎克伯格谈到马斯克时如是说。他还补充道“未来5-10年内,AI
量子位
2018/03/28
7630
李开复:我反对马斯克“AI末日论”,科幻跟科学是两码事
马斯克呼吁暂停 AI 研究,吴恩达:呼吁无效!潘多拉的魔盒能“安全”打开吗?
作者丨宋佳 马斯克等“千人联名”呼吁暂停AI研究事件经过一天发酵后,以吴恩达、田渊栋为代表的AI研究支持派也开始发声,公开反对“千人联名”,一场关于“要不要打开潘多拉魔盒”的论战拉开帷幕,被网友戏称为“三体照进现实?降临派、拯救派和幸存派不是开玩笑的。”这究竟是怎么一回事? 1 暂停or继续 ChatGPT训练引发马斯克、吴恩达论战 事情起因是3月29日美国非营利性组织未来生命研究所(Future of Life Institute)发布的一封公开信,信中呼吁所有人工智能(AI)实验室立即暂停训练比GPT-
AI科技评论
2023/04/12
3270
马斯克呼吁暂停 AI 研究,吴恩达:呼吁无效!潘多拉的魔盒能“安全”打开吗?
史蒂芬·霍金旧文回顾:我不认为人工智能必然会良性发展
2018 年 3 月 14 日,英国物理学家与宇宙学家史蒂芬·霍金(Stephen William Hawking)去世,享年 76 岁。 霍金于 1942 年 1 月 8 日出生于英国牛津,是现代最伟大的物理学家之一、20 世纪享有国际盛誉的伟人之一。 霍金生前曾任职剑桥大学理论宇宙学中心研究主任,在任期间做出很多重要贡献,其中包括他与罗杰·彭罗斯共同合作提出在广义相对论框架内的「彭罗斯–霍金奇性定理」,以及他关于黑洞会发射辐射的理论性预测(现称为霍金辐射)。 霍金生前亦有很多著作,撰写了多本阐述自己理论
AI研习社
2018/03/28
7620
史蒂芬·霍金旧文回顾:我不认为人工智能必然会良性发展
人工智能和人类智能的最终走向是“伙伴关系”?
大赛报名入口:https://www.chuangcheng.org.cn/455​
创成汇创新创业大赛
2018/05/30
4811
人工智能和人类智能的最终走向是“伙伴关系”?
人工智能伦理学的一知半解
读MBA时候的授业导师是周教授,周教授有一门颇受学生们欢迎的课程是“企业伦理学”。时隔多年,课本的内容已经还给了学校,但周老师课上的一些话还隐约记得。
半吊子全栈工匠
2020/02/17
9310
人工智能伦理学的一知半解
霍金、马斯克携手力推23条原则 告诫AI发展底线(附圆桌视频)
作者|任杰,邱猛,Aileen “一个好的未来是什么样子?” 特斯拉首席执行官伊隆·马斯克(Elon Musk)在加利福尼亚州阿西洛马的Beneficial AI会议上发言。 “我们正走向超级智能,亦或是人类文明的结束。” 全球2000多人,包括844名人工智能和机器人领域的专家联合签署了23条AI发展原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。 宇宙学家斯蒂芬·霍金和特斯拉首席执行官埃伦·马斯克本周公开大力支持了一系列原则,用以确保拥有自主思考能力的机器保
大数据文摘
2018/05/23
1.1K0
马斯克猛烈抨击 ChatGPT引轰动:“这不是我想要的”
作者 | Tina 埃隆·马斯克 (Elon Musk) 否认了他最著名的作品之一。 特斯拉、SpaceX 和 Twitter 的首席执行官以热爱工作每天睡觉不超过 6 小时而闻名,他脑子里想着几件事,其中一件事关 OpenAI 的发展,太平洋时间凌晨 1 点 36 分,他发表推文指责 OpenAI 违背初心:被微软控制,只顾赚钱。 作为联合创始人之一,马斯克对 OpenAI 的现状非常不满:“OpenAI 最初是作为一家开源(这就是为什么我把它命名为‘Open’AI)的非营利性公司而创建的,为了抗衡
深度学习与Python
2023/03/29
5630
马斯克猛烈抨击 ChatGPT引轰动:“这不是我想要的”
为什么顶尖科学家如此担心人工智能?
Nick Bostrom是一个怪异的哲学家。在所有担心人工智能,杀手机器人和技术带来的世界末日的人中,Bostrom想到的是最极端的情景。在他的想像中,人类灭绝只是开始。 Bostrom最喜欢的末日假
新智元
2018/03/14
8170
为什么顶尖科学家如此担心人工智能?
《 AI Now Report 2018 》:避免 AI 沦为恶魔,问责制度迫在眉睫
AI 科技评论按:2018 年围绕着人工智能的一连串技术丑闻的核心只有一个:问责制。当 AI 系统对我们的身体造成伤害时,谁应该为此负起责任?我们应该如何定义这些危害,一旦伤害造成后又该如何进行补救?假设想对此进行干预,干预的重点应该是什么?我们还需要哪些额外的研究和监管活动来保证干预效果?目前看来,这些问题都没有完善的答案,当下存在的人工智能管理框架也不足以支撑问责制的执行。然而随着系统的普遍性、复杂性和规模的逐渐增长,缺乏有意义的问责和监督机制(包括责任、担当和正当程序的基本保障)已经成为一项日益紧迫的问题。
AI科技评论
2018/12/27
7380
欧盟AI监管新规:公共场合人脸识别将被限制、甚至禁止!
继2018年5月25生效的《欧盟一般数据保护条例》(江湖人称“GDPR”)后,今年4月21日,欧盟首次发布了针对人工智能技术的监管法规草案(如下),长达108页,探讨了企业与政府应该如何使用人工智能技术。
AI科技评论
2021/05/19
7570
欧盟AI监管新规:公共场合人脸识别将被限制、甚至禁止!
OpenAI宣布全面投入通用AI,四大原则确保人类免于毁灭
【新智元导读】对于 OpenAI, 我们知道它是一家非盈利的,要用开放的方法研究通用AI,为人类带来福祉的研究机构,它的初衷是马斯克一再强调的“安全的AI”。现在,它的使命发生了一点变化:OpenAI宣布要all-in AGI(通用人工智能),提出四项原则,并将减少AI研究的公开发表。 马斯克在创立OpenAI时,给OpenAI的目标是确定人工智能技术如何更好地为人类服务。近日,OpenAI发布了一份新的公司章程,根据章程,OpenAI未来的使命是开发“高度自主的系统,在大多数具有经济价值的工作上超越
新智元
2018/04/17
6130
OpenAI宣布全面投入通用AI,四大原则确保人类免于毁灭
推荐阅读
AI规则迎来进化:从“阿西莫夫三原则”到“李彦宏四原则”
1.3K0
科技巨头将组AI界的“正义者联盟”,but你们的苹果不参与
7030
【马斯克为 AI 怼上扎克伯格】人工智能威胁人类文明,历史争论总结
8390
把“AI威胁论”观念植入马斯克大脑的那个人,现在“反水”了
7440
观点 | 人工智能应该如何监管?华盛顿大学教授 Oren Etzioni 给出了他的“人工智能三定律”
7680
人类文明新一轮的冲击,人工智能崛起!
8670
无人驾驶迎来大考,安全守则出炉仍然困难重重
3690
只有开源才能拯救AI
2240
【钢铁侠发飙】马斯克怒怼哈佛大学教授:你对通用人工智能一无所知
8090
李开复:我反对马斯克“AI末日论”,科幻跟科学是两码事
7630
马斯克呼吁暂停 AI 研究,吴恩达:呼吁无效!潘多拉的魔盒能“安全”打开吗?
3270
史蒂芬·霍金旧文回顾:我不认为人工智能必然会良性发展
7620
人工智能和人类智能的最终走向是“伙伴关系”?
4811
人工智能伦理学的一知半解
9310
霍金、马斯克携手力推23条原则 告诫AI发展底线(附圆桌视频)
1.1K0
马斯克猛烈抨击 ChatGPT引轰动:“这不是我想要的”
5630
为什么顶尖科学家如此担心人工智能?
8170
《 AI Now Report 2018 》:避免 AI 沦为恶魔,问责制度迫在眉睫
7380
欧盟AI监管新规:公共场合人脸识别将被限制、甚至禁止!
7570
OpenAI宣布全面投入通用AI,四大原则确保人类免于毁灭
6130
相关推荐
AI规则迎来进化:从“阿西莫夫三原则”到“李彦宏四原则”
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文