《文汇读书周报》第1709号第六版“三味书屋”
(2018年4月16日发行)
让机器人也学会明辨是非
——读《道德机器》
邓 勤
《道德机器》
[美]温德尔·瓦拉赫 科林·艾伦著
王小红主译
北京大学出版社出版
——公元2035年,人和机器人和谐相处,智能机器人作为最好的生产工具和人类伙伴,逐渐深入人类生活的各个领域,而由于机器人“三大法则”的限制,人类对机器人充满信任,很多机器人甚至已经成为家庭成员。这是美国科幻电影《我,机器人》中描述的未来社会,而所谓的“三大法则”分别是:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;机器人必须服从人给予的命令,当该命令与第一定律冲突时例外;机器人在不违反第一、第二定律的情况下,要尽可能保护自己的生存。
——如果机器人能够严格遵守“三大法则”,也即是说机器人能够明辨是非,知道什么可做什么不可做,那么人类和机器人群体之间将会和谐相处。但是在电影中,机器人由于具备了自我进化的能力,它们对“三大法则”有了自己的理解,随时会转化成整个人类的“机械公敌”。于是,一场制造者和被制造者之间的战争拉开序幕。电影提出了一个尖锐的话题:我们怎样才能让机器人明辨是非,或者说人类怎样才能永远控制住机器人,让它们为我们所用。
——人类即将全面进入机器人时代。机器人将跟人类社会发生根本冲突,这并不是危言耸听,如果人类现在不未雨绸缪,将来可能会让局面变得无法收拾。霍金曾深具远见地指出:“人工智能的进化速度会比人类更快,而它们的未来还不可预测。”美国作家温德尔·瓦拉赫和科学史教授科林·艾伦长期关注机器人的应用及前景问题,他们认为在未来数年内,人工智能系统可能会摆脱人类监管,自主做出决定,甚至走上反抗人类的道路。这种不确定性,将使机器人面临的道德风险日益凸显,因此,人类迫切需要确保机器人的设计符合道德规范。
——温德尔·瓦拉赫和科林·艾伦所著的《道德机器》一书包括“机器道德为什么如此重要”等12章,基于人类道德判断和伦理的本质,深入探讨了人类在设计具有道德判断能力的机器人的漫漫征途上所面临的巨大挑战。在快速回顾了最前沿的道德哲学与人工智能之后,作者指出,当机器人要承担越来越多的责任时,为了我们的安全,它们必须通过程序学会道德判断。而设计某种功能性的道德指令,让人工智能机器人习得某些基本的道德感不但是必要的,而且是可行的。并且,即便让机器人承担“完全的道德责任”还有很远的路要走,但随着人类对道德理解的深入和完善,能接收复杂道德指令的各类服务型机器人未来终将诞生。
——人工智能机器人已经在特定领域胜过了人。但是,《道德机器》问世时的基本信息依然没有变,我们的任务依然是设计自主机器,让它们以可辨识的道德方式行事,使用我们已经获得的社会、政治和技术资源。机器人也应该学会明辨是非,这个问题在将来必将得到圆满解决。
中国第一家由媒体创办的读书类专业报纸
《文汇读书周报》
WENHUI BOOK REVIEW SINCE 1985
《文汇读书周报》采编团队
如果你喜欢本文,请推荐给他人或在【朋友圈】转发
请搜索并添加《文汇读书周报》官方微信公众号:
文汇读书周报
或
whdszb
We Have the Divine Scholarly Zest Blessed
领取专属 10元无门槛券
私享最新 技术干货