或许没人能想到,于2018年3月去世,葬在牛顿旁边的物理学家霍金,对人类未来最担心的,竟然是人类对AI缺乏警惕的态度,这可能会成为人类最伟大、也是最后一项发明。
“如果一个高级外星文明向地球发送信息说‘我们几十年后就会到达’,人类会不会只是回复:‘好的,你来的时候记得打电话通知一声,我们开着灯迎接’?可能不会,但这正是人类对待AI的态度”——霍金。
或许没人能想到,于2018年3月去世,葬在牛顿旁边的物理学家霍金,对人类未来最担心的,竟然是人类对AI缺乏警惕的态度,这可能会成为人类最伟大、也是最后一项发明。他在遗愿中告诉世人:“我们应该提前做好计划。”
霍金生前分析道:“虽然到目前为止,AI的初始形式已经被证明是非常有用的,但我担心的是创造出与人类匹敌或超越人类的东西的后果。在未来,AI可以发展出自己的意志,一种与我们相冲突的意志。人类受到缓慢的生物进化的限制,无法与之竞争,或许会被取代。”
简而言之,他总结道:“超级AI要么是人类有史以来最好的,要么是最坏的发明。人工智能真正的风险不是恶意,而是能力。一个超级AI会非常善于实现它的目标,如果这些目标与我们的不一致,我们就有麻烦了。就像你可能平时并不仇恨蚂蚁,不会以踩死蚂蚁来取乐,但如果让你负责一个水电绿色能源项目,代价是淹没一个蚁丘,你恐怕也不会在乎什么。这对蚂蚁来说太糟糕了,请不要把人类摆放在那些蚂蚁的位置上。”
比尔·盖茨也表达了相近的担忧。每年,比尔、梅林达·盖茨基金会都会发布年度《守门员报告》,用图片、表格、指标和统计数据展示人类发展状况。通常情况下,这是乐观的——近年来,全球贫困、婴儿死亡率以及其他一系列关键数据都在朝着好的方向发展,但是今年,报告的基调有了一些变化。
在记者访谈中,比尔·盖茨提到了AI的问题,他认为,在现阶段,人类除了要进一步发展AI技术,同时也应该开始处理AI造成的风险。然而,“这些人中的大多数都没有研究AI风险,只是在不断加速AI发展。”
事实上,即便在现在的发展初期,AI也已经逐渐暴露出了一些隐患,最典型的就是被认为无偏见的AI算法,已经产生了“偏见”。早在1982年,圣乔治医院医学院使用的招生评估算法就出现了种族偏见,荒诞的是,这种算法偏差依据的居然是学生名字——但凡听起来像外国名字,学生就会被拒收。
而在去年,Facebook发生了著名的算法风波。他们原本推出了一种算法来删除网站上的仇恨言论,然而,其内部文件显示,该算法具有明显的“精英主义”倾向,为草根和少数族裔说的话更容易被删;同年,美国司法部门用AI为监狱犯人打分时,判断那些人会“二进宫”时,黑人群体错误地出现了过高的可能性。
领取专属 10元无门槛券
私享最新 技术干货