关于人工智能的大规模商用项目,可能没有什么比自动驾驶汽车离我们更近了。由此而来的一些争议已经不容置疑的摆上了台面。
比如遇到紧急情况来不及刹车时,是选择急转弯造成乘客受伤还是选择撞向无辜的行人?如果设定为宁可让乘客受伤也不能伤害路人,这样的车你会买吗?反正我不买,祸祸谁呢?反过来如果选择把无辜路人舍出去,你觉得社会舆论会让这样的车上路吗?
再聊聊人工智能的难处。还记得阿莫西夫的机器人三定律吗?
第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害;
第二定律:除非违背第一定律,否则机器人必须服从人类的命令;
第三定律:在不违背第一及第二定律时,机器人必须保护自己。
三定律定义严密,层层递进,但依然解决不了上述的难题。
试想,把这三大定律输入驾驶汽车的人工智能,如果遇到上边说的紧急情况,人工智能要如何选择?紧急转弯就会因作为而伤害人类(乘客),不转弯会因不作为而伤害人类(无辜路人),如果我是人工智能,不如干脆死机算了,太难了。
大家不难看出,以上不过是古老的电车难题的翻版而已,只是把人换成了人工智能。但如此就会让自动驾驶汽车上不了路了吗?当然不会,有商业推动的科技进步是绝无停止甚至倒退的可能,自动驾驶的时代注定会很快到来。
那么没有绝对正确的道德算法怎么办?其实并没有想象的那么难,就像汽车刚刚诞生时的红旗法案:汽车行驶速度不得超过时速5英里,而且前边要有一个人举着红旗开道示警。我们现在会觉得这个法案非常愚蠢,因为它阻碍了人类的进步,但废除了红旗法案又的确造成了车祸的发生。
这是悖论吗?当然不是,其实人类绝大多数的进步都伴随着不同程度的副作用,但进步从未停止。从来都是在政府、民众和资本的争取和妥协中艰难的寻找那个基本公正的平衡点,并小心地维持,直到某一时刻平衡被打破。接下来继续争取、妥协直到找到下一个平衡点,莫不如此。那么,你觉得自动驾驶会例外吗?
领取专属 10元无门槛券
私享最新 技术干货