现在的人工智能领域一片繁荣, 很多科技巨头都做出了几乎和与人一样用于语言能力、交流能力、演算能力等的"机器学习"。
但,有这样一个问题, 大多数人工智能逻辑是一样的, 通过大量的数据使得机器对事物的判断更加精确。然而, 人所接触到的数据与机器在互联网上获得的数据却无法相比。
也就是说, 工程师在用他们认为正确的方式去接近大脑, 但这不一定是大脑的运作方式,没有人真正能搞清楚大脑在如何运作。
那么,怎么搞清楚我们的大脑是如何运作的?
从我的角度,不可以! 因为我们在用什么思考,大脑。 而大脑只能理解比自己低能的东西, 却无法触及自己的高度。
可以这样想:智慧的进化过程是爬山, 越来越高。那为什么猴子不去造一个猴子?为什么狗不去造一个智能狗?偏偏是人类想造一个智能人? 这说明,目前在人类面前的这个制高点是"理解并创造智慧本身", 我们把它理解为智慧的最高点, 他们可能需要爬到更高的地方时的语言、使用工具等等。 也就是说, 如果克服了最高的山,人类可以理解蜜蜂、猴子, 同样可以造一个智能人。
如果制造智慧是智慧的制高点, 那么,即使是人工智能,也无法超越, 因为这就是最高点了。而智慧的进化是不会有终点的,即使有,人类也相差甚远,所以不成立。
如果制造智慧不是制高点的话, 那么人类首先要学会创造低等智慧, 比如狗、 蜜蜂(其实现在科学家连昆虫的智慧都还没有创造出), 进而成为人类的智慧。 同样,如果人类创造出了比自己更发达的智慧, 这个智慧必须可以创造人类。
这样以来,问题就可以简化为:低能智慧是否创造出一个高级的可以创造自己的智慧。如果他这个低能智慧可以创造出比自己高能的智慧, 那么他就是更高能的智慧, 所以不可能。
人工智能(AI)研究现正迅速发展。近来的里程碑不过是史无前例的投资激发信息技术军备竞赛的征兆。如无人驾驶汽车、计算机在《危险边缘》智力竞赛节目中获胜、数字私人助手Siri、Google Now和语音助手Cortana等等。与今后几十年会出现的事物相比,这些成就大概微不足道。
潜在的好处还有很多。文明所能提供的一切都是人类智慧的产物,人类无法预言当这种智慧被AI能提供的工具放大时人类能实现什么,但消除战争、疾病和贫困将是所有人都最盼望的。成功创造AI将是人类历史上最重大的事件。
遗憾的是,如果人类不学会避开风险,那也可能是最后的事件。在近期,世界各国军队都在考虑能选择和消灭目标的自主武器系统;在中期,正如埃里克·布林约尔松和安德鲁·麦卡菲在《第二次机器时代》一书中所强调的,AI也许会改变人类的经济,既带来巨大财富,也带来巨大混乱。
再往前看,能实现的东西没有根本性极限:没有物理定律阻止粒子以某种方式组织起来,从而能比人脑中的粒子组合完成更高级的计算。爆炸性转变是可能发生的,但其过程也许会不同于电影情节:正如欧文·古德在1965年认识到的,具有超越人类智能的机器会不断进一步改善自身设计,引发韦尔诺·温格所称的"奇点"和约翰尼·德普在影片中扮演的人物所称的"超验"。
人们可以想象这种技术智胜金融市场,发明能力超过人类研究者,操控能力超过人类领袖,开发出我们根本弄不懂的武器。虽然AI在短期内的影响取决于谁来控制,但长期影响取决于它还能否受到控制。
因此,面对收益和风险都不可估量的未来,专家们肯定在想尽一切办法确保最佳结局,对吗?错了。就AI而言,虽然人类将遭遇历史上有可能最好也可能最坏的事情,但除了剑桥大学生存风险研究中心、人类未来研究所、机器智能研究所和未来生活研究所等非营利性研究机构以外,没什么人对这些问题进行认真研究,所有人都应当问问自己现在能做些什么,以提高获得收益而避开风险的可能性。
领取专属 10元无门槛券
私享最新 技术干货