荔枝科技讯 记者/汪伟捷 王晟 闫树蕙
随着科技的不断发展,人工智能领域在不断打破现有的成就。而作为人工智能的创造者,人类在为自己的成绩感到惊叹的同时,也产生了对未来的担忧:会不会有一天,人工智能发展成为远超人类的超级人工智能,对人类自身产生威胁?
7月9日,在2020世界人工智能大会开幕式上,中国第一位也是目前唯一一位图灵奖获得者,中国科学院姚期智院士,介绍了学术界目前对于可控的超级人工智能理论的研究。他表示,尽管目前对于超级人工智能会不会到来仍没有定论,但相关的理论与方法论已经形成,开始为这个问题做出准备。
根据姚院士的展示,Stuart Russell 教授正在推动“确保安全”的超级人工智能,并力主这个理念必须贯穿设计。“人的利益凌驾机器利益”、“机器不能自以为是”和“机器能学懂人的偏好”是Stuart Russell 教授提出的三个原则。姚院士介绍,这些原则将以数学的方式得以实现,比如一个小的人工智能机器,就可以利用博弈论和概率逻辑来达到上述原则。
姚院士表示,人工智能理论十分重要,理论能够让我们更清楚地知道我们面临的到底是什么样的挑战,从而获得一些启迪和启示,找到寻求解决方案的方法。
(本文系荔枝新闻专稿,拒绝一切删改)
领取专属 10元无门槛券
私享最新 技术干货