霍金是英国著名的天文物理学家和宇宙学家,21岁时就患上了卢伽雷式症。绝大多数中国人是在读了霍金写的科普著作《时间简史》后,才知道他的。
世界级顶尖杂志《天文学》对他有这样的评价:“当20世纪物理学的成就被客观地承认时,史蒂芬·霍金的成就将被大书特书地载入科学史册。”
霍金的成就就像他研究的黑洞一样强力,令人倾倒。但是他却几次与“诺贝尔”失之交臂。
对于人工智能,霍金曾表示,AI的崛起可能是人类文明的终结,除非我们学会如何避免危险。
“我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。除非,人工智能系统需要按照人类的意志工作”。
“我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。当下还无法判断人工智能的崛起对人类来说到时是好事还是坏事,但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利”。
霍金表示,人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。
人类未来是否会被人工智能代替?霍金表示,人类无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。
在2017年全球移动互联网大会(GMIC)上,他曾通过视频发表了《让人工智能造福人类及其赖以生存的家园》主题演讲。
这已经不是霍金第一次提出“人工智能威胁论”。2017年3月,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。
霍金在会上表示,人工智能的威胁分短期和长期两种。短期威胁包括自动驾驶、智能性自主武器,以及隐私问题;长期担忧主要是人工智能系统失控带来的风险,如人工智能系统可能不听人类指挥。
霍金在演讲的最后说道:“这是一个美丽但充满不确定的世界,而你们是先行者。”
让我们共同缅怀这位人类历史上伟大的科学家!
领取专属 10元无门槛券
私享最新 技术干货