据美国《时代周刊》报道,3月14日,英国著名物理学家斯蒂芬·霍金去世,享年76岁。
做为现代最伟大的物理学家之一、当代最重要的广义相对论和宇宙论家,霍金被誉为继爱因斯坦之后世界上最著名的科学思想家和最杰出的理论物理学家。他的研究为今天我们理解黑洞和宇宙本源奠定了基础。
在过去的二十年里,霍金是明星,除了继续探索宇宙理论,他也出现在各种场合,为所有关切人类命运的主题发声。其中关于外星人、“世界末日”和人工智能三个方面的言论引起了极大的关注。
不要接触外星人
斯蒂芬·霍金在美国探索频道2010年4月25日播出的纪录片《跟随斯蒂芬·霍金进入宇宙》中说,外星人存在的可能性很大,但人类不应主动寻找他们,应尽一切努力避免与他们接触,从而避免黑暗森林打击!(刘慈欣三体中所提到的理论)
霍金认为,鉴于外星人可能将地球资源洗劫一空然后扬长而去,人类主动寻求与他们接触“有些太冒险”。“如果外星人拜访我们,我认为结果可能与克里斯托弗·哥伦布当年踏足美洲大陆类似。那对当地印第安人来说不是什么好事。”
离开地球
霍金在2010年8月接受美国知识分子视频共享网站BigThink访谈时,再曝惊人言论,称地球200年内会毁灭,而人类要想继续存活只有一条路:移民外星球。
霍金表示,人类如果想一直延续下去,就必须移民火星或其他的星球,而地球迟早会灭亡。霍金说:“人类已经步入越来越危险的时期,我们已经历了多次事关生死的事件。由于人类基因中携带的‘自私、贪婪’的遗传密码,人类正在一点点掠夺地球资源,人类不能把所有的鸡蛋都放在一个篮子里,所以不能将赌注放在一个星球上。”
2017年11月,霍金再次做出“预言”,称人类可能在2600年前就会灭绝。霍金认为,随着地球人口增长,能源消耗将会增加,地球将变成一个“熊熊燃烧的火球”。霍金认为,要摆脱这场灾难,只能去寻找一个适合人类生存的星球。他还称,“人类如果还想把自己的存在延长100万年的话,就要无畏地去往自己从未去过的地方。”
警惕人工智能
在生命的最后几年,霍金一直在关注着人工智能等新科技的发展和对人类的影响。
他多次提醒人类,要尽量避免人类通过AI建造更高级的武器,进而摧毁人类。他提出,未来“人工智能可能毁掉人类”,人类需要建立有效机制,用逻辑和理性去控制未来可能出现的威胁,防止其威胁进一步上升。
霍金觉得,如果现在人们还不能看清未来,不能为未来的事情做好最坏打算,建立相对于人工智能更好地管理办法,人类最终都会败给人工智能,只不过是时间问题。
霍金也许对人类和科技的未来是悲观的,他并不信任人类真的能控制科技这个怪物,但令人讽刺的是,一旦人类用科技毁掉了这个星球,他所能仰赖的也只有科技能帮这个种族在外星球继续繁衍。
让我们别忘记霍金的预言和警告。
综合百度百科、澎湃新闻、IT之家等
领取专属 10元无门槛券
私享最新 技术干货