人类在地球上发展出了智慧文明,那么这地球之外,有比人类更高级的文明吗?这是一个仁者见仁,智者见智的问题,大部分人都认为应该是有的,因为宇宙太大了,但是也有的科学家则认为很可能不存在除地球外的外星发达文明,主要是两个原因,一是一个星球上能进化出生命就很不容易了,再进化出像人类这样的高等智慧生物,则更加不容易;还有另外一个重要的原因则是:一个星体的文明程度越高,则其自身越危险,其自我毁灭的可能性就越高,所以越是高级的文明,就越是难以存在。
为什么这么说呢!其实他们的推测并非没有道理,如今科技的发展实在太快了,但是这也让很多人意识到这样一种情况:就是在科技的快速发展之下,人类面临的危险也越来越大。这样下去,科技也会一步步赋予人类各种毁灭世界的手段,所以现有的人类文明世界被人类毁灭的可能性正在不断的增加。
当掌握了一种具有毁灭性的科技能力之后,人类的不同族群都很擅长用它来威慑自己的对手,比如现在的很多国家,如美俄、印巴,朝韩,以阿等,都是依靠拥有核武器来威慑对方的,但是,一旦发生战争,这种毁灭性武器就会给全人类造成灾难。光美俄两国拥有的核武器就可以毁灭地球生命几十次,而现代的基因武器,则可以定向的杀死某些人类族群,一旦交战,双方都释放这样的武器,则有可能同归于尽。
即便不发生战争,科技也一样会给人类带来毁灭性的危险,比如人工智能技术,小编私下认为它是比核武器和基因武器更危险的“人类终结者”,因为在都拥有核武器的情况下,族群和国家之间都不敢轻启战端,因为谁也不想在灭亡对方的同时被对方灭亡,但是人工智能却不涉及人类之间的矛盾,且目前全人类都在追求人工智能的更加先进,所以它无法阻止。
人类对更高端人工智能技术的追求,终将赋予人工智能以意识和超越人类的能力,人工智能技术的发展,很可能会把人工智能变成一种生命体,这终将演变成人类与人工智能生命体之间的较量,在这种各方面都比人类高级许多的生命体面前,人类的胜算十分渺小,所以人工智能替代人类几乎是难以阻止的!
那么如何避免上述的情况出现呢?只能是人类在认知上和道德上有大的进步,对科技的发展提前打算和做出预防性的安排,建立起超前,实用,合理,完善的科学伦理和制度,世界各国都应该严谨遵守,以求完全杜绝科技毁灭人类的事件发生。
领取专属 10元无门槛券
私享最新 技术干货