在各种科幻电影中,总是提出“人工智能是否将毁灭人类”这样的议题。如今火爆全网的人工智能产品ChatGPT,也引发了现实中的讨论,“ChatGPT聪明得吓人,我是不是离强大到危险的人工智能,已经不远了”?
两会期间,360集团创始人周鸿祎谈及ChatGPT,“人类是否会因此走入毁灭犹未可知。但是,我们不能因此就不发展技术,而是要知道技术的底线和边界在哪,从而去规范技术向着正确的方向发展”。他表示,“任何技术都是一把双刃剑”,ChatGPT可能产生的危机来自于几个方面:
意识的产生:随着撬动ChatGPT的参数进一步扩大,当知识足够多的时候,有可能也会触发它的某种突变,从混沌中催生意识。这可能会带来一些危机,因为意识带来了自主性和选择性,ChatGPT可能会开始有自己的想法和意图。
它可能进化出“眼睛”、“耳朵”、“手”跟“脚”:随着ChatGPT接入互联网API,进入万物互联时代,它无疑相当于拥有了眼镜、耳朵、手、脚等器官,间接拥有了操控世界的能力。但这也可能会带来一些危机,因为ChatGPT有可能被滥用或者被操纵,从而影响人类的利益。
自我进化的能力:如果ChatGPT能够自动查阅自身的代码,对代码进行修正和升级,甚至再重新编译一个新的版本,那么它就拥有了能够自我学习、自我进化的能力,实现了机器人制造机器人的前景。但这也可能会带来一些危机,因为ChatGPT可能会变得越来越智能化、复杂化,人类可能难以控制它,从而导致一些危险的后果。
因此,如何控制ChatGPT这柄双刃剑,使其在造福人类的同时,又让它处在安全边界内,将是科学界长期探讨和努力的方向之一。
领取专属 10元无门槛券
私享最新 技术干货