有一天,你想偷个懒,就叫AI帮你写作业。但AI也觉得麻烦不想自己写,所以去抄了别的AI的作业,这会不会让你细思恐极呢?
人工智能这个领域从出现开始,就一直让人们感到些隐忧——电脑会不会终有一天变得像人类一样具有意识和感情,并超越人类呢?
斯坦福大学和谷歌的科学家们的发现,似乎让这种担忧有了更强的依据。
2017年,这组科学家尝试利用一款名为CycleGan的AI程序,将卫星地图译制称常见的示意地图。
为了衡量AI的工作,科学家们会进一步要求AI将示意地图再次还原成卫星地图,已进行前后比较。
而正是在这一还原过程中,科学家们惊讶地发现,CycleGan能够从示意地图中恢复大量细节,让还原的卫星地图几乎和原图一模一样。
上图中,最左边是原本的卫星地图,中间是示意地图,而右边是根据示意地图还原的卫星地图。
以左边原图中下方白色建筑上的那些“黑点”为例(红圈中所示)。这些“黑点”的本体是一些安装在房顶的设施,这些设施在示意地图中并没有反映出来。但是,AI却能在还原时,将这些应该已经被过滤的“黑点”还原出来。
按理说,译制示意地图时过滤掉的信息应该是不可恢复的。所以,科学家们对这一的情况的出现大为不解。
他们无法直观地掌握AI的学习过程,因此只能通过反复测试,试图找到线索。而经过一番探索,他们终于搞明白了。
原来,这个CycleGan“知道”每次科学家都会让它用示意地图进行还原,所以在译制的过程中,它根本没有删除那些不需要的信息,而是用一些人类无法分辨的相近颜色,将这些信息隐藏在了“过滤”过的地图中。
人类虽然无法察觉,但电脑却可以轻易辨别颜色间的不同。所以,AI也就能从“示意地图”中还原大量细节了。
为了让之后的工作变得简单,这个名为CycleGan的AI是不是在偷懒骗人呢?
科学家们指出,这件事要辩证的看!
很多时候,我们只是人为地给AI附加了意识和情感,认为它“故意偷懒”。实际上,AI只是在完成被赋予的任务时,找到了人类没有想到的新思路。它的目的并非“偷懒骗人”,而是为了“尽忠职守”。
但CycleGan这个AI居然想到了先将不需要的信息隐藏起来这个方法,自己学会了“隐写术”,这也的确让科学家们感到十分有趣。
目前AI的发展还在起步阶段,相信随着科技的进步,它们也会越发的智能。但要说让AI拥有人类那样的主观意识,至少短时间内可能都无法实现。
所谓AI“骗人”、“偷懒”等情况,大部分时候其实都只是人类设定的规则并不严密,没有想到所有可能发生的状况,而AI的解决方案恰恰是那些我们没有设想到的地方而已。
这些科学家们已经将自己的发现写成了名为《CycleGAN, a Master of Steganography》的实验报告。感兴趣的小伙伴们快去读一读吧~
领取专属 10元无门槛券
私享最新 技术干货