图源:Packt Hub
深度造假写手。
今年年初,OpenAI开发了一个“AI造假写手”,由于被认为“太危险”而无法完整对外公开。最近,这款AI模型发布了更全新,更强大的版本。据媒体所言,现在,它真的可以自如地写假新闻或者垃圾邮件了。
这款AI的模型叫做GPT-2,它的内部包含了15亿个参数,是在800万个网页数据集上训练而成的。而制作它的主要目的,是用以接替自己的第一代,执行语言建模的任务。
简单来说,它的功能就是根据人类给出的一句话,编写接下来的文本,同时在此基础上,对整个文章细节进行补充。
在模型公布新版本后,一些感兴趣的AI专家对其进行了测试。他们试着把一条真新闻的内容放进了模型中,这条内容为:
“
搜狗正在打造AI语音仿人版,以后读者可以听到作者朗读的有声小说。
”
AI写手接收到该信息之后,便编写了如下文字:
“
根据研究人员表示,这种阅读方式的创意来源于Kindle用户。同时,一部分安卓用户也表达了同样的需求。以下有三个原因可以解答为何他们需要这项服务。首先,使用这些设备的用户,和传统的电脑上阅读者的习惯不同……未来,当读者使用该功能时,可能会真的以为作者们在为他们朗读小说。
”
BBC当时报道的真新闻
从AI续写的内容中,可以看出它具备有很强的逻辑能力,能找到辅助资料对新闻进行补充,整个短讯也足够完整。一家科技网站的作者对此结果感到害怕,他认为这项技术代表着坏人可以操纵他人,在他看来,这甚至比任何枪支还要危险。
其实早在年初之时,就已经有许多人对GPT-2表示了担忧。在这个原本就信息爆炸,人们越来越难分清信息真假的年代,GPT-2可以毫无违和的融入进去。如果它真的能独立、完整地书写各类新闻,由谁使用它就变得尤为重要。
如果使用者居心不良,它可以发表极端言论,伪造内容,成为引导舆论的政治工具。OpenAI也意识到了这个问题,因此他们一直没有公开完整的预训练模型,都是放出小版本的模型供以测试。
谢菲尔德大学的计算机教授诺埃尔却表示,人类可能没必要感到恐慌。在对模型进行了多次的测验,输入了很多次文字开头后,他发现AI写手还是犯下了许多错误,好比不连贯和奇怪的字句,以及和输入标题毫无关系的内容填充。
“
我输入了‘火鸡讨厌圣诞节’,但是得到的答案是:火鸡是世界上唯一一个不庆祝圣诞节的国家。当然,附带上了一些不相关的句子。
”
图源:fxtradingrevolution
人工智能咨询公司的创始人戴夫,也对这个模型进行了测试,他输入的是一个经典英国笑话的开头:一个男人走进了酒吧。
结果,GPT-2续写的内容是:
“
他点了2品脱啤酒和2杯苏格兰威士忌。当他想要结账的时候,他遇到了2个人,其中一个大喊着说:‘这杯是给叙利亚的!’这名男子说完后,喉咙就被人刺伤,血涌不止。
”
在戴夫看来,这个故事看似荒谬,实际上却说明了模型的部分训练数据,就是来自于互联网新闻报道。它呈现出来的偏见,就是现当下社会新闻所暴露出来的问题。如果AI写手持续以此作为训练,模型编写的内容可能会引起更多的争议。尽管有所担忧,戴夫相信这些问题都会被解决。
而他认为,一旦大家对GPT-2的担忧被消除后,人们可能会面对一个更重要的探讨:人工和机器制造内容越来越难以区分之时,我们究竟应该如何正确看待这个世界。
领取专属 10元无门槛券
私享最新 技术干货