大数据文摘出品
GPT-3有多强大?可不止能写高考作文。
最近,一位美国小哥用GPT-3写的博客,就打败了一票人类作者,登上了新闻平台技术板块热榜第一??
你没听错。这位小哥名叫Liam Porr,来自加州大学伯克利分校计算机科学系。他参考最热的网文风格,用GPT-3生成了几篇文章,用笔名“adolos”开了个博客,开始连续产出文章。
然而有趣的是,一大部分人愣是没看出来文章不是人类写的。接下来,他的博客疯狂涨粉,第一篇文章竟然就登上了YC新闻平台Hacker News热门榜第一名。
Porr表示,他以adolos为笔名发布的每一个帖子都是从GPT-3输出中复制粘贴过来的,几乎没有编辑。
并且,整个项目都异常迅速简单。
“从我想到这个想法,到找到技术合作者,到我真正创建了这个博客,再到第一个帖子被疯狂传播——这大概只花了几个小时。”
项目开始,Porr首先要决定的是,让AI写什么类型的文章呢?
无需大量编辑即可生成内容是GPT-3的优点也是缺点。Porr说:“它擅长于编写漂亮的语言,而并不擅长逻辑和理性。”
因此,他选择了一个不需要严格逻辑的流行博客类别——“鸡汤”文。这种文章不仅好写,并且在各种网站上都非常受欢迎。
之后,他按照一个简单的公式来写他的标题:在Medium和Hacker News上“翻来翻去”,看看在这些类别中发生了什么,然后把一些相对相似的东西放在一起。
两周后,他开始持续发帖子运营博客,Porr表示,第一篇帖子在短短几个小时内就迅速传播开来,访问量超过了26,000。
Porr第一篇博客文章,也是登顶Hacker News最受欢迎文章榜首文章标题为《感觉效率不高?也许你应该停止思考(Feeling unproductive? Maybe you should stop overthinking)》。
这个标题,还真的有那味儿了!
咱们再来看其中一个段落:
定义2:过度思考(OT)指试图提出别人已经考虑过的想法,OT通常会导致不切实际、不可能实现甚至愚蠢的想法。
似乎也能够去怀疑这些文字不是由人类写出来的,但现在互联网上有很多质量不太好的文章,所以大部分人也没有质疑这篇文章的作者。
甚至有读者读后留言称,“好文!和Ethan Hawke在Ted的演讲一样深刻”。
文摘菌搜索了一下,包括medium、YC的新闻平台等多家平台都转载刊发了这篇博客,直到现在人气依然很旺。
感兴趣的同学也可以自己去读一下:
https://adolos.substack.com/p/feeling-unproductive-maybe-you-should
第一篇文章大火之后,Porr又持续发布了一系列类似的文章,收获了大批粉丝。
Adolos最后一篇文章的标题意味深长——为“如果我没有道德,我将如何使用GPT-3”,文章用假设的方式描述了他的整个实验项目。同一天,他还在自己真正的博客上发表了一篇更直接的自白,结束了这个项目。
尽管GPT-3一出,许多人就在猜测这款迄今为止最强大的语言生成模型有多强,能产出多逼真的内容,但此前都是大家在猜测,这次是第一次真实地证明了GPT-3的潜力。
Porr在短短一周时间内搞定了GPT-3,而在此之前他都没听说过这个模型。Porr说:“实际上,它超级简单,这才是令人细思极恐的地方。”
GPT-3是OpenAI迄今为止推出最新、最大的AI语言模型。去年2月,OpenAI的GPT-2(该算法的早期版本)登上了新闻头条,OpenAI宣布将保留该版本,以防被滥用。这一决定立即引发了强烈反响,研究人员指责该实验室在搞噱头。到了11月,该实验室改变了立场,发布了这个模型,称“到目前为止没有发现滥用的有力证据”。
总部位于旧金山的研究实验室对GPT-3采用了不同的方法。它既没有拒绝也没有允许公众访问。取而代之的是,它将算法提供给了那些申请私有测试的研究人员,目的是收集他们的反馈,并在今年年底将这项技术商业化。
尽管GPT-3还没有彻底开放,但据Porr表述,他获取接口的过程也不难。他先是提交了一份申请,填写了一张表格,里面有一份关于他打算如何使用的简单问卷。但他也没有等待,在联系了伯克利人工智能社区的几名成员后,他很快找到了一名已经有此权限的博士生。这个研究生同意合作后,Porr就写了一个小脚本让他运行。它给了GPT-3一个博客文章的标题和介绍,并给出了几个完整的版本。
GPT-3是由总部位于旧金山的OpenAI设计的一系列AI自动完成工具的最新版本,最基本的说法来说的话,GPT-3代表的是“预训练的生成式变压器”(generative pre-trained transformer),它会根据人类作家的提示自动完成文本。
James Vincent对此解释道:
与所有深度学习系统一样,GPT-3也需要数据模式。为简化起见,该程序已针对庞大的文本集进行了训练,根据统计规律进行了挖掘,这些规则对于人类来说是未知的,但是它们被存储为GPT-3神经网络中不同节点之间数十亿的加权连接。
重要的是,此过程中无需人工干预:程序在没有任何指导的情况下就能够查找和发现数据模式,然后将其用于完成文本提示。如果你在GPT-3中输入“fire”一词,程序会根据网络中的权重得出,“truck”和“alarm”等词会比“lucid”或“elvish”更有可能出现。
Porr编写了一个脚本,该脚本为GPT-3提供了博客文章的标题和简介,随后系统生成了该帖子的几个版本,Porr在这些版本中挑选出了适合博客风格的版本,几乎没怎么编辑就直接从GPT-3的生成结果中进行了复制粘贴。
Porr表示,该帖子在短短几个小时内迅速传播开来,访问量超过了26,000。
Porr表示,他想证明GPT-3可以假装人类作家。确实,尽管该算法的编写模式有些怪异,并且偶尔会出现错误,但是Hacker News上的热评用户中,只有三到四个人怀疑这篇博客文章可能是由算法生成的,但这些质疑都立即遭到其他社区成员的反对。
长期以来,专家们对于这种语言生成算法都充满了担忧。自OpenAI首次发布GPT-2以来,人们就一直在认为,这项技术容易被滥用,甚至OpenAI在自己的博客文章中也重点介绍了AI被武器化后生成大量错误信息将会造成怎样的后果。
Porr说,他的实验还显示了一个普遍但仍同样令人困扰的替代方案:人们可以使用该工具生成大量内容诱导读者进行点击阅读。他说:“这样很有可能导致大量平庸的博客出现,在线内容的价值将大大降低。”
“在私人Beta版中发布GPT-3的目的是,使社区可以利用OpenAI展示它们的新用例。”Porr写道。值得注意的是,尽管Porr申请了GPT-3的API,但他仍无法进行访问,他向《麻省理工学院技术评论》坦言,“这让我很沮丧”。
为了让更多人享用到GPT-3的魅力,OpenAI最近也开放了GPT-3的API接口,不用码代码也能轻松上手。
这不,除了上文提到的写博客,还有很多之前对技术不感冒的大V也纷纷开始试用,并做出了一些很酷的demo,在Twitter引起了热议,网友纷纷表示,“GPT-3被玩坏了”。
比如旧金山一位开发商和艺术家Arram Sabeti就在推特上说:“玩GPT-3就仿佛可以看到未来。”这几乎就是自GPT-3发布以来社交媒体上大部分人对这个强大语料库的反应。
Sabeti在博客上展示了他用GPT-3做的许多AI生成文本项目,比如可以用AI写一篇短篇小说,用AI写歌、新闻稿等等。他还发了一篇博文称,“GPT-3几乎什么都能写!”
Sabeti博客链接:
https://arr.am/2020/07/09/gpt-3-an-ai-thats-eerily-good-at-writing-almost-anything/
除此之外,还有一位名叫elyase的热心网友整理出了大家用GPT-3做的项目集锦,有趣的Demo项目都在这个合集里:
https://github.com/elyase/awesome-gpt3
文摘菌看了一下,有用GPT-3做数据分析的,比如根据描述创建图表;有做逻辑推理的,比如让GPT-3做数学题;还有一些比较常规的文本生成项目,比如可以让AI帮你想Google的广告词:
可以让AI帮你做简报、做创意食谱,还能让它生成莎士比亚风格的诗歌。
Wired有一篇文章写道,“GPT-3如此令人着迷,或许更多地证明了语言和人类智能存在的魅力,而非人工智能。人们在Twitter上发表的一般都是正向的夸赞,而不是指出它的缺点,这可能会在无形中夸大GPT-3”。
随着GPT-3在AI界得到广泛应用,就连它的发明者也在呼吁要谨慎行事。OpenAI的首席执行官Sam Altman周日在twitter上写道,“GPT-3的炒作太过了,它仍然有严重的弱点,有时还会犯非常愚蠢的错误。”
就比如adolos这篇骗过了几乎所有人类的博客。
Porr的做法证明了GPT-3强大的功能,因为几乎所有人都误认为这些博客文章是由AI编写的,不过,与此同时,Porr也表示:“实际上,这非常容易做到,这也正是令人恐惧的地方。”