”你能想象你可能会被算法替代吗?“
最近看到网络上铺天盖地的的ChatGPT,自己在22年的12月份,使用过一些日子。先来聊聊GPT的1.2.3把
ChatGPT是OPENAI团队发布聊天机器人软件,可以像人类一样交流,甚至可以可以写文案、邮件、编码等等。基于transformer 模型(类似神经网络一样,想了解的可自行查阅链接:https://cloud.tencent.com/developer/news/709702?shareByChannel=link)通过引入人类反馈的强化学习(RLHF)提升AI在对话时候的准确性和可控性。和现在市面常见的小度,小艾等智能AI对话,ChatGPT有更强大的语言理解能力和语言表达能力。在对话过程中,给与GPT一定条件的”喂养“,GPT可以表现出来强大的逻辑推理能力,文字更加的自然和流畅,仿佛电脑对面的,是个有血有肉有情感的人类。
强化学习(RLHF)通俗来讲,开发人员会给GPT模型提出各种可能的问题,并对反馈的错误答案进行惩罚,对正确的答案进行奖励,从而实现控制ChatGPT的回答。
给大家看看自己使用的实例和真实反馈
进入正题
ChatGPT有三个阶段,就像是小孩子成长过程一样。
第一阶段:GPT-1(启蒙阶段)
2018 年,生成式预训练模型GPT-1诞生,在 Transformer 架构基础上,引入微调训练。由两部分组成:
第一部分是,基于大文本语料库的高容量进行无监督学习的预训练。现阶段理解为AI系统从大量没有标注的数据中获取大量的知识,然后生成一个语言模型。
第二部分是,上述的语言模型在做下游任务时,当输入的问题具有结构化特征,首先将不同类的问题转换为不同的输入形式,再针对不同任务采用不同数据集进行微调训练。
第二阶段:GPT-2(快速成长阶段)
2019 年,GPT-2以增加模型通用性为目标,移除 GPT-1的微调,通过更加庞大的数据和参数训练出更加通用的模型,无需经过特定的数据集训练也能解决各类问题,即zero-shot learning(零次学习),从而提高模型的泛化能力。
每一个有监督的任务,都是模型数据里的一个小数据,我们可以通过增加模型的容量数据,去覆盖每一个有监督的任务。
第三阶段:GPT-3(自我突破阶段)
2020 年,自我突破有三个部分
第一部分是,GPT-3移除zero,引入few-sho,将训练参数增加到1750 亿。few-sho就是将有监督的任务的条件减少,仅通过交互的文本来指定任务,结合总参数的质的飞跃,GPT-3获得比GPT-2更高的准确度。
第二部分是,基于GPT-3发布Codex代码生成工具,是通用代码生成模型,能够将自然语言转换为代码,支持十几种编程语言,同时并将训练参数增加120亿,GPT-3获得比第一部分更高的准确率。
第三部分是,InstructGPT的诞生,基于GPT-3和Codex,引入了人类反馈的强化学习(RLHF),通过奖励机制,仅用13亿参数训练出来更符合人类需求的结果。
最后阶段:ChatGPT诞生(进入商业化阶段)
历经长达两年多的的训练,InstructGPT摇身一遍,OPENAI发布了其对话式版本”ChatGPT“,刚刚推出一星期不到,使用人数突破百万,随着使用人数的逐渐增加,OPENAI开始使用按月支付使用费用,不到半年时间,ChatGPT被推上了网络的浪尖上。
上述便是ChatGPT从一个婴儿到成年的故事~
(以上个人理解如果有误,相关专业人士可以私信指出)
-------------------茶水间的”第二刊“
预告下期:ChatGPT的商业模型
---------------------------------------------------------------------------------------------------------
个人使用小建议:
ChatGPT的语言模型及参数非常完善,在自己使用的期间,我依然会习惯性的给与GPT一定的条件,在指出任务。这时候AI的回答便更为精准。
P:
如果有想使用ChatGPT的小伙伴,可以私信
领取专属 10元无门槛券
私享最新 技术干货