这几天 ChatGPT 可谓是热火朝天,很多同事和朋友都来找到勇哥,说能不能说一说相关话题,但是之前几天勇哥都在默默的干一件大事情,今天终于成型、有结果了,所有就抽了点时间来和大家一起聊聊 ChatGPT 背后的技术,让大家对一自然语言处理背景的技术有一个入门级别的了解。
ChatGPT 是 OpenAi 在 12 月 1 日上线的一套在线人机聊天产品,而这套产品这几天已经突破上 100 万的,可谓是火得不要不要的了,但勇哥总结其火的背后主要有这么几方面的因素:
在这里勇哥主要站在产品自身的技术和架构方面的突破来给大家说一说,先说一说 ChatGPT 能做什么,我简单的归类了一下功能,包括:
下面这张图是 OpenAi 官网上的一张说明图,但是这张图只说明了其系统的模型(PS:这里的模型大家可以简单理解成一对特殊的数据)训练和应用流程:
上图并没有说明太多这样系统的技术架构,那么勇哥在这里来给大家脑补一下,一般这种系统的数据流是如何进行流转的:
数据流说明:
ChatGPT 是一个聊天系统,用户输入一句话,那么 ChatGPT 就需要依据用户输入的信息反馈相关内容,比如上述用户输入“背《观沧海》",系统接收到信息后,就经过以下处理,来为用户生产相对准确的答案:
总结:
ChatGPT 总体架构技术是:NLP 是核心 , 搜索辅助,算力是硬核
NLP : 上述流程描述中:Li、Ea、Ei、NER、SS、TC、TG、QA 等处理,都需要依赖 ChatGPT 自身的 GPT-3.5 自然语言模型数据,而且按照上述流程执行,流程步骤长,上一步的结果就是下一步的输出,一步出错,结果必错。ChatGPT 能做到现在这样已经是相当的了不起了。NLP 自然就是 ChatGPT 的核心了。
搜索:一般自然语言处理后的特征数据,是句子或者词组,对此搜索,常规的搜索肯定不行,而全文搜索技术自然就成为首选,比如开源流行的 Elasticsearch,在里面主要存储了大量的问题答案、范本数据等。
算力:告诉大家一个事实:一般一个 NLP 模型数据非常大,上 G 上 T 都是非常正常的事情;那么这么大的数据量,每次搜索都要进行与其计算,普通的 CPU 肯定是更不上的,因此 GPU 是首选,而且最好是使用云上的 GPU 算力,才能收缩性更得上。
我在网上看到很多喷 ChatGPT 答案不正确的(如下图),其实这个问题在我意料之中,毕竟 AI 的难度不是一点半点,而且它还依赖硬件等外部因素的影响,所以一步登天很难。展望未来,ChatGPT 这一波展现出模型上的突破,但在应用场景上并没有创新,所以未来 ChatGPT 除了完善模型(这个是重点)、完善搜索库等之外,还需要考虑一些创新性的应用场景。
比如:网友问 ChatGPT,霍布斯主张三权分立吗?很明显回答的很好,但它的回答却是错误的。
领取专属 10元无门槛券
私享最新 技术干货