人工智能AI对话的火爆,很大程度归功于Transformer模型理论的应用发展,openai的chatGPT3.5的成功出圈, 到后来openai的GPT4, GPT4o, 以及国内外各种大模型框架的雨后春笋的崛起。 像现在文生图、文生视频的火爆, 也离不开DiT(Diffusion transformer)理论的应用。
人工智能这2年发展非常快, 比拼的是 海量算力、 海量数据、资金财力。 虽然这些通用大语言模型展现出强大能力,但在实际应用中仍存在或多或少的问题,例如在准确性、知识更新速度和答案透明度方面,仍存在挑战。
从大模型厂家角度来说,举例openai,从GPT3.5传统的transformer架构升级到GPT4的MOE模型(Mixed Expert Models,混合专家模型), 我的猜测后续GPT4.5或GPT5至少有比较大的颠覆性创新才会出来,像现在的GPT4o顶多算上小小的优化。MOE模型具体可以看我这篇文章【AI+大模型】从媲美GPT4能力的国产DeepSeek-V2浅聊MOE模型。
从大模型应用开发者角度来说,我们针对已有大模型,不管openai的GPT4还是国内通义千问2.5, 从自身性价比的角度选择合适的大模型, 然后做对应的优化方案。 比如我们现在看到所有通用大模型平台都有各种各样的智能体,其实是基于Prompt Engineering(提示词工程)来让普通人直接应用,得到更满意的结果。比如我们做垂直领域的知识库,那么RAG(Retrieval-Augmented Generation,检索增强生成)就不得不提,搜索准确的知识库比互联网繁杂不知对错的信息 更靠谱。现在各个大模型搜索基本用上了RAG,不知道是好是坏,因为如果大模型抓取互联网的信息源本身是错误的,那么得出的结果就是错误的。互联网信息真真假假,对于使用者来说,要擦亮自己的双眼。 还比如还有一些特定任务, 我们可能用Fine-tuning(微调)达到自己想要的效果。
从普通应用者的角度来说, 我们应用人工智能其实有2个方向。1、基于已有的智能体平台(个人认为目前这块做的最好的应该算coze),利用平台的plugin(插件)、 work flow(工作流) 定义出自己想要的应用。 前几天看治愈图文比较火爆,其实已经有人用coze 工作流批量制作 这类图文,发布各种自媒体平台赚取流量。 2、直接利用好各个应用平台已提供的工具,进行创作,赚取自己认知内的money。 这方面我之前总结工作比较多,可以看之前的文章,后文附上。
对于现在还未步入社会的学生来说,提前学习人工智能、学好数学,计算机理论并实践很重要。前几天17岁中专生姜萍alibaba达摩院数学竞赛预赛全球十二,火爆了全网。为啥这么火爆,我的个人理解, 我们中国太需要优秀的数学家,完善理论,推动社会文明的进度。 我们可以看到,像人工智能这几年的创新,其实都是美国数学家率先提出论文理论,各大厂商提前应用,火爆后我们才逐步跟上的么。我们目前主要是 追随者的角色,而要成为创造者和引流者,我们需要更多卓越的数学家诞生。
领取专属 10元无门槛券
私享最新 技术干货