
大家好,我是人月聊IT。
今天在微信沟通群看到他人分享的一张涉及到AI大模型的图片,如下:

大家可能看了后,可能还是不太明白意思。因此我重新通过AI辅助画了一下这个图,我的核心观点如下:
1. 传统模型使用者,我理解更多是 基础设施-》数据存储-》大模型+RAG库-》AI应用(智能体+编排+业务规则+逻辑)但是实际实际少了核心的知识和能力层的构建,这个构建是AI系统构建者的关键。 我核心思想是原有的RAG资料库如何上层到知识层,原有落在Agent里面的业务规则如何下沉到知识层,同时在结合类似知识图谱等让资料库真正升华为浓缩了知识经验的知识能力,基于这个知识能力再来构建上层的应用。我们现在缺的不是大模型和数据,资料;而是缺的知识的沉淀和整理。 因此新的模式如下: 2. 基础设施-》数据存储-》大模型+RAG-》知识和能力中台-》AI应用(智能体+编排+业务规则+逻辑)
基于以上思路让AI重新构图如下:

在大模型浪潮席卷全球的今天,企业纷纷投入AI应用的开发。然而,一个普遍的现象是:大多数团队停留在"模型使用者"的角色——调用API、构建RAG、开发Agent,却始终无法沉淀出真正有价值的核心资产。
问题的根源在于一个致命的认知误区:我们把拥有大模型和数据等同于拥有知识。事实上,模型是工具,数据是原料,而知识才是企业的核心竞争力。当我们将业务逻辑散落在各个Agent代码中,将文档堆砌在RAG资料库里,我们并没有真正构建起知识体系,而只是在重复使用别人的模型和堆砌自己的数据。
本文将深入剖析传统AI应用架构的缺陷,提出"知识与能力中台"的新范式,帮助AI从业者实现从"模型使用者"到"系统构建者"的关键跨越。
目前主流的AI应用架构通常包括四层:
基础设施层提供算力、存储和网络资源;数据存储层管理结构化、非结构化和流式数据;大模型+RAG层通过向量检索为大模型补充上下文;AI应用层基于智能体(Agent)实现具体业务逻辑。
这个架构看似合理,实则存在致命缺陷——缺少知识层。RAG只是将文档切片后存入向量数据库,提供语义检索能力,但这不是知识,只是信息的另一种组织形式。
RAG(Retrieval-Augmented Generation,检索增强生成)是当前AI应用的主流技术,但我们必须清醒地认识到其局限性:
RAG是资料检索,不是知识推理。它能找到相关文档片段,却无法理解概念之间的因果关系、层次结构和约束条件。当用户问"为什么A会导致B"时,RAG能找到提到A和B的文档,但无法推理出因果链条。
文档堆砌不等于知识体系。企业可能有成千上万的文档、报告、手册,全部入库RAG,看似知识库很"丰富",实则是信息的堆砌。这些文档相互孤立,缺乏结构化的关联,无法形成体系化的认知。
检索精度受限于向量相似度。向量检索基于语义相似性,但语义相似不等于逻辑相关。用户询问"如何提升转化率",RAG可能检索出大量包含"转化率"的文档,但真正有用的可能是讲"用户体验优化"的那篇——因为它们在向量空间中距离较远,就被遗漏了。
在传统架构中,业务规则、领域知识往往硬编码在Agent的代码逻辑中。例如:
这导致三个严重问题:
知识不可复用。每开发一个新应用,就要重新实现一遍相同的业务逻辑。电商系统的会员等级判断规则,在客服Agent、推荐Agent、营销Agent中各写一遍。
经验无法沉淀。老员工离职,带走的不仅是代码,更是隐含在代码中的业务理解。新人接手项目,只能看到代码片段,无法理解背后的业务逻辑全貌。
维护成本爆炸。业务规则变更时,需要在多个Agent中同步修改。一旦遗漏,就会出现"这个Agent说可以,那个Agent说不可以"的矛盾。
没有能力层的抽象,每个AI应用都在重复造轮子:
这不仅浪费开发资源,更重要的是,无法形成能力的复合和积累。能力A和能力B各自优化,却无法组合成能力C,因为它们分散在不同的应用代码中。
知识与能力中台(Knowledge & Capability Platform)是连接数据/模型层与应用层的关键枢纽。它不是简单的中间件,而是企业AI能力的"操作系统"。
知识中台的使命是:将散落的数据升华为结构化知识,将散落的代码沉淀为可复用能力。
它在架构中的位置至关重要:向下,从RAG资料库中提取结构化知识;向上,为AI应用提供统一的知识服务和能力接口;横向,打通不同应用间的知识共享。
知识图谱:从文档到结构化知识
知识图谱不是简单的关系数据库,而是语义网络。它将RAG中的非结构化文档转化为结构化的"实体-关系-属性"三元组。
例如,RAG中可能有一段文字:"iPhone 14采用A15芯片,支持5G网络,续航时间20小时。"知识图谱将其结构化为: - 实体:iPhone 14(产品类)、A15(芯片类)、5G(技术类) - 关系:iPhone 14 -[采用]→ A15,iPhone 14 -[支持]→ 5G - 属性:iPhone 14.续航=20小时
这种结构化使得AI可以进行推理。当用户问"有哪些支持5G的苹果手机"时,不再是模糊的语义检索,而是精确的图查询:MATCH (p:产品)-[支持]->(技术:5G) WHERE p.品牌='苹果' RETURN p
知识图谱还支持本体(Ontology)建模,定义领域概念的层次结构和约束规则。例如定义"所有智能手机都必须有处理器"这一规则,系统就能自动检测知识的完整性。
业务规则库:从代码到可配置规则
将散落在Agent代码中的业务逻辑抽取出来,形成统一的规则库。规则以声明式方式表达,而非命令式代码。
传统方式(命令式):
if user.level == 'VIP' and order.amount > 1000:
discount = 0.2
elif user.level == 'VIP':
discount = 0.1
else:
discount = 0规则引擎方式(声明式):
rules:
- name: VIP大额订单折扣
condition: user.level == 'VIP' AND order.amount > 1000
action: discount = 0.2
- name: VIP常规折扣
condition: user.level == 'VIP'
action: discount = 0.1规则库的优势在于: - 可视化管理:业务人员可直接查看和修改规则,无需懂代码 - 版本控制:规则变更有完整历史记录,可回溯和审计 - A/B测试:可以在不同用户群体测试不同规则版本 - 动态生效:规则修改后实时生效,无需重新部署代码
能力抽象层:从功能到标准化API
将通用的AI能力封装为标准化API,供所有应用调用。能力层不是简单的函数封装,而是包含模型、数据、评估的完整闭环。
例如,"实体识别"能力的封装包括: - 模型层:NER模型,支持多个领域的实体类型 - 数据层:标注数据集,持续积累 - 评估层:准确率、召回率指标,自动化测试 - 接口层:RESTful API,输入文本,输出实体列表
这种封装带来两个核心价值:
能力复用:一次开发,多处使用。客服Agent、内容审核Agent、数据分析Agent都调用同一个实体识别API,无需重复开发。
能力演进:当NER模型优化(如从BERT升级到GPT-4-turbo微调版),所有调用方自动受益,无需修改代码。能力团队专注于持续优化,应用团队专注于业务创新。
知识中台不是孤立的新层,而是与上下层深度互动的枢纽。
向下赋能:RAG的知识化升华
RAG提供原始资料检索,知识中台对检索结果进行二次处理: 1. 实体抽取:从检索到的文档片段中识别关键实体 2. 关系挖掘:分析实体间的语义关系 3. 知识融合:将新知识与图谱已有知识融合,消除冲突 4. 推理补全:基于规则推理出隐含知识
例如,RAG检索到"张三是产品经理"和"产品经理需要懂技术",知识中台通过推理得出"张三需要懂技术"——这个结论在任何文档中都没有明确写出,但逻辑上成立。
向上赋能:Agent的规则化下沉
AI应用在运行过程中会产生新的业务规则和最佳实践,知识中台将其沉淀下来: 1. 规则发现:通过Agent执行日志挖掘隐含规则 2. 规则验证:人工审核或A/B测试验证规则有效性 3. 规则入库:将验证通过的规则加入规则库 4. 规则推广:其他Agent自动应用新规则
这形成了"应用产生规则→规则入中台→中台赋能应用"的正向循环。
模型使用者思维:我有GPT-4的API key,我能调用它解决问题。
系统构建者思维:我要构建一个领域知识图谱,让GPT-4在我的知识体系上推理,而不是在通用知识上泛泛而谈。
区别在于,使用者把大模型当"外挂大脑",构建者把大模型当"推理引擎"——真正的价值在你喂给引擎的知识。
模型使用者思维:我有10TB的业务数据,都丢给RAG,让模型自己学。
系统构建者思维:我要从10TB数据中提炼出1GB的结构化知识,包括概念体系、规则库、案例库,让模型高效学习。
数据是矿石,知识是提炼出的金属。直接用矿石不如用金属。
模型使用者思维:需求来了,写代码实现,交付上线,下一个需求。
系统构建者思维:这个需求背后的能力是什么?能否抽象为通用能力?能否复用到其他场景?如何沉淀到能力中台?
构建者关注的不是一个需求的完成,而是能力资产的积累。每个项目都应该为企业留下可复用的能力。
模型使用者思维:我的Agent上线了,任务完成。
系统构建者思维:我的Agent产生了哪些新知识?这些知识如何回流到中台?其他团队如何复用我的能力?
构建者把每个应用看作生态的一部分,关注知识的流动和能力的共享,而非孤立的项目交付。
不要急于上技术,先做知识盘点: - 企业有哪些核心概念?它们之间的关系是什么? - 业务流程中有哪些关键规则?这些规则的适用条件是什么? - 哪些能力是重复开发的?哪些能力可以抽象为通用服务?
基于盘点结果,构建领域本体(Ontology)。本体定义了概念体系的"骨架",是知识图谱的元模型。
不要推倒重来,而是增量演进: - 对现有Agent代码进行分析,识别其中的业务规则 - 将规则从代码中剥离,迁移到规则引擎 - 对现有RAG资料库进行知识抽取,构建初版知识图谱 - 识别重复实现的功能,封装为能力API
这个过程可能很痛苦,因为会发现很多"技术债",但这是必须经历的还债过程。
知识中台不是一次性建设项目,而是需要持续运营: - 知识众包:鼓励业务专家、开发人员贡献知识 - 质量审核:设立知识管理员角色,审核知识质量 - 效果评估:追踪知识被应用的频率和效果 - 持续优化:基于反馈不断完善知识图谱和规则库
建立"知识资产-业务价值"的关联,让团队看到知识建设的ROI。
知识中台的终极形态是开放生态: - 提供标准化的知识API,任何应用都能接入 - 建立能力市场,团队间可以共享和复用能力 - 支持知识插件,允许扩展领域知识 - 建立开发者社区,分享最佳实践
当知识和能力成为可流动的资源,创新就会涌现。
AI大模型的能力会持续提升,开源模型的性能会不断逼近闭源模型,调用API的门槛会越来越低。在这个趋势下,真正的壁垒不是你用了什么模型,而是你沉淀了什么知识。
我们缺的不是大模型,不是GPU算力,不是海量数据,而是将数据提炼为知识、将经验沉淀为规则、将功能抽象为能力的体系化建设。
从模型使用者到系统构建者,是思维方式的升华,是从"借用别人的能力"到"构建自己的资产"的跨越。知识与能力中台不是技术炫技,而是企业在AI时代构建核心竞争力的必由之路。
那些率先建立知识中台的企业,将在AI应用的红海竞争中脱颖而出——因为他们不再是模型的使用者,而是知识的拥有者、能力的构建者、生态的缔造者。
AI时代的胜利,属于那些真正理解"知识即资产"的系统构建者。