
长期以来,真正“深度”的研究型写作,一直被云端大模型垄断。
一边,是能力极强的闭源系统,能检索、能推理、能写万字长文; 另一边,是企业和研究机构越来越严苛的数据安全要求——核心资料不能出域、不能上云、不能被记录。
这几乎是一道无解的选择题。
直到最近,一个信号级别很高的项目出现了。
1 月 20 日,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 社区联合开源了 8B 端侧写作智能体 AgentCPM-Report。它做了一件过去被认为“几乎不可能”的事:在完全本地部署的前提下,把 DeepResearch 级别的写作能力,压进了一个 8B 模型。

在深度研究场景中,问题从来不只是“模型大不大”。
真正困难的是三件事同时成立:
过去,这几乎等同于“必须上云 + 必须用闭源大模型”。
AgentCPM-Report 选择了一条完全不同的路线:不追求参数规模,而是把写作本身,当成一种推理过程来设计。
官方披露的数据很有意思:
关键不在“算得多”,而在算的方式被重构了。
AgentCPM-Report 并不是一次性“写完全文”,而是采用一种类似人类研究员的方式:
这种设计,极大降低了小模型在长文本中“逻辑崩塌”的概率。
另一个被反复强调的点,是完全离线、本地运行。
AgentCPM-Report 从设计之初,就面向高隐私场景:
它基于开源的 UltraRAG 框架,可以直接挂载企业内部的 PDF、TXT、报告、制度文件,自动完成切片、索引和向量化。
这意味着一件很重要的事:
深度研究能力,第一次可以被安全地放进“内网”。
对企业研究、合规分析、战略咨询、内部智库来说,这不是性能优化,而是可不可以用的区别。
在多个主流深度调研评测基准中,AgentCPM-Report 的成绩相当激进:
尤其在 洞察性指标 上排名第一,在全面性上进入第一梯队,仅略低于基于 Claude 的复杂写作系统。
在 DeepResearch Gym 中,它的综合得分达到 98.48,在深度、广度、洞察力等关键维度全部拿到满分。
这基本坐实了一件事:端侧模型,已经开始正面进入“高阶认知任务”的战场。
从工程视角看,这个项目并不“学院派”。
用户只需要输入研究主题,就能得到一份结构清晰、可溯源的专业报告。
官方还展示了一个很“残忍”的案例: 基于《三体》原文知识库,自动完成“面壁计划”的深度研究报告,从线索挖掘到万字成文,全流程自动完成。
这已经不是简单的写作辅助,而是完整的研究工作流自动化。
AgentCPM-Report 真正重要的,并不是“又一个模型开源了”。
而是它释放了一个清晰信号:
接下来,问题可能不再是“能不能做到”,而是:
谁会最先把这种能力,用进真实业务里。
开源地址汇总(原项目):
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。