前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >传统预训练正走向终结,推理优化与后训练提升有限,大模型今后如何突破发展瓶颈?

传统预训练正走向终结,推理优化与后训练提升有限,大模型今后如何突破发展瓶颈?

作者头像
机器之心
发布于 2025-04-13 07:56:31
发布于 2025-04-13 07:56:31
990
举报
文章被收录于专栏:机器之心机器之心

高质量数据枯竭,传统预训练走向终点,大模型如何突破瓶颈?

当前(多模态)大模型正深陷「数据饥渴」困境:其性能高度依赖预训练阶段大量高质量(图文对齐)数据的支撑。然而,现实世界中这类高价值数据资源正在迅速耗尽,传统依赖真实数据驱动模型能力增长的路径已难以为继。

在 NeurIPS 2024 会议上,OpenAI 联合创始人 Ilya Sutskever 明确指出:「Pre-training as we know it will end。」这一判断成为对传统预范式极限的清晰警示。为延续性能提升,主流研究方向开始转向推理优化与后训练微调(如强化学习)。

然而,最新研究表明:此类改进极其依赖模型在预训练中所奠定的能力基础。如果模型在早期未能系统性地习得相关能力,后续优化就如同在沙地上建高楼——进展有限,风险颇高。不同模型在「自我进化」能力上的表现也存在巨大差异,其实质仍是「题海战术」的延伸:缺乏方法论支撑的训练,难以应对真实世界中的复杂和变化。

面对这一瓶颈,大模型的未来路在何方?

微软研究院科学家 Shital Shah 在社交媒体上指出:合成数据(synthetic data)或许是打破当前能力天花板的关键。

近日,港中文联合清华等高校提出:未来大模型性能的持续提升,需依赖「预训练、推理阶段的计算扩展、后训练优化」三者的深度协同。这一观点打破了传统依赖单一预训练路径的范式,为下一代多模态基础大模型(Foundation MLLMs)的构建提供了全新思路。

  • 论文标题:Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition
  • 论文地址:https://arxiv.org/abs/2503.12303v5

在此基础上,研究团队提出了创新性框架——SICOG(Self-Improving cognition),旨在重塑大模型的进化路径。SICOG 引入了独创的「链式描述」技术,通过五步渐进式视觉解析引擎,实现模型从显著内容捕捉到细粒度关联推理的全面感知跃升。

该框架同时采用了「结构化思维链」机制,有效增强模型对多模态信息的融合处理与复杂推理能力。更具突破性的是,SICOG 通过自生成数据闭环 + 语义一致性筛选机制,使模型在零人工标注的条件下实现认知能力的持续进化,真正迈向高效、自主的学习范式。

SICOG 的提出,不仅打破了当前模型在数据、算力与微调优化三者割裂发展的瓶颈,也为未来通用人工智能(AGI)模型的构建提供了可扩展、可迁移的新路径。

SICOG:三位一体协同框架,让模型学会「自我进化」

传统多模态大模型(MLLMs)依赖海量标注数据与静态预训练范式,面临数据稀缺与能力增长受限的双重瓶颈。为突破这一困境,本文提出全新框架 SICOG(Self-Improving cognition),首次构建了涵盖「后训练增强—推理优化—再预训练强化」的三位一体自进化机制,重新定义了预训练边界,为下一代 MLLMs 注入动态认知与持续学习能力

SICOG 的三阶段协同机制包括:

  1. 后训练增强:利用少量高质量标注数据,提升模型的系统性认知与基础推理能力;
  2. 推理优化:在大规模无标签多模态数据上进行自主推理,通过「自我一致性投票机制」筛选出高置信度答案,自动生成伪标签;
  3. 再预训练强化:将筛选后的高质量伪标注数据反馈用于预训练,实现模型能力的持续进化。

SICOG 的关键创新在于实现了模型的「学中实践、实践中进化」:从少量种子数据出发,模型通过「看图总结 + 解题推理」主动构建多任务样本,实现数据生成与学习闭环。无需大规模人工标注,即可高效扩展预训练数据,根本性缓解当前高质量多模态数据稀缺的问题。

描述链(Chain-of-Description, CoD):让模型「看图像像人一样」

CoD(描述链)是一种结构化分步感知方法,使模型像侦探一样逐层观察图像,从主体到细节、从关系到背景,构建出完整、逻辑严密的图像理解过程。

以「一位女孩弹吉他」的图像为例,传统模型可能仅生成「女生在弹吉他」的粗略描述,而 CoD 会分为五个有序阶段,逐步深化理解:

1.提取主体内容

  • 首先识别图像的核心语义元素,如:「一位红发女性坐在床上,怀中抱着一把木吉他」。
  • 这一阶段确保模型对主要对象有清晰把握,为后续分析打下基础。

2.分析细节信息

  • 进一步观察细节属性,如:「吉他为浅色指板的经典木制款式,光线柔和,渲染出温暖氛围」。
  • 捕捉纹理、颜色、光影等低层信息,增强描述的丰富性与精度。

3.考虑关系属性

  • 描述图像中元素之间的交互关系,如:「她坐在床上,笔记本放在小桌上,灯串和挂饰点缀背景」。
  • 强化对空间布局与语义结构的建模。

4.检查边缘/背景内容

  • 不忽略次要信息,如:「房间内有梳妆台、墙面装饰等背景元素」。
  • 补充场景语义,完善整体理解。

5.整合为连贯描述

  • 将上述观察统一组织为一段完整、逻辑清晰的自然语言描述。

通过 CoD,模型能够逐步「构建图像语义结构」,实现从感知到理解的飞跃,显著提升图文对齐的质量与逻辑性。

结构化解题思路(Structured Chain-of-Thought, CoT):让模型「解题像学霸一样」

Structured CoT (结构化思维链)是一种任务驱动的推理框架,支持模型在面对复杂问题时进行分步推理、信息整合与因果判断,广泛应用于数学计算、逻辑问答、跨模态推理等任务。

例如,在一道几何题中,传统模型可能直接尝试「猜测答案」,而 Structured CoT 的解题过程如下:

1.明确任务目标

  • 识别问题类型,例如「求三角形某边的长度」。

2.提取关键信息

  • 从图像中提取直角三角形、垂线、边长等必要条件。

3.逻辑推理分析

  • 判断相似三角形关系,列出比例公式并代入数值。

4.总结计算得解

  • 通过计算得出答案,例如「选项 C」。

Structured CoT 让模型具备类人的「解题能力」,不仅能处理复杂的数理任务,还能支持跨模态因果推断,奠定模型认知系统化的基础。

能力全面跃升:SICOG 的三大关键优势

借助 CoD 和 Structured CoT,SICOG 不仅构建了结构化的感知与推理流程,更在训练范式上实现了根本性突破,具备以下三大核心优势:

1.显著降低对高质量数据的依赖

  • 仅需少量种子数据即可启动,通过自生成数据循环优化,实现大规模多模态数据的「零标注」扩展。

2.实现动态认知进化

  • 打破传统「一训定终身」的预训练模式,支持模型在使用过程中持续学习、能力不断升级,具备「终身学习」特征。

3.感知与推理一体优化

  • 不再局限于感知能力的提升,SICOG 在预训练阶段即融合「感知 + 推理」,模拟人类认知流程,使模型对图文、图问等复杂任务具备更强泛化与应变能力。

实验验证:SICOG 实现模型能力全面提升

为了验证 SICOG 框架的有效性,研究在 12 个主流多模态评测集上进行了系统性评估,涵盖图表理解、数学推理、抗幻觉能力等多个关键维度。实验结果表明,SICOG 能显著提升模型的综合表现,具体成果如下:

综合性能稳步提升

  • 在整体评测中,模型平均表现提升 2%–4%
  • 尤其在依赖多步推理的任务中表现突出,如 ScienceQA,展现出更强的逻辑推理与跨模态理解能力。

幻觉控制能力增强

  • POPE 等抗幻觉评测中,模型错误率下降了 1%–2%

自生成数据推动持续进化

  • 随着自生成数据量从 11.8 万条提升至 21.3 万条,模型性能持续上升,呈现出良好的扩展性与学习能力;
  • 表明 SICOG 的「自我进化机制」不仅可行,而且具备高度可扩展性。

超越主流预训练方法

  • SICOG 在多个任务中表现甚至超过了主流的 strong-to-weak distillation 和 multi-agent collaboration 方法

实验还表明,基础模型性能越强,其在自我进化过程中的能力提升也越显著。例如,LLaVA-Qwen2-7B-UHD 相较于 LLaVA-Llama3.1-8B-UHD,性能提升幅度高出约 50%。这表明:强大的基础能力不仅决定模型的初始表现,更显著增强其后续自学习与优化能力

这一现象类似于人类学习中的「马太效应」——「学霸更会自学」。具备更优初始结构与知识表示的模型,能够更高效地利用数据、激发潜力,在持续进化中取得更大进步。

研究进一步表明,基于合成数据的预训练显著提升了模型的基础认知能力,从而强化了后续微调效果。这一结果再次验证了:预训练、推理阶段的计算扩展与后训练优化三者之间存在高度协同关系。只有打通这三环节,才能实现模型能力的持续跃升与高效进化。

此外,研究发现,SICOG 生成的合成数据同样遵循规模法则(scaling law):模型能力随着数据量的增加持续提升。这进一步证明了自生成数据在模型进化过程中的有效性与可扩展性。

作者提出了一种变体方法:在第一阶段的后训练增强中,以偏好学习(Preference Learning)替代传统的监督微调(SFT),以进一步强化模型的基础能力。

实验结果表明,偏好学习在提升模型泛化能力方面优于 SFT,尤其在处理复杂任务时表现更为稳健。这一结果从实证层面验证了长期以来的观点:强化学习范式在特定任务中相较于监督微调更具优势

细粒度图像感知能力显著增强,在细节识别与关系属性捕捉方面表现出更高的准确性与鲁棒性。

多模态理解与推理能力显著提升

展望:预训练的新边疆 —— 从静态训练到动态进化

SICOG 通过构建一个涵盖「数据生成 → 模型训练 → 能力进化」的闭环体系,突破了传统预训练对高质量人工标注数据的依赖,展现出类人认知发展的潜力。该框架不仅实现了模型的自我学习与持续优化,也为迈向真正自主学习型智能体奠定了坚实基础。

在当前研究中,SICOG 通过引入 Chain-of-Description(CoD)并配合 Structured Chain-of-Thought(Structured CoT)的推理机制,显著增强了多模态模型的感知与推理能力。然而,这一进展仍只是通向完全自主学习的起点。

未来,若能进一步引入环境反馈机制(如具身智能场景)与持续优化机制,模型将有望具备终身学习的能力,实现从「被动学习」向「主动成长」的跃迁。在与环境的持续交互中,模型不仅可以利用自身生成的数据进行自我优化,更能够主动识别知识盲区、动态调整学习策略,从而在复杂任务与多变环境中不断进化、持续提升。

© THE END

转载请联系本公众号获得授权

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-04-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
预训练还没终结!港中文清华等提出「三位一体」框架,持续自我进化
当前(多模态)大模型正深陷「数据饥渴」困境:其性能高度依赖预训练阶段大量高质量(图文对齐)数据的支撑。
新智元
2025/04/11
1470
预训练还没终结!港中文清华等提出「三位一体」框架,持续自我进化
每周AI论文速递(250303-250307)
语言模型的预训练需要在广泛的语料库上进行训练,其中数据质量起着关键作用。在这项工作中,我们的目标是直接估计预训练期间数据的贡献,并以高效的方式选择预训练数据。具体来说,我们借鉴了最近的发现,这些发现表明,当文本领域与下游基准匹配时,多样化模型在某些文本上的压缩效率(即归一化损失)与其下游性能密切相关(Huang et al., 2024)。基于这一观察,我们假设模型损失能够预测下游能力的数据对学习有显著贡献。为了利用这一见解,我们引入了基于数据预测强度(Preselect)的数据选择方法,这是一种轻量级且高效的数据选择方法,仅需训练和部署一个基于 fastText 的评分器。通过对 1B 和 3B 参数模型的广泛实验,我们证明了使用 PreSelect 选择的 30B token 训练的模型性能超过了在 300B token 上训练的普通基线模型,使计算需求减少了 10 倍。此外,PreSelect 在 3B 模型上使用 100B token 进行训练时,显著优于其他竞争性数据选择基线,如 DCLM 和 FineWeb-Edu。我们在 https://github.com/hkust-nlp/PreSelect 上公开了我们训练的数据选择评分器以及精选的数据集。
叶子的技术碎碎念
2025/04/08
790
每周AI论文速递(250303-250307)
多智能体架构Insight-V来了!突破长链视觉推理瓶颈
本文的主要作者来自南洋理工大学 S-Lab、腾讯公司和清华大学智能视觉实验室。本文的共同第一作者为南洋理工大学博士生董宇昊和清华大学自动化系博士生刘祖炎,主要研究方向为多模态模型。本文的通讯作者为南洋理工大学助理教授刘子纬和腾讯高级研究员饶永铭。
机器之心
2025/02/14
1400
多智能体架构Insight-V来了!突破长链视觉推理瓶颈
从自我进化视角出发,全面解析LLM的推理能力技术演进路径
在人工智能领域,大型语言模型的复杂推理研究正成为学术界和工业界关注的焦点。随着 OpenAI 的 O1 以及后续 DeepSeek R1 等突破性成果的发布,这一领域的研究热度持续升温,引发了广泛的学术讨论和实践探索。这些里程碑式的研究成果不仅推动了相关技术的快速发展,也激励着研究者们不断尝试复现并拓展其应用边界。
机器之心
2025/03/07
1380
从自我进化视角出发,全面解析LLM的推理能力技术演进路径
中科大、中兴提出新后训练范式:小尺寸多模态模型,成功复现R1推理
本文第一作者为邓慧琳,中国科学技术大学硕博连读四年级,研究方向为多模态模型视觉理解、推理增强(R1强化学习)、异常检测。在TAI、TASE、ICCV等期刊和顶会发表论文。
机器之心
2025/04/15
990
中科大、中兴提出新后训练范式:小尺寸多模态模型,成功复现R1推理
每周AI论文速递(250106-250110)
EnerVerse: Envisioning Embodied Future Space for Robotics Manipulation
叶子的技术碎碎念
2025/04/08
660
每周AI论文速递(250106-250110)
【人工智能】推理大模型与预训练大模型:架构差异与认知范式的技术解构
在大模型领域中预训练大模型与推理优化大模型代表着两种截然不同的认知范式。本文将从预训练大模型和推理大模型的发展之路开始,从表征学习、计算图优化、任务泛化三个维度展开技术剖析,说明二者在模型动力学层面的本质差异。
云帆沧海
2025/04/23
1070
DeepSeek-R1 技术全景解析:从原理到实践的“炼金术配方” ——附多阶段训练流程图与核心误区澄清
(调试着R1的API接口,看着控制台瀑布般流淌的思维链日志)此刻我仿佛看到AlphaGo的棋谱在代码世界重生——这是属于推理模型的AlphaZero时刻。
LeonAlgo
2025/02/26
2010
DeepSeek-R1 技术全景解析:从原理到实践的“炼金术配方”  ——附多阶段训练流程图与核心误区澄清
每周AI论文速递(250331-250404)
大语言模型 (Large Language Models, LLMs) 的出现引发了人工智能领域的变革,推动了一系列具备复杂推理能力、强健感知能力和跨领域多任务执行能力的先进智能体的发展。随着这类智能体在 AI 研究和实际应用中的作用日益凸显,其设计、评估与持续改进过程也面临着多维度、高复杂度的挑战。本综述采用模块化的类脑架构框架,融合认知科学、神经科学与计算研究的核心原理,对智能体技术进行全面梳理。研究内容分为四个相互关联的部分:首先解析智能体的模块化基础架构,通过系统化映射其认知、感知与执行模块与人脑功能的对应关系,深入阐释记忆系统、世界模型、奖励机制及类情绪系统等核心组件;其次探讨智能体的自我增强与自适应进化机制,重点分析其通过自动化优化范式(包括新兴的 AutoML 和大语言模型驱动的优化策略)实现能力自主提升、动态环境适应与持续学习的方法;第三部分研究协作型进化多智能体系统,揭示智能体通过交互协作与社会化组织产生的群体智能,及其与人类社交行为的相似性;最后针对 AI 系统的安全性、可靠性及社会效益这一关键命题,系统分析内生与外源安全威胁、伦理对齐要求、系统鲁棒性保障等核心问题,提出确保实际部署可信度的有效缓解策略。
叶子的技术碎碎念
2025/04/08
1350
每周AI论文速递(250331-250404)
每周AI论文速递(250120-250124)
我们探索了一种进化搜索策略,用于扩展大语言模型中的推理计算时间。我们提出的方法,Mind Evolution,利用语言模型生成、重组和优化候选响应。该方法在解决方案评估器可用时,避免了形式化底层推理问题的需求。在控制推理成本的前提下,我们发现 Mind Evolution 在自然语言规划任务中显著优于其他推理策略,如 Best-of-N 和 Sequential Revision。在 TravelPlanner 和 Natural Plan 基准测试中,Mind Evolution 使用 Gemini 1.5 Pro 解决了超过 98% 的问题实例,且无需使用形式化求解器。
叶子的技术碎碎念
2025/04/08
900
每周AI论文速递(250120-250124)
预训练模型与强推理模型:人工智能时代的认知革命
人工智能技术的演进史,本质上是人类对智能本质的探索史。在深度学习浪潮席卷全球的十年间,两条技术路线逐渐显现出清晰的轮廓:以海量数据为燃料的预训练模型,与以逻辑推理为根基的强推理模型。前者通过自监督学习构建出强大的模式识别能力,后者则致力于将人类思维中的因果链和形式化规则编码为可计算的算法。二者的协同与博弈,不仅重塑了人工智能的技术版图,更在医疗诊断、科学发现、工业决策等领域催生出颠覆性应用。当GPT-4展示出惊人的上下文理解,能力AlphaGeometry在几何证明中超越人类金牌选手时,正我们见证着这两种技术范式从分立走向融合的历史性时刻。
用户7353950
2025/02/25
1940
预训练模型与强推理模型:人工智能时代的认知革命
每周AI论文速递(241209-241213)
我们推出了 InternVL 2.5,这是一个基于 InternVL 2.0 的先进多模态大语言模型 (MLLM) 系列,保留了其核心架构,同时在训练和测试策略以及数据质量上进行了显著改进。本文深入研究了模型扩展与性能的关系,系统地分析了视觉编码器、语言模型、数据集规模及测试时配置对性能的影响。通过在多学科推理、文档理解、多图像/视频理解、现实世界理解、多模态幻觉检测、视觉定位、多语言能力及纯语言处理等广泛基准上的全面评估,InternVL 2.5 展现出与 GPT-4o 和 Claude-3.5-Sonnet 等领先商业模型相媲美的竞争力。特别地,我们的模型在 MMMU 基准上首次突破 70%,通过链式推理 (CoT) 提升了 3.7 个百分点,并展示了强大的测试时扩展潜力。我们期待该模型为开源社区在多模态 AI 系统的开发与应用上树立新标杆。HuggingFace 演示见 https://huggingface.co/spaces/OpenGVLab/InternVL
叶子的技术碎碎念
2025/04/08
710
每周AI论文速递(241209-241213)
大模型训练全解析:预训练、微调、强化学习,一步到位!
2025年初,随着DeepSeek的迅速走红,公众对LLM(大语言模型)的兴趣急剧上升。许多人被LLM展现出的近乎魔法的能力所吸引。然而,这些看似神奇的模型背后究竟隐藏着什么秘密?接下来,我们将深入探讨LLM的构建、训练和微调过程,揭示它们如何从基础模型演变为我们今天所使用的强大AI系统。
福大大架构师每日一题
2025/03/18
4920
大模型训练全解析:预训练、微调、强化学习,一步到位!
推理大模型的后训练增强技术-预训练篇
训练大型语言模型不是一个单一的过程,相反,它是一个多层的训练过程组合,每个过程都有其独特的作用,并对模型的性能做出贡献。
致Great
2025/03/08
1450
推理大模型的后训练增强技术-预训练篇
7B模型数学推理击穿o1,直逼全美20%尖子生!四轮进化,微软华人新作爆火
不仅如此,SLM在美国数学奥林匹克(AIME)上,拿下了53.3%的亮眼成绩,直逼全美20%顶尖高中生!
新智元
2025/02/15
1020
7B模型数学推理击穿o1,直逼全美20%尖子生!四轮进化,微软华人新作爆火
DeepSeek NSA:突破数据瓶颈,开启AI模型训练新范式
近年来,人工智能领域的发展高度依赖海量数据和算力,但数据质量不足、标注成本高昂等问题始终制约着模型的性能提升。近日,中国AI公司深度求索(DeepSeek)发布了一项名为神经缩放增强(Neural Scaling Augmentation, NSA)的技术,通过创新的数据生成与模型优化方法,为突破现有训练瓶颈提供了全新的解决方案。这项技术基于其团队在arXiv公开的论文研究(arXiv:2502.11089v1),旨在通过算法驱动的高效数据生成策略,显著提升模型在有限数据下的泛化能力和推理效率。
码事漫谈
2025/02/18
4830
DeepSeek NSA:突破数据瓶颈,开启AI模型训练新范式
推理大模型的后训练增强技术-如何系统地理解和提升长思维链推理能力
最近,基于大型语言模型(RLLMs)的推理能力取得了显著进展,例如OpenAI的O1和DeepSeek的R1,它们在数学、编程等复杂领域展现了强大的能力。这些进展的关键因素之一就是长链思维(Long CoT)的应用,它能增强推理能力,帮助解决更复杂的问题。然而,尽管已有这些突破,关于长链思维的全面综述仍然匮乏,这也限制了对其与传统短链思维(Short CoT)区别的理解,并使得“过度思考”和“测试时扩展性”等问题的讨论变得复杂。这项综述旨在填补这一空白,提供一个统一的视角来理解长链思维。
致Great
2025/03/19
2520
推理大模型的后训练增强技术-如何系统地理解和提升长思维链推理能力
每周AI论文速递(250224-250228)
LLM-Microscope: 揭示 Transformer 上下文记忆中标点符号的隐藏作用
叶子的技术碎碎念
2025/04/08
410
每周AI论文速递(250224-250228)
每周AI论文速递(241118-241122)
大语言模型在推理能力上取得了显著进展,尤其是在推理时间扩展方面,如 OpenAI 的 o1 模型所示。然而,当前的视觉语言模型 (VLMs) 在处理系统性和结构化推理时往往表现不佳,尤其是在复杂的视觉问答任务中。为此,我们提出了 LLaVA-o1,一种新型 VLM,旨在进行自主的多阶段推理。与传统的思维链提示不同,LLaVA-o1 独立地进行一系列阶段,包括总结、视觉解释、逻辑推理和结论生成。这种结构化的推理方式使得 LLaVA-o1 在推理密集型任务中实现了显著的精度提升。为了实现这一目标,我们构建了 LLaVA-o1-100k 数据集,整合了来自多种视觉问答来源的样本,并提供了结构化推理注释。此外,我们还提出了一种推理时间阶段级束搜索方法,有效提升了推理时间扩展的效率。特别值得一提的是,仅使用 100k 训练样本和一种简单而有效的推理时间扩展方法,LLaVA-o1 不仅在广泛的跨模态推理基准上比其基础模型高出 8.9%,还超越了更大甚至闭源模型(如 Gemini-1.5-pro、GPT-4o-mini 和 Llama-3.2-90B-Vision-Instruct)的性能。
叶子的技术碎碎念
2025/04/08
850
每周AI论文速递(241118-241122)
对话OpenAI | 预训练已经达到瓶颈?是否所有场景都必须应用大模型?多模态模型怎么做?
新一年的生成式AI进入了新的发展时期:AI应用时期,由锦秋基金发起一次硅谷Ideation之行,在此期间组织了30场AI相关的高质量交流,包括但不限于如下方面:
AIGC新知
2025/01/17
1360
对话OpenAI | 预训练已经达到瓶颈?是否所有场景都必须应用大模型?多模态模型怎么做?
推荐阅读
相关推荐
预训练还没终结!港中文清华等提出「三位一体」框架,持续自我进化
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档