以下文章来源于AI工具教程,作者AI工具教程
今天刷到个事儿,有点意思…不是新模型哈,是个“会自己干活的编程搭子”越长越像人了——Claude Code。就是那个能在你IDE里一边改代码一边唠嗑的家伙。别紧张,我不是来吹神话的,我这两周真把它当队友用,踩了坑也捡了宝。就按我平时碎碎念的节奏,给你整一篇可复制的“Claude Code 实战教程”,顺便夹点小技巧和防坑条款。
先说个让我突然坐直的瞬间:我在项目里随口丢了一句“把用户体系从 cookie 迁到 token,先别动线上”。Claude Code没急着动手,它先给我铺了个“问题骨架”:风险点、影响范围、依赖清单、最小可回滚方案…然后追问一句“要不要先在staging打个流量开关?”我点头,它就自己拆任务、自己开PR、自己写变更说明。那一刻我意识到:这货不想当“补全器”,它要当“项目里的认真同事”。
等等,别急着装插件,先把脑子调到“协作模式”。Claude Code跟“会聊两句的补全”不一样,它吃上下文、吃权限、吃你的工程规矩。我的建议是——在仓库根目录新建CLAUDE.md:放项目结构、编码约定、运行/测试命令、风格指南、敏感目录黑名单。 开启最少必要权限:读/写仓库、运行本地命令前 必须二次确认。把“危险命令名单”(比如rm -rf、数据库迁移)写进提示里。 开上扩展点:MCP 服务器、权限钩子、斜杠命令、子智能体——听着复杂,其实是可插拔的“工具带”,后面会用到。
“先不要动手。把‘X需求’拆成 5–7 个可验证子任务,每个给到:影响文件/可回归脚本/失败告警信号。再标优先级和并发关系。”
它通常会吐出一张“执行 DAG + 校验点”。这一步能救命:你会立刻看到哪里要打 feature flag,哪里需要兼容老数据。
检索策略
“列出完成这事需要看的一手来源(框架官方文档/本仓库 ADR/过往 PR/监控面板链接),去掉转载和水文。给我 8 条以内。”这一步是把“问就是会”变成“有据可依”,你改起来才心不慌。(他们产品哲学真的更偏“真实体感>benchmark”,而且内部反馈修得飞快,这种“证据优先”的体验能感到。)
计划执行
“根据上面计划,生成一步一提交的PR序列:每个PR只做一小步,带自检脚本、回滚说明、风险清单。”
然后让它:
先写测试(或最小可运行示例 MRE)。 本地跑测试/构建/静态检查——必须打印过程。 变更前后跑对比(基准样例/端到端健康检查)。 Claude Code现在的“连续自主运行”时间比老版本强了不少,但别神话,长链路一定要设停靠点。(这也是他们“共同进化”的故事:研究员天天拿它干活,看到模型自然极限就反向调训,闭环很快。“站在反对者角度审我的PR:逐条挑错,标证据力度(弱/中/强),给最小复现实验。”这比“你好棒”有用一万倍。你会看到:边界条件没测、幂等性存疑、日志粒度太粗、异常恢复没写…它会逼你把坑补上。“出一页执行摘要:改了啥/为什么/风险&回滚/关联监控;附 3 页:数据方法引用(每条能点击回原文/PR定位)。语气中性明确。”
发群里,所有人都能秒懂你在干嘛。
1)七个未知数 “先不要回答,只列出解决这个问题最关键的 7 个未知数,每个给验证动作和潜在 bias。”
2)引用分级 “把引用按级别分:一手数据 > 官方文档 > 学术/财报 > 权威媒体 > 二手解读。低级别只在没有上级别时使用,并标‘替代’。”
3)反方论证 “如果我错了,最可能错在第几步?给可证伪的最小实验或查证动作。”
修bug “别急着改,先复现最小化画根因链:触发条件/错误栈/可疑提交/竞态窗口。给两条‘保守修复’和一条‘体系化修复’,同时估算回归范围。”读陌生仓库 “输出‘三层地图’:模块图关键数据流异常处理路径。给5条‘别动就会炸’的雷区。”重构/迁移 “列兼容矩阵(老客户端/老数据/特性标),每步配‘可回滚开关’和‘熔断条件’。”安全/合规点 “列出可能触及的合规边界(日志/隐私/许可证),给‘最小可合规’方案。”
关键结论必须点回原文锚点看 3 秒; 没有首发来源的观点,一律写“推测/传闻”; 时间说人话:“2025-09-12 的变更里我们把…”,别用“最近”。
MCP 集成:把你团队的知识库、工单、监控面板、部署面板变成“会话内工具”。 权限/Hook:每当它要跑危险命令、改关键目录、推镜像,先弹审批;Hook里统一做审计日志。 斜杠命令/子智能体:/plan、/fix、/review、/changelog这种组织成“工作流按钮”,子智能体专责某一步,效率暴涨。 系统提示 & 上下文管理:把团队编码规范、提交信息模板、测试约定写进系统提示+CLAUDE.md,它会照做。(这些扩展点确实是它的设计哲学:极简易用+高度可扩展。)
它更像“能干的同事”,不是“替你拍板的老板”。最后那一下“拍板”,得你来。 评测≠体感。官方也承认“真实体感>benchmark”,所以你得在自己的仓库里跑一遍再下定论。(出自官方负责人的访谈口径。) 长链路要分段验收:每 5–10 分钟停一次,做一次健康检查;大改动必须走“影子发布/灰度”。 费用与配额:深度自主运行会烧token,给工作流设上限&超时;能在本地测就别云上狂飙。
“给出这个问题的分解树(3 层),每个叶子节点给可验证动作+最可靠可能来源;限制最近 90 天;列出支持/反对各 5 条证据(标来源级别与证据力度);最后输出 300 字结论 + 风险 + 我下一步应该做什么(能直接点开的引用锚点)。”
“把这次改动整理成 1 页执行摘要 + 3 页附录:第一页列结论/依据/不确定性/建议;附录按数据方法引用排,所有句子后加可点击来源;语气‘中性而明确’,再给一份CHANGELOG和ROLLBACK.md。”
最后几句碎话:Claude Code 这产品之所以“像个人”,很大一部分是因为他们团队自己天天拿它当主力工具,反馈像消防水带一样哗啦啦进来,能当天就修,模型和工具“共同进化”。这种“真实工作中被锤出来的手感”,是你在实验室 benchmark 里感受不到的。
你呢?你会把“拆问题+盯证据+自我反驳”外包给它,还是坚持在一堆标签页里自己摸?我现在…一只脚已经站在“让它先跑一遍证据”的队里了,另一只脚还踩着“别把所有脑子外包”的刹车。反正就这样。嗯。