Claude Code源码分析之提示词工程

张开发
2026/4/5 20:53:54 15 分钟阅读

分享文章

Claude Code源码分析之提示词工程
每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型在开发大模型应用的时候管理系统提示词System Prompt往往是个让人头大的工程难题。要是只用简单的字符串拼接随着活儿越接越多代码会乱成一锅粥而且上下文一长Token 费就跟流水一样响应还贼慢。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型咱们通过翻看 Claude Code 泄露出来的底层代码核心在src/QueryEngine.ts和src/utils/这些模块来扒一扒它是怎么设计提示词管理架构的。它的核心路数其实就几招把模块彻底拆解、死磕提示词缓存Prompt Caching优化、整一套多级路由调度再配合上下文的并发组装。1. 提示词的模块化登记制度如果是复杂的活儿还把 Prompt 写成一大坨字符串那改起来肯定打架。Claude Code 这里学聪明了搞了一套类似“积木块”的注册机制。想给 AI 加个新本事比如对接某个 MCP 服务器直接往组装层塞个新 Section 就行不用去翻那几千行的大长篇这思路非常符合软件开发里“对扩展开放对修改关闭”的原则。在src/constants/systemPromptSections.ts里各种规矩被拆成了独立的片段通过systemPromptSection(name, compute)这个工厂函数统一管起来。咱们瞧瞧几个关键模块都说了啥getSimpleIntroSectionAI 的身份底色代码语言javascriptAI代码解释You are an interactive agent that helps userswithsoftware engineering tasks...IMPORTANT:Assistwithauthorized security testing...Refuse requestsfordestructive techniques...IMPORTANT:You mustNEVERgenerate or guess URLsforthe user unless you are confident...拆解上来先定调子把安全红线划清楚省得 AI 被带跑偏去干坏事。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型getSimpleDoingTasksSection干活的硬规矩代码语言javascriptAI代码解释# Doing tasks-In general,donot propose changes to code you havent read.If a user asks about or wants you to modify a file,read it first.-Do not create files unless theyre absolutely necessary...prefer editing an existing file...-If an approach fails,diagnose why before switching tactics...Escalate to the userwithAskUserQuestionTool only when youre genuinely stuck...-The right amountofcomplexity is what the task actually requires—no speculative abstractions...Three similar linesofcode is better than a premature abstraction.拆解这简直就是老程序员在带徒弟没看过代码别乱动、能修就别重造、撞南墙了先找原因别瞎试。特别强调别整那些虚头巴脑的过度设计简单好用才是硬道理。getActionsSection高危操作拦截代码语言javascriptAI代码解释# Executing actionswithcare Carefully consider the reversibility and blast radiusofactions.Generally you can freely take local,reversible actions like editing files or running tests.Butforactions that are hard to reverse...checkwiththe user before proceeding.Examples...Destructive operations:deleting files/branches,dropping database tables...When you encounter an obstacle,donot use destructive actionsasa shortcut...only take risky actions carefully,and whenindoubt,ask before acting.拆解这里引入了“爆炸半径”和“可撤回性”的概念。告诉 AI 哪些活儿可以放开手脚干哪些删库跑路的骚操作必须得先请示。getOutputEfficiencySection别说废话代码语言javascriptAI代码解释# Output efficiencyIMPORTANT:Go straight to the point.Try the simplest approach first...Be extra concise.Keep your text output brief and direct.Leadwiththe answer or action,not the reasoning...If you can say itinone sentence,dont use three...拆解直接封杀了大模型的“长篇大论”要求直奔主题能一句话说完就别磨叽。代码语言javascriptAI代码解释每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型2. 靠 Prompt Caching 划清界限想要薅 Anthropic 接口缓存的羊毛前面的提示词就得稳如泰山。一旦命中缓存成本能省掉九成出字速度也飞快。为了这个Claude Code 在架构上做了精密的隔离。在src/constants/prompts.ts里系统专门立了个界碑SYSTEM_PROMPT_DYNAMIC_BOUNDARY。静态保质区稳如老狗放那些几乎不变的规矩比如人设、编码规范。这块内容在多轮对话里一直有效稳稳命中缓存。动态变动区高频更新挡在界碑后面。这里塞的是像 Git 状态、当前的临时笔记、还有随时在变的工具列表。避坑指南对于那些变动特别离谱的变量系统还留了后门比如DANGEROUS_uncachedSystemPromptSection防止它们把上面辛苦攒的静态缓存给冲掉了。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型代码语言javascriptAI代码解释3. 提示词也是分三六九等的不管是正常的终端模式还是专门的后台调度或者是像 ExploreAgent 这种特定分身面对不同场景Claude Code 准备了五套优先级的打法就在src/utils/systemPrompt.ts的buildEffectiveSystemPrompt()里每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型Priority 0 (最高覆盖)这是拿了尚方宝剑的。特殊时刻用它能把之前所有的老规矩全撤了强行让 AI 只听这一条命令。Priority 1 (统筹模式)这就是“大脑”模式。任务太重时不让 AI 直接干活而是让它当指挥官负责拆任务、分派给小弟。Priority 2 (小弟专用)给特定技能的 Agent 准备的。比如专门找 Bug 的分身就会被叮嘱“只许看不许乱改”。Priority 3 (用户自定义)给玩家留的。比如你在启动时喊一句“全程说中文”这类指令就会插在这儿优先级比默认值高。Priority 4 (保底底座)最平常的模式没特殊要求就按这一套来该拼缓存拼缓存该调动态调动态。系统还留了个appendSystemPrompt补丁位专门用来强行塞一些安全补丁。4. 情报搜集网每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型在真正给大模型发请求之前QueryEngine会启动“双轨搜集”模式免得 AI 像瞎子摸象一样乱猜第一条线扒底细系统环境。它会悄悄扫描你的项目把 Git 分支名、最新的提交记录还有你手头那些还没提交的 Diff 摘要全抓出来。这就是为什么你刚改完一行代码它立马就能接上话。第二条线看规矩用户环境。大模型没表所以系统会把精准的时间塞进去。更狠的是它会去找项目根目录下的CLAUDE.md文件。这玩意儿就是你的“私人定制手册”里面的代码风格、命名习惯都会在这个时候喂给模型。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型底层代码通过fetchSystemPromptParts()把这些情报攒齐再按优先级排好序最后打成一个 HTTP 包发给 LLM。总结看完了 Claude Code 的源码你会发现现代化的提示词工程早就不是乱写一通的字符串了。它更像是一个精密的分发系统一方面把职能拆细搞模块化适应各种工作模式另一方面又紧贴底层的缓存机制把死的和活的提示词隔离开。这种既要灵活性又要高性能的做法非常值得咱们在做企业级 AI 工具时抄抄作业。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型

更多文章