多 Agent 架构上下文传递的 4 种策略

在多 Agent 系统里,上下文怎么传,决定了系统的稳定性上限、成本下限、以及排障时的血压。

最开始,很多团队把它当成「把聊天记录拼一拼」的问题。上线后就会这样的问题:

  • 同样的输入,输出飘得离谱。这里的问题是上下文污染和信息密度不稳定。
  • Token 成本控不住。明明一个任务只需要 10 句关键信息,每次都喂 200 句。
  • 自动化评测很难做。回归集跑出来波动大到没法设阈值,最后只能靠人工验收。

从工程的角度简单定义一下「上下文传递」:在一条多步协作链路里,把下游完成任务所需的信息,以可控成本、可追踪方式送到它面前。这里面有两个关键词:可控可追踪

下面聊下我理解的 4 种主流策略拆解:原理、适用场景、落地细节、坑、性能和效果的取舍。

先定义一下上下文

很多争论的根源是大家说的「上下文」不是一个东西。可以在团队里先把上下文分层,后面所有策略都能对齐。这里我们把「上下文」拆成 4 类:

  1. 任务上下文:当前这一步要干什么,验收标准是什么。
  2. 状态上下文:链路运行到哪了,已经产生了哪些中间产物。
  3. 记忆上下文:用户偏好、历史约束、长期设定,和当前任务不完全同一层级。
  4. 证据上下文:引用了哪些原始材料(文档片段、对话原句、文件、数据库记录),用于追溯和评测。

策略 1:共享状态或黑板模式

这套是 LangGraph、CrewAI 这类框架最常见的默认选项。工程上它像一个「全局状态对象」,也像一个「写满便签的白板」。

机制

  • 所有 Agent 对同一个 State 读写。
  • Agent A 产出结果写入 State 的某个字段。
  • Agent B 读取字段,继续处理,再写回。

如果我们不想把大对象放内存,也可以用文件系统或对象存储做「外置状态」,State 里只放路径和元信息。像 Manus 文章中说的「将文件系统作为存储,直接共享文件系统的路径,渐进式披露」,就是这么个逻辑:把大内容放外面,把指针放 State 里

什么时候用

  • 复杂图流转:有回路、有分支、有重试、有人工介入的链路。
  • 任务跨度长:要做断点续跑、要保留每一步证据,方便回放和审计。
  • 需要可视化排障:一个状态树摆在那,定位问题快很多。

这类场景里,黑板是省心的。我们不用操心「A 怎么把消息发给 B」,大家都围着同一块板子写字。

落地时的坑

坑 1:状态对象会长成「垃圾堆」

共享状态天然会诱导人偷懒:什么都往里塞。结果一周后 State 变成一个混杂体:

  • 当前任务指令
  • 全量聊天记录
  • RAG 检索结果
  • 中间产物全文
  • 模型输出草稿

后果是下游 Agent 读到的信息密度越来越低,注意力越来越散。我们会直观感受到「同一个 Agent,越跑越不稳定」。

共享状态可以用,前提是要给 State 立规矩。规矩不是写在 Confluence 上那种,是写进代码和评测里那种。

常用的做法是给 State 分区,至少三块:

  • 「control」:流程控制字段(步数、路由、重试次数)
  • 「artifacts」:产物指针(文件路径、对象存储 key、哈希)
  • 「capsules」:给 LLM 的上下文胶囊(后面会讲)

State 里尽量少放大段文本,放「引用」和「摘要」。

坑 2:并发写

多 Agent 并行时很容易出现:

  • 两个 Agent 同时更新同一字段,后写覆盖前写。
  • 一个 Agent 基于旧 State 做决策,写回时把别人新写入的字段抹掉。

解决思路按分布式系统处理:

  • 字段级别乐观锁(版本号 / compare-and-swap)
  • append-only 日志字段,避免覆盖(把「更新」变成「追加事件」),Gemini Cli 就是这个逻辑
  • 把「写入」限定为少数字段,其他字段只读

坑 3:评测没法做「输入对齐」

共享状态经常带来一个隐性问题:每次运行 State 的非关键字段变化很大,导致没法保证下游 Agent 的输入一致。回归测试时同一条用例,今天多了两段日志,明天多了一个草稿,指标就会飘。

建议:评测时固定「胶囊输入」,State 可以变,但进入 LLM 的那段上下文要可快照、可对比、可复现。

成本 vs 效果的取舍

  • 效果:流程可扩展,复杂图最好用。
  • 成本:需要治理 State 的 schema、并发、版本、清理策略。
  • 性能:状态越大,序列化 / 反序列化越痛;如果每一步都把 State 发给 LLM,更是直接烧钱。

共享状态是一把大锤。能砸钉子,也能把玻璃砸碎。关键看有没有「状态卫生」这件事。

策略 2:消息传递与直接调用

这套有点像微服务架构:上游把消息打包发给下游,下游处理完再回一个结果。

机制

  • Agent A 产出一个「消息」发给 Agent B。
  • 消息可以走 HTTP、RPC、队列,也可以是框架内的函数调用。
  • 每条消息都应该有明确的结构和版本。

什么时候用

  • 流水线式任务:每一步都很明确,上游输出就是下游输入。
  • 要强可观测性:链路追踪、审计、回放都好做。
  • 团队边界清晰:不同组负责不同 Agent,接口契约能拉齐。

这类场景用消息传递灵活性更强一些,但是如果规模不大,直接单体应用来搞,函数间调用吧。

落地时的坑

坑 1:消息里塞进「全量上下文」

很多团队为了省事,会把上游拿到的所有东西都塞进消息里。看起来省了裁剪逻辑,实际上把问题推给了下游:下游 LLM 要在一堆噪声里找信号。

如果走消息传递,消息必须有「字段语义」。比如:

  • 「task」字段是当前要做的事
  • 「constraints」字段是硬性限制
  • 「evidence」字段是引用(原文片段或路径)
  • 「history」字段如果存在,必须明确是「最近 N 轮且强相关」

这里的关键词是「必须明确」。否则会出现消息看着结构化,内容依然是散装的。

坑 2:接口版本失控

多 Agent 系统迭代快,接口字段会频繁变动。如果经历过一次「某个 Agent 升级后,下游全挂」就会理解版本的重要性。

建议至少做到:

  • 每条消息带「schema_version」
  • 下游支持 1~2 个旧版本的兼容解析
  • 重要字段改动要有灰度期,别全量切

Agent 世界里「prompt 和策略」变化太快,不做版本控制就是赌博。

坑 3:把「LLM 输出」当成接口返回

LLM 输出天然存在幻觉。如果我们直接把自由文本当成 RPC 返回,然后让下游再去解析,事故率会非常高。

有一个简单的方法:固定栏位的轻量输出格式,别一上来就上复杂 schema,也别放任自由发挥。它在工程上有一个很大的价值:解析稳定,回归测试有抓手。

类似于这样:

PROMPT:
...

NEGATIVE:
...

PARAMS:
- aspect: 16:9
- notes: ...

成本 vs 效果的取舍

  • 效果:可追踪性强,调试体验好。
  • 成本:要做接口契约、版本管理、兼容逻辑。
  • 性能:网络开销和序列化开销可控;真正的成本往往来自传了多少无用字段。

如果业务链路更像「微服务编排」,消息传递会比共享状态更干净。

策略 3:上下文压缩与自然语言传递

核心思路:下游 Agent 不该负责考古

把「长历史」变成「短胶囊」,把「噪声」变成「任务卡」,再交给执行 Agent。

机制

上游做三件事:

  1. 从历史里抽取和当前任务强相关的信息
  2. 把冲突的约束做决策或提出澄清问题
  3. 输出一个高密度、可控的自然语言指令

「上下文胶囊(context capsule)」

把给下游 Agent 的输入,固定成一个胶囊,结构大概是:

  • 必须给:任务卡(Planner 压缩/改写后的自然语言描述)
  • 可选给(按需):

    • 最近 N 轮「与任务强相关」的对话原句(最多 3–8 句)
    • 一段「用户偏好/风格记忆」摘要(1–3 句)
  • 坚决不直接给:全量聊天记录(除非做的就是风格延续式创作,而且做了脱敏)

它解决的是「你能不能控制它理解什么」。

示例:

任务卡:生成一张用于电商 banner 的图。主体是一只穿宇航服的柯基站在月球上,远处能看到地球。风格写实摄影,冷色调,高对比,电影感侧逆光。横向 16:9。不要任何文字、logo、血腥或恐怖元素。用户偏好极简、冷色、不要文字。若信息缺失请提 1–3 个澄清问题,否则直接输出可用于生图的 prompt 与 negative prompt。

这段话有几个关键点:

  • 主体、场景、风格、画幅、禁忌、用户偏好都在
  • 有「缺失信息时的行为规则」
  • 不需要表单,依然可评测、可回归

工具描述要写成「契约」

工具描述很重要。

我更喜欢把工具说明写成「契约」,至少包含:

  • 工具支持的参数(prompt / negative / size / seed / style 等)
  • 哪些信息必须出现(画幅、用途、限制)
  • 输出必须遵守的格式(哪怕只有 PROMPT/NEGATIVE/PARAMS)

可能翻车的地方

以一个增强提示词的 Agent 为例

翻车 1:指代延续没被写进任务卡

用户说「按刚才那张风格」「把她换成红裙子」,Planner 如果没有把「刚才那张」总结成可引用的描述,下游增强 Agent 根本无从得知。

补救方式使用「证据上下文」:把关键原句作为 1~3 条引用附在胶囊里。

翻车 2:约束冲突没被处理

用户一会儿要极简纯色,一会儿又要复杂赛博城市场景。Agent 去解决冲突会很糟糕,因为它的职责是「增强表达」,不是「做产品决策」。

冲突要在 Planner 层解决:要么做裁决(按最新指令为准、按用户偏好为准),要么问澄清问题。别把锅甩给执行 Agent。

翻车 3:压缩带来的信息损失

上下文压缩是有损的。 压缩做得越狠,成本越低,翻车概率越高;压缩做得越松,成本越高,稳定性也未必更好,因为噪声会上来。

建议做一个「胶囊长度预算」,按任务类型分档:

  • 低风险任务(格式化、简单问答):胶囊可以短到 200~400 tokens
  • 中风险任务(生成、改写、推理):600~1200 tokens
  • 高风险任务(工具调用、多约束、多回合创作):1200~2000 tokens,再往上就该考虑别的策略了

这样,可以让成本和稳定性可控一些。

成本 vs 效果的取舍

  • 效果:稳定性提升非常明显,Token 成本能压下来,评测也更容易做。
  • 成本:要多一个 Planner/Summarizer 步骤,链路延迟会上升;压缩质量要靠回归集打磨。
  • 工程判断:这套是「多 Agent 真正开始像工程系统」的起点。

策略 4:路由分发与层级管理

如果说策略 3 解决的是「给下游喂什么」,策略 4 解决的是「谁有资格看到什么」。

我喜欢用「最小信息原则」去设计多 Agent:每个 Agent 只拿自己需要的那一部分上下文,别让它看到不该看的东西。

机制

  • 一个 Supervisor(主管)拿到全量上下文。
  • Supervisor 拆任务、选 Agent、裁剪上下文。
  • 子 Agent 只看到被裁剪后的输入,产出结果回传 Supervisor。
  • Supervisor 汇总,决定下一步。

把「路由」和「信息裁剪」集中起来做,能显著减少上下游互相污染。

这本质就是一个主从的逻辑。

什么时候用

  • 权限和合规敏感:有 PII、有商业机密、有分级数据。
  • 子 Agent 职责清晰:比如「检索」「评审」「生成」「合规检查」。
  • 系统要长期维护:人员流动、策略变动、模型替换都很频繁。

层级路由把复杂性收敛到 Supervisor 这一点上。依赖它,也更容易把它做好。

落地时的坑

坑 1:Supervisor 变成性能瓶颈

所有东西都过 Supervisor,它会成为热点:吞吐、延迟、可用性全压在它身上。

解决办法通常有三种:

  • Supervisor 只做「路由与裁剪」,不要在它身上做重推理
  • 对路由做缓存(同一类任务走同一条路径)
  • Supervisor 逻辑尽量确定性,LLM 参与度降低

我见过很多团队把「大脑」写成一个超级 prompt,然后让它既拆任务又生成内容又做审查。这样迟早会蹦。

坑 2:裁剪策略一开始过度依赖「拍脑袋」

裁剪不是凭感觉。裁剪是一套数据工程问题:哪些字段必须给,哪些字段给了会干扰。

用「失败用例驱动」去迭代裁剪:每次线上翻车,都回放当时给子 Agent 的胶囊,问一个很残酷的问题:

  • 该给的没给,是哪一类信息缺失?
  • 不该给的给了,是哪一类噪声触发了跑偏?

把这两类问题沉淀成裁剪规则,会越做越稳。

坑 3:子 Agent 之间产生「隐性耦合」

很多系统表面上是层级的,实际上子 Agent 会通过共享外部资源互相影响,比如:

  • 共用同一个向量库检索空间,检索结果被不同策略污染
  • 共用同一个临时文件目录,路径命名冲突
  • 共用同一个「用户偏好记忆」,写入时缺少版本控制

如果走 Supervisor 模式,「写入边界」会比较重要:哪些 Agent 允许写记忆,哪些只能读;写入要不要审批;写入是否带证据引用。

成本 vs 效果的取舍

  • 效果:稳定性和安全性非常强,复杂系统更容易控住。
  • 成本:Supervisor 设计难度高,容易成为瓶颈;需要更完善的可观测性和回放能力。
  • 工程判断:当开始被「数据泄露」「上下文污染」「责任边界不清」折磨时,Supervisor 往往是解药。

选择策略时,如何判断

可以用四个可执行的问题来选方案:

  1. 谁需要看到全量上下文?谁只需要胶囊?
    如果答案是「大多数都只需要胶囊」,策略 3 和 4 优先级会上来。

  2. 要不要并发?要不要异步?
    需要并发、异步,策略 5 的价值会非常直接。

  3. 失败主要来自哪里:信息缺失,还是噪声过多?
    信息缺失优先补证据引用;噪声过多优先做裁剪和胶囊预算。

  4. 是否真的在做回归评测?
    没有回归,就别指望系统会「越调越稳」。上下文传递策略的好坏,最终都要落在可复现输入上。

小结

不做结构化,并不等于不做「约束与契约」

我见过的高质量落地项目,往往走的是「看起来很自然,实际上约束很硬」的路线。用户体验上像聊天,工程实现上像协议。

如果准备做多 Agent 的上下文传递,至少把三件事落下来:

  • 「上下文胶囊」:任务卡 + 少量强相关原句 + 记忆摘要
  • 「工具契约」:写清楚工具能力边界和必填信息
  • 「受控输出格式」:固定栏位,解析稳定,评测可做

这三件事做完,再谈共享状态、Supervisor、消息传递,才有意义。

以上。

SaaS 已死?AI 当立?

在 AI 编程逛飙的年份,到当前的阶段,能感觉到速度在加快,形式也在不断的迭代,写代码这个事情也变得门槛很低。

X 上有人在讲「AI 让软件开发成本接近零,所以 SaaS 价值也接近零」

美股前段时间也因此大跌了一波,但当前这个价值为零的逻辑还是不成立的。

这里有一个概念混淆:构建软件的成本 vs 拥有软件的成本。AI 主要压低前者,后者还在,甚至在很多公司里变得更贵。

在各种自媒体、AI 编程培训或者博眼球的报道中,「一个下午做出 Linear 替代」「一个周末写完 Stripe 替代」这种话,我不觉得完全是吹牛。用 Claude Code 这类工具,把界面、CRUD、简单流程、甚至一些边角的自动化都拼出来,确实快。

但在做出来的那一刻,资产没增加多少,负债突然多了。尤其是碰钱、碰身份、碰合规、碰客户数据的时候。

以做了一个 Stripe 为例,我把 Vibe Coding 一个周末后,「现在拥有了什么」用更工程的语言翻译一下:

  • 拥有了 规则持续变化 的税务与开票适配:欧盟 VAT、各国电子发票、免税/退税、税率变更、发票作废红冲。
  • 拥有了 审计与认证的对话成本:PCI DSS、SOC 2、ISO 27001、渗透测试报告、供应商安全评估问卷。企业客户要的往往不是「你写得对不对」,是「谁在对这件事负责」。
  • 拥有了 支付与账务的边界条件:拒付、部分退款、重复扣款、汇率、四舍五入、账期、对账差异、资金在途、延迟入账。
  • 拥有了 全球化的坑:货币重估、货币小数位变化、地区性监管、某个国家突然要求强制 3DS、某个渠道突然不支持某种卡组织。
  • 拥有了 数据与权限的事故半径:某个字段脱敏没做好、某个导出接口忘了做权限校验、某个后台操作没有审计日志。
  • 拥有了 7×24 的值班现实:系统降级策略、容量、限流、重试风暴、第三方故障兜底、SLA 与赔付条款。

这些事大概率不是「可能发生」。按行业经验只是早晚问题。自从拥有系统开始,就等于自己签了那张无限期维护合同。

回想一个问题,SaaS 是什么?软件即服务,核心是服务,根本就没有提代码。

很多团队在内部系统上很执着,原因很直接:控制感强、改需求快、看起来省钱。上线半年以后,气氛通常变得不太好:需求排队、线上出过几次事故、业务抱怨响应慢、研发觉得自己在打杂。

这时候再看 SaaS,价值就很清晰了:SaaS 的核心商品是「运营表面积」的转移

代码只是其中一层,除了代码还有:

  • 基础设施与部署:多区域、容灾、备份恢复演练、变更管理。
  • 安全:漏洞扫描、依赖升级、密钥轮换、权限最小化、WAF、DDoS。
  • 合规:隐私条款、数据驻留、审计证据、流程制度落地。
  • 可靠性:监控告警、事故复盘、容量规划、灰度发布、回滚策略。
  • 支持与客户成功:工单、排障、培训、文档、FAQ、升级沟通。

当我们把软件「买回来」自己跑,这些都要自己补齐。很多公司低估的就是这一块。这也是为什么很多公司在 AI 赋能后,「运营表面积」的转移速度要慢于「代码」的转移速度。除非这些对公司不重要,如果这些都不重要, 这个系统可能也不重要了。

从 SaaS 的生命周期来看,AI 提升的是「0 到 1」,然而从成本的角度看,最贵的是「1 到 ∞」

这件事可以拆成两条曲线:

  • vibe coded 工具:初期成本很低,后期成本增长很快。越多人用、越多数据、越多流程依赖,它的「改动风险」和「维护面」指数上升。
  • 成熟 SaaS:初期采购成本看着不低,后期增长更接近线性。因为供应商把大量共性维护摊薄到所有客户身上。

AI 把 0→1 压得更便宜,直觉上会让人误判「买 SaaS 更不划算」。实际情况常常相反:AI 让 1→∞ 更贵了,因为我们会更频繁地改、更大胆地接更多业务进来,系统的负债增长速度被我们自己加速了。

这个成本不仅仅是 SaaS 软件的。

AI 让一个工程师单位时间产出更高,但单位工程小时的机会成本同步上升

至少当前的认知是这样的,可能到终极形态,完成不用人介入的时候,这个机会成本也会消失掉。

那是另一个话题了。

所以我对「AI 让 SaaS 价值归零」的判断是反的:AI 越强,成熟 SaaS 越值钱,前提是它真的把服务做扎实,真的帮我们把运营表面积吃掉。

SaaS 本质上还是一种服务。

如果 SaaS 只是「界面更好看的 CRUD」,那这样的 SaaS 确实会死掉一批。

这些 SaaS 太薄了。

在 AI 时代要想活得更好,SaaS 通常需要如下的一些特征:

  • 规则密度高,正确性要求高
  • 合规与安全负担重
  • 生态变化快,需要持续跟进
  • 故障代价高,客户不想背锅
  • 接口与集成复杂,长期维护吃人

Stripe、WorkOS、Cloudflare 这类产品的共同点很明显:它们难点不在「写出来」,难点在「长期把它跑对」。正确性要靠无数细碎决策堆出来,运营水位要常年拉满。

AI 始终会改写 SaaS,整体逻辑会有一些变化。这里的 AI 改写过程,肯定不是「加一个聊天框」「做一个总结」「做一个生成报表」。

我觉得至少有三个点在当前阶段能快速跟进:

  1. 意图驱动,SaaS 的用户最终都是想通过 SaaS 完成工作,以前靠 UI 引导的,现在可以让用户意图表达,然后把意图落为可审计的操作序列,不管是用 MCP,还是 SKILLS;
  2. 更关注结果,传统 SaaS 交付的是工具,客户负责把工具嵌进流程。AI 让厂商有机会把流程吃进去,直接交付结果,比如「自动完成对账」「自动完成入职」「自动完成工单分流」。关键点在「责任」
  3. 定制方式的迭代,企业客户永远会提定制。以前定制意味着项目制和人力黑洞;AI 让「生成」变得便宜,但不要把生成等同于可维护,可以允许客户用自然语言提出规则,系统把规则编译成可测试、可审计的约束,每次变更都能跑回归校验,出问题能定位到规则版本与变更人。

我们常听到对于自研和购买 SaaS 的一个判断逻辑是:「核心业务自研,非核心买 SaaS」。

这句话太粗,没有啥指导意义。

如下一个判断清单,可以做为决策的一些依据:

适合买 SaaS 的场景

  • 领域合规重:支付、税务、身份、隐私、审计
  • 失败代价高:一出错就上新闻、上法务、上客户群
  • 生态变化快:标准常变、监管常变、攻击手法常变
  • 需要对外背书:企业客户会问「谁负责」「有没有认证」「有没有 SLA」

这种场景自研的隐性成本巨大。AI 再强,也只是让我们更快地把「维护合同」签在自己身上。

适合自研的场景

  • 强差异化:流程就是你的竞争力,外部产品很难贴合
  • 业务规则变化快,且只对内部负责:错了能快速纠正,不会引发合规事故
  • 生命周期短:一个季度就会重构或下线的东西
  • 数据高度敏感,且已经有成熟的数据治理与安全团队

这里自研的价值很实在:迭代速度、贴合度、数据控制。

AI 时代的「自研陷阱」会更隐蔽

以前自研失败,多数死在「做不出来」。现在会死在「做出来以后一路堆债」。

AI 会在早期持续正反馈:

  • 功能做得快
  • Demo 好看
  • 业务觉得爽
  • 老板觉得省钱

债务也在同期累积:

  • 没有威胁建模
  • 没有权限与审计体系
  • 没有数据分级与脱敏
  • 没有灾备演练
  • 没有 SLA 与值班机制
  • 没有供应链安全策略(依赖库、镜像、密钥)

等到系统进入关键路径,会发现自己已经没有退路。再想补课,代价是「停业务」或者「带病重构」。

这也是我反复强调「拥有软件是负债」的原因。负债不会因为 AI 变聪明就消失,它只会增长得更快。

AI 把「做一个能用的软件」变成了常态,把「把软件长期跑对」推成了门槛。薄 SaaS 会被挤压,真正提供服务、背负责任、把运营表面积吃掉的 SaaS,会更值钱。

以上。

AI 编程狂飙的时代,程序员的价值在哪里?该走向何方?

最近新上了 Opus 4.6 ,它又给我们这帮老程序员上了一课。

在一个近一年没有迭代(指没有被封)的程序员群里,有大佬分享了如下的案例:

团队有个复杂遗留系统,典型「多线程 + 历史包袱 + 不敢动」组合。模型先给了一个方案:加锁、等待、条件变量、再加一层保护,几百行代码,逻辑像一团湿毛线。能跑,理论上也对,但你让我把这玩意儿上线?我不敢。

我让它「再想想,能不能避免这些锁和等待」。它又跑了很久,最后给了一个极简方案:之前那些锁啊等待啊都删了,思路干净到让我怀疑它刚才在干嘛。

那一刻我脑子里冒出来的不是「AI 真强」,而是一个更别扭的问题:

我到底起了什么价值?

背景上下文?它从代码库里能 infer 掉绝大多数。设计约束?很多也能从调用关系、线程模型、运行时指标推出来。所谓「design taste」?我甚至可以写成 Markdown 规则让它照做。

过去资深开发的硬价值之一是 reasoning 的过程:拆问题、找不变量、选折中、落地细节。现在模型也能做,还能做得很快。

我绕了一圈,最后落在一个很不体面的结论上:人的价值被压缩到极小概率的「否决权」里

99% 的时候,我是在给 AI 的解「盖萝卜章」:嗯,看起来没错。
剩下那 1% 的时候,我得站出来说:不行,这条路走不通,换解空间里的另一个点。

这个角色像保险。你买的时候就知道大概率用不上,但真出事的时候要能扛住。更像现在的 L2-L4 自动驾驶:人坐在方向盘前,99.9% 的时间无事可做,为了那 0.1% 的「可能发生也可能不发生」。

问题来了:这 1% 会不会也被另一个 agent 替掉?再给一个「专职 reviewer」去 challenge 写代码的 agent,让它把那 1% 找出来。

那人还剩什么?

以及这会把程序员的岗位推向哪里。

很多讨论卡在「AI 写代码快,所以程序员要失业」这种口号里。工程上更真实的变化是两条曲线的剪刀差:

  • 代码生成成本下降得很快:写一段能跑的实现、补齐样板、迁移接口、写单元测试骨架,这些都接近「文本补全」。
  • 承担后果的成本上升:上线事故、性能回退、并发死锁、数据一致性破坏、合规风险、供应链安全。AI 让改动频率变高,系统的「变更面」变大,出事概率跟着涨。

我现在看 AI 产出的 patch,经常有一种荒诞感:
改动本身很漂亮,解释也很漂亮,真正要命的点藏在「系统级不变量」里,而那部分恰好最难被 prompt 描述清楚,也最难被静态检查覆盖。

所以讨论「程序员价值」别从「写代码」切入,从「为系统负责」切入。写代码只是责任链条里最便宜的一环。

聊回到前面大佬分享的案例。

为什么模型会先给「复杂加锁方案」,再给「极简方案」

这不是模型「变聪明了」,更像搜索策略切换。

我自己复盘过很多次类似现象,模型第一次给复杂方案,常见原因有几类:

  • 目标函数不清:模型默认把「不出错」权重大幅拉高,并发问题里,模型的默认倾向是「保守」:能锁就锁,能等就等。因为它无法确认你的系统允不允许重构线程模型,也不知道你能承受多少延迟和吞吐损失。一句「能不能避免」其实是在改目标函数:把「简单性」和「可维护性」的权重抬起来,把「局部可证明正确」的偏好压下去。

  • 它没拿到关键不变量:并发优化的核心不是技巧,是不变量。例如:哪些数据必须线性一致,哪些允许最终一致;哪些操作必须串行化,哪些可以交换;线程间共享状态的「所有权」到底属于谁;是否存在天然的「单 writer」路径。模型第一次通常拿不到这些,它会用锁把未知包起来。你追问一次,相当于逼它去反推不变量,或者提出重构以创造不变量。

  • 在「局部最优」里打转:遗留系统经常有局部约束:你动不了某个模块,改不了调用方,不能引入新队列,不能改变线程亲和性。

人的价值最终会被压到 1%

这事已经发生了。

如果把「写实现」交给模型,人还剩什么?

我现在更愿意把角色拆成四层,分别看哪些会被自动化吃掉:

  1. 执行层:写 CRUD、搬接口、补样板、按规范改文件结构
    这层基本被吃穿。
  2. 局部推理层:读一段代码、定位 bug、做局部重构
    这层大幅被压缩,速度优势在模型。
  3. 系统推理层:跨模块不变量、性能上界、故障模式、发布策略、回滚路径
    这层短期很难完全自动化,原因是信息不完备且目标冲突。
  4. 责任层:线上事故谁背、合规谁签、业务损失谁扛
    这层本质是组织结构问题,不是智能问题。

很多资深工程师过去主要靠第 2 层吃饭:你会拆、会想、会写出「更优雅」的实现。现在模型把这层的边际价值压得很薄,于是人的价值看起来就剩「在模型犯错时否决」。

这就引出一个很工程的问题:能不能用另一个 agent 把「否决」也自动化?

答案是:能覆盖很大一部分,但永远留洞。洞的大小取决于你怎么搭系统。

那 1% 到底是什么:哪些场景必须有人类 override

我现在把「必须 override」的场景分成几类,每一类都对应一套工程信号。我们可以用这些信号去训练 reviewer agent,也可以用来提醒自己别当「只会点 approve 的人」。

  • 需求语义存在空洞,代码再正确也没意义:常见现象: PR 描述是「修复偶现 bug」,但没有可复现条件,没有失败判据;业务方说「按之前逻辑」,但「之前逻辑」存在灰度分支、历史例外。这类问题 AI 很难凭空补齐。它会把空洞当成「默认值」,然后写出一份自洽的实现。你看起来也挑不出毛病,直到线上行为偏了。override 的动作往往不是改代码,而是卡住合并,逼需求补齐验收条件和反例。
  • 系统级不变量被破坏,局部看不出,全局会炸:典型不变量:

    • 计费、库存、资金流的幂等与去重
    • 订单状态机的单向性
    • 写路径单 writer,读路径可并发
    • 缓存一致性策略:写穿、失效、双写窗口
    • SLA 约束下的超时与重试预算

模型能理解这些词,但它很难知道「你们公司真实的不变量是什么」。很多不变量写在事故复盘里,写在某个老同事的脑子里,写在那段「不要动」的注释里。

override 的动作通常是把不变量显式化:写进 ADR(架构决策记录)、写进测试、写进发布 checklist。写完再让模型改。

  • 代价函数冲突:延迟、吞吐、成本、可维护性互相打架这些对尾延迟很要命。你让它「简单化」以后,它可能会走向另一个极端:过度重构,侵入面太大,风险高得离谱。这类冲突靠 prompt 很难一次调对,得靠基准测试 + 真实流量回放。人类 override 的价值在于:你知道线上哪条曲线最敏感,知道预算是多少,知道哪里可以牺牲。

  • 生产环境的「脏现实」:测试覆盖不到 包括但不限于:

  • 时钟漂移、时区、闰秒
  • 依赖服务的抖动、限流、半开连接
  • 数据脏写、历史脏数据格式
  • 热点 key、倾斜分片、长尾用户行为
  • 灰度期间的双版本共存

AI 可以写出很干净的逻辑,干净得像从未上过线。

人类 override 的价值在于:你知道哪些脏东西真实存在,知道一旦触发会损失多少钱。

  • 安全与合规:模型会「帮你越线」

安全问题里最阴的是「看起来像优化」:

  • 为了排查问题把敏感字段打进日志
  • 为了方便把权限校验挪到上层,结果漏掉某些调用路径
  • 为了提高命中率调整缓存 key,结果造成跨租户数据串读

这类问题 reviewer agent 能抓一部分,靠规则匹配和数据流分析。但组织里真正要命的合规约束往往来自外部:合同、监管、审计口径。模型很难内建你们的合同条款。

只留了 1%,那么大公司删人游戏才刚开始,接下来组织会怎么变?有前司裁员了一半。

AI 带来了两件具体的事:

  • 单位时间的变更量上升
  • 对稳定性与合规的要求不会下降

组织会自然把资源往两端挤压:

  • 一端是「产出变更」的能力:更少的人能产出更多 patch
  • 另一端是「控制风险」的能力:测试、发布、SRE、安全、平台工程会更吃香

中间那层「靠手写实现体现资深」的位置,会被挤得很难受。我们会看到更多岗位变成:

  • 平台/工具链负责人
  • 质量与发布工程负责人
  • 架构与技术治理(不变量、规范、依赖治理)
  • 领域负责人(把业务语义写成可执行的约束)

如果还把价值押在「我写得快、我写得优雅」,会被模型直接碾过去。

那我们该何去何从?

我更建议把自己训练成「系统负责人」,别训练成「提示词手艺人」

很多人看到 AI 就去卷 prompt。prompt 当然有用,但它属于「表达能力」,不属于「护城河」。

我更建议把成长路线拆成三条,按你自己的背景选一条主线,另外两条补短板。

路线 A:系统与可靠性(适合后端、架构、TL) 要能回答这些问题:

  • 这个系统的核心不变量是什么?写在哪里?谁维护?
  • 出了事故,最可能的故障模式是哪几类?怎么提前打点?
  • 一次改动上线,回滚点在哪里?数据怎么保证不被写坏?

这条路线的硬技能是:可观测性、故障注入、容量规划、发布治理、数据一致性策略。
AI 会让这条路线更值钱,因为改动变多,风险更高。

路线 B:平台与工具链(适合喜欢搞基建的人) 把「盖章」自动化掉。

要能把下面这些做成产品:

  • 代码生成与改动的规范化输入(任务模板、约束模板)
  • 自动化评审(多 agent + 规则 + 静态分析 + 安全扫描)
  • 针对你们域的测试体系(尤其是并发、回归、流量回放)
  • 一键灰度、一键回滚、发布可视化

这条路线的本质是:把工程经验固化成流水线能力。模型越强,平台越重要。

路线 C:领域语义与业务工程(适合对业务理解深的人) AI 最弱的地方之一是「公司特有的业务语义」。能把语义变成约束,价值就会变硬。

要能做的是:

  • 把业务规则写成状态机与不变量
  • 把验收条件变成测试与监控
  • 把历史例外收敛掉,减少「口口相传」

这条路线听上去不像「技术」,但在 AI 时代,它会决定你是不是不可替代的那批人。

我不押「永远需要人」这种安全说法。我更愿意给一个工程化的判断:

  • 在约束清晰、环境封闭、回滚容易的系统里,人类接管的概率会持续下降。很多内部工具、数据管道、非核心链路会率先做到「几乎无人值守」。
  • 在约束隐含、环境开放、后果昂贵的系统里,1% 会长期存在。典型是资金、合规、核心交易链路、跨组织协作系统。这里的问题从来不只是智能,还包括责任与审计。

更关键的一点:就算模型能覆盖 99.99%,组织也未必允许完全无人。原因很现实:责任链条需要一个签字的人。

我写到这里,还是没法给一个让人舒服的答案。AI 把很多我们曾经引以为傲的能力变成了廉价品,这是事实。难受也正常。

但工程世界一向认结果。模型写得再快,只要系统一炸,组织就会把注意力拉回到「谁能把它跑住」。把自己训练成能跑住系统的人,价值就不会跟着 token 价格一起下跌。

以上。