Log in to leave a comment
No posts yet
仅仅写好提示词(Prompt)并不能像变魔法一样修复遗留代码。在错综复杂的棕地(Legacy)环境中,AI Agent 遭遇惨败的真正原因并非智力不足,而是上下文污染。当模型存储记忆的上下文窗口堆积了不必要的噪音时,逻辑一致性就会像沙堡一样崩塌。
基于 Transformer 架构的模型性能在上下文利用率超过 40% 到 60% 时会急剧下降。2026 年的今天,业界将此现象称为 AI 垃圾代码(Slop)。这是一种虽然能运行但无法维护,不断产出垃圾代码的现象。如果你正耗费大量时间修改 AI 的生成结果,那么你已不再是开发者,而是沦为了替 AI 收拾残局的“马具工程师(Harness Engineer)”。
视频中提到的摘要仅仅是个开始。在大规模系统中,结构化压缩是必不可少的。这不仅仅是缩短对话长度,而是要利用 LLM 能够最快、最准确解析的 Markdown 层级结构来极度提升信息密度。
实际研究数据表明,应用了 Markdown 格式的提示词比单纯的 JSON 在推理准确度上高出 7.3% 以上。资深架构师通过以下三个要素来控制模型的注意力(Attention)机制:
<context> 标签: 明确当前任务的背景和地面真值(Ground Truth)。<constraint> 标签: 设置硬性护栏,防止模型擅自更改设计。这个压缩过程不应该是手动的。领先的团队会在 Git Hook 或 CI/CD 流水线中嵌入上下文更新脚本。每当 Agent 完成特定阶段并提交(Commit)时,系统会总结变更并记录在 PROGRESS.md 中,随后重置会话。这是一项将模型始终锁定在 40% 以下最佳利用区间的技术。
RPI(Research, Plan, Implement)不仅仅是一个流程图。这是一种隔离策略,通过为每个阶段分配独立的上下文会话来物理拦截噪音。
不要让主 Agent 直接读取数万行的文件。文件扫描是子 Agent 的职责。当子 Agent 翻遍数千个文件并只返回核心逻辑的位置精髓时,主 Agent 就能专注于精准推理,而不会浪费 Token。
在计划阶段,核心不是设定“要做什么”,而是设定**“不做什么(Non-goals)”**。在实现时,应使用 Git Worktree 为 Agent 提供隔离环境,确保其实验不会污染主分支。
| 评价指标 | 应用 RPI 前 | 应用 RPI 后 | 提升指数 |
|---|---|---|---|
| 每个功能实现的缺陷(Bug)数 | 12.5 个 | 3.8 个 | 减少 69.6% |
| 代码审查(CR)通过速度 | 平均 48 小时 | 平均 8 小时 | 提升 83% |
| Agent 独立作业成功率 | 18% | 79% | 提升 338% |
不加节制地将企业核心资产——源代码抛给外部 API 的时代已经结束了。2025 年以后,业界标准是在公司内部基础设施中直接构建像 Llama 3 或 Mistral 这样的开源模型。
这种方式不仅仅是为了安全。它可以节省研究阶段产生的数千美元以上的巨额代码扫描成本。最有效的方案是采用混合架构:由本地 LLM 执行敏感度较低的初步探索,仅在需要高度设计的环节,脱敏处理后委派给高性能闭源模型(如 Claude 3.5 等)。
在一个没有任何文档、已有 10 年历史的支付系统中应用 RPI 框架的结果令人震惊。在 Hibernate 依赖关系极其混乱的环境下,新工程师的入职培训(On-boarding)周期从 90 天缩短至 35 天,降幅达 61%。
这是因为 Agent 在探索各个模块时获得的信息,被压缩成 Markdown 格式的架构指南,作为**活文档(Living Document)**保留在仓库中。这表明 RPI 已超越了个人工具,成为了整个团队的知识传递系统。
2026 年工程团队的竞争力不在于写了多少代码,而在于构建了多么可靠的 Agent 环境。
CLAUDE.md 并编写了核心指南。上下文工程(Context Engineering)是控制人工智能、将你的思考产出放大数万倍的唯一途径。请立即重新设计你的 Agent 环境。