AI SDD 开发规范-28-AI 执行复盘与认知演化记录(Post-Execution Learning)
2025/12/27大约 3 分钟
工程级、可直接落地的《AI_EXECUTION_RETROSPECTIVE
它的定位非常清晰:
这是“AI 行为的复盘文档”,不是功能复盘、也不是事故复盘,而是:
用来让整个 AI 编码体系“长期变聪明”的机制。
AI_EXECUTION_RETROSPECTIVE.md
AI 执行复盘与认知演化记录(Post-Execution Learning)
本文档用于在 一次 AI 编码任务完成(无论成功或失败)之后,
对 AI 的理解、决策、执行与 Gate 表现进行系统性复盘,
并将可复用的经验反哺到规则、Snapshot 与 Gate 体系中。
0. 复盘基本信息(Meta)
任务 / 需求编号:
Snapshot ID:
AI 执行时间:
涉及分支 / PR:
最终结果:成功 / 回滚 / 部分接受 / 拒绝1. 本次 AI 执行概览(Execution Summary)
1.1 任务目标回顾
原始目标:
- 解决什么问题
- 不做什么1.2 实际执行结果
最终完成了什么:
- 功能层面
- 技术层面1.3 偏差概述(如有)
是否存在以下情况:
- [ ] 目标理解偏差
- [ ] 执行范围扩大
- [ ] 风险判断失误
- [ ] Gate 后置发现问题2. AI 理解阶段复盘(Context & Understanding)
关注:AI 在“开始写代码前”,哪里理解错了或理解不充分
Snapshot 中是否存在模糊点?
- 是 / 否
如果是,具体是:
AI 是否做了未经授权的假设?
- 是 / 否结论:
这是 Snapshot 的问题 / Prompt 的问题 / AI 行为问题3. 执行期行为复盘(Execution Behavior)
关注:AI 在“写代码过程中”的行为模式
AI 是否严格遵守执行节奏?
- 是否出现一次性大改
- 是否主动中断不确定点
是否出现典型越权行为?
- 顺手优化
- 隐性重构
- 扩大职责4. Gate 表现分析(Gate Effectiveness)
关注:问题是“没被拦住”,还是“拦得太晚”
问题首次被发现在哪一层 Gate?
- Gate 0 / 1 / 2 / 3 / 4
是否存在:
- 本应更早发现,但 Gate 缺失?
- 本应通过,但 Gate 误判?5. 风险与代价复盘(Risk & Cost)
如果该问题进入线上,可能后果:
- 数据风险:
- 业务风险:
- 运维风险:
当前体系是否低估了该风险?
- 是 / 否6. 根因归类(Root Cause Classification)
强烈建议只选 1~2 个主因,避免“什么都是原因”
主因类型(勾选):
- [ ] Snapshot 信息不足
- [ ] 隐性知识未显性化
- [ ] 执行期 Prompt 约束不够
- [ ] Gate 覆盖不足
- [ ] AI 行为不可预测(模型能力问题)7. 可演化改进项(Actionable Learnings)
这是整份文档最重要的部分
7.1 规则级改进
是否需要新增 / 加强规则?
- 新规则描述:
- 生效位置(Snapshot / Execution / Gate):7.2 Snapshot 改进
是否应在 Snapshot 中补充:
- 新的禁止项?
- 新的隐性知识?
- 新的失败不可接受场景?7.3 Gate 改进
是否需要新增 Gate 检查?
- 新 Gate 或新校验项:
- 理想触发时机:8. 是否具备模式复用价值(Pattern Extraction)
这是一次偶发问题,还是可复用模式?
- 偶发 / 可复用
如果可复用:
- 适用场景:
- 可抽象为规则 / 模板 / Prompt?9. 对 AI 信任度的影响(Trust Impact)
本次执行对 AI 信任度的影响:
- 提升 / 不变 / 降低
是否影响未来授权级别?
- 是 / 否10. 最终复盘结论(One-Paragraph Conclusion)
用一句话总结:
本次 AI 执行暴露的核心问题是:
我们将通过 XX 改进,避免其再次发生。附录:体系回流路径(非常重要)
RETROSPECTIVE
↓
规则 / Snapshot / Gate 更新
↓
下一次 AI 执行如果复盘不反哺系统,这份文档没有任何价值。
核心原则(必须牢记)
AI 的失败不是“用错模型”,
而是“系统没有教会它该怕什么”。
