cross-review 执行规范
目标:调用不同架构的外部 code agent 独立评审同一方案,交叉对比发现盲区。
可用 Agent 列表
| Agent | CLI 命令 | 模型架构 | 关键参数 |
|---|---|---|---|
| Claude | claude -p "{prompt}" | Claude 系列 | --output-format text |
| Codex | codex exec "{prompt}" | GPT 系列 | --full-auto |
| Gemini | gemini -p "{prompt}" | Gemini 系列 | --output-format json |
一、准备 + 分发
-
收集评审上下文:构建完成评审所需的最小充分上下文——被评审对象本身、做出该决策的背景与约束、以及外部 agent 理解问题所必需的依赖信息。不足则主动从代码库/对话历史中补充,而非要求用户提供。
-
推导关注点:根据待评审内容的性质(新功能/修复/重构/安全/性能等),推导本次评审应重点关注的维度,作为用户指定关注点的补充。
-
选择外部 agent:
- 识别自身所属模型架构,从列表中排除同架构 agent。
- 对剩余 agent 执行
command -v {cli}检测可用性。 - 全部不可用 → 提示用户安装,终止。
- 无法确定自身身份 → 列出可用 agent 由用户选择。
-
调用外部 agent(多个可用时并行,超时 120s,失败则跳过并标注):
{cli_command} "{prompt}" {关键参数}- 将评审上下文和关注点内联到 prompt 中,stdout 捕获结果。
- 上下文超长时降级:写入
$TMPDIR/cross-review-<YYYYMMDD-HHMMSS>/context.md,prompt 中引用路径。 - Gemini 推荐非交互命令模板:
gemini -p "{prompt}" --output-format json
二、综合输出
在对话中直接输出:
- 参与 agent(含跳过原因)
- 共识问题(多个 agent 共同指出 → 高优先级)
- 分歧点(仅单个 agent 提出 → 需用户判断)
- 行动建议(按优先级排序)
仅一个外部 agent 可用时跳过交叉对比,直接输出该 agent 结果 + 自身判断。