同一个模型,不同的 Harness ,SWE-bench 上差了 17 题。当模型能力趋于同质化,真正决定 AI Agent 表现上限的,不是它有多聪明,而是它被放在什么样的环境里工作。
2026 年,AI 工程领域达成了一个共识:Harness 比模型重要。Claude Code 、Codex 、Cursor 已经为 agent 构建了成熟的代码执行 harness 。但当 agent 从"写一个函数"升级到"做一个项目",它还缺一层东西——一个覆盖从想法细化到任务验收的项目管理 harness。
这篇文章聊两件事:为什么 harness 已经成为 agent 表现的决定性因素,以及 Chorus( https://github.com/Chorus-AIDLC/Chorus) 在这个方向上的实践——如何让 agent 拥有完整的迭代环境,而不只是一个代码编辑器。
2026 年初,一组 SWE-bench Verified 的评测数据引起了广泛讨论:Augment 、Cursor 、Claude Code 三个产品,都跑的 Claude Opus 4.5 ,731 道题,成绩差了 17 题。
模型完全一样。差异来自哪里?Harness——包裹在模型外面的那层系统:工具定义、上下文管理、错误恢复、验证循环、子任务编排。
这不是个例。整个行业都在讲同一个故事:模型是 CPU ,Harness 是操作系统。没有操作系统,CPU 再快也只是一块芯片。
| 阶段 | 时间 | 核心问题 |
|---|---|---|
| Prompt Engineering | 2022–2024 | 怎么写好一条指令 |
| Context Engineering | 2025 | 怎么策展所有相关信息( RAG 、Memory 、工具描述) |
| Harness Engineering | 2026 | 怎么设计环境、约束和反馈循环 |
Mitchell Hashimoto ( HashiCorp 创始人)在 2026 年 2 月首次明确了"Harness Engineering"这个概念:
"Every time the agent makes a mistake, don't just hope it does better next time. Engineer the environment so it can't make that specific mistake the same way again."
每次 agent 犯错,不要寄希望于"下次做对"。改造环境,让它不可能再用同样的方式犯错。
这句话精准地定义了 harness 的本质:不是教 agent 做什么,而是让环境保证 agent 只能做对的事。
2026 年 2 月起,这个认知从个人观点变成了行业共识——而且大家从不同方向抵达了同一个终点。
有人关注可靠性:OpenAI 用 Codex agent 从空 repo 构建完整产品,零行人写代码,发现 harness 的工程设计决定了 agent 能否长时间可靠运行。有人关注学科定位:Martin Fowler 撰文将 Harness Engineering 定位为软件工程实践的新分支——不是 AI 研究的分支,是工程实践的分支。有人关注评估能力:Anthropic 提出 GAN 式 Generator/Evaluator 架构,核心发现是模型不能可靠地评估自己的工作,必须由 harness 提供外部验证环。
还有人把话说得更绝。Stripe 的 Minions 团队——"The Walls Matter More Than the Model",围墙比引擎重要。Philipp Schmid 从数据视角补了一刀——"The Harness is the Dataset",harness 捕获的工作轨迹本身就是竞争壁垒。
"2025 Was Agents. 2026 Is Agent Harnesses." — Aakash Gupta
GitHub 上甚至已经有了专门的 awesome-agent-harness 合集( https://github.com/AutoJunjie/awesome-agent-harness),收录各家关于 harness 的文章、工具和实践。
当前主流的 agent harness 都聚焦在代码执行层:
Claude Code 构建了最完整的六层架构:
Codex 走的是云沙箱路线:
Cursor 是 IDE 原生集成:
这些 harness 各有所长,但解决的问题是同一类:agent 怎么写代码。包括怎么读文件、怎么调工具、怎么跑测试、出错了怎么恢复、上下文满了怎么压缩。
当 agent 从单任务(修一个 bug )升级到多任务(做一个 feature ),从单 agent 升级到多 agent 团队协作,代码级 harness 就不够用了。
缺失的环节:
类比一下:现有的 harness 给了 agent 一个配置齐全的工位——双屏显示器、机械键盘、IDE 全装好。但没有给它一个项目部——没有需求评审、没有任务看板、没有 Sprint 节奏、没有验收标准。
Agent 知道怎么敲键盘,但不知道为什么敲、敲完给谁看、下一步做什么。
Chorus 的定位不是替代 Claude Code 或 Codex——它在这些代码级 harness 之上,提供项目级 harness,让 agent 拥有从想法到验收的完整迭代环。
| 阶段 | 谁在做 | 做什么 |
|---|---|---|
| Idea | 人类 | 抛出一个想法,可以很粗糙 |
| Elaboration | PM Agent → 人类 | AI 不直接开干,而是向人类提问:"目标用户规模?""需要离线支持吗?"人类回答,AI 验证自洽性,有矛盾就追问,直到共识 |
| Proposal | PM Agent | 产出文档草案 + 任务依赖图( DAG ) |
| Approval | Admin / 人类 | 审批方案,通过后任务才实体化 |
| Execute | Developer Agent | 认领任务,在 Claude Code 中执行,自检验收标准后提交 |
| Verify | Admin / 人类 | 逐条验证验收标准,通过或打回。下游任务自动 unblock ,下一波开始 |
这不是一个"任务管理看板"。这是一个让 agent 知道自己在整个项目中处于什么位置的运行时环境。
每个阶段的边界都是 harness 级别的约束,不是"建议 agent 遵守的最佳实践":
这就是 Hashimoto 说的那件事:不是教 agent "你应该先理解需求再动手"——环境保证了它必须先理解需求才能动手。
传统工作流的信息流向是单向的:
人写 Prompt → AI 执行 → 人检查结果 → 不满意改 Prompt → AI 重来
这个模式的致命问题:agent 在错误的理解上高效执行。它可能写了 500 行完美的代码,但解决的是错误的问题。然后你改 prompt 让它重来,它又写了 500 行完美的代码,解决的是另一个错误的问题。
Chorus 的 Elaboration 机制反转了对话方向:
人提想法 → AI 提问 → 人回答 → AI 验证答案自洽性 → 有矛盾就追问 → 共识 → 再开干
PM Agent 读完一个 Idea 后,不是直接开干,而是生成一组结构化问题。比如人说"我要用户认证",PM 会问:
如果人回答了"需要离线支持"但又说"要实时同步",PM 会追问——因为这两个需求在某些场景下是矛盾的。
Harness 的价值不只是"让 agent 做得快",更是"让 agent 做对的事"。Elaboration 是 Chorus 在 harness 层面对需求质量的保障:不是靠 agent 的"理解力",而是靠结构化问答的流程约束。
当一个 Proposal 产出 8 个任务、3 层依赖时,Chorus 构建 Task DAG (有向无环图),并用 Wave 模型管理执行节奏:
Wave 1: [Task A] [Task B] [Task C] ← 无依赖,可并行
↓ ↓
Wave 2: [Task D] [Task E] ← 依赖 Wave 1 的任务
↓
Wave 3: [Task F] ← 依赖 Task E
关键设计决策:不是在执行时强制阻塞,而是在验证时卡住——上游没验收,下游就不会开放。
这正是 Stripe 说的 "The Walls Matter More Than the Model":DAG 就是墙。Agent 不需要"理解"依赖关系——环境本身阻止了乱序执行。
Anthropic 的工程博客指出:模型不能可靠地评估自己的工作。这是他们提出 GAN 式 Generator/Evaluator 架构的核心前提。
Chorus 在项目层面实现了这个原则:
Agent 说"做完了",和 Admin 验证过"确实做完了",是两件完全不同的事。Chorus 把这个区分编码成了 harness 的一部分,不依赖任何人"记得去检查"。
回到最初的问题:行业已经证明 harness 比模型重要。SWE-bench 17 题的差距,来自代码执行层的 harness 差异。
那在项目层面呢?
想象一下:10 个能力相同的 agent 组成一个团队。一组在没有项目 harness 的情况下协作——Team Lead 用自然语言分配任务,agent 自己决定执行顺序,做完自己汇报,没有验收环节。另一组使用项目 harness——需求经过结构化细化,任务按 DAG 编排,执行有 session 追踪,完成有验收闭环。
哪组的产出更可靠?
人类软件团队几十年的工程实践早就给出了答案:个人能力 × 协作效率 = 团队产出。再优秀的工程师,在没有 Jira/Linear 、没有 Sprint 、没有 Code Review 的环境里远程协作,也会陷入混乱。
Agent 团队没有理由例外。Chorus 做的事情,本质上就是给 agent 团队一个 agent-native 的 Jira——不是把人类的项目管理工具套在 agent 身上,而是从 agent 的工作方式出发,重新设计需求细化、任务编排和验收闭环。
代码级 harness 解决了 **"每个 agent 单独工作时的表现"**。项目级 harness 解决了 **"一群 agent 一起工作时的表现"**。前者的价值已被 SWE-bench 证实,后者的价值只会更大——因为协作的复杂度远高于单任务执行。
"2025 Was Agents. 2026 Is Agent Harnesses." — Aakash Gupta
这句话需要一个补充:
2026 年的 Harness Engineering 有两层。第一层是代码级 harness——Claude Code 、Codex 、Cursor 已经做得很好。第二层是项目级 harness——从想法细化到任务验收的完整迭代环境——这是正在被填补的空白。
| 层次 | 解决的问题 | 代表 |
|---|---|---|
| 代码级 Harness | Agent 怎么写代码 | Claude Code, Codex, Cursor |
| 项目级 Harness | Agent 怎么做项目 | Chorus |
两层结合,agent 才拥有完整的工作环境:知道做什么( Idea + Elaboration )、怎么做( Code Harness )、做完给谁看( Verify )、下一步是什么( DAG unblock )。
当模型能力越来越强、越来越同质化,决定 agent 上限的不再是它有多聪明,而是它被放在什么样的环境里工作。
Harness 不是辅助。Harness 是上限。
1
sillydaddy 14 小时 49 分钟前
这类工具看得眼花缭乱了。我有几个直接的问题:
1 是 memory 怎么解决的?没看到。想要真正把一个 agent 看作一个员工,那 memory 就是至关重要的。openclaw 起码有把 memory 当作一个核心组件,有默认的 memory ,也可以自定义 memory ,那我为什么不用 openclaw 作为 agent 呢?它相比于你的设计,就是少了一些前端 Agent 状态的展示吧,这并不难吧,因为后台的所有数据都在。 2 是你是在用 DRG 有向图来约束流程,并把这个作为一个核心卖点,但这似乎完全背离了「 Agent 是智能体」的预设。我为什么不用简单的几句提示词约束,来实现对 Agent 流程的约束呢? |
2
sillydaddy 14 小时 47 分钟前
说 memory 非常重要,是因为长程(跨越几周或几个月)的工作,是依赖很多前面的对话的,讨论过哪些重点,踩过哪些坑,上次的 commit 为什么这么提交,等等等等。
|
3
sillydaddy 14 小时 33 分钟前
目前我在探索 harness 编程。核心的注意力关注在:
一是怎么构建 human in loop: 1.我可以随时发布新需求,新想法,Agent 团队会自主消化这个需求,想法,有问题会提出,有矛盾会指出。 2.我可以随时请求 Agent 给我汇报最新的进展,且是高度验证过的进展。 3.Agent 以人类友好的形式,定时给我汇报功能进展,向我反馈关键的问题、请求。我打对勾,填写意见表即可。比如已实现的功能以方便人浏览的视频形式展示(类似 cursor 的 cloud agent )。 4.我只确认核心的决策、需求,Agent 团队保持较高的审美和架构水准。那些低端的验证、交互,Agent 团队可以自己搞定,不用麻烦我。 二是怎么异步长程工作: 1.我随时打断 Agent 向其提出需求,指出问题,不用担心之前的任务。 2.任务以队列形式被 Agent 团队消化吸收,自主安排优先级,自主意识到功能依赖关系和冲突关系。 3.Agent 团队可以自主消化设计、测试、调试,且保持较高的审美和水准,不用让这些烦扰我。也就是说能根据我比较抽象的原则和要求,调整其设计。比如「 UI 要非常方便交互」,减少交互步骤数量。Agent 团队能理解这个精神,并检查其中的交互问题,向给我报告其中疑问比较大的。 |
4
Hermitist 12 小时 47 分钟前
@sillydaddy 现在 openclaw 有记忆 skill 了, 某些大模型上下文已经很恐怖了,足够多的上下文+memory 应该可以解决很多问题, 随着硬件或者算法进化, 也许一个大模型就能装下足够多的上下文也不一定呢.
|
5
sillydaddy 12 小时 29 分钟前
@Hermitist openclaw 本身就有记忆模块的。我理解的是包括单 agent 记忆隔离+所有 session 的记忆+记忆的 RAG 搜索。还可以定制 memory 模块。
所以,我准备用 openclaw 作为 agent 的外壳或者调度者,去调用 Claude Code 或者 Cursor 这样的编程 Agent 。 我看了,Claude Code ,它有一个 auto memory ,这个 auto 的意思是,它自己决定哪些是要记忆的,哪些可能未来会用到,所以它是个黑盒,这意味着,长程工作中,它可能不是那么有效。我更喜欢 openclaw 这种,带有记忆检索的。 |
6
Alex6 12 小时 13 分钟前
让大模型在敏捷迭代管理下工作
|
7
ChevalierLxc 12 小时 0 分钟前
先点赞再说
|
8
kenshinhu 11 小时 55 分钟前
这个是否在 manus 上的输出物?可否增加入輸入源,这个可以更清楚作者和 Agent 之后的思考过程
|
9
yrom 11 小时 30 分钟前
|
10
Chuckle 8 小时 24 分钟前
和 spec 驱动差不多?
|