四个 Claude 同屏给我打工:Agent Team 上手指南
May 7th, 2026

四个 Claude 同屏并行打工,是什么体验?
Agent Team 这个功能我之前就听说过,但一直没动手,因为 Pro 套餐的用量根本撑不住。最近换了 Max 之后终于有机会试了。
之前看到过几个让我印象很深的案例:Anthropic 自己用 16 个 agent 跑了两周,写出了一个能编译 Linux 内核的 Rust C 编译器;还有个人开发者用 4 个角色的 Agent Team 花 4 周把一个 3 万行的 Go 项目移植成了 Rust。看完就一直想试。
试了一段时间之后,效果确实不错,但也不是无脑用就好了,有些坑还是得踩过才知道。
Agent Team 是什么
Agent Team 让你同时跑多个 Claude Code 实例,组成一个团队一起干活。
你启动的第一个会话是队长(Team Lead),负责分任务、汇总结果。队长可以派出队友(Teammates),每个队友是独立的 Claude Code 实例,有自己的上下文窗口,互相之间可以直接发消息,不用经过队长中转。
跟 Sub Agent 什么区别?Sub Agent 干完活把结果交回来就散了,队友之间不说话。Agent Team 的队友是长期在线的,能互相发消息、自己认领任务,更像一个真的团队。
下面这张图能看得比较清楚:

开启 Agent Team
启用过程很简单,两步。
第一步:在 settings.json 中加配置
打开 ~/.claude/settings.json,加入下面这条环境变量:
{
"env": {
"CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
}
}
保存,重启 Claude Code。
第二步:用一段 prompt 调起团队
直接用自然语言描述任务就行,Claude 会自己决定派几个队友、分别什么角色。两个例子:
我在设计一个 CLI 工具,用来追踪代码库里所有 TODO 注释。组建一个 Agent Team 从不同角度探索这个想法:一个队友研究 UX、一个研究技术架构、一个唱反调。
帮我组建一个 Agent Team 审查 PR #142,派出三个审查员:一个专注安全风险、一个专注性能影响、一个专注测试覆盖率。各自审完后汇总发现。
想精确控制的话,也可以在 prompt 里直接写"派出 4 个队友,每个用 Sonnet 模型"。
配置 tmux 分屏
Agent Team 默认把所有队友挤在一个窗口里轮着看,装了 tmux 之后可以分屏,每个队友独占一块,同时可见。推荐分屏。
安装 tmux(macOS):
brew install tmux
编辑 ~/.tmux.conf,加上鼠标支持,不然 tmux 默认只能用键盘操作:
set -g mouse on
set -g focus-events on
装好后重启 Agent Team,会自动切到分屏视图。

最佳实践
团队规模 3-5 人就够了
我自己试下来,3-5 个队友是比较舒服的范围。再多的话协调开销会很明显,Token 也烧得快,产出反而不一定更好。
模型分级使用
这条来自 Mihomo 作者的实战经验,我自己没试过,但觉得思路很对:Opus 给架构师做技术决策,Sonnet 给工程师写代码,Haiku 给 QA 跑测试。用量不大的时候全上 Opus 也行,但如果你开的队友多、任务重,分级确实能省不少成本。
CLAUDE.md 写精简,别塞太多
CLAUDE.md 只放最关键的项目上下文就好,内容多了反而干扰 agent 判断。详细的规范和参考资料拆到 specs 或 docs 目录里,让 agent 按需加载。
权限配置:建议直接开 Auto 或 Dangerous 模式
多个队友同时跑的时候,权限弹窗会非常频繁,每个队友都要单独授权,很快就把你逼疯了。如果你用的是 Opus 4.7,建议直接开 Auto 模式,或者干脆用 --dangerously-skip-permissions 跑。当然前提是你信任当前的代码库和任务范围。
如果不想这么激进,也可以在 .claude/settings.json 的 permissions.allow[] 里提前把常见操作加进白名单。
长时间运行的循环任务
这个是我觉得 Agent Team 最有意思的用法。
我有一套重复性很强的开发流程:先让 AI 找一个最值得做的工具,然后设计方案,设计完开发,开发完测试,最后整体检查一遍。以前每一步都要我手动盯着,做完一步再告诉它下一步干什么。有了 Agent Team 之后,队友之间自己交接,整套流程自动跑完。文章开头那张截图就是这个场景。
配合 /loop 效果更好。调研阶段设循环 3 次,开发阶段设循环 5 次,开起来之后我就去睡觉了,第二天起来验收。
代码重构也是一样。让 AI 找需要重构的地方,一次大概能提 3 到 5 个点,但实际远不止这些,得反复来。Agent Team 加 /loop,找到问题、改掉、跑测试,一轮完了自动进下一轮。
最后
Agent Team 比较适合这几类场景:
- 并行审查:几个队友分别从安全、性能、测试覆盖等角度同时审查同一个 PR
- 新模块开发:每个队友各负责一个独立模块,文件边界清晰,互不干扰
- 竞争假设调试:调试棘手 bug 时让多个队友追查不同假设,并行验证
- 跨层协调:前端、后端、测试各由不同队友负责,互相协商接口
- 长时间循环任务:开发、测试、重构这类需要反复迭代的流程,配合
/loop自动跑
如果你觉得这篇文章对你有帮助,欢迎点赞、分享,你的支持是我持续创作的最大动力!