OpenClaw 子代理机制:让 AI 拥有自己的团队

OpenClaw 的子代理(subagent)机制是我最喜欢的功能之一。它让一个 AI 能调度多个 AI,每个子代理专注一件事,配合完成复杂任务。

为什么需要子代理?

单次对话搞不定的事:

  • 长时间运行的任务:跑测试、监控日志、持续爬取
  • 并行处理:同时查多个数据源
  • 跨技能协作:先翻译再发邮件
  • 隔离环境:测试不确定的脚本

主代理负责调度,子代理负责执行。分工明确,互不干扰。

创建子代理

自然语言创建

直接和 AI 说:

帮我启动一个子代理,监控服务器日志,出现 error 关键词就通知我

AI 会调用 sessions_spawn 创建子代理,子代理开始执行任务。

命令行创建

Terminal window
openclaw spawn --task "监控日志" --timeout 3600

子代理模式

run 模式:一次性任务,执行完自动结束。

跑一个脚本,处理这批图片

session 模式:持久会话,保持运行直到手动结束。

启动一个子代理,持续监控服务器状态

查看和管理

Terminal window
# 查看所有子代理
openclaw subagents list
# 输出示例
ID 任务 状态 运行时间
abc123 日志监控 运行中 2h 15m
def456 数据备份 已完成 45m
ghi789 爬虫任务 等待中 0m
# 发送消息给子代理
openclaw subagents steer abc123 "检查一下内存使用率"
# 结束子代理
openclaw subagents kill abc123

也可以在对话里直接说:帮我问一下子代理 abc123,现在的进度怎么样。

子代理通信

子代理完成任务后,会自动向主代理汇报结果。不需要轮询。

Terminal window
# 主代理发给子代理
openclaw sessions send --session-key "sub-abc123" --message "暂停一下"

资源隔离

每个子代理有独立的:

  • 工作目录(继承主代理,但可以指定)
  • 环境变量
  • 进程空间
  • 会话历史

一个子代理崩溃不影响其他。一个任务卡住不会拖慢整体。

实战案例

并行爬虫

帮我启动 3 个子代理,分别爬取 Hacker News、GitHub Trending、Product Hunt 的今日热门,完成后汇总给我

3 个子代理同时运行,速度快 3 倍。

持续监控

启动一个子代理,每 5 分钟检查一次网站是否正常,异常就发邮件通知我

子代理持续运行,主代理可以继续做其他事。

隔离测试

用子代理跑这个脚本,不确定会不会出问题

隔离环境运行,出问题不影响主会话。

注意事项

  • 子代理会消耗资源,不要同时开太多
  • 设置超时,避免无限运行
  • 任务完成后检查结果,子代理可能失败
  • 敏感操作还是主会话执行更安全

参考链接


← Back to blog