← 返回案例
多Agent记忆隔离模型分配
在单实例内拆出AI团队:记忆隔离+按需扩编
产品经理·任务互不干扰,响应质量提升,Token 成本同步下降
把所有任务都扔给一个 AI 助手,时间长了上下文会越来越乱——写作任务、资讯任务、代码任务互相污染,回复质量明显下滑。这个案例展示了如何在单实例内拆分多个专职 Agent,让每个 Agent 只做一件事。
问题
使用单个 AI 助手处理所有任务,随着对话增长,上下文开始混乱:写作助手被资讯任务的 URL 污染,资讯助手又被写作风格干扰,代码审核被无关讨论稀释。结果是每次任务开始前都要花时间"重置"AI 的状态,效率越来越低。
方案
在同一个 OpenClaw 实例内配置多个 Agent,每个 Agent 独立的工作空间和记忆: ① 写作助手(`personal` Agent):专注长文写作,使用高性能模型(claude-opus-4-6),MEMORY.md 存储写作风格偏好 ② 资讯助手(`news` Agent):负责信息采集和整理,使用轻量模型(claude-haiku)降低成本 ③ 代码助手(`code` Agent):专注代码审核和开发,独立记忆不受其他任务污染
{
agents: {
list: [
{
id: "writing",
default: true,
workspace: "~/.openclaw/workspace-writing",
model: "anthropic/claude-opus-4-6",
identity: { name: "写作助手", emoji: "✍️" }
},
{
id: "news",
workspace: "~/.openclaw/workspace-news",
model: "anthropic/claude-haiku",
identity: { name: "资讯助手", emoji: "📰" }
},
{
id: "code",
workspace: "~/.openclaw/workspace-code",
model: "anthropic/claude-sonnet-4-5",
identity: { name: "代码助手", emoji: "💻" }
}
]
}
}切换方式
在对话中通过 /model 或直接 @指定 Agent 切换: 发给写作助手:直接发消息(默认) 发给资讯助手:/agent news 或在消息前加 @news 发给代码助手:/agent code 每个 Agent 的记忆完全隔离,切换后无缝继续上次的工作状态。
效果
三个 Agent 各司其职,上下文互不干扰。写作质量稳定提升,因为写作助手的记忆里只有和写作相关的内容。Token 成本下降约 40%,因为资讯采集这类任务改用了更便宜的轻量模型。整体响应速度也提升了,因为每个 Agent 的上下文更干净、更短。