OpenClaw
← 返回案例
多Agent记忆隔离模型分配

在单实例内拆出AI团队:记忆隔离+按需扩编

产品经理·任务互不干扰,响应质量提升,Token 成本同步下降

把所有任务都扔给一个 AI 助手,时间长了上下文会越来越乱——写作任务、资讯任务、代码任务互相污染,回复质量明显下滑。这个案例展示了如何在单实例内拆分多个专职 Agent,让每个 Agent 只做一件事。

问题

使用单个 AI 助手处理所有任务,随着对话增长,上下文开始混乱:写作助手被资讯任务的 URL 污染,资讯助手又被写作风格干扰,代码审核被无关讨论稀释。结果是每次任务开始前都要花时间"重置"AI 的状态,效率越来越低。

方案

在同一个 OpenClaw 实例内配置多个 Agent,每个 Agent 独立的工作空间和记忆: ① 写作助手(`personal` Agent):专注长文写作,使用高性能模型(claude-opus-4-6),MEMORY.md 存储写作风格偏好 ② 资讯助手(`news` Agent):负责信息采集和整理,使用轻量模型(claude-haiku)降低成本 ③ 代码助手(`code` Agent):专注代码审核和开发,独立记忆不受其他任务污染

{
  agents: {
    list: [
      {
        id: "writing",
        default: true,
        workspace: "~/.openclaw/workspace-writing",
        model: "anthropic/claude-opus-4-6",
        identity: { name: "写作助手", emoji: "✍️" }
      },
      {
        id: "news",
        workspace: "~/.openclaw/workspace-news",
        model: "anthropic/claude-haiku",
        identity: { name: "资讯助手", emoji: "📰" }
      },
      {
        id: "code",
        workspace: "~/.openclaw/workspace-code",
        model: "anthropic/claude-sonnet-4-5",
        identity: { name: "代码助手", emoji: "💻" }
      }
    ]
  }
}

切换方式

在对话中通过 /model 或直接 @指定 Agent 切换: 发给写作助手:直接发消息(默认) 发给资讯助手:/agent news 或在消息前加 @news 发给代码助手:/agent code 每个 Agent 的记忆完全隔离,切换后无缝继续上次的工作状态。

效果

三个 Agent 各司其职,上下文互不干扰。写作质量稳定提升,因为写作助手的记忆里只有和写作相关的内容。Token 成本下降约 40%,因为资讯采集这类任务改用了更便宜的轻量模型。整体响应速度也提升了,因为每个 Agent 的上下文更干净、更短。