原始标题: I’ve spent 5 BILLION tokens perfecting OpenClaw
发布日期: 2026-02-24 | 来源频道: @matthew_berman
📝 深度摘要
1. 讨论背景与核心主题
本期视频是 Matthew Berman 关于 OpenClaw 深度实战的集大成之作。作为 YouTube 上最活跃的 AI 工具类播主之一,Matthew 在过去一个月内高频使用 OpenClaw,累计消耗超过 50 亿 Token,最终将 OpenClaw 打造成团队的全职员工。视频核心解决了如何将 AI 代理从简单的聊天工具升级为可自主处理业务流、可自动化运维的完整数字员工的元问题。Matthew 首次公开了其沉淀数月的 Prompt 工程心法、CRM 自动化架构、安全防护体系以及成本优化策略,为开发者提供了一套可直接复用的生产级 AI 代理落地范式。
2. 核心干货概览 (Technical Takeaways & Stack)
| 类别 | 名称 | 核心用途 / 技术意义 |
|---|---|---|
| 开源工具/库 | OpenClaw | 开源 AI 代理框架,支持多通道集成(Telegram、Slack、Email),可自定义工具和工作流 |
| Nomic MBED | 本地 embedding 模型,实现零成本的向量化存储与语义搜索 | |
| SQLite + Vector Column | 混合数据库架构,同时支持 SQL 查询和 RAG 语义检索 | |
| Fathom | 会议转录工具,为会议智能提供实时语音转文本能力 | |
| HubSpot | CRM 集成,对接销售管道和联系人管理 | |
| QuickBooks | 财务数据导出,支撑财务追踪与分析功能 | |
| 模型版本/API | Claude Opus 4.6 | 主力模型,处理复杂推理和高价值任务 |
| Claude Sonnet 4.6 | 日常任务主力,具备充足的配额 | |
| Anthropic Agents SDK | 绕过 OOT(O TH)Token 封禁的官方解决方案 | |
| OpenAI Codex | 备用模型选项,可通过 LLM 路由器切换 | |
| 关键技术指标 | 50 亿+ Token 消耗 | Matthew 亲测的规模化使用验证 |
| 100% Cache Hit | 通过 Prompt Caching 实现缓存命中率,降低成本 | |
| 双 Prompt 栈机制 | Claude 与 Codex 分别优化的提示词体系,通过夜间同步保持一致性 | |
| 三重 Prompt 注入防御 | 确定性清理 → 沙箱隔离 → Frontier 模型扫描 |
3. 技术深度拆解与实战 SOP (Technical Deep Dive / SOP)
3.1 邮件自动化处理工作流
环境配置路径:
- 创建专属 Gmail 账户作为 OpenClaw 的企业邮箱
- 配置邮件转发规则,将公开联系邮箱的邮件自动导入
- 设置每 10 分钟轮询一次新邮件
核心工作流逻辑:
- 确定性安全扫描:使用正则表达式和规则引擎检测 Prompt 注入、SQL 注入等已知攻击模式
- 隔离与 Frontier 扫描:将邮件放入沙箱环境,调用最强模型进行二次安全评估
- 评分与分类:根据五维评分卡(匹配度、清晰度、预算、诚意度、公司信任度、成交可能性)综合打分
- CRM 同步:自动更新 HubSpot 阶段,检测管道异动
- 标签与分发:应用 Gmail 标签,高价值邮件推送到 Telegram
评分执行动作:
- 80 分以上(优秀):仅通知团队,不自动执行任何操作
- 高分:通知团队,非紧急可稍后处理
- 中分:自动回复资质审核问题
- 低分:自动发送婉拒模板
3.2 多模型 Prompt 栈管理
问题背景:Claude Opus 和 OpenAI Codex 对提示词的要求截然不同——Claude 反对全大写强调,Codex 则鼓励使用全大写。直接迁移会导致模型表现跳水。
解决方案:
- 根目录维护 Claude 优化版 Prompt(自然语言风格)
- 单独文件夹维护 Codex 优化版 Prompt(全大写风格)
- 每晚执行同步审查:检查两个版本的事实一致性,发现漂移立刻告警
- 模型切换指令:只需说"Swap model",系统自动将目标模型目录提升为根目录
3.3 CRM 与联系人发现管道
架构组成:
- 数据源:Gmail(扫描往来邮件)、日历(提取会议参与者)、Slack(团队沟通记录)
- 过滤规则:自动排除垃圾邮件、营销推广、事件邀请
- 评分卡:根据交互频率、最后联系时间、邮件重要性计算联系人权重
- 主动研究:每日爬取 CRM 中所有公司的最新新闻与公告,存入知识库
核心亮点:当收到新邮件时,OpenClaw 可以跨 CRM、知识库、历史邮件进行关联推理。例如赞助商邮件进来时,它能自动调取之前同类公司的沟通记录,并提供背景摘要。
3.4 会议智能 (Meeting Intelligence)
实现步骤:
- Fathom 实时转录所有内外部会议
- 会议结束后自动拉取 API 获取完整转录文本
- 提取参会人并匹配到 CRM 联系人
- 使用本地 Nomic embedding 模型生成向量,存入数据库
- 判断是否包含行动项:有则推送到 Telegram 审批,无则仅存档
- 行动项自动同步到 To-Doist 和 HubSpot,关联对应商机
3.5 知识库与内容管道
入站流程:
- Telegram 知识库主题或 Slack save 命令触发入库
- 前置检查:内容安全扫描
- 沙箱下载与 Frontier 模型分析
- chunk 切分 + embedding 向量化
- 存入 SQLite 跨Post到 AI trends 频道
- 触发团队通知
视频创意工作流:
- 团队在 Slack 讨论中标记"potential video idea"
- OpenClaw 自动读取完整上下文
- 检索知识库关联内容
- 搜索 X/Twitter 获取热点讨论
- 生成结构化 ASA 卡(含 Hook、Thumbnail、Title)
- 写入 Notion 视频管道项目
- 返回 Slack/Telegram 通知完成
3.6 安全架构(三层防护)
第一层:网络与网关硬化
- Token 认证不直接暴露到公网
- 周心跳验证网关存活状态
第二层:访问控制
- DM 模式:可输出全部敏感信息
- Slack 群组:严格脱敏,阻断敏感数据共享
- 邮件模式:最严格管控
第三层:Prompt 注入防御
- 确定性清理器:检测"ignore previous instructions"等常见注入模式
- Frontier 扫描器:调用最强模型在沙箱中对内容二次审核
- 风险评分卡:对可疑内容进行多维度打分
数据保护:
- 出站重定向:所有输出路径自动脱敏
- PII 清理:确定性规则过滤个人身份信息
- Git 预提交钩子:阻断常见 Key 模式提交
- 数据库加密:备份文件必须解密才可读取
3.7 Cron 任务调度策略
核心原则:将重型任务分散到深夜运行,避免与白天高频使用竞争配额
排程示例:
- 01:00:Instagram 数据采集
- 01:15:X/Twitter 分析
- 01:30:YouTube 数据
- 02:00:CRM 更新
- 03:20:(后续任务)
优化手段:
- 条件触发:仅在收到新数据时才执行同步
- 智能轮询:检测到变化信号后再拉取,而非固定间隔狂call
3.8 通知分级与批量
优先级划分:
- 即时:关键告警、异常错误
- 每小时:CRM 更新、委员会摘要、任务失败
- 每 3 小时:常规更新、非紧急通知
实现方式:所有通知先存入数据库,按优先级和时间窗口聚合,到期后以摘要形式推送到 Telegram
4. 核心干货运用 (Prompts & Configuration)
4.1 双 Prompt 栈切换指令
Set up dual prompt stacks. Root MD files: Claude optimize, natural language, explain why behind the rules. Reference specific guide downloaded. Codeex prompts: create folder, same files across, best practices, all caps. Both stacks must contain identical operational facts. Nightly sync review. Swap commands for switching active model.
4.2 联系人发现管道 Prompt
Contact discovery pipeline. Database. Natural language interface. Relationship intelligence. Daily cron. Email draft system.
4.3 会议行动项提取 Prompt
After meeting ends: pull Fathom API transcript. Match attendees to CRM. Extract insights and action items. Generate context and embeddings. If action items exist, send to Telegram for approval. If approved, sync to To-Doist and HubSpot with deal association.
4.4 Agents SDK 集成代码
// 创建共享的 Anthropic Agents SDK 实例
const agent = await createSharedAnthropicAgentSDK();
// 从环境变量解析 OOT Token
const oothToken = resolveOOTHToken();
// 执行烟雾测试验证连接
await doSmokeTest(oothToken);
// 包装所有 Anthropic 调用:自动重试 + 日志记录
const result = await wrapAnthropicCalls(
async (client) => await client.messages.create({...}),
{ autoRetry: true, logLevel: 'verbose' }
);
// 启用 Prompt Caching
const cachedResult = await agent.messages.create({
model: 'claude-opus-4-6-20251114',
max_tokens: 4096,
system: [{ type: 'text', text: systemPrompt }],
messages: [...],
cache_control: { type: 'ephemeral' }
});
4.5 LLM 路由器配置
// 集中化 LLM 路由层
// 支持:Anthropic Agents SDK、OpenAI Codex、自定义模型
const llmRouter = {
route: async (prompt, options) => {
const model = options.model || 'claude-sonnet-4-6';
const provider = getProvider(model);
return await provider.complete(prompt, options);
},
// 根据任务复杂度自动选型
autoSelect: (taskType) => {
switch(taskType) {
case 'complex_reasoning': return 'opus';
case 'routine_query': return 'sonnet';
case 'fast_response': return 'haiku';
default: return 'sonnet';
}
}
};
4.6 数据分类层级定义
| 层级 | 名称 | 可用渠道 | 包含内容 |
|---|---|---|---|
| 机密 | Confidential | 仅 DM 本人 | 财务数据、CRM 联系人详情、交易金额、日记、个人邮件 |
| 内部 | Internal | 仅团队内部群组 | 战略笔记、委员会建议、工具输出 |
| 受限 | Restricted | 外部仅审批通过 | 通用知识库内容、非敏感信息 |
4.7 备份与恢复流程
备份机制:
- 自动发现数据库文件 → 加密 → 上传到 Google Drive → 记录清单
- 每小时 Git 自动提交:检测文件变更 → 自动提交 → 推送到 GitHub → Telegram 告警
恢复流程:
- 从 Google Drive 下载加密备份
- 解密并读取清单
- 下载源代码
- 按清单重组目录结构
5. 极客洞察与避坑指南 (Geek Insights & Boundary)
5.1 反直觉技术结论
内存问题无需复杂方案:很多人抱怨 OpenClaw 记忆衰退严重,但 Matthew 发现使用默认内存系统配合 Telegram 群组话题(Topics)即可解决。关键在于两点:使用 Topics 缩小上下文范围降低记忆负担;经常使用 /status 命令监控上下文占用,满了就清理。
模型并非越贵越好:Sonnet 4.6 才是日常主力,Opus 仅在复杂推理场景使用。通过模型分层(Tiering),他将成本降低了 60% 以上。
安全防护必须多层叠加:单一防护手段(无论是规则引擎还是单层 AI 扫描)都无法完全阻止 Prompt 注入。必须构建"确定性清理 → 沙箱隔离 → Frontier 扫描"的三层纵深防御。
5.2 适用边界与风险
边界场景:
- 个人生活与工作混用存在数据泄露风险,尽管目前通过规则和分类控制未出现事故,但非确定性系统始终存在边界情况失控的可能
- 财务数据等高度敏感信息仅支持 DM 渠道输出,严禁在群组讨论
已知风险:
- Anthropic 官方封禁 OOT Token 用于非官方产品,但 Agents SDK 被官方豁免,这是当前唯一可靠的绕过方案
- 定时任务如在白天高峰期执行会快速耗尽配额,导致晚间批量任务失败
5.3 实战陷阱
不要一次性赋予全部权限:Matthew 强调自动化是逐步放权的。最开始只让 OpenClaw 读取邮件,后来才逐步开放分类、回复、CRM 更新等权限。每次权限升级都伴随一轮调优。
不要忽视日志:每条错误、每次 LLM 调用、每次外部 API 请求都必须记录。早晨只需一句"查看昨晚日志并修复问题",OpenClaw 就能自动定位并解决 90% 的故障。
不要让通知洪水淹没自己:Telegram 如果不进行通知分级和批量,会变得极其嘈杂且具破坏性。必须实施优先级分类和定时汇总。
不要忽略上下文占用:使用 /status 命令定期检查上下文使用率。89% 已经接近危险区,必须清理或扩容。
6. 金句 (Golden Quotes)
- “我把 OpenClaw 打造成了全职员工,它全天 24 小时不间断地为我工作,而且每天都在变得更强。”
- “Prompt 工程的核心不是写得多漂亮,而是让 AI 真正理解它该在哪里存储信息、在什么时候调用什么工具。”
- “50 亿 Token 的消耗教会我的最重要的一课是:AI 不是魔法,它是一套需要精心设计的系统,而系统的上限取决于你对它的理解深度。”
- “安全从来不是一道单选题,而是层层设防的纵深体系。你可以相信 AI 的能力,但你永远要为它准备好防护网。”
- “我不需要记住每一封邮件的细节,因为 OpenClaw 记得。它不仅记得,它还能把一切关联起来,这才是真正的数字员工。”
- “不要试图一步到位赋予 AI 全部权限。自动化是一场马拉松,每一步都要稳扎稳打,边跑边调整。”
📺 视频原片
视频ID: 3110hx3ygp0