原始标题: How to Run OpenCode Inside an Autonomous Claude Code AI Agent

发布日期: 2026-02-15 | 来源频道: @AllAboutAI

📝 深度摘要

AI 智能体架构与自主开发实战笔记

1. 对话背景与核心主题

本视频的核心主题是如何在 Claude Code 智能体内部运行 OpenCode,并构建一套全自动化的 LLM 基准测试流水线。博主是一位专注于 AI 智能体开发的 YouTuber,其 AI 代理运行在一台独立的 Mac Mini 上实现了 24/7 无人值守运行。本次实战演示的核心元问题是:如何让 Claude Code 能够调用 OpenCode 的 CLI 工具,在不同的 LLM 模型之间进行并行基准测试,并自动生成可视化视频发布到社交媒体。

2. 核心干货概览

类别 名称 核心用途 / 技术意义
核心 AI 代理 Claude Code 作为主控智能体,运行在 Mac Mini 上,负责调度任务、调用 CLI、执行自动化流程
自动化/触发工具 Claude Code CLI + OpenCode CLI 通过 bash 命令实现 OpenCode 的远程调用,支持模型切换与并行执行
集成技能/MCP OpenCode Test Skill + Remotion Skill 扩展 Claude Code 的外部操作能力,实现多模型并行测试与视频生成
模型路由层 Open Router 统一接入多个 LLM 提供商(GLM5、Gemini 3 Pro、Claude Opus 4.6、Minimax 2.5),支持模型热切换
视频生成 Remotion 将 HTML 输出自动转换为网格布局的对比视频

3. 智能体架构与 SOP

环境搭建与初始化

第一步:获取 OpenCode CLI 文档。 博主直接访问 OpenCode 官方文档中的 CLI 章节,提取所有可用 flags。他将文档保存为 open-code.md 文件,供 Claude Code 读取参考。关键发现是 OpenCode 提供了一个 run 命令,可以通过 CLI 方式指定模型提供商和模型名称执行任务。

第二步:配置 Open Router API Key。 博主已在浏览器中登录 OpenCode,并预先配置了 Open Router API Key。这一步是实现多模型切换的前提——通过 Open Router 作为统一网关,可以访问 GLM、Gemini、Claude、Minimax 等多种模型。

第三步:编写测试 Prompt。 博主教 Claude Code 读取文档后,给出了第一个测试任务:使用 Open Router 的 GLM 模型运行一个简单问题:“Should I walk or drive to the car wash? It’s 50m away.”

自主运行逻辑链

命令格式发现: Claude Code 通过阅读文档自主推断出正确的 CLI 调用格式为:opencod run -m <provider/model> "<prompt>"。实际测试中,GLM 模型返回"应该走路去",而 Gemini 3 Pro 返回"必须开车去,因为洗车时车不能留在原地"——这验证了不同模型对同一问题的推理差异。

技能封装: 在验证 CLI 调用成功后,博主立即指示 Claude Code 将这一工作流封装为可复用的 Skill。创建 skills/open-code-test/skill.md,定义工作流:使用 Open Router 运行不同模型的 Prompt 测试,支持并行执行多个模型。

实战案例还原

完整流水线演示:

  1. 多模型并行测试:指定四个模型(GLM5、Minimax 2.5、Gemini 3 Pro、Claude Opus 4.6),使用相同的创意 Prompt:“Create a single HTML file with a full screen animated retro arcade space battle scene”
  2. 输出文件命名规范task-model@llmtest/[email protected],格式为 任务名-模型名.html
  3. Remotion 视频生成:调用已有的 Remotion Skill,将四个 HTML 文件合成为网格布局的对比视频
  4. X 平台自动发布:通过浏览器自动化控制,创建包含视频和文案的新帖子草稿

博主在视频中完成了完整的端到端演示:从下达任务指令,到并行执行四个模型的 HTML 生成,再到视频合成,最终生成可发布的社交媒体内容。整个过程 Claude Code 均自主完成,无需人工干预。

细节支撑

运行成本与效率: 博主提到在视频发布时,其 AI 代理已经运行了约 12-13 天,正在进行"四周实验"计划。这意味着系统已经具备长期无人值守运行的能力。视频中展示的 15 秒对比视频包含四个模型的完整渲染,展示了并行执行的高效性。

4. 核心执行资产

指令集还原

# OpenCode CLI 调用格式
opencod run -m <provider/model> "<prompt>"

# 示例:使用 Open Router 的 GLM 模型
opencod run -m "openrouter/google/gemini-2.0-flash-exp" "Should I walk or drive to the car wash?"

# 并行执行多个模型(Claude Code 自动调度)
# 在 skill.md 中定义模型列表后,Claude Code 会使用 bash 并行执行

系统提示词策略

博主使用的核心 Prompt 策略是文档驱动+任务封装

  1. 文档获取 Prompt:“Read the documentation we just fetched. Find a way to run OpenCode with a set model and a prompt from Claude Code.”
  2. 技能创建 Prompt:“Create a cloud skill under skills/open-code-test/skill.md. Add the workflow to run different models from Open Router to test prompts. This means we can run models in parallel with the same prompt for testing.”
  3. 完整测试 Prompt:“Test this on GLM 5, Minimax 2.5, Gemini 3 Pro, and Opus 4.6. Look up the model names beforehand to get it correct. Run in parallel.”

这种策略的本质是让 AI 自己读文档、自己推理、自己封装,而不是人工预先写好完整的技能脚本。

5. 开发者进阶洞察

Vibe Coding 核心心法

博主在本次演示中展现的核心理念是**“AI 教 AI”**——不直接编写代码,而是给 Claude Code 一个目标(如"让代理能运行 OpenCode 进行多模型测试"),再提供必要的文档资源,让它自主探索、试错、封装。这种方式的本质是将"如何做"的知识沉淀到 Skill 中,而人类只需要定义"做什么"。

自主性风险预警

潜在风险点:

  1. 死循环风险:当多个模型并行执行且某个模型响应异常时,可能导致任务无限等待
  2. 成本失控:Open Router 按调用计费,多模型并行测试的 API 消耗需要监控
  3. 浏览器自动化陷阱:视频中博主特别提到"不要点击发布按钮",仅创建草稿——这说明 AI 自主控制浏览器时需要设置安全边界,防止意外执行不可逆操作

实战陷阱

博主明确指出:在构建"自动化六位数工作流"(即高价值自动化任务)时,必须对 AI 的操作范围进行严格限制。例如在 X 平台发帖场景中,AI 可以完成"生成内容、创建草稿"的全流程,但在"点击发布"这一步需要人工确认——这是避免社交媒体事故的关键安全阀。

6. 金句

“我们给四个 LLM 相同的 Prompt,让它们各自创建一个复古街机太空游戏 Demo 单页 HTML。这就是我们如何直观地对比不同模型的创造力——GLM 5、Minimax 2.5、Gemini 3 Pro 和 Claude Opus 的表现一览无余。”

“Claude Code 可以通过 Open Router 运行 OpenCode,设置不同的模型,并用相同的 Prompt 并行执行——我们以一种极其直观的方式获得了所有输出。这套自动化设置太棒了,每次有新模型发布,我们都可以直接运行创意 HTML 测试,然后轻松分享结果。”


📺 视频原片


视频ID: oG0jmaIlL1w