原始标题: The AI-Native PM Operating System [Live Demo]
发布日期: 2026-02-03 | 来源频道: @growproduct
📝 深度摘要
本视频由产品增长频道growproduct出品,邀请具备AI工具实践经验的嘉宾,现场演示如何构建以Cursor+Claude为中枢的AI原生PM操作系统。嘉宾结合自身实战经历,探讨产品经理在AI时代面临的核心挑战:如何在海量工具和数据中高效获取上下文、串联跨系统工作流。视频旨在回答一个元问题——AI时代的产品经理应如何重新定义工作方式,从繁琐的重复性操作中解放,专注于创造性决策和业务洞察。
1. 核心干货概览(Key Takeaways & Stack)
| 类别 | 名称 | 核心用途 / 战略意义 |
|---|---|---|
| 核心IDE/AI中枢 | Cursor(搭载Claude) | 作为AI原生PM的"操作系统",整合所有工具的工作流中枢 |
| 协议层 | MCP(Model Context Protocol) | 连接AI模型与外部工具(数据库、设计工具、项目管理)的标准化协议 |
| 内容管理系统 | Sanity CMS | 通过MCP实现自然语言查询和编辑,无需手动操作CMS界面 |
| 知识库 | Confluence | 通过Atlassian MCP实现AI驱动的文档检索和需求对比 |
| 设计工具 | Figma | 通过MCP实现设计稿自动解析、状态对比和gap分析 |
| 原型设计 | Google AI Studio | 快速生成可交互原型,支持一键部署到Cloud Run |
| 研究工具 | Perplexity / Musi | AI驱动的上下文收集和深度研究,生成结构化报告 |
| 项目管理 | Linear | AI原生团队协作工具,支持AI Agent直接操作任务流转 |
| 自定义指令 | Claude Custom Instructions | 在项目级别设置上下文提示,确保AI理解当前工作范围 |
| 记忆增强 | Memory MCP | 跨项目长期记忆维护,解决上下文断裂问题 |
2. 深度逻辑拆解(Deep Dive / SOP)
核心挑战
传统PM在工作中面临的核心痛点:多工具频繁切换导致上下文断裂、手动操作CMS/设计工具效率低下、需求文档与实现之间难以快速对比验证。AI原生PM操作系统通过将AI作为中枢,整合所有工具的API能力,实现"一句话完成跨系统操作"的工作流重构。
步进SOP
Step 1: 环境准备与工具连接
具体动作细节:
- 在Cursor中配置项目级别的Custom Instructions,明确当前项目的业务上下文(如:wedding planning app / Media network广告合作项目)
- 安装所需MCP:Sanity MCP、Atlassian MCP(Confluence)、Figma MCP、Linear MCP等
- 每个MCP通过API Key认证后,AI自动获得对应工具的API映射能力
案例:嘉宾在Cursor中展示,当询问"most recent changes"时,Sanity MCP自动查询CMS中的最近变更记录,无需手动登录Sanity Studio。
Step 2: 核心转换——自然语言到API操作
详细描述:
- 用户输入自然语言指令(如"创建一个租车任务")
- Claude通过MCP调用对应工具的API
- API返回结果后,Claude进行自然语言呈现
关键参数:
- MCP配置中包含API Key认证和API映射规则
- 权限控制:读取操作可自动执行,写入操作需用户确认
案例:演示中,嘉宾说"create wedding planning task titled rent a car for your honeymoon",系统自动在Sanity CMS中创建了对应文档。
Step 3: 跨工具联动与知识比对
最终产出物形式:
- 同时调用Confluence MCP + Figma MCP进行需求与设计的双向对比
- AI自动生成gap analysis报告,指出设计稿与需求文档的差异点
案例:演示需求文档中提到"bridesmaid only",而设计稿中实际显示的是"wedding party",AI准确识别出这一差异。
案例/细节支撑
- Linear案例:60%的企业级Linear账户已使用AI Agent;Linear以仅2名PM的团队规模支撑超过10亿美元估值,核心原因是"用Linear构建Linear"
- Google AI Studio案例:团队需要为促销裙子生成万圣节穿搭营销图,10分钟内完成从Prompt到可用的营销素材生成
- Figma Make案例:将Canva生成的静态图片通过"send to Figma Make"转化为可编辑的交互式原型,但嘉宾指出Figma Make目前无法生成可直接用于生产的代码
- MCP记忆功能:使用Memory MCP维护跨项目知识关系,解决长上下文窗口耗尽后的信息丢失问题
3. 核心干货运用(Hard Assets / Prompts)
指令体系设计
Custom Instructions模板(项目级)
项目上下文设置:
- 当前项目:[项目名称]
- 业务类型:[如:婚礼规划应用/电商广告平台]
- 关键目标:[如:MVP发布/功能迭代]
- 差异化需求:[与公司其他项目的区别点]
逻辑注释:在项目级别设置指令而非全局设置,确保AI每次会话开始时自动加载正确的业务上下文,避免跨项目混淆。
MCP查询指令示例
"获取confluence中关于vision board的所有需求文档,并与当前Figma设计进行对比,找出遗漏的功能点"
逻辑注释:复合指令同时调用两个MCP,实现需求文档与设计稿的自动化比对,大幅减少人工对照检查的工作量。
设计原型生成指令
"基于这个静态设计图,生成可交互的原型,包含以下状态的切换:默认态、编辑态、拖拽态"
逻辑注释:将模糊需求拆解为具体状态描述,引导Figma Make生成包含多种交互状态的可编辑原型。
4. PM避坑与实战洞察(Insights & Reflections)
反直觉结论
-
AI不是来"替代"PM的,而是来做"第二大脑"的:嘉宾强调,AI最强大的价值在于"有时候我甚至不会问一个人这个问题,但问AI我不会感到负担"。AI可以承担大量重复性上下文检索工作,让PM聚焦于决策和判断。
-
工具栈应该是"可组合"的,而非固定不变的:根据产品生命周期的不同阶段(探索期→成熟期→迭代期),PM应灵活调整工具使用比例。Figma在设计密集期使用更多,Google AI Studio在原型验证期更高效,Confluence MCP在需求评审期核心。
-
Claude在PM工作中比ChatGPT更可靠:嘉宾指出,Claude在写作质量和对指令的遵循度上表现更稳定,尤其在长文档场景下;而最近两个版本的ChatGPT"变得越来越懒"。
适用边界
- MCP连接有上下文限制:Figma MCP在处理复杂设计文件时会消耗大量Token,需要提供具体的Frame URL而非整个文件
- AI生成的原型无法直接用于生产:Figma Make生成的交互原型质量不足以直接交付开发,需设计师介入优化
- 研究工具存在成本控制问题:Perplexity和Claude的Research模式会快速消耗API配额,建议仅在关键决策点使用
实战陷阱
- 不要在全局设置Custom Instructions:应在项目级别设置,否则多项目切换时AI会混淆上下文
- 不要一次性请求过多MCP联动:多个MCP并行调用会显著增加响应时间,建议分步执行
- 不要完全依赖AI的gap analysis:AI可能遗漏细微差异,需人工复核关键需求点
- MCP权限设置要谨慎:写入类操作(创建文档、提交代码)应设置为需确认,避免AI误操作
5. 金句(Golden Quotes)
- “AI是我的第二大脑。有时候我甚至不会问一个人这个问题,但问AI我不会感到负担。”
- “60%的企业级Linear账户已经在使用这些AI Agent,这就是未来团队的工作方式。”
- “Linear用2个PM支撑超过10亿美元的估值,核心原因是用Linear构建Linear。”
- “我不认为Figma Make能生成可直接用于生产的代码,但它在设计变体生成上非常有价值。”
- “Claude更适合PM工作,因为它在写作和指令遵循上比ChatGPT更可靠。”
- “你的工具栈应该是可组合的,根据产品生命周期的不同阶段灵活调整,而不是一成不变。”
- “我已经这样做了一年多,我现在对这种操作系统概念的连接方式有了更深的理解。”
总结
本视频通过完整的Live Demo展示了AI原生PM操作系统的实际工作形态。核心架构以Cursor+Claude为中枢,通过MCP协议连接Sanity CMS、Confluence、Figma、Google AI Studio、Linear等工具,实现从需求管理、设计协作、原型生成到代码编写的全链路AI辅助。嘉宾强调,这套系统的核心价值不在于"让AI替代人",而在于"让AI承担上下文检索和重复操作,让PM聚焦于真正需要判断力的决策"。
📺 视频原片
视频ID: 1C0daBcDBig