原始标题: The AI-Native PM Operating System [Live Demo]

发布日期: 2026-02-03 | 来源频道: @growproduct

📝 深度摘要

本视频由产品增长频道growproduct出品,邀请具备AI工具实践经验的嘉宾,现场演示如何构建以Cursor+Claude为中枢的AI原生PM操作系统。嘉宾结合自身实战经历,探讨产品经理在AI时代面临的核心挑战:如何在海量工具和数据中高效获取上下文、串联跨系统工作流。视频旨在回答一个元问题——AI时代的产品经理应如何重新定义工作方式,从繁琐的重复性操作中解放,专注于创造性决策和业务洞察。

1. 核心干货概览(Key Takeaways & Stack)

类别 名称 核心用途 / 战略意义
核心IDE/AI中枢 Cursor(搭载Claude) 作为AI原生PM的"操作系统",整合所有工具的工作流中枢
协议层 MCP(Model Context Protocol) 连接AI模型与外部工具(数据库、设计工具、项目管理)的标准化协议
内容管理系统 Sanity CMS 通过MCP实现自然语言查询和编辑,无需手动操作CMS界面
知识库 Confluence 通过Atlassian MCP实现AI驱动的文档检索和需求对比
设计工具 Figma 通过MCP实现设计稿自动解析、状态对比和gap分析
原型设计 Google AI Studio 快速生成可交互原型,支持一键部署到Cloud Run
研究工具 Perplexity / Musi AI驱动的上下文收集和深度研究,生成结构化报告
项目管理 Linear AI原生团队协作工具,支持AI Agent直接操作任务流转
自定义指令 Claude Custom Instructions 在项目级别设置上下文提示,确保AI理解当前工作范围
记忆增强 Memory MCP 跨项目长期记忆维护,解决上下文断裂问题

2. 深度逻辑拆解(Deep Dive / SOP)

核心挑战

传统PM在工作中面临的核心痛点:多工具频繁切换导致上下文断裂、手动操作CMS/设计工具效率低下、需求文档与实现之间难以快速对比验证。AI原生PM操作系统通过将AI作为中枢,整合所有工具的API能力,实现"一句话完成跨系统操作"的工作流重构。

步进SOP

Step 1: 环境准备与工具连接

具体动作细节

  • 在Cursor中配置项目级别的Custom Instructions,明确当前项目的业务上下文(如:wedding planning app / Media network广告合作项目)
  • 安装所需MCP:Sanity MCP、Atlassian MCP(Confluence)、Figma MCP、Linear MCP等
  • 每个MCP通过API Key认证后,AI自动获得对应工具的API映射能力

案例:嘉宾在Cursor中展示,当询问"most recent changes"时,Sanity MCP自动查询CMS中的最近变更记录,无需手动登录Sanity Studio。

Step 2: 核心转换——自然语言到API操作

详细描述

  • 用户输入自然语言指令(如"创建一个租车任务")
  • Claude通过MCP调用对应工具的API
  • API返回结果后,Claude进行自然语言呈现

关键参数

  • MCP配置中包含API Key认证和API映射规则
  • 权限控制:读取操作可自动执行,写入操作需用户确认

案例:演示中,嘉宾说"create wedding planning task titled rent a car for your honeymoon",系统自动在Sanity CMS中创建了对应文档。

Step 3: 跨工具联动与知识比对

最终产出物形式

  • 同时调用Confluence MCP + Figma MCP进行需求与设计的双向对比
  • AI自动生成gap analysis报告,指出设计稿与需求文档的差异点

案例:演示需求文档中提到"bridesmaid only",而设计稿中实际显示的是"wedding party",AI准确识别出这一差异。

案例/细节支撑

  • Linear案例:60%的企业级Linear账户已使用AI Agent;Linear以仅2名PM的团队规模支撑超过10亿美元估值,核心原因是"用Linear构建Linear"
  • Google AI Studio案例:团队需要为促销裙子生成万圣节穿搭营销图,10分钟内完成从Prompt到可用的营销素材生成
  • Figma Make案例:将Canva生成的静态图片通过"send to Figma Make"转化为可编辑的交互式原型,但嘉宾指出Figma Make目前无法生成可直接用于生产的代码
  • MCP记忆功能:使用Memory MCP维护跨项目知识关系,解决长上下文窗口耗尽后的信息丢失问题

3. 核心干货运用(Hard Assets / Prompts)

指令体系设计

Custom Instructions模板(项目级)

项目上下文设置:
- 当前项目:[项目名称]
- 业务类型:[如:婚礼规划应用/电商广告平台]
- 关键目标:[如:MVP发布/功能迭代]
- 差异化需求:[与公司其他项目的区别点]

逻辑注释:在项目级别设置指令而非全局设置,确保AI每次会话开始时自动加载正确的业务上下文,避免跨项目混淆。

MCP查询指令示例

"获取confluence中关于vision board的所有需求文档,并与当前Figma设计进行对比,找出遗漏的功能点"

逻辑注释:复合指令同时调用两个MCP,实现需求文档与设计稿的自动化比对,大幅减少人工对照检查的工作量。

设计原型生成指令

"基于这个静态设计图,生成可交互的原型,包含以下状态的切换:默认态、编辑态、拖拽态"

逻辑注释:将模糊需求拆解为具体状态描述,引导Figma Make生成包含多种交互状态的可编辑原型。


4. PM避坑与实战洞察(Insights & Reflections)

反直觉结论

  1. AI不是来"替代"PM的,而是来做"第二大脑"的:嘉宾强调,AI最强大的价值在于"有时候我甚至不会问一个人这个问题,但问AI我不会感到负担"。AI可以承担大量重复性上下文检索工作,让PM聚焦于决策和判断。

  2. 工具栈应该是"可组合"的,而非固定不变的:根据产品生命周期的不同阶段(探索期→成熟期→迭代期),PM应灵活调整工具使用比例。Figma在设计密集期使用更多,Google AI Studio在原型验证期更高效,Confluence MCP在需求评审期核心。

  3. Claude在PM工作中比ChatGPT更可靠:嘉宾指出,Claude在写作质量和对指令的遵循度上表现更稳定,尤其在长文档场景下;而最近两个版本的ChatGPT"变得越来越懒"。

适用边界

  • MCP连接有上下文限制:Figma MCP在处理复杂设计文件时会消耗大量Token,需要提供具体的Frame URL而非整个文件
  • AI生成的原型无法直接用于生产:Figma Make生成的交互原型质量不足以直接交付开发,需设计师介入优化
  • 研究工具存在成本控制问题:Perplexity和Claude的Research模式会快速消耗API配额,建议仅在关键决策点使用

实战陷阱

  1. 不要在全局设置Custom Instructions:应在项目级别设置,否则多项目切换时AI会混淆上下文
  2. 不要一次性请求过多MCP联动:多个MCP并行调用会显著增加响应时间,建议分步执行
  3. 不要完全依赖AI的gap analysis:AI可能遗漏细微差异,需人工复核关键需求点
  4. MCP权限设置要谨慎:写入类操作(创建文档、提交代码)应设置为需确认,避免AI误操作

5. 金句(Golden Quotes)

  • “AI是我的第二大脑。有时候我甚至不会问一个人这个问题,但问AI我不会感到负担。”
  • “60%的企业级Linear账户已经在使用这些AI Agent,这就是未来团队的工作方式。”
  • “Linear用2个PM支撑超过10亿美元的估值,核心原因是用Linear构建Linear。”
  • “我不认为Figma Make能生成可直接用于生产的代码,但它在设计变体生成上非常有价值。”
  • “Claude更适合PM工作,因为它在写作和指令遵循上比ChatGPT更可靠。”
  • “你的工具栈应该是可组合的,根据产品生命周期的不同阶段灵活调整,而不是一成不变。”
  • “我已经这样做了一年多,我现在对这种操作系统概念的连接方式有了更深的理解。”

总结

本视频通过完整的Live Demo展示了AI原生PM操作系统的实际工作形态。核心架构以Cursor+Claude为中枢,通过MCP协议连接Sanity CMS、Confluence、Figma、Google AI Studio、Linear等工具,实现从需求管理、设计协作、原型生成到代码编写的全链路AI辅助。嘉宾强调,这套系统的核心价值不在于"让AI替代人",而在于"让AI承担上下文检索和重复操作,让PM聚焦于真正需要判断力的决策"。


📺 视频原片


视频ID: 1C0daBcDBig