原始标题: Bitter Lessons in Venture vs Growth: Anthropic vs OpenAI, Noam Shazeer, World Labs, Thinking Machines, Cursor, ASIC Economics — Martin Casado & Sarah Wang of a16z
发布日期: 2026-02-19 | 来源频道: @latent-space
📝 深度摘要
1. 核心技术主旨 (The TL;DR)
这是一期关于 AI 投资范式正在发生根本性转变的硬核对谈。a16z 两位重量级投资人 Martin Casado 和 Sarah Wang 揭示了一个核心命题:当资本可以直接转化为模型能力时,传统的 VC 逻辑正在被彻底重构。
过去两年是 AI 投资最疯狂的时期,融资规模空前绝后,交易结构从单纯的股权融资演变为「财务投资者 + 战略投资者 + GPU 供应合同」的三元混合体。这不是泡沫,而是结构性的范式转移。AI 公司跑通了一个前所未有的「资本飞轮」:融资 → 购买 GPU → 训练更强模型 → 产品突破 → 更多用户 → 更多融资。资本第一次可以直接买到能力,而不仅仅是效率。
更深刻的洞察在于:如果前沿模型公司能持续融资超过所有在其之上构建的应用公司的总和,可能形成「吞噬」效应——整个 AI 产业链的价值正在向底层模型层集中。而 Noam Shazeer 离开 Google 加入 Anthropic 的故事,恰恰说明了产品路线与 AGI 路线之间的内在张力,以及资源约束下的艰难抉择。
2. 嘉宾背景与当前技术栈
Martin Casado 是 a16z 的普通合伙人,业界公认的「Wi-Fi 之父」——他在斯坦福读博期间发明了 OpenFlow 协议,是网络虚拟化领域的先驱,后创立 Nicira 并以 12.6 亿美元被 VMware 收购。他是少数真正从技术一线转型为顶级投资人的典范,对基础设施和底层系统有着近乎本能的直觉。
Sarah Wang 同为 a16z 合伙人,专注于 AI 和企业软件投资。在加入 a16z 之前,她在 Google Cloud 担任产品经理,对云原生技术和企业级 AI 应用有深刻理解。两人的组合恰好覆盖了「infra + application」的投资视角。
本次对谈还涉及多个关键公司和人物:
- Noam Shazeer:Google Brain 核心成员,Transformer 架构重要贡献者,离职创办 Character.AI,后加入 Anthropic
- World Labs:Fei-Fei Li 创办的空间智能公司,专注于 3D 场景生成
- Thinking Machines:DeepMind 前员工创办的新公司,方向未知但备受关注
- Cursor:AI 编程工具的代表,从应用层切入逐步构建自己的模型
- Anthropic vs OpenAI:当前最具代表性的模型层竞争
3. 底层架构与技术深潜
3.1 资本飞轮:一场前所未有的能力购买游戏
传统软件创业的逻辑是精益创业——用最少的资源验证产品-market fit,然后逐步扩张。但 AI 创业,尤其是基础模型公司,走的是一条完全不同的路径:资本即能力。
这个飞轮的核心在于:
融资规模 → GPU 采购量 → 训练算力 → 模型能力 → 产品优势 → 用户增长 → 更高估值 → 更多融资
关键洞察:每一步都是线性甚至超线性的投入产出关系。当你可以用 100 亿美元买到 GPT-5 的能力时,小团队用几百万美元做的事情在底层能力面前几乎没有任何护城河。
这导致了一个结构性后果:模型层的融资规模正在超过所有应用层公司融资的总和。换句话说,整个 AI 生态系统的价值正在向底层集中。如果这种趋势持续,应用层公司可能面临「被吞噬」的风险——不是因为它们做得不好,而是因为底层模型的能力提升太快,应用层的创新很容易被快速复制。
3.2 ASIC 经济学:10 亿美元训练 run 的新逻辑
当训练一个前沿模型的单次成本达到 10 亿美元量级时,自研芯片不再是「情怀」,而是理性的经济决策。
定制 ASIC(专用集成电路)的逻辑:
- 通用 GPU 的成本结构:H100/H200 的毛利率极高,且受限于供应
- 量级改变经济性:10 亿美元的训练预算 vs 自研芯片的 NRE(一次性工程)成本
- 特定任务优化:Transformer 架构高度规整,适合 ASIC 化
这意味着未来可能看到「模型公司 → 自研芯片 → 更好模型 → 更大规模」的正向循环。NVIDIA 的护城河并非不可逾越,当客户从「几千块卡」变成「几十万块卡」时,自研芯片的 ROI 会发生质变。
3.3 空间智能:3D 世界的模型化
World Labs 的方向代表了另一个技术前沿:空间智能(Spatial Intelligence)。
技术路线:
- Gaussian Splatting:一种新的 3D 表示方法,相比传统 NeRF 有更好的实时渲染性能
- 3D 场景生成:不是生成一张图片,而是生成一个可探索的 3D 空间
- Spark JS:开源的 Gaussian Splats 渲染库
关键争议:Fei-Fei Li 不相信 LLM 能带来空间智能。这是一个重要的技术判断。LLM 擅长的是「语言空间」的建模,但物理世界的 3D 理解需要不同的架构和数据。这或许解释了为什么 World Labs 选择了一条不同于 LLM 的技术路线。
3.4 人才市场:极端供需失衡
初级 AI 工程师的年薪可以达到数千万美元——这不是夸张,而是当前人才市场的真实写照。
背后的逻辑:
- 供给极度稀缺:全球真正能训练前沿模型的工程师不超过几百人
- 需求爆发:每家模型公司、应用公司、科技巨头都在抢人
- 流动性创历史新高:创始人在不同公司之间流动的速度前所未有
这导致了一个组织层面的悖论:最优秀的人才往往不是被薪资吸引,而是被「做一件大事」的机会吸引。Noam Shazeer 离开 Google 的原因不是因为钱,而是因为 Google 不让他发布产品。
4. 产品哲学与商业化博弈
4.1 Cursor 的启示:从应用层切入的务实路线
Cursor 是 AI 编程工具的代表,它的成功路径值得深入分析:
第一步:应用层切入
- 不需要训练自己的基础模型,使用 GPT-4 / Claude 作为底层能力
- 专注于「代码补全」这个具体场景,做到极致用户体验
- 快速迭代,PMF 导向
第二步:逐步构建自己的模型
- 积累用户数据和场景理解
- 训练针对编程任务的专用模型
- 逐步降低对第三方模型的依赖
这种路径的智慧在于:用应用层的收入和场景理解来支撑模型层的投入,而不是一开始就挑战 OpenAI。
4.2 Agent Labs vs Model Labs:Margin 的终极对决
一个重要的投资洞察:Agent Labs 可能比 Model Labs 有更好的 margin。
逻辑链:
- Model Labs 的困境:算力成本刚性,定价受限于 token 成本,margin 空间有限
- Agent Labs 的优势:面向终端用户定价,不受限于底层模型成本,可以通过产品体验差异化
- 关键变量:定价权(pricing power)来自用户体验,而不是模型能力本身
这解释了为什么那么多投资人开始关注应用层公司:现金流比技术故事更可靠。
4.3 被忽视的企业软件
当前 AI 投资的热点集中在模型层和 Agent 层,但有一个领域被严重低估:传统企业软件。
被冷落的原因:
- 「不酷」——没有 AGI 故事那么激动人心
- 增长慢——相比 AI 应用的指数增长,传统软件是线性增长
- 护城河不明显——容易被大模型颠覆
但这恰恰是机会所在:
- PMF 已验证:企业软件的需求是真实的
- 竞争不激烈:没有数千家创业公司竞争
- 估值合理:没有 AI 泡沫的溢价
- 现金流好:B2B 交易往往有预付款
「Boring Software」可能不酷,但可能是当下最安全的投资。
5. 极客文化与组织构建
5.1 Meta 的招人策略:从疯狂到平静
Meta 曾经是硅谷最激进的人才收购者——开出天价 offer,大量招聘初级工程师。但现在这种策略正在趋于平静。
背后的原因:
- 边际收益递减:堆人数不能解决核心算法问题
- 整合成本:大量招聘导致组织臃肿,沟通成本上升
- 方向明确:当战略方向清晰时,需要的是精兵强将而不是人海战术
这给创业公司的启示:招人不是越多越好,而是越精准越好。
5.2 创始人流动性:新时代的新常态
当前的一个独特现象:创始人流动性创历史新高。
表现为:
- 创始人离开创办的公司,加入其他公司或创办新公司
- 跨公司人才流动加速
- 「连环创业者」越来越多
这背后的原因:
- AI 领域变化太快:一个方向可能 6 个月后就过时了
- 资本充裕:创业门槛降低,失败后重新来的成本降低
- 人才稀缺:有成功经验的创始人变成稀缺资源,被各方争夺
5.3 产品路线 vs AGI 路线:Google 的教训
Noam Shazeer 离开 Google 的故事是本期的核心案例。
背景:
- Noam 是 Google Brain 的核心成员,Transformer 论文的重要贡献者
- 他在 Google 内部尝试发布一些产品,但被管理层阻止
- 最终离职,创办 Character.AI,后加入 Anthropic
深层矛盾:
- 产品路线:尽快将现有技术产品化,获取用户和收入
- AGI 路线:专注于通用人工智能的长期目标,不急于商业化
- 资源约束:当资源有限时,必须在两者之间做选择
Google 的问题不是技术不行,而是组织对风险的厌恶导致创新无法落地。这是一个经典的「大公司创新困境」——资源越多,反而越保守。
6. 未来推演与终局思考
6.1 模型层的终局:3-5 家还是赢家通吃?
一个关键问题:基础模型公司最终会剩下几家?
两种可能性:
版本 A:赢家通吃
- 模型能力有极高的壁垒,后来者无法追赶
- 数据飞轮 + 资本飞轮形成正向循环
- 1-2 家绝对王者 + 一些细分市场的玩家
版本 B:多极共存
- 不同模型针对不同场景优化
- 开源模型与闭源模型并存
- 3-5 家综合模型 + 无数垂直模型
我们的判断:更可能是版本 B,但第一名的市场份额会远超现在任何软件领域的集中度。
6.2 应用层的生存策略
面对底层模型的快速迭代,应用层公司的生存策略:
策略一:垂直整合
- 像 Cursor 一样,从应用切入,逐步构建自己的模型能力
- 优点:不被底层绑架;缺点:需要大量资本
策略二:极致用户体验
- 不追求模型能力的领先,而是在特定场景做到最好的体验
- 例子:Notion AI、Perplexity
策略三:数据护城河
- 积累独特的专有数据,形成差异化
- 例子:某些垂直领域的 AI 医疗、AI 法律公司
策略四:渠道和生态
- 通过企业级渠道和生态系统建立壁垒
- 例子:Salesforce、ServiceNow 的 AI 能力
6.3 硬件层的机会
当训练成本达到 10 亿美元级别时,硬件层的投资机会:
- 定制 ASIC:针对 Transformer 优化的芯片
- 液冷技术:大规模集群的散热方案
- 互连技术:GPU 之间的通信带宽成为瓶颈
- 光计算:长远来看可能颠覆 GPU 架构
6.4 机器人:被低估的长期赛道
机器人领域被忽视的原因:硬件难度太大,需要垂直整合。
但这恰恰是机会:
- 真实需求:劳动力短缺正在推动自动化
- 技术突破:LLM 为机器人提供了前所未有的「大脑」
- 长周期:一旦建立护城河,竞争对手难以追赶
关键挑战:不要低估硬件的难度。软件思维在机器人领域会吃大亏。
7. 原汁原味金句
「过去两年是 AI 投资最疯狂的时期。」
「资本可以直接转化为能力提升,这在前所未有。」
「如果前沿模型公司能持续融资超过所有在其之上构建的公司的总和,可能形成『吞噬』效应。」
「Noam Shazeer 离开 Google,因为 Google 不让他发布产品。」
「初级 AI 工程师年薪可达数千万美元。」
「创始人流动性创历史新高。」
「传统企业软件、Boring Software 被冷落,但这恰恰是机会所在。」
「定制 ASIC:10亿美元训练 run 值得自己设计芯片。」
「Agent Labs 可能比 Model Labs 有更好的 margin。」
「Fei-Fei 不相信 LLM 能带来空间智能。」
「从应用层切入,逐步构建自己的模型。」
「不要低估硬件的难度。」
本期核心 takeaways:
- AI 投资已经进入「资本飞轮」时代,融资规模直接决定能力边界
- 模型层的集中度会远超传统软件,但更可能是多极共存而非赢家通吃
- 应用层的生存关键是用户体验和场景深度,而非模型能力本身
- ASIC 是 10 亿美元训练 run 的理性选择,NVIDIA 的护城河并非不可逾越
- 空间智能需要不同的技术路线,LLM 不是万能的
- 「Boring Software」被低估,机器人是长期机会
- 人才是最大的瓶颈,也是最大的变量
📺 播客地址
播客时长: 56分钟