原始标题: Dylan Patel: AI in War, Jobs are Cooked, Chinese Hacking, Microsoft Cope, and Super Intelligence
发布日期: 2026-03-09 | 来源频道: @matthew_berman
📝 深度摘要
1. 讨论背景与核心主题
本期节目是 Dylan Patel 第二次接受 Matthew Berman 采访,两人回顾了 18 个月前( Dylan 称之为"AI 领域的三年")所做的一系列预测,并深入探讨了当前 AI 领域的最新动态。的核心议题围绕 AI 在军事领域的应用、美国政府与 AI 公司之间的博弈、以及 AI 对就业市场的冲击展开。视频还涉及了 Chinese hacking、Microsoft 的 AI 战略以及超级智能的实现路径等热点话题。Dylan Patel 是 AI 芯片领域的研究机构负责人,其观点在行业内具有重要影响力,本次对话被视为对 AI 行业现状的一次深度诊断。
2. 核心干货概览 (Technical Takeaways & Stack)
预测验证结果:
- GPT 4.5 预测:Dylan 当初认为该模型"too slow, too expensive",现已验证失败。GPT 4.5 因数据量不足和基础设施复杂度问题已被官方下架,无法通过 API 访问。
- Scale AI 预测:Dylan 断言 Scale AI"cooked",目前该公司大量客户正在取消合作、转向其他供应商,Scale AI 在 RLHF(强化学习人类反馈)环境领域的市场份额已被约 30 家竞争对手超越。
- 初级开发者市场预测:Dylan 当初预测"junior dev market nuked"已完全应验。入门级软件工程师就业难度显著上升,AI 工具正在快速取代初级开发岗位。
AI 支出与生产力数据:
- Dylan 公司在 Cloud Code 上的月度支出从约 5 万美元增长至年度运行率达数百万美元级别。
- 单个非程序员用户(负责数据中心建模)使用 GPT-4.6 Fast(100 万上下文)的日均支出达到 5000 美元。
- Dylan 在过去七周内累计在 AI 推理上消耗了约 70 亿 tokens,主要通过 Cursor 和 Cloud Code 实现。
- Dylan 内部戏称其公司"将在两到三年内不存在",因为 AI 将使现有商业模式难以为继,但这也迫使公司必须比任何竞争对手更快地采用 AI 技术。
政府与 AI 公司博弈:
- 美国国防部将 Anthropic 列为"供应链风险",同时与 OpenAI 签署合作协议。OpenAI 在周五签署协议后,内部员工强烈反对,于周一重新签署了一份限制更严格的版本。
- Claude 模型(据信是 Claude Sonnet 3.5 版本)是目前唯一部署在机密军事网络中的 AI 模型。美国政府正考虑在 6 个月内替换 Anthropic,转向 OpenAI 或 Grok 等供应商。
- Dylan 指出,美国政府使用的模型版本老旧(相当于 Claude Sonnet 3.5 水平),而中国军队已在使用最新的 Qwen[?]、Kimmi[?] 和 DeepSeek 模型。
3. 技术深度拆解与实战 SOP (Technical Deep Dive / SOP)
AI 赋能非程序员的工作流程:
Dylan 展示了一个典型案例:其公司数据中心团队的一位非程序员负责人 Jeremy,过去从未接触过编程,现在使用 Cloud Code 能够独立构建数据抓取工具、许可申请分析系统等。他只需"告诉 AI 要做什么",AI 即可完成代码编写和执行。这种模式代表了 AI 赋能的本质转变——Cloud Code 已不再是程序员的专属工具,而是面向所有人的生产力平台。Dylan 强调,这种转变带来的生产力提升远超其成本支出,即使单个用户每天在 AI 上的花费高达 5000 美元,创造的价值仍然"完全值得"。
政府合作的深层逻辑:
Dylan 深入分析了 Anthropic 与美国政府之间的对峙。他指出,美国政府可援引《国防优先法案》(Defense Prioritization Act)强制获取任何AI 模型权重,因此 Anthropic 的拒绝在技术层面并无实质意义。真正的博弈焦点在于政治层面的"面子工程"——政府需要展示其主导权,而 Anthropic 的员工群体(包括大量理想主义研究者)无法接受与政府的深度合作。OpenAI 则通过在周五签署协议、周一因内部压力推翻重签的策略,展现了更灵活的政治生存能力。Dylan 评价 Sam Altman 的核心技能是"善于利用危机",而 Anthropic 的"教条主义"既是其价值观的基石,也是其在政治博弈中的弱点。
AI 军备竞赛的技术差距:
Dylan 提出了一个令人不安的技术现实:美国政府在机密网络中部署的 AI 模型版本严重落后于商业前沿。中国军队已在使用最新的开源模型和商业模型,而美国仍在使用约一年前的 Claude Sonnet 3.5 级别模型。这意味着美国在 AI 军备竞赛中可能存在约六个月的"时间差"劣势。更关键的是,中国具备大规模无人机生产能力,可以快速将 AI 能力转化为自主无人机蜂群等实际军事应用,而美国受限于制造业能力,无法实现同等规模的部署。
大规模监控的技术可行性:
Dylan 详细分析了 AI 构建大规模监控系统的技术路径。他指出,利用 Opus 4.6 构建数据管道、爬虫系统和数据转换工具的门槛已大幅降低。AI 可以轻松抓取 YouTube 视频评论、关联邮箱地址、分析地理位置信息、建立人物画像。这种能力在技术层面已完全可行,主要障碍来自法律和工程复杂度,而非 AI 能力本身。他警告称,即使没有"AI 反叛"的极端 scenarios,权力滥用本身就是一个根本性风险。
4. 核心干货运用 (Prompts & Configuration)
Dylan 公司 AI 集成的具体配置:
- 模型选择:GPT-4.6 Fast(100 万上下文)作为主力模型
- Token 消耗量:单个高级用户日均消耗约 50 亿 tokens(按 4.6 Fast 定价计算约 5000 美元/天)
- 集成方式:OpenClaw 在公司内部已拥有独立的工作空间、专属邮箱和 Google Drive 权限,可访问所有邮件并执行提示注入防御
- 应用场景:出站销售自动化、入站销售分类、工作流程编排
Dylan 对 AI 未来的核心判断:
- AI 行业正在经历"三年的时间压缩",18 个月前的情况已恍如隔世
- AI 不会取代所有工作,但会大幅加速资本相对于劳动力的优势
- 初级开发者的就业市场"已死",但这仅是开始——AI 的影响将扩展到所有白领工作
5. 极客洞察与避坑指南 (Geek Insights & Boundary)
对 Anthropic 的深入分析:
Dylan 认为 Anthropic 的困境并非简单的"政治迫害",而是公司 DNA 与政治现实之间的结构性矛盾。Anthropic 的核心优势在于其理想主义价值观和对 AI 安全的执着,这种"教条主义"使其在研究上保持领先,但也使其难以在政府合作方面做出妥协。Dylan 指出,如果 Dario Amodei 屈服于政府压力,大量核心研究人员将选择离开。更微妙的是,即使 Dario 愿意妥协,他可能"根本无法做到",因为这会与其公司创立时的核心使命直接冲突。
对社会不平等与 AI 关系的洞察:
Dylan 提出了一个关于"感知游戏"的分析框架。过去五十年,资本在价值分配中的占比持续上升,社交媒体放大了这种不平等感。过去,人们普遍认为收入处于第 20 百分位的人是中产阶级,第 80 百分位的人属于富裕阶层。但现在,收入第 90 百分位的人反而认为自己是中产阶级,而第 50 百分位的人不再认为自己是中产阶级。这种认知错位源于社交媒体上的"假生活"展示——人们看到的不是真实的生活水平,而是经过精心呈现的"常态"。AI 进一步加剧了这种失衡,因为它带来的经济增长主要惠及资本所有者和技术人员(占经济体的不到 10%),而大多数人并未从中受益。
关于 AI 军备竞赛的警告:
Dylan 强调,美国在 AI 军事应用领域面临严峻挑战。中国不仅在 AI 模型能力上快速追赶,还在制造业和部署速度上具有明显优势。如果美国继续受限于冗长的安全审查流程和模型部署周期,其军事 AI 优势将在六个月内消失。更重要的是,AI 驱动的社会不稳定正在发酵——自动化将导致数百万就业岗位流失(仅自动驾驶领域就可能影响数百万人),这将加剧社会动荡。Dylan 警告:“AI 导致的社会动荡正在上升,资本与劳动力的权力失衡正在加剧。”
6. 金句 (Golden Quotes)
- “GPT 4.5 失败是因为数据不足,基础设施复杂度太高——你甚至无法通过 API 访问它。”
- “Scale AI 已经’cooked’——每个人都在取消合作,转向其他供应商。”
- “初级开发者市场已经被’核弹’击中,但这仅仅是开始——Cloud Code 不是编程工具,它是所有人的工具。”
- “我儿子说’为什么他们不直接问 AI’?这说明我的咨询服务业务已经’cooked’了。”
- “如果你没有感受到生存威胁,说明你行动得不够快。”
- “Anthropic 太’教条主义’了——他们无法在政治上灵活应变,这既是他们强大的原因,也是他们的弱点。”
- “OpenAI 的 Sam Altman 最擅长的技能是’利用危机’。”
- “美国政府在机密网络中使用的模型大约是 Claude Sonnet 3.5 级别——中国军队已经在用最新的 Qwen、Kimmi 和 DeepSeek。”
- “用 Opus 4.6 构建大规模监控系统并不困难——这才是真正的道德困境。”
- “即使 AI 不会变坏和失控,人类本身的权力滥用就是一个根本风险。”
- “AI 带来的经济增长中,只有不到 10% 的人真正受益——这就是社会动荡的根源。”
- “中国人可以大规模制造无人机并用 AI 控制蜂群——而美国连无人机都造不了那么多。”
📺 视频原片
视频ID: E5B0cS6XRkg