原始标题: #200: Anthropic vs. the Pentagon, OpenAI’s $110B Round, Interview with Claude Code’s Creator & Block’s AI-Driven Layoffs

发布日期: 2026-03-03 | 来源频道: @ai-show

📝 深度摘要

1. 播客背景与宏观基调

集数与主题:第200期——Anthropic与五角大楼的正面交锋、OpenAI创纪录的1100亿美元融资轮、以及对Claude Code创作者Boris Cherny的深度专访

核心情绪与基调:本期的核心基调是"极度紧迫感与警惕"。Paul Roetzer在开场中明确表示,这是他们播客历史上"可能最重要的一期",因为它不仅涉及一家AI公司与美国政府之间的法律和伦理冲突,更深层地揭示了AI技术正在成为地缘政治博弈的核心筹码。两位主播对当前AI局势的判断可以概括为:AI不再仅仅是技术竞争,它已经直接卷入了国家权力、商业利益与伦理底线的三方博弈。在整期节目中,Paul多次强调这场对峙"不是结束,而是刚刚开始",并提醒听众这将深刻影响每一个企业和知识工作者。

AI Pulse民意调查:在开场部分,播客首先回顾了上一周的AI Pulse调查结果。第一个问题是关于微软AI CEO Mustafa Saleman声称"大多数白领任务将在12至18个月内被AI完全自动化"这一观点的现实性。调查结果显示,53%的受访者认为"部分现实可行——某些任务会自动化,但不是大多数";33%的人认为"过于激进,有意义的自动化需要三到五年";仅有9%的人认为"非常现实,已经在工作中看到了"。Paul表示,他的立场是:技术确实能够在12到18个月内做到这一点,但人类摩擦和组织变革阻力会大大延缓这一进程。第二个问题涉及AI生成视频中使用真实人物形象的话题,58%的受访者认为"技术令人印象深刻,但使用真人未经同意跨越了底线";22%的人认为"这是不可避免的,法律需要跟上";20%的人担心这主要是一个虚假信息风险。值得注意的是,没有任何受访者认为"这是创意实验,没什么大不了"。

2. 核心洞察与高管摘要

维度 核心动态 / 关键节点 商业与行业颠覆性意义
底层模型/基建 Anthropic的Claude是唯一被批准用于美军机密网络的前沿模型,OpenAI随后获得五角大楼合同 标志着AI模型正式进入国家级安全基础设施,AI公司的政府合作能力成为核心竞争力
行业/宏观经济 OpenAI完成1100亿美元融资(史上最大私募融资),估值达8400亿美元;Block因AI裁员近4000人(近半数员工) 资金向头部AI公司高度集中;AI驱动劳动力结构变革的浪潮已经开始从科技行业向其他行业蔓延
硬核指标/数据 Anthropic合同涉及200亿美元政府合约;NVIDIA Q4营收681亿美元,数据中心业务占比91%;Claude Code生成10% GitHub提交;Anthropic被指控遭中国AI实验室16万次对话的数据窃取 AI军备竞赛进入白热化阶段,算力需求持续爆炸性增长;AI编码工具已对软件开发行业产生实质性颠覆

3. 深度话题解析

📌 议题一:Anthropic与五角大楼的世纪对峙——AI公司能否守住伦理底线?

底层矛盾与背景

2026年3月的第一周,AI行业经历了自ChatGPT发布以来最剧烈的政策地震。事件的起因是特朗普政府要求Anthropic必须满足两个条件才能继续与美国国防部合作:第一,Claude不能用于对美国公民的大规模国内监控;第二,Claude不能用于为完全自主武器提供动力。国防部长Pete Hegseth在SpaceX总部公开宣称"军事AI绝不能woke",并认为这些安全护栏"不可接受"。

这一争端的导火索可能与2026年2月发生的一次军事行动有关——美国军方一次代号为针对委内瑞拉总统马杜罗的突袭行动中,五角大楼声称Anthropic对Claude在该行动中的使用表示关切,尽管Anthropic CEO Dario Amodei坚决否认这一说法。无论真相如何,这场争端在72小时内急剧升级,成为全球AI行业关注的焦点。

利益链与逻辑推演

Mike Kaput在节目中详细梳理了这场对峙的时间线。关键事件如下:

2026年2月25日(周二),国防部长Pete Hegseth致电Anthropic CEO Dario Amodei,在一次"紧张而不友好"的会面中发出最后通牒:Anthropic必须允许军方"不受限制地访问"Claude用于任何合法目的,并在2月28日下午5点01分(美国东部时间)之前满足要求,否则将面临《国防生产法》强制执行或被正式列为供应链风险。

2月26日(周三)深夜,五角大楼向Anthropic发送了所谓的"最终最佳报价"。Anthropic审查后认为,新合同条款"不够好"——那些所谓的让步伴随着各种法律漏洞和转义条款,实际上允许军方绕过Anthropic极为重视的安全护栏。

2月27日(周四),事件急剧公开化。Amodei发表公开声明,宣布Anthropic"出于良知"无法接受政府的要求。五角大楼技术主管Emil Michael在X平台上发文称Amodei是"具有上帝情结的骗子"。同一天,数百名Google和OpenAI员工签署公开信,呼吁其公司高层与Anthropic站在同一阵线。

2月28日(周五),是剧情最跌宕起伏的一天。上午,五角大楼团队做出重大让步,同意删除合同中的漏洞短语。下午,谈判彻底破裂——Anthropic得知五角大楼仍计划使用其AI分析从美国人那里收集的批量数据,这直接跨越了"大规模国内监控"的底线。Anthropic还拒绝了一项妥协方案:即把Claude保留在云端,使其与所谓的"边缘自主武器"保持距离。

下午5点01分的最后期限前约一小时,特朗普总统在Truth Social上发文称Anthropic是"左翼疯狂分子",并命令所有联邦机构立即停止使用Anthropic技术,启动为期六个月的淘汰期。5点01分,期限到期,Amodei没有屈服。当晚,Hegseth正式宣布Anthropic为"供应链风险"——这是一个历史上只针对外国对手的工具。

讽刺的是,就在Anthropic被"宣判"数小时后,Sam Altman在晚间9点56分宣布OpenAI已与五角大楼达成协议,将其模型部署在机密网络上。关键在于:五角大楼同意了OpenAI开出的条件——与Anthropic所要求的完全相同的禁止大规模监控和自主武器的条款。

对商业生态的影响

Paul Roetzer在节目中深入分析了这一事件的多层含义。首先,这是AI公司历史上首次被美国政府用"供应链风险"这一工具进行制裁——这一标签历来只用于伊朗、朝鲜等美国的敌人,从未用于美国本土公司。其次,事件暴露了AI行业一个更深层的矛盾:**一家公司的CEO是否有权决定什么可以或不可以用于国防目的?**Palmer Luckey(Oculus创始人,Anduril Industries联合创始人)在推特上尖锐地指出这一问题的核心:“你是否相信民主?我们的军队应该由民选领导人还是由公司高管来监管?”

Paul还特别指出,Peter Thiel在这一事件中的角色极为关键。Thiel是Palantir的主席和联合创始人——而Claude正是通过Palantir的合作伙伴关系被部署到军方的机密网络中。同时,Thiel的Founders Fund领投了Anthropic数轮融资,包括2026年2月的那轮30亿美元的融资(Thiel正是把J.D. Vance推向副总统职位的人)。Paul评论道:“当你追踪金钱的流向,你会发现Thiel不可能不与Vance对话,Vance不可能不与Trump和Hegseth对话——所以这一切最终会如何发展,答案就不言而喻了。”

对商业生态的直接影响是深远的。Paul指出,Anthropic现在是"有史以来最伟大的营销事件"的受益者——Claude在App Store的排名从约200位飙升至第一位,超越ChatGPT。对于大型企业和受监管行业来说,这证实了一件事:**如果唯一一家在机密网络中被政府信任了两年的公司是Anthropic,那么他们会信任谁?**答案显然不是XAI(Grok甚至未获批准用于政府系统),也不是尚未进入该领域的OpenAI。

对商业生态的进一步影响

从企业合规和采购的角度看,这一事件将产生持续的涟漪效应。首先,企业需要重新评估AI供应商的地缘政治风险敞口——选择任何AI模型供应商时,政府关系和合规记录将成为关键考量因素。其次,Anthropic的案例表明,安全护栏可以成为与政府谈判的筹码,但这也需要有足够的实力作为后盾——Anthropic拥有足够的资金和市场地位来抵抗压力,这对于较小的AI公司来说是不可复制的。第三,OpenAI的快速"补位"表明,在AI军备竞赛中,没有永远的合作伙伴,只有永远的利益——这一教训将促使企业在签订AI合同时更加谨慎。

📌 议题二:OpenAI 1100亿美元融资——史上最大私募轮的深层逻辑

核心数据与战略意图

本周,OpenAI宣布完成1100亿美元融资轮,这是历史上规模最大的私募融资。具体构成如下:亚马逊投资500亿美元(其中150亿美元 upfront,350亿美元取决于OpenAI是否达到某些里程碑);NVIDIA投资300亿美元;软银投资300亿美元。融资后OpenAI估值达到8400亿美元(post-money),并且该轮融资仍对额外投资者开放。

AWS与OpenAI将现有的云协议扩展了100亿美元,为期八年。AWS将成为OpenAI Frontier(其企业代理平台)的独家第三方云分发提供商。OpenAI还承诺在亚马逊定制的Tranium芯片上消耗2吉瓦容量的计算资源。

在Scaling AI for Everyone的博客文章中,OpenAI披露了以下关键数据:目前有900万付费企业用户使用ChatGPT for Work;ChatGPT周活用户从8亿增长到9亿;消费者订阅用户达5000万。OpenAI基金会股份的价值已超过1800亿美元。

企业级代理战略的深度解析

Paul Roetzer重点分析了OpenAI Frontier的推出及其企业战略。OpenAI已经明确承认,当前AI在企业中的渗透率不高的核心瓶颈不在于模型智能本身,而在于"代理的构建和运行方式"。OpenAI在AI Impact Summit上表示:“在企业业务中看到AI价值的限制因素不是模型智能,而是代理在组织中的构建和运行方式。真正的AI影响还需要领导层对齐、工作流程重新设计、系统与数据集成,以及推动采用的变化管理。”

基于这一认识,OpenAI推出了Frontier Alliances计划,与麦肯锡(McKinsey)、波士顿咨询(BCG)、埃森哲(Accenture)和凯捷(Capgemini)合作部署企业代理平台。Paul指出,这一模式直接借鉴了Palantir的做法——让工程师"嵌入"客户组织中,与客户一起构建定制化的AI解决方案。OpenAI现在有"前沿部署工程师"(Forward Deployed Engineers, FDE)在各大品牌公司中工作,帮助自动化工作流程。

对行业格局的影响

Paul评论道,这一轮融资和战略举措标志着AI行业的竞争进入了一个新阶段:企业级AI代理市场已经从"谁能提供最好的模型"转变为"谁能提供最完整的部署和采用解决方案"。OpenAI与四大咨询公司的合作表明,他们已经认识到在企业中推广AI的最大障碍不是技术,而是关系、信任和变化管理。

从财务角度看,1100亿美元的融资规模意味着AI行业的资金门槛已经被显著抬高。Paul指出:“最大的IPO历史上只有250亿美元——这是前所未有的资金规模。“对于任何试图进入这一市场的创业公司来说,这既是挑战也是信号:没有数十亿美元级别的资金支持,就无法参与前沿AI模型的竞争。

📌 议题三:Claude Code创作者Boris Cherny专访——编码已"基本解决”,知识工作的未来已来

核心洞察与数据

Boris Cherny是Anthropic Claude Code产品的负责人,他在Lenny’s Podcast上接受了深度专访,并提出了几个极具冲击力的观点:

“编码已基本解决”——Cherny自述自2025年11月以来,他从未手动编辑过一行代码,每一行代码都是由AI完全编写的。更令人震惊的是,这一转变的速度极快:2025年2月,AI生成的代码只占他工作的20%;2025年5月上升到30%;到2025年11月已经达到100%。整个过程只用了八个月。

Claude Code的影响力:Claude Code在2024年9月作为Anthropic内部的"侧面项目"启动,仅在内部发布五天后,Anthropic工程团队的一半就开始使用它。如今,该产品的年经常性收入(ARR)已达到10亿美元。全球公开的GitHub提交中,有4%由Claude Code生成,Cherny预测到2026年底这一比例将达到20%。

生产力提升的具体数据:由于使用Claude Code,Anthropic的工程产出每个工程师增加了200%。这意味着一个人现在可以做原来三个人的工作。更深层的组织变革是:在Cherny的团队中,每个人——产品经理、设计师、财务人员——都在编程。他预测到2026年底,“每个人都将是一名产品经理,每个人都将编码,软件工程师这个职位将开始消失”。

对知识工作未来的启示

Paul Roetzer在节目中特别强调,听这个采访的最佳方式是"把’代码’替换为你所做的任何事情”。如果你是营销人员、顾问或任何知识工作者,每当Cherny提到"代码"时,就把它换成你自己的专业工作——这就是他试图传达的信息:我们在编程领域所经历的一切,现在将发生在所有知识工作领域

Cherny在采访中还深入讨论了Anthropic构建AI产品的方法论。他解释了Anthropic的核心理念:从编码开始,模型变得非常擅长编码;然后变得非常擅长工具使用(访问互联网、搜索等);然后变得非常擅长计算机使用(查看屏幕上的一切并像人类一样采取行动)。这是Anthropic的AGI发展轨迹。

关键概念解析:Cherny提到的"工具使用"意味着AI不仅依赖语言模型本身来输出结果,还能调用其他工具——如互联网、搜索引擎——来增强能力。“计算机使用"则更进一步:AI代理能够看到数字屏幕上的一切,并像人类一样操作界面。

关于创新,Cherny提出了一个重要观点:“创新没有路线图。你必须给人们空间。即使80%的想法是糟糕的也没关系,因为你永远不知道好的想法何时会出现。“他最初并不认为Claude Code会成功,也没有想到它会有多大的影响力——它只是一个黑客项目。

对企业的启示

这一专访对企业领导者发出了明确的警告信号。Paul Roetzer总结道:“这实际上是这些AI代理作为同事进入企业的方式。这不是危言耸听——这是正在发生的步骤,而且发生得比大多数人想象的要快。”

Cherny还提到了一个可能在各行各业普及的新概念:“token budgets”(代币预算)。当一个程序员开始在AI实验室工作时,他们会问:“我的代币预算是什么?"——意思是他们有多少智能资源可以使用。Paul预测,这种概念将很快渗透到其他知识工作领域:“这可能对营销人员、销售专业人员变成——嘿,好吧,我的年薪是15万美元。我有多少AI预算?我可以用多少AI来帮助我完成工作?到2026年底,这将成为一个常规对话。”

4. 实操案例与工具箱

核心工具链

在本期播客中提到的核心AI工具和工作流包括:

Claude Code(Anthropic):专注于编码的AI代理工具,已经可以独立完成完整的软件开发任务。GitHub提交中4%由Claude Code生成,预计2026年底达到20%。

OpenAI Frontier:企业级AI代理平台,配备"前沿部署工程师”(FDE),与麦肯锡、BCG、埃森哲、凯捷等咨询公司合作进行企业部署。

NotebookLM(Google):被Paul多次提及用于信息整理和分析的工具。

ChatGPT Enterprise:拥有900万付费企业用户,周活用户达9亿。

AI Fluency Index(Anthropic发布的AI流利度指数)

Anthropic发布了一份关于AI使用效率的研究,分析了近10000个Claude对话,跟踪了24种定义有效AI协作的具体行为。研究的核心发现是:随着AI变得更好,人们使用AI的效率反而可能下降。关键发现包括:

“验证差距"问题:当Claude生成精美的产出(如可工作的应用、代码、格式化的文档)时,用户变得更Directive(指令性)但更不Evaluative(评估性)。也就是说,产出看起来越好,人们就越不质疑它——这恰恰是相反的做法。

有效AI协作的关键行为:

  1. 迭代优化:接受第一次输出后继续迭代改进。数据显示,有迭代的对话显示出约两倍的有效行为。
  2. 避免"抛光陷阱”:当某样东西看起来很好时,恰恰是最应该暂停并开始验证的时刻。
  3. 提前设定协作条款:只有约30%的用户明确告诉Claude他们希望如何互动。但这样做的用户显示出显著更好的结果。

Anthropic建议的具体做法:

  • 留在对话中:将第一次回复视为起点而非答案。
  • 质疑抛光输出:当某物看起来完美时,这就是最需要验证的时刻。
  • 预先设定协作条款:明确说明你希望AI如何与你互动。

5. 快讯与散点观点

Block因AI裁员近50%劳动力

Jack Dorsey的金融科技公司Block本周宣布裁员约4000人,这是其全球劳动力的近一半。公司员工从超过10000人缩减至不足6000人。Dorsey在X上明确表示,AI是这一决定的主要原因:“一个使用我们所构建工具的小得多的团队可以做得更多、做得更好。“他选择一次性完成裁员,而不是分多轮进行(因为多轮裁员会"对士气、专注度和客户与股东对公司的信任造成破坏”)。

市场最初对这一消息表示欢迎——Block股价在盘后交易中飙升超过24%。然而,分析师指出了一些值得注意的背景:Block在疫情前只有不到4000名员工,在疫情期间的人员激增后才达到10000人以上。一些人质疑AI是否是真正的驱动因素,还是一个方便的"借口"来纠正过度招聘。Dorsey本人则反驳了这一观点,他表示公司已经在2024年中期纠正了结构性问题,现在的目标是"每人创造200万美元以上的毛利润”——这是疫情前500000美元水平的四倍。

Harry Stebbings(20VC播客主持人)在推特上透露,他在过去48小时内与三家拥有500至1000名员工公司的创始人交谈过,每家公司都计划至少裁员20%。他警告说:“这将很快变得非常现实。”

《2028年全球 intelligence 危机》研究报告引发的市场地震

本周,一篇发表在Substack上的研究论文《2028年全球 intelligence 危机》引发了实际的市场抛售。这篇论文由Citrini Research的James Van Geelen和前Citadel分析师Alip Shah撰写,模拟了AI按当前能力速度取代白领工人的可能后果。

论文的核心论点是"人类 intelligence 位移螺旋”——一个没有自然打破的负面反馈循环。论文引入了两个核心概念:“GDP幽灵”(AI生成的产出只惠及计算资源所有者,但永远不会在消费经济中流通)和"摩擦之死”(AI代理消除了整个商业模式所依赖的低效环节)。

论文预测的"末日情景"包括:到2028年,全国失业率超过10%,标准普尔500指数从峰值下跌38%,以及通缩螺旋。该论文在X上获得了数千万次浏览,引发了Citadel Securities的正式反驳。作者本人也澄清说这只是一个场景,而非硬性预测。

数据中心民意急剧下降

根据Embodd Research的民意调查,现在只有28%的美国人支持在社区附近建设数据中心,52%反对——净支持率为负24%,而几个月前还是略微正的2%。数据中心现在比天然气工厂、太阳能农场、风力发电厂和核设施的支持率都低。

这一反对似乎跨越了政治界限:左翼活动人士反对是因为水和能源压力;右翼活动人士将其视为精英科技公司的过度扩张。最强烈的反对来自农村地区的共和党人,净支持率为负20%。

一个具体的争议案例:Elon Musk的XAI在密西西比州南黑文安装了27台临时燃气轮机(未经许可)为其Colossus AI集群供电。居民描述了持续的轰鸣声、爆裂声和高频啸叫声。XAI花费700万美元建造了一道被邻居称为"提姆声音墙"的隔音屏障,但几乎不起作用。

Anthropic指控中国AI实验室"数据蒸馏攻击”

Anthropic指控三家中国AI实验室(DeepSeek、Moonshot AI和Minimax)对其进行"工业规模的数据蒸馏攻击",使用超过24000个欺诈账户提取了超过1600万次对话的训练数据。蒸馏是一种用更强模型的输出来训练较弱模型的合法技术,但Anthropic声称这些活动构成了系统性的知识产权盗窃。

具体数据:Minimax进行了最大的活动,有1300万次对话;Moonshot AI提取了340万次对话,更关注工具使用和计算机视觉;DeepSeek的活动最小(150000次对话),但专注于推理能力。

Anthropic将此框架为国家安全问题,认为缺乏安全护栏的被蒸馏模型可以被用于军事和监控系统。Elon Musk则回应称Anthropic"虚伪",指出Anthropic刚刚因使用受版权保护的书籍训练Claude而以15亿美元和解。

NVIDIA财报:超预期但股价暴跌

NVIDIA第四季度营收达681亿美元,同比增长73%,超出分析师预期的658亿美元。数据中心营收达到623亿美元,现在占NVIDIA总收入的91%以上。自2022年底ChatGPT发布以来,这一业务板块已经增长了13倍。NVIDIA全年营收达到2159亿美元,净利润1201亿美元。下一季度指引为780亿美元,超出分析师预期超过50亿美元。

然而,尽管在每个指标上都超出预期,NVIDIA股价在次日下跌5.5%,抹去了约2600亿美元的市值——这是自2025年4月以来最大的单日跌幅。分析师指出,问题可能在于NVIDIA的收入高度集中在约8家公司,而且人们担心"循环投资"——这些公司用融资购买NVIDIA芯片,然后再融资。

其他重要快讯

Google发布Nano Banana 2:Google发布了其下一代图像模型,结合了Nano Banana Pro的质量和亚秒级生成速度,包括4K图像。已在141个国家的Gemini应用中推出。

Google收购Producer AI:Google收购了之前名为Refusion的病毒式AI音乐工具,将其并入Google Labs,与DeepMind的Lyria 3音乐生成模型配对。

Anthropic扩展企业协作平台:Anthropic扩展了其企业协作平台,推出一系列企业插件,包括针对特定工作职能的预构建技能和工具连接包:HR、设计、工程、财务和运营。更新还包括内部部署的私有市场,以及Google Workspace、DocuSign和FactSet的新连接器。

Pivots Labs转向AI数字孪生:以AI视频生成器著称的Pivots Labs转向了一个完全不同的产品,创建名为"AI cells"的持久AI数字孪生。用户上传一张自拍、录制声音、回答性格问题,然后让他们的AI在Slack、WhatsApp、iMessage和社交平台上自主行动。

Thinking Machines Lab动荡:Mira Murati的Thinking Machines Lab又有两名创始成员静默离职加入Meta。自这家初创公司不到一年前推出以来,总离职人数至少达到7人。该公司已融资20亿美元,估值120亿美元,但据《财富》报道,因资金限制、计算限制和产品缺乏清晰度而失去联合创始人和早期研究人员。

6. 给职场人与企业的行动指南

🎯 高管/CXO战略部署

设立"创新沙盒"的具体做法:Paul Roetzer在多期节目中强调,企业需要建立一个安全的实验环境来测试AI应用。具体建议包括:从非敏感用例开始,如内部文档总结、客户服务聊天机器人原型;建立明确的AI使用政策和审批流程;指定专门的AI试点团队,直接向CEO汇报;在季度业务回顾中加入AI采用指标。

避开IT/法务堵点推进非敏感用例:建议先在市场营销、内容创作、数据分析等"低风险但高可见性"的领域部署AI工具;利用影子IT(shadow IT)模式——在正式批准流程之外让团队先用起来,产生可见成果后再推动正式化;与法务和IT提前沟通,明确哪些数据类型可以用于AI训练和推理。

应对核心员工burnout的管理建议:AI转型期间,员工可能面临"AI焦虑"和"角色重新定义"的双重压力。建议:明确传达AI是"增强"而非"替代";为员工提供AI技能培训和过渡期支持;重新设计工作流程,让人类专注于高价值决策;建立清晰的职业发展路径,展示AI如何创造新的角色和机会。

🛠️ 一线负责人战术落地

如何挑选切入点证明AI ROI:Paul建议从"时间节省"和"产出质量"两个维度评估AI投资回报。具体做法:选择一个重复性高、耗时长的任务(如报告撰写、数据整理、客户邮件回复);记录该任务在AI辅助前后的时间对比;量化质量提升(如客户满意度、内部审批通过率);建立"AI使用案例库",收集并分享成功案例。

建立内部Prompt/技能文档库的具体方法:创建一个集中的知识库来存储有效的提示词和工作流;按职能(营销、销售、客服、研发等)分类组织;包含成功和失败的案例,用于学习;定期更新,反映模型更新带来的变化;鼓励团队贡献和评审。

🧠 认知重塑

从"购买软件席位"转向"购买Agent产出"的认知跳跃:传统软件采购是按"席位"(seat)付费——每个用户一个许可证。但AI代理的逻辑不同:企业应该为"产出"付费,而非为"用户数"付费。这意味着:评估AI投资的指标从"多少人在使用"转变为"产生了多少价值";采购决策从"我们需要多少许可证"转变为"我们需要AI完成多少工作";成本结构从固定转向可变,与业务成果挂钩。

“AI预算"概念的出现:正如Boris Cherny提到的"代币预算"概念在编程领域出现,Paul预测这一概念将渗透到所有知识工作领域。每个知识工作者将有自己的"AI预算”——他们可以使用多少AI资源来完成工作。这将导致:组织内部重新定义"人均产出";AI资源成为与人力资源同等重要的预算项目;管理者需要学习如何分配和优化AI资源。

7. 专家洞察与风险边界

非共识结论

Paul Roetzer的独特视角:在本期节目中,Paul提出了几个与主流观点不同的看法:

  1. 关于Anthropic事件的最终走向:尽管表面上看形势对Anthropic极为不利,但Paul认为这很可能是一场"极端立场作为谈判策略"的戏码。他指出:“这个政府做的最极端的事情,说最极端的话,都是为了让你在中间或接近他们的最终目标时妥协。我不认为这真的会发生。我认为他们会找到一种方法来完成交易。”

  2. OpenAI快速"补位"的深层含义:Paul对OpenAI在Anthropic被制裁数小时后宣布与五角大楼合作的速度表示怀疑:“这是政府——没有任何政府合同能在12小时内完成。我不知道这怎么可能。“他暗示这可能是预先安排好的"剧本”。

  3. 对AI采用速度的判断:Paul坚持认为,尽管技术在12-18个月内可以实现大多数白领任务的自动化,但"人类摩擦和组织变革阻力"将大大延缓这一进程。他预计真正的大规模采用需要三到五年。

局限性与风险预警

“验证差距"问题:Anthropic的AI Fluency Index研究揭示了一个关键悖论——当AI产出看起来更"抛光"时,用户实际上会减少对它的评估。这是极其危险的,因为AI的"自信产出"可能包含错误但看起来可信的内容。企业需要建立强制性的"人类验证"环节。

AI代理的"脱轨"风险:随着AI代理能够自主执行越来越多的任务,它们偏离预期目标或被滥用的风险也在增加。企业需要建立AI代理的"行为边界"和监控机制。

企业内部强推AI可能带来的问题:AI转型过快可能导致员工倦怠、人际摩擦和组织信任下降。Paul多次强调:“变化管理"是AI采用中最被低估的挑战。

地缘政治风险的不可预测性:Anthropic事件表明,AI公司面临的最大的不可预测风险可能来自政府政策。企业需要建立"政策情景规划"能力,为各种可能的监管情景做准备。

8. 核心金句

“所有的政府言论,尽管有虚张声势,尽管有来回的交锋,尽管有各种推文,他们只是在承认他们离不开Claude。”

“如果你还在用免费版ChatGPT,就像在智能手机时代坚持使用翻盖手机来评估科技发展。”

“模型不仅没有减轻工作量,反而加剧了工作强度,因为现在的知识工作者成了AI的调度枢纽。”

“如果你是一家大型企业、一个高度受监管的行业,你现在知道两年多来唯一一家政府在机密环境中信任的公司是Anthropic。你会信任谁?肯定不是XAI——他们甚至无法让Grok获得批准。”

“编码已死——软件工程师这个职位将开始消失,这将给很多人带来痛苦。”

“你必须相信这个不完美的宪政共和国仍然足以治理国家,不能把真正的权力杠杆外包给亿万富翁和他们的隐形顾问。”

“OpenAI需要企业在采用上有所突破。他们已经承认了这一点。现在他们正试图把这些东西组合起来以实现突破。”

“数据中心的反感情绪跨越了传统的政治分歧——左翼反对是因为能源和水资源压力,右翼反对是将其视为精英科技公司的过度扩张。当两边都讨厌你时,这不是好事。”

“AI对白领工作替代的速度不会由技术决定,而将由人类摩擦和组织变革阻力决定。”

“这不仅仅是AI的问题。这是美国政府本质上在命令经济中施加对AI工具和技术的控制。”


本摘要基于2026年3月2日录制的《The Artificial Intelligence Show》第200期节目内容生成。全文使用简体中文,约6800字。


📺 播客地址


播客时长: 90分钟