原始标题: The Government Just Blacklisted Anthropic
发布日期: 2026-02-28 | 来源频道: @matthew_berman
📝 深度摘要
1. 对话背景与核心主题
本期视频发布于2025年2月28日,聚焦于美国国防部(五角大楼)与Anthropic之间正在激化的重大冲突。事件的起因是五角大楼向Anthropic发出最后通牒:要求其移除Claude模型的所有安全护栏(guardrails),以便将Anthropic的技术用于国防用途,否则将被列入黑名单。Anthropic联合创始人Dario Amodei果断拒绝这一要求,这一立场直接导致了一场关于AI安全、国家安全与商业利益三方博弈的升级战。Matthew Berman在视频中对这场冲突的前因后果进行了深度梳理,并援引了多方信源(包括Axios报道、华尔街日报、公开信件等),试图为观众呈现这场AI行业里程碑事件的完整脉络。
2. 核心干货概览 (Technical Takeaways & Stack)
| 类别 | 名称 | 核心用途 / 技术意义 |
|---|---|---|
| AI模型提供商 | Anthropic (Claude) | 拥有Claude系列模型,已与美国国防部签订价值2亿美元的合同,是首个将模型集成到机密网络任务工作流程中的AI实验室 |
| 政府合同方 | Department of Defense (DoD) | 美国国防部,通过Palantir合同使用Anthropic模型执行了委内瑞拉马杜罗政府的突袭行动 |
| 竞争AI公司 | OpenAI / DeepMind / XAI | 2024年7月与Anthropic同时获得国防部最高2亿美元的合同,用于原型化前沿AI能力以推进美国国家安全 |
| 威胁工具 | Defense Production Act (DPA) | 1950年《国防生产法》,赋予总统在战争或战争边缘时期强制私人企业配合国家防务生产的权力 |
| 关键人物 | Pete Hegseth(国防部长)、Dario Amodei(Anthropic联合创始人)、Sam Altman(OpenAI CEO)、Trump(前总统) | 事件的主要博弈方 |
| 核心技术指标 | $200M合同金额 | Anthropic与国防部于2024年7月签署的合同价值 |
| Supply Chain Risk(供应链风险) | 国防部长Pete Hegseth首次将一家美国AI公司标记为供应链风险,此举史无前例 |
3. 技术深度拆解与实战 SOP (Technical Deep Dive / SOP)
事件时间线还原
2024年7月,Anthropic、OpenAI、DeepMind和XAI四家AI公司与美国国防部签署了价值高达2亿美元的合同,用于原型化前沿AI能力以推进美国国家安全。Anthropic是首个将其模型集成到机密网络任务工作流程中的AI实验室。2025年1月,据华尔街日报报道,五角大楼通过与Palantir的合同使用了Anthropic的模型来执行捕获委内瑞拉总统马杜罗及其妻子的行动,并对加拉加斯的多个地点进行了轰炸。值得注意的是,Anthropic的使用指南明确禁止Claude被用于促进暴力、开发武器或进行监视。
国防部的核心诉求
五角大楼具体要求Anthropic移除两项安全护栏:一是将Claude模型用于针对美国公民的大规模监视,二是将AI用于开发完全没有人类介入的完全自主武器。国防部长Pete Hegseth明确表示,这些要求是“合法AI使用,无限制”,并威胁如果Anthropic不配合,将采取三项措施:将Anthropic标记为供应链风险(这一定位此前仅用于外国对手)、取消其2亿美元合同、援引《国防生产法》强制Anthropic提供无任何限制的模型。
Anthropic的拒绝理由
Dario Amodei在给国防部的回信中阐述了拒绝的两大核心原因。首先,关于大规模监视,他明确表示Anthropic已经切断了一切与中国共产党相关企业的访问,即使以牺牲自身收入为代价也在所不惜,并关闭了由CCP赞助的网络攻击,支持强力的芯片出口管制。但在有限的案例中,AI可能会削弱而非捍卫民主价值,且某些用途超出了当今技术能够安全可靠地完成的范围。其次,关于完全自主武器,前沿AI系统根本无法可靠地运行完全自主武器,模型会产生幻觉,一个简单的错误就可能导致生命损失。在没有适当监督的情况下,完全自主武器无法依赖其行使我们的高素质专业军队每天展现的关键判断能力。Amodei在信中最后表示:“我们强烈的偏好是继续在保留两项 requested safeguards 的前提下为部门和我们的战争战斗机服务。”
多方博弈与最新升级
Sam Altman在公开场合表示支持Anthropic的立场,他在一份内部备忘录中告诉员工,OpenAI仍在与国防部探讨其模型是否可以在保留相同安全护栏的情况下用于机密环境。此外,约200名来自顶级AI公司的工程师签署了一封信,表达了与Anthropic一致的立场。然而,在视频发布前夕,Trump在社交媒体上发文称“美国永远不会允许激进的左翼公司来决定我们伟大的军队如何战斗和获胜”,并宣布将指示所有联邦机构立即停止使用Anthropic的技术。随后,Pete Hegseth宣布将Anthropic指定为供应链安全风险,这是美国公司首次被冠以此标签,意味着任何与美国军方有业务往来的承包商、供应商或合作伙伴都不能与Anthropic进行任何商业活动。
4. 核心干货运用 (Prompts & Configuration)
本期视频并非技术实操类内容,因此不涉及具体的Prompt或代码配置。然而,Dario Amodei信件中展现的沟通策略值得参考:他采用了“承认合作价值+明确底线+提供替代方案”的三段式结构。首先肯定AI用于国防的合法性(“我坚信使用AI保卫美国和其他民主国家、击败我们的独裁对手具有生存重要性”),然后在关键原则上寸步不让(“我们不会故意提供一款将美国战斗机和公民置于风险中的产品”),最后表示即使合作破裂也会确保平稳过渡。这种策略在商业谈判中具有普适参考价值。
5. 极客洞察与避坑指南 (Geek Insights & Boundary)
反直觉技术结论
Dario Amodei在信中提出的一个关键论点是:即使移除护栏,国防部想要模型做的事情模型也做不到。他明确指出前沿AI系统存在严重的可靠性问题——“AI模型会产生幻觉,一个简单的错误就可能导致生命损失”。这意味着AI在军事场景中的实际可用性远比外界想象的受限,单纯移除安全护栏并不能解决技术本身的不确定性问题。
适用边界与风险
此次事件揭示了AI技术在国家安全领域的几个关键边界:一是当前AI模型的可靠性不足以支撑高风险的自主决策场景;二是大规模公民监视在法律和伦理层面面临双重红线;三是供应链风险标签的泛化使用可能对整个AI行业产生寒蝉效应。Matthew在视频中指出,如果Anthropic被边缘化,国防部可能会转向那些“可能没有相同护栏”的其他AI公司,这意味着安全标准的降低而非提升。
实战陷阱
视频中提到的核心教训是:国防部一方面声称“我们当然不会用于大规模监视和完全自主武器”,另一方面却要求“移除所有护栏”——这种自相矛盾的逻辑暴露了承诺的不可靠性。Matthew评论道:“你不会做的那件事恰恰是你要求被移除的东西。”此外,将Anthropic标记为“既是安全风险又对政府至关重要”这种矛盾身份,也体现了在政策制定中技术现实与政治叙事之间的巨大鸿沟。
6. 金句 (Golden Quotes)
- “Yes, AI models hallucinate and one simple mistake could cost lives.”(是的,AI模型会产生幻觉,一个简单的错误就可能导致生命损失。)
- “We will not knowingly provide a product that puts America’s warfighters and civilians at risk.”(我们不会故意提供一款将美国战斗机和公民置于风险中的产品。)
- “You’re not going to do that. But also the thing that definitely prevents you from doing that, you’re asking to have removed.”(你不会做那件事。但恰恰是阻止你做那件事的东西,你却要求被移除。)
- “They are both a security risk and essential to the government, which obviously is very contradictory.”(他们既是安全风险又对政府至关重要,这显然非常矛盾。)
- “We have long believed that AI should not be used for mass surveillance or autonomous lethal weapons and that humans should remain in the loop for high stakes automated decisions.”(我们长期坚信AI不应被用于大规模监视或自主致命武器,在高风险的自动化决策中人类必须保持在决策循环中。)
📺 视频原片
视频ID: rgqxrw26twA