Anthropic拒绝军方需求,五角大楼措手不及
Anthropic拒绝美国国防部合同,提出两项核心红线:禁止将Claude用于自主武器和致命无人机,禁止用于大规模监控美国公民。国防部威胁援引《国防生产法》强制获取技术,但Anthropic明确表态拒绝。该事件揭示了LLM作为概率机器的技术局限性,无法保证自主武器的可靠性,为AI行业安全标准树立了标杆。
Anthropic拒绝美国国防部合同,提出两项核心红线:禁止将Claude用于自主武器和致命无人机,禁止用于大规模监控美国公民。国防部威胁援引《国防生产法》强制获取技术,但Anthropic明确表态拒绝。该事件揭示了LLM作为概率机器的技术局限性,无法保证自主武器的可靠性,为AI行业安全标准树立了标杆。
Anthropic与美国国防部爆发激烈冲突。国防部曾斥资2亿美元将Claude集成至机密网络,2026年委内瑞拉军事行动中Claude被曝用于实战,五角大楼震怒威胁将其列为"供应链风险"。Anthropic坚持两条底线:拒绝大规模监视美国人、拒绝开发全自动武器,与国防部要求的"所有合法用途"形成根本对立。这场博弈将决定AI公司是否有权对政府说"不",并可能重塑未来十年AI与权力的基本格局。