berman_美国政府将Anthropic列入黑名单

美国国防部向Anthropic发出最后通牒,要求移除AI模型的所有安全限制用于军事目的,遭拒绝后威胁将其列入供应链风险名单。2025年7月Anthropic曾与国防部签署2亿美元合同,2026年1月国防部利用其模型参与委内瑞拉马杜罗政府的逮捕行动。国防部要求包括大规模监控美国公民和开发全自动武器,Anthropic坚决拒绝,理由是AI模型存在幻觉问题可能导致致命错误。Sam Altman公开支持Anthropic立场,200多名AI工程师签署联名信。这是首次有美国公司被政府标记为「供应链风险」,可能开创先例并对AI行业产生深远影响。

February 28, 2026 · 2 min · 952 words · AIcan

自主AI武器与大规模监控:Anthropic与美国国防部的最后通牒

Anthropic面临国防部最后通牒,要求无限制使用Claude模型用于自主武器和大规模监控。五角大楼甚至将Anthropic列为「供应链风险」——这一标签通常只针对美国对手。Anthropic从技术和法律角度反对:AI系统不足以支撑完全自主武器,会犯太多致命错误;大规模监控可将分散数据自动汇总成完整生活画像。300多名OpenAI和Google员工联名请愿支持Anthropic。AI代理的可靠性问题被基准测试掩盖,论文显示代理可能执行危险命令如泄露私人邮件。行业态度分化,前沿模型测试均拒绝配合国防部要求。

February 27, 2026 · 3 min · 1353 words · AIcan