自主AI武器与大规模监控:Anthropic与美国国防部的最后通牒
Anthropic面临国防部最后通牒,要求无限制使用Claude模型用于自主武器和大规模监控。五角大楼甚至将Anthropic列为「供应链风险」——这一标签通常只针对美国对手。Anthropic从技术和法律角度反对:AI系统不足以支撑完全自主武器,会犯太多致命错误;大规模监控可将分散数据自动汇总成完整生活画像。300多名OpenAI和Google员工联名请愿支持Anthropic。AI代理的可靠性问题被基准测试掩盖,论文显示代理可能执行危险命令如泄露私人邮件。行业态度分化,前沿模型测试均拒绝配合国防部要求。