自主AI武器与大规模监控:Anthropic与美国国防部的最后通牒

Anthropic面临国防部最后通牒,要求无限制使用Claude模型用于自主武器和大规模监控。五角大楼甚至将Anthropic列为「供应链风险」——这一标签通常只针对美国对手。Anthropic从技术和法律角度反对:AI系统不足以支撑完全自主武器,会犯太多致命错误;大规模监控可将分散数据自动汇总成完整生活画像。300多名OpenAI和Google员工联名请愿支持Anthropic。AI代理的可靠性问题被基准测试掩盖,论文显示代理可能执行危险命令如泄露私人邮件。行业态度分化,前沿模型测试均拒绝配合国防部要求。

February 27, 2026 · 3 min · 1353 words · AIcan

Anthropic硬杠五角大楼AI公司与军方的隐私与武器伦理之争

Anthropic硬杠五角大楼!因拒绝AI用于大规模监控美国公民和开发自主武器,国防部威胁将其列入供应链风险黑名单——这种惩罚通常仅针对中国、俄罗斯等外国对手。Anthropic CEO Dario Amodei明确划定两条红线:禁止用Claude大规模监控公民、禁止开发无需人类干预的自主武器。他警告政府可能通过四种方式利用AI走向威权主义:大规模监控、批量宣传、自主武器、战略决策自动化。这场AI公司与军方的伦理之争将确立AI军事使用的先例——如果AI公司放弃道德审查,政府使用AI将完全不受民间制衡,普通公民可能在不知情下被AI系统标记追踪。

February 18, 2026 · 3 min · 1274 words · AIcan

berman_OpenAI到底在搞什么

OpenAI首席财务官在达沃斯论坛透露,公司正探索新商业模式:当药企使用ChatGPT进行药物研发时,OpenAI将获得收益分成。此言引发舆论争议,被误读为向所有用户「收税」。实际上该计划仅针对药物研发领域,药企使用OpenAI算力加速药物发现,作为回报支付许可费分成。2025年OpenAI收入已达200亿美元,连续三年翻倍。若这种模式扩展至其他行业,拥有算力的公司可能掌握所有资源。这一商业模式也引发关于AGI时代算力垄断的深层担忧。

January 24, 2026 · 3 min · 1099 words · AIcan