Anthropic硬杠五角大楼AI公司与军方的隐私与武器伦理之争

Anthropic硬杠五角大楼!因拒绝AI用于大规模监控美国公民和开发自主武器,国防部威胁将其列入供应链风险黑名单——这种惩罚通常仅针对中国、俄罗斯等外国对手。Anthropic CEO Dario Amodei明确划定两条红线:禁止用Claude大规模监控公民、禁止开发无需人类干预的自主武器。他警告政府可能通过四种方式利用AI走向威权主义:大规模监控、批量宣传、自主武器、战略决策自动化。这场AI公司与军方的伦理之争将确立AI军事使用的先例——如果AI公司放弃道德审查,政府使用AI将完全不受民间制衡,普通公民可能在不知情下被AI系统标记追踪。

February 18, 2026 · 3 min · 1274 words · AIcan

Anthropic CEO万字长文:未来1-2年的四大AI预测

本文深度解析了Anthropic CEO Dario Amodei发布的近2万字重磅论文,阐述未来1-2年AI发展的四大核心预测。Amodei作为Claude的缔造者,坚信改变世界的AI将在1-2年内到来,最晚不超过2030年。他指出Scaling Laws是AI能力提升的核心驱动力——投入更多数据和计算资源,AI的认知能力就会持续、可预测地增强。Amodei将当前AI发展阶段比作青春期,强调这是技术发展的必经阶段,需要正确引导。从任务自动化到工作自动化的转变,将是AI对人类社会最深刻的变革。

January 28, 2026 · 3 min · 1077 words · AIcan

Dario_Amodei达沃斯原子弹深度解读

Dario Amodei在达沃斯透露AI已能为下一代Claude研究人员编写几乎100%的代码,暗示递归自我改进(RSI)可能6-12个月内实现。一个令人震惊的发现是:Llama 60亿参数模型在某些任务上已比人类更节能。人类大脑运行需约20瓦能量,但成长需要数千瓦的训练能量;AI模型推理阶段能源效率已超过人类。这意味着在能源约束下,用AI解决问题可能比用人更划算。作者提出认知富足概念:随着AI每token智能不断提升,人类智力将成为负面期望值——雇佣人类反而会降低效率。虽然存在电力、芯片、数据等瓶颈,但这些都在快速消解,最终认知本身将不再是瓶颈。

January 23, 2026 · 4 min · 1925 words · AIcan