berman_美国政府将Anthropic列入黑名单

美国国防部向Anthropic发出最后通牒,要求移除AI模型的所有安全限制用于军事目的,遭拒绝后威胁将其列入供应链风险名单。2025年7月Anthropic曾与国防部签署2亿美元合同,2026年1月国防部利用其模型参与委内瑞拉马杜罗政府的逮捕行动。国防部要求包括大规模监控美国公民和开发全自动武器,Anthropic坚决拒绝,理由是AI模型存在幻觉问题可能导致致命错误。Sam Altman公开支持Anthropic立场,200多名AI工程师签署联名信。这是首次有美国公司被政府标记为「供应链风险」,可能开创先例并对AI行业产生深远影响。

February 28, 2026 · 2 min · 952 words · AIcan

AI行业有史以来最重大的抉择时刻

Anthropic面临美国国防部史无前例的威胁:要求在周五前放弃两项安全限制——不能用于监控美国公民、不能用于完全自主武器,否则将被列入供应链风险名单。国防部同时威胁动用《国防保护法》强制移除安全限制。Anthropic明确拒绝:大规模监控与民主价值观不相容,当前AI系统可靠性不足以支持全自动武器。尽管如此,Musk的xAI已与国防部达成协议,Grok将被用于机密系统。同时,AI代理工具全面爆发,Perplexity Computer可控制用户电脑完成任务,Cursor Agents可运行10小时完成编码项目,Claude Code可远程审批AI操作。Anthropic还披露三家公司利用虚假账户蒸馏Claude模型。

February 27, 2026 · 4 min · 1796 words · AIcan

Gemini成为最佳全能AI

本周AI领域继续火热发展,Google通过大量产品更新主导了本周新闻热点,同时Anthropic也带来了7个不同领域的更新。主持人认为Gemini现已整合搜索、创作、代码等多种能力,成为最佳全能AI代表。此外,实时AI头像等新功能的出现展示了AI技术的更多可能性。本期视频还介绍了其他有趣的AI应用更新,为观众梳理了本周AI行业的最新动态。

February 27, 2026 · 1 min · 391 words · AIcan

自主AI武器与大规模监控:Anthropic与美国国防部的最后通牒

Anthropic面临国防部最后通牒,要求无限制使用Claude模型用于自主武器和大规模监控。五角大楼甚至将Anthropic列为「供应链风险」——这一标签通常只针对美国对手。Anthropic从技术和法律角度反对:AI系统不足以支撑完全自主武器,会犯太多致命错误;大规模监控可将分散数据自动汇总成完整生活画像。300多名OpenAI和Google员工联名请愿支持Anthropic。AI代理的可靠性问题被基准测试掩盖,论文显示代理可能执行危险命令如泄露私人邮件。行业态度分化,前沿模型测试均拒绝配合国防部要求。

February 27, 2026 · 3 min · 1353 words · AIcan

Anthropic怒斥中国AI公司蒸馏攻击

2026年2月Anthropic发布博客,指控DeepSeek、Moonshot、Minimax三家中国AI公司通过模型蒸馏技术窃取Claude模型能力,涉及24000个虚假账户和超1600万次交互。视频深入解析蒸馏技术原理:学生模型通过向教师模型提问获取思维链和回答,反复训练以学到推理能力。然而Anthropic自身也是蒸馏的践行者,从Opus蒸馏出Sonnet再蒸馏出Haiku。更具讽刺意味的是,Anthropic曾未经许可抓取互联网数据训练模型,被作家群体和Reddit起诉。这种双标行为引发舆论热议:整个AI行业都建立在先拿后问的基石之上,问题在于是否要在某处划线。

February 25, 2026 · 3 min · 1405 words · AIcan

AI新闻本周5款重磅新模型发布

本周AI领域迎来大爆发!Anthropic发布Sonnet 4.6,在编程和代理能力上接近旗舰Opus水平;Google连推Gemini 3.1 Pro、LRA 3音乐模型和Photo Shoot功能,形成全方位产品矩阵;XAI Grock 4.2采用四代理协作架构,实现并行思考与交叉验证;开源阵营也传来好消息,字节跳动Seed 2.0在视觉任务上表现突出,阿里Qwen 3.5 397B-A17B成为首个开源多模态旗舰。本周还发生多起争议事件:五角大楼希望将Claude用于军事用途引发伦理讨论,字节跳动Seed Dance 2.0因使用演员形象遭好莱坞抵制,OpenClaw创始人跳槽OpenAI,Meta被曝获得可接管已故用户社交账户的专利。

February 20, 2026 · 8 min · 3613 words · AIcan

berman_Anthropic刚刚封禁了OpenClaw

Anthropic更新云服务政策,禁止用户使用订阅获取的OOTH令牌驱动OpenClaw等第三方工具。作者认为这是AI领域近期最大的失误——Anthropic不仅失去充满活力的开发者社区,还直接将用户推向竞争对手OpenAI。政策虽未点名OpenClaw但明显针对该工具,用户仍在付费并非白嫖。事件时间线戏剧性:Claudebot病毒式传播后Anthropic要求改名,创始人Peter随后约一周半被OpenAI收购,同一天Anthropic封锁OOTH访问而OpenAI表示欢迎。作者已切换主力模型至ChatGPT订阅,保留Anthropic模型作为备用,这场政策变动反而促成了OpenAI的胜利。

February 19, 2026 · 3 min · 1155 words · AIcan

Claude_Code负责人编程解决之后会发生什么

Anthropic Claude Code负责人Boris Cherny认为编程已’大致解决’,他100%代码由Claude Code编写,去年11月以来从未手动编辑代码,每天能提交10-20个PR。他将AI编程比作古腾堡印刷机——15世纪欧洲识字率不足1%,印刷机出现后50年全球识字率升至70%。编程民主化将遵循同样轨迹。他认为软件工程师头衔可能消失,取而代之是’builder’或’产品经理’,工程师与产品经理、设计师角色正模糊融合。70%工程师表示使用AI后工作更快乐,但过渡期将是痛苦和破坏性的,需要整个社会共同应对。

February 19, 2026 · 3 min · 1283 words · AIcan

Anthropic硬杠五角大楼AI公司与军方的隐私与武器伦理之争

Anthropic硬杠五角大楼!因拒绝AI用于大规模监控美国公民和开发自主武器,国防部威胁将其列入供应链风险黑名单——这种惩罚通常仅针对中国、俄罗斯等外国对手。Anthropic CEO Dario Amodei明确划定两条红线:禁止用Claude大规模监控公民、禁止开发无需人类干预的自主武器。他警告政府可能通过四种方式利用AI走向威权主义:大规模监控、批量宣传、自主武器、战略决策自动化。这场AI公司与军方的伦理之争将确立AI军事使用的先例——如果AI公司放弃道德审查,政府使用AI将完全不受民间制衡,普通公民可能在不知情下被AI系统标记追踪。

February 18, 2026 · 3 min · 1274 words · AIcan

berman_Anthropic发布Sonnet4_6知识工作者的超级引擎

Anthropic 发布 Claude Sonnet 4.6,被定位为知识工作者的主力模型。多项基准测试实现显著提升:智能终端编码从 51% 升至 59%,工具使用从 43.8% 飙升至 61.3%,代理计算机使用从 61% 跃升至 72.5%,财务分析以 63 分超越 Opus 4.6 位列第一。该模型支持 100 万 token 上下文窗口,定价与 4.5 保持一致(输入 $3/百万 token,输出 $15/百万 token),已成为免费版默认模型。Sonnet 4.6 采用无特殊 API设计,模型像人类一样通过虚拟鼠标键盘与计算机交互,能够创建 PowerPoint、操作 Excel,并支持 MCP 连接器。Anthropic 还引入自适应推理功能,允许用户动态调整思考 token 使用量。值得注意的是,Sonnet 与 Opus 之间的差距正在迅速缩小。

February 17, 2026 · 2 min · 943 words · AIcan