原始标题: Anthropic Is Mad That China Did What They Did

发布日期: 2026-02-25 | 来源频道: @mreflow

📝 深度摘要

模型蒸馏风暴:Anthropic 控诉三大中国 AI 公司的深度剖析

1. 对话背景与核心主题

2026年2月23日,Anthropic 发布了一篇措辞强烈的博客文章,指控三家中国人工智能公司——DeepSeek、Moonshot AI(Moonshot)和Minimax——通过“模型蒸馏”(Model Distillation)手段,系统性地窃取其 Claude 模型的训练成果。Anthropic 声称这些公司使用了超过 24000 个虚假账户、进行了约 1600 万次模型交互,并利用代理网络规避访问限制,将这一行为定性为“国家级安全威胁”和“工业规模蒸馏攻击”。

本视频的核心元问题是:这场指控的真实性如何?其背后隐藏着怎样的行业潜规则?以及为什么说 Anthropic 本身也面临着类似的道德质询?

2. 核心干货概览

类别 核心动态 / 工具 生产力价值 / 硬件门槛
模型/产品更新 DeepSeek、Moonshot、Minimax 被指控进行模型蒸馏 Anthropic 损失巨大:150,000+ 次(DeepSeek)、340 万次(Moonshot)、1300 万次(Minimax)的模型交互
硬件/环境要求 需要大量 GPU 集群进行蒸馏训练 [Anthropic 训练成本]:数百万人工智能美元,部分项目高达数十亿美元;训练周期通常为 90-100 天
隐私与安全 蒸馏后的模型可能丢失安全护栏 [用户风险]:安全护栏在蒸馏过程中丢失,未来模型可能被用于绕过安全限制

3. 每周要闻与多模型观察

动态一:Anthropic 博客事件全貌

事件背景

Anthropic 于 2026 年 2 月 23 日发布博客文章《检测并防止蒸馏攻击》,首次公开指控三家中国公司系统性窃取其模型能力。这一指控的核心是:这些公司使用虚假账户和代理服务器,大量调用 Claude API,意图获取模型响应用于训练自己的竞争产品。

技术逻辑还原

模型蒸馏本质上是一种知识迁移技术。以 Anthropic 为例,其训练流程如下:首先,Claude Opus 作为“教师模型”,需要投入数百万人工智能美元、历时 90-100 天、使用大规模 GPU 集群完成训练。当需要创建更小更快的模型(如 Sonnet 或 Haiku)时,Anthropic 会启动蒸馏流程——让“学生模型”向教师模型提交数百万次 Prompt,教师模型返回包含思维链(Chain of Thought)和最终响应的数据对学生模型进行训练。

被指控的三家公司采用完全相同的手段,但目标不同:

  • DeepSeek:超过 15 万次交互,专门针对推理能力、基于评分的任务、强化学习奖励模型建模,以及生成符合中国政策的“安全替代”响应(即绕过政治敏感话题的回答)
  • Moonshot AI:超过 340 万次交互,针对代理推理、工具使用、编码与数据分析、计算机视觉、代理开发等能力
  • Minimax:超过 1300 万次交互,为规模最大者,针对代理编码和工具编排。更值得注意的是,当 Anthropic 发布新模型时,Minimax 在 24 小时内迅速调整,将近一半的流量重定向到新模型以获取最新能力

行业冲击波

这一指控直接将 AI 行业的数据伦理问题推上风口浪尖。蒸馏行为直接违反 Anthropic 的服务条款,但问题的复杂性在于:这种行为是否真的违法?

动态二:Anthropic 的“双标”质疑

事件背景

视频指出 Anthropic 的指控存在显著讽刺意味:这家以“数据伦理”著称的 AI 公司,本身就是最大的数据侵犯者之一。

技术逻辑还原

  • 2025年9月:Anthropic 与一批作者达成和解,同意支付约 15 亿美元,解决首例 AI 版权侵权诉讼。涉及约 50 万本图书,每本补偿约 3000 美元
  • 2025年6月:Reddit 起诉 Anthropic,指控其未经授权使用 Reddit 数据用于商业目的,违反用户协议
  • 行业普遍现象:OpenAI 被指控转录超过 100 万小时的 YouTube 视频用于训练 GPT-4;Meta 故意非法收集大量图书数据用于模型训练(有聊天记录证明其明知故犯);Google 和 xAI 也因抓取盗版图书用于 AI 训练而被起诉

行业冲击波

整个 AI 行业建立在“先取后问”的潜规则之上:大模型公司未经许可抓取互联网数据训练模型,被指控后以“合理使用”抗辩;当中国公司用相同逻辑抓取大模型输出时,却被定义为“工业规模盗窃”。这一双重标准揭示了 AI 版权领域的深层矛盾。

动态三:为什么你应该关心这场争议

用户层面的直接风险

  1. 安全护栏流失:模型蒸馏过程中,大量的安全训练数据被丢弃。原始模型经过“广泛训练以拒绝潜在危险请求”,但蒸馏后的学生模型往往无法保留这些安全护栏。如果未来模型继续从这些“脱轨”版本蒸馏,安全风险将层层累积
  2. 法律灰色地带:美国版权局已明确表示“AI 生成的内容不受版权保护”,大多数 AI 公司的服务条款规定“模型输出归用户所有而非公司”。因此,用蒸馏方法获取模型输出是否构成盗窃,在法律上尚未有定论
  3. 地缘政治工具化:Anthropic 试图将这一事件作为证据,证明美国应加强对中国的计算资源出口限制,进一步加剧 AI 领域的国际竞争

4. 深度实测 SOP 与性能报告

本视频为新闻分析类内容,未包含具体工具实测环节。主要信息节点如下:

  • 博客发布时间:2026年2月23日
  • 检测方法:Anthropic 声称通过 IP 地址关联、请求元数据、基础设施指标和行业合作伙伴协同确认了攻击者身份
  • DeepSeek 目标数据:推理能力、评分任务、奖励模型、安全响应替代
  • Moonshot 目标数据:代理推理、工具使用、编码、数据分析、计算机视觉、代理开发 -目标数据**:代理 **Minimax 编码、工具编排,响应速度达到 24 小时内重定向一半流量到新模型

5. 行业清醒剂与非共识观察

反直觉结论

整个 AI 行业的数据获取模式本质上都是“偷窃”,区别只在于谁有权力抱怨。Anthropic 抓取全网数据训练模型被称为“合理使用”,中国公司抓取 Anthropic 输出训练模型却被定义为“工业规模盗窃”。视频尖锐指出:“真正唯一的区别在于谁有最大的权力和法律手段来投诉并采取行动。”

实战陷阱

  • 服务条款不是法律:违反服务条款 ≠ 违法。在美国现行法律框架下,蒸馏 AI 模型输出尚未被明确认定为非法行为
  • 版权真空:AI 生成内容不受版权保护,意味着任何人都可以自由使用——这为蒸馏行为提供了法律漏洞
  • 安全护栏的脆弱性:每一次蒸馏都可能导致安全能力的退化,未来可能出现“越蒸馏越危险”的模型链

6. 金句

  • “整个 AI 行业建立在’先取了再说,从来不问许可’的基础上。”
  • “真正唯一的区别在于谁有最大的权力和法律手段来投诉并采取行动。”
  • “这个问题还会混乱一段时间,我们究竟是要画一条线,还是就这样默认——大家都互相抄?”

摘要生成说明:本摘要基于 2026 年 2 月 25 日 mreflow 频道视频《Anthropic Is Mad That China Did What They Did》完整转录稿整理。视频长度约 13 分钟,属于新闻评论类内容。Anthropic 原名为 Enthropic(字幕 ASR 识别错误),已根据上下文修正。


📺 视频原片


视频ID: sNCPV-Og9A8