Anthropic指控中国AI公司通过1600万次交互窃取Claude模型功能,中美AI竞争进入新阶段
发布时间: 2026年2月25日 09:03 | 来源: 虎嗅 | 阅读时间: 8分钟
事件概述
2026年2月24日,美国AI公司Anthropic在其官网发布声明,指控中国三家AI实验室——DeepSeek、Moonshot AI和MiniMax——通过约24000个虚假账户与Claude模型进行了超过1600万次交互,试图通过"蒸馏"(distillation)技术窃取Claude的核心能力。这一指控迅速在AI圈引发震动,不仅因为其规模之大,更因为其揭示了中美AI竞争正在进入新的阶段。
技术背景:什么是模型蒸馏?
模型蒸馏是一种知识转移技术,最早由"AI教父"杰弗里·辛顿于2015年提出。基本原理是通过大型"教师模型"的输出训练较小的"学生模型",使学生模型能够以更低的计算成本获得接近教师模型的性能。在大模型时代,由于顶级模型通常不开放权重,蒸馏演变为通过API调用获取输出,再利用这些输出训练竞争模型。
Anthropic指控的具体内容
- DeepSeek: 超过150,000次对话交互,重点针对推理能力、评分量表任务和政治敏感查询的"审查安全"替代表述。
- Moonshot AI: 超过340万次对话交互,重点针对智能体推理、编程、数据分析和计算机视觉。
- MiniMax: 超过1300万次对话交互,重点针对智能体编程和工具使用编排。
技术手段:九头蛇集群架构
Anthropic在报告中详细描述了这些实验室使用的技术手段。为了绕过Anthropic对中国地区的访问限制,这些实验室采用了被称为"九头蛇集群"(hydra cluster)的架构:由大量虚假账户构成的庞大网络,将流量分散到API和第三方云平台。当一个账户被封禁,另一个账户会立刻补上,单个代理网络曾同时管理超过20,000个虚假账户。
行业反应与争议
Anthropic的指控引发了业内不同反应。马斯克在X上调侃:"他们竟敢‘偷窃’Anthropic从人类程序员那里偷走的东西?" 这一评论暗指Anthropic自身也使用了受版权保护的材料进行训练。
学术界人士则指出,使用大模型输出作为训练数据在行业内是常见做法。一位不愿具名的研究员表示:"对于闭源模型来说,既然你不公布代码,我也可以用指令微调学习黑盒的经验。"
法律层面的复杂性
融力天闻律师事务所高级合伙人翁才林分析指出,这一事件涉及多个法律层面:
| 法律领域 | 关键问题 | 可能性 |
|---|---|---|
| 合同法 | 是否违反服务条款 | 可能构成违约 |
| 著作权法 | API输出是否受版权保护 | 保护难度大 |
| 不正当竞争 | 是否存在欺骗手段 | 举证困难 |
| 计算机欺诈 | 是否未经授权访问 | 刑事责任门槛高 |
国家安全层面的升级
Anthropic在声明中将此事与国家安全挂钩:"非法提炼的模型缺乏必要的安全保障,会造成重大的国家安全风险。" 这一表述与美国政府近年对AI技术出口管制的立场一致。
值得关注的是,Anthropic已成为美国政府的重要AI服务承包商。2025年,该公司与美国国防部CDAO签约,为国防场景开发定制模型,订单最高达2亿美元。
对行业的影响
这一事件可能对AI行业产生深远影响:
- 技术封闭化加剧: 闭源模型公司可能进一步限制API访问,特别是链式思维推理过程的输出。
- 法律框架完善: 可能推动针对AI模型蒸馏的法律法规出台。
- 产业分化加速: 中美AI技术生态可能进一步脱钩。
- 开源模型受益: 蒸馏技术可能加速能力向开源模型扩散。
未来展望
蒸馏争议揭示了一个根本性问题:在API时代,AI能力是否应被视为"可被合法观察并再利用"的资源。这一问题不仅涉及技术,还涉及商业伦理、法律边界和国际关系。
随着AI技术日益成为国家竞争力的核心,类似的争议可能会更加频繁。行业需要建立更清晰的规范,平衡技术创新、知识产权保护和国际竞争的关系。
本文基于虎嗅网《Anthropic向中国大模型发难,马斯克都看不下去了》等多篇报道综合撰写,旨在提供深度分析和行业洞察。