有人在偷答案
日期:2026-02-25 11:19:20 / 人气:5

关于Anthropic指控DeepSeek们的事,
以及一个更难回答的问题
先说一个细节。
2月23日,Anthropic的工程师们在监控数据里发现了一件事:他们的新版Claude刚刚发布,24小时之内,MiniMax的流量分布就发生了异动——将近一半的请求,从旧模型切换到了新模型上。
这不是正常用户的行为。正常用户不会这么快、这么整齐地集体迁移。
Anthropic由此确认,他们“抓了个现行”。
随后,Anthropic发布了一份措辞严厉的公开声明,指控DeepSeek、月之暗面(Kimi)、MiniMax三家中国AI公司,通过约2.4万个虚假账号,与Claude产生了超过1600万次对话,目的是系统性地把Claude的能力“蒸馏”进自己的模型。声明用了一个词:工业规模的攻击。
这件事今天在科技圈炸了。我想聊聊我怎么看。
一、蒸馏是什么,为什么这次不一样
先解释“蒸馏”是什么,因为不理解这个词,就没法真正读懂这场争论。
蒸馏,是AI训练里一种非常普遍的技术:用一个能力强的大模型生成的输出,去训练一个更小的模型,让小的学会大的本事。这就像一个经验丰富的老师,把自己的思考过程、解题方式、应对风格,通过大量示范传给学生——学生不一定理解老师的所有底层逻辑,但足以模仿出高质量的表现。
这个技术本身,完全合法,也极为普遍。包括Anthropic在内的所有顶尖AI公司,都在用蒸馏来制作自己的小尺寸模型,卖给需要更低成本方案的客户。
问题不在于蒸馏,问题在于:你不能拿别人家的老师来给自己的学生上课,还不告诉别人。
Anthropic的Claude不在中国提供商业服务。DeepSeek他们绕过这个限制,用代理服务、虚假账号大规模访问API,把Claude的输出收集起来训练自己的模型。这是违反服务条款的,也是Anthropic认为性质恶劣的地方。
证据层面,Anthropic给出了相当具体的细节。DeepSeek那边,多个账号之间有同步的流量模式、相同的支付方式、协调一致的请求时间,这是在做“负载均衡”——系统性地分散请求、规避检测。
更值得注意的是,DeepSeek专门让Claude生成政治敏感问题的“审查安全替代答案”,比如涉及异见人士和威权统治的话题——大概是为了训练自己的模型,让它在这类内容上给出符合中国审查要求的回答。Anthropic说,他们追踪到了具体的研究人员。
月之暗面(Kimi)超过340万次对话,主要针对推理能力和工具调用。MiniMax最多,1300多万次,主攻代码和智能体开发——就是开头说的那个,Claude新版上线24小时就切换过来蒸馏的那家。
这里有一个细节尤其值得注意:Anthropic说他们是在MiniMax蒸馏活动仍在进行时就发现了,这给了他们“前所未有的视角,可以观察到蒸馏攻击从数据收集到模型发布的完整生命周期”。
换句话说,Anthropic不只是事后追溯,而是当场看着对方操作,拍下来了全过程。这种实时取证,让这份声明的分量比一般的事后指控重得多。
二、但这件事还有另一面
到这里,如果只看Anthropic的声明,结论很清晰:这是偷窃,性质恶劣,威胁国家安全。
但我见过很多把商业利益包装成道义立场的声明。这件事,我觉得有必要再往深看一层。
先说一个让很多人觉得别扭的事实:AI行业从来没有清晰的“知识边界”。
大语言模型的训练数据,包含了互联网上几乎所有人写过的东西,大量内容处于版权灰色地带——OpenAI和Anthropic都曾因此被起诉。“从别人的输出里学习”这件事,本来就是这个行业的底层逻辑之一,区别只在于用了多少、怎么用。
DeepSeek去年发布R1模型之后,UC Berkeley的研究人员花了450美元、19个小时就复现出了类似效果;斯坦福的团队更快,50美元不到、26分钟。Hugging Face的工程师把OpenAI的Deep Research功能当成了一个24小时编程挑战来复现。DeepSeek自己在Hugging Face上发布的蒸馏版模型,许可证是MIT——允许商业使用,允许一切衍生。
如果学术界可以公开蒸馏,开源社区可以合法蒸馏,那边界,究竟画在哪里?
这个问题没有简单答案。Anthropic说的“违反服务条款”是真的,但服务条款是企业单方面制定的,不是法律。批评者说的“行业边界模糊”也是真的。两件事可以同时成立。
还有一件事值得单独说:这份声明发布的时机。
Anthropic是美国对华芯片出口管制最坚定的支持者之一。这份声明的核心论点之一是:“三家中国公司需要蒸馏Claude,恰恰说明出口管制是有效的——他们造不出这种能力,只能来偷。”这个论断,直接为限制芯片出口提供了政策弹药,而声明发布的时间点,恰好是美国政府正在重新讨论AI芯片出口政策的节骨眼上。同一天,路透社报道说美国官员认为DeepSeek可能用了英伟达最新的Blackwell芯片训练模型——如果属实,意味着绕过了出口管制。
两条相互强化的新闻,同一天出现,很难说完全是巧合。
商业利益、竞争焦虑、政策主张,在这份声明里缠绕在一起。这不是说指控不成立,而是说,读这类声明需要知道它站在什么立场上说话。
三、AI的能力,算谁的财产
剥离掉这些,这件事触碰到的核心问题,其实比“谁偷了谁”更难回答:
AI的能力,是一种什么性质的资产?它能被保护吗?应该怎么保护?
传统的知识产权框架——专利保护发明,版权保护表达,商业秘密保护配方——都是为有形的、可以被描述的东西设计的。但一个AI模型的“能力”不是这些。它是数十亿参数在海量数据上训练之后涌现出来的某种东西,你说不清楚它藏在哪里,也说不清楚它怎么来的。
这种“涌现能力”,目前没有任何法律框架能清楚地保护它。服务条款是有的,但服务条款是企业单方面制定的,不是法律。专利是有的,但你很难把“更好的推理能力”写成一项专利。版权是有的,但版权保护的是表达,不是能力本身——你可以抄一段文字,但你没法“抄”一个模型的思维方式。
这个法律空白,不只是中美之间的问题。即便是在美国国内,法院对AI生成内容的版权归属、对模型训练数据的合规边界,也还在摸索中。这场争论,本质上是新技术走在了法律框架前面,而各方都在试图用自己最有利的方式填补这个空白。
Anthropic聪明的地方在于,它把这个法律上没有答案的问题,升级成了国家安全问题。一旦进入国家安全框架,就不需要法院,不需要举证,需要的是政策制定者的意志。
这是一次把技术争议转化为政治议题的操作。成不成功,取决于华盛顿怎么接这个球。
而对于DeepSeek、Kimi、MiniMax来说,沉默可能是现在最理性的选择——反驳等于承认议题的合法性,回应等于给对方更多弹药。但沉默也有代价:在舆论场上,先定义问题的人往往赢得先机。
四、答题的时候,周围有人在写规则
我做一级市场的时候,评估一家公司,最怕的不是竞争对手强,而是游戏规则变了还没反应过来。
AI这个行业,游戏规则现在正在被人写。
写规则的人,不只是技术最好的,也包括最会讲故事、最会游说、最懂得把技术争议变成政治优先级的人。这一点,中国的AI公司还需要时间去适应——不只是在产品上,也在这个更复杂的游戏里。
值得观察的是,DeepSeek、Kimi、MiniMax截至今天都没有公开回应。沉默可能是最理性的选择——反驳等于承认议题框架的合法性,详细回应等于给对方更多素材。但沉默也是有代价的:在国际舆论场,先定义问题的人往往占据叙事的制高点,沉默的一方很容易被动接受别人的定性。
这场争论的走向,短期内取决于华盛顿的政策节奏,中期取决于法律框架如何跟上技术现实,长期取决于全球AI生态能否形成一套各方都能接受的竞争规则。三个时间尺度,都还没有答案。
DeepSeek他们偷没偷答案,这个问题还没有法律上的定论。
但有一件事已经很清楚了:答题的时候,周围有人在看着。
而且,他们也在写规则。"
作者:杏鑫娱乐
新闻资讯 News
- 近三年最高分「穿越古装剧」TO...02-26
- 黄晓明五位前任近况!叶珂日子最...02-26
- 娱乐圈动态两则:《夜王》票房口...02-26
- TVB前女星姚乐怡越南度假!52...02-26

