|
|
哎,刷到这条消息的、关心AI圈动态的、还有好奇中美科技现在到底在哪个维度上交手的各位,先别划走。我今儿个早上刷外网,刷到一条新闻,直接给我CPU干烧了,必须立马放下手里的豆浆跟你们唠唠。这可不是什么小打小闹的口水仗,这是一家硅谷的AI巨头,直接把诉讼级的长篇控诉状,甩在了全球科技媒体的脸上,点名道姓,数据详实,火药味浓得呛鼻子。
主角是谁呢?这边厢,是OpenAI的强劲对手,那个做出Claude的 Anthropic。那边厢,是被点名的三家中国AI领域的尖子生:深度求索(DeepSeek)、月之暗面(Moonshot AI)、以及MiniMax。吵的是啥事?Anthropic拍桌子说,这三家中国公司,用了“工业级”的规模,对它的Claude模型进行了“能力蒸馏”,说直白点,就是用了某种手段,大量“学习”或者说“复制”了Claude的本事,用来训练自家模型。
这可不是空口白话的指控。Anthropic在2月23日(星期一)通过一份详细的声明,把料爆得是底儿掉。根据路透社和CNBC这些外媒的报道,人家甩出的数据是:这三家公司,总共动用了 2.4万个欺诈账户,通过API接口跟Claude模型进行了超过 1600万次对话交流。1600万次啊!这规模,说它是“工业级”,还真是一点不夸张,听着就跟搞地下数据采矿似的。
咱们先别急着站队,也别被情绪带着走。咱得先把这技术上的“罗生门”给掰扯明白了。首先,这个“蒸馏”(Distillation)到底是个啥?它本身啊,在机器学习领域,是个正经的、合法的技术手段。简单打个比方,就好比你有个超级厉害的学霸老师(比如Claude这种大模型),他解题思路又广又深。现在你想培养一个反应更快、成本更低的学生(比如一个更小、更专的模型),一个办法就是让这个学生不停地去看学霸老师已经解好的、步骤详细的成千上万道题,从这些现成的“答案”(也就是大模型的输出)里去学习解题的套路和思维。这个过程,就有点像“知识蒸馏”。它能省时间、省算力,是条技术上的捷径。
但是! Anthropic炸毛的点就在于:第一,你这个“学习”的规模和方式,是不是太夸张、太有组织性了?第二,也是更关键的一点,Anthropic认为,当受美国出口管制约束的中国实体,通过大规模、系统性的手段这么干的时候,就不仅仅是个技术问题了,它可能违反了美国的出口管制法规,也肯定违反了Anthropic自家的最终用户许可协议(EULA)。用他们自己的话说:“外国实验室非法蒸馏美国模型,可能会移除安全护栏,将模型能力输入到他们自己的*事、*报和监*系统中。” 这话就说得非常重了,直接把技术纠纷抬到了地缘政治和国家安全的台面上。
那具体是怎么操作的呢?Anthropic的描述,简直像在讲一部科技谍战片。他们说,这些行为者遵循着同一种模式:利用那些转售前沿模型访问权限的商业服务,构建了所谓的“九头蛇集群”网络——就是一大堆账号池子,把流量分散到Anthropic的API和第三方云服务上。最夸张的一个案例里,据称单个代理设置同时控制了超过2万个欺诈账户!为了不引起怀疑,这帮人还把提取流量的请求,混在普通用户的正常使用请求里,玩了一出“鱼目混珠”。
然而,狐狸尾巴还是露出来了。他们的“提问模式”太扎眼了:流量异常巨大,并且高度集中在某些特定能力上,提问方式还高度重复。比如,一个正常用户可能问“怎么写一首诗”,接着问“明天天气怎么样”,再问“帮我总结这篇文章”。但这帮人的提问,可能连着几万次都是同一种极其复杂的逻辑推理题,或者要求按照特定评分标准给回答打分(这特别适合用来训练强化学习的奖励模型),再或者就是要求把一些政治敏感的查询,改写成“安全”的版本。这种模式,明摆着就是在系统性地收集特定类型的训练数据,根本不是普通用户会干的事。
Anthropic还把各家的情况拆开说了说,指名道姓,数据具体:
深度求索(DeepSeek):被指进行了超过15万次以“推理任务”为目标的交流。具体搞啥呢?包括那些适合用于强化学习奖励模型的、基于量规的评分任务,以及对政治敏感查询进行“审查安全”的改写。Anthropic还说观察到了专门设计来引出“逐步内部推理”的提示词,这摆明了就是想获取模型“思维链”的训练数据。
月之暗面(Moonshot AI,就是做Kimi的那个):被指控进行了超过340万次交流。他们的重点领域包括智能体推理、工具使用、编程、数据分析、计算机使用智能体以及计算机视觉。据说用了数百个欺诈账号,覆盖了多种访问路径,后来还试图提取和重建Claude的“推理痕迹”。
MiniMax:这场“行动”中规模最大的选手,被指进行了超过1300万次交流,主要目标是智能体编码和编排。Anthropic说他们在这个行动还在进行时就侦测到了,当时MiniMax正在训练一个未来要发布的模型,这让Anthropic得以“独特地”观察了一次能力提取的全过程。更有意思的是,在Anthropic推出一个新的Claude模型后,MiniMax据称在24小时内就将近一半的流量转向了这个新模型,目的是从最新模型里“捕捉”能力。
其实啊,美国公司对中国AI公司搞“蒸馏”的指控,这也不是头一回了。像OpenAI之前也隔空说过深度求索可能用了ChatGPT的输出来训练模型,但一直没像Anthropic这次这样,拿出这么详细的时间线、操作模式和具体数据。所以这次Anthropic的指控,算是把台面下的猜疑,第一次用非常具体的方式摆到了台面上。
那Anthropic打算咋办呢?他们也不是光喊“抓贼”就完了。声明里说了,为了对抗未来可能的蒸馏尝试,他们正在加强防御,让大规模蒸馏更难进行、更容易被发现。具体招数包括:部署分类器和行为指纹识别系统,在API流量里识别提取模式;与其他AI实验室、云服务提供商和当局分享大规模蒸馏操作的技术指标;加强对教育、研究和初创企业账户的验证(这类账户常被用来搞欺诈访问)。同时,他们也在开发产品层面、API层面和模型层面的安全措施,目的是在不损害合法用户的前提下,降低自家模型输出被用于非法训练的“用处”。
不过,Anthropic自己也承认,要应对这种规模的“攻击”,需要行业和政策的协调行动。这话说得实在,光靠一家公司加强防守,在这么大的利益和技术诱惑面前,恐怕真是防不胜防。
所以,唠到这儿,这事儿就非常清楚了。它已经远远超出了一般的技术竞争或者商业纠纷,变成了一场涉及技术伦理、知识产权、数据安全、地缘政治规则的复杂混战。一边是硅谷巨头挥舞着数据安全和协议条款的大棒,严防核心技术“外流”;另一边是中国AI公司们在顶尖模型仍有差距的背景下,寻求一切可能的技术突破路径。这场“AI暗战”的细节首次被如此清晰地曝光,恐怕只是一个开始。它给整个AI行业都提了个醒:在模型能力狂奔的同时,关于“数据从哪里来”、“能力如何被习得”的规则红线,正在被越来越清晰地划出,并且充满了摩擦和火药味。往后,各家公司在搞研发的时候,恐怕都得在技术狂奔和合规风险之间,走得更小心了。咱们这些看客,就等着看这场大戏,接下来怎么唱吧。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|