职贝云数AI新零售门户
标题:
DeepSeek被点名了,但这件事没你想的那么简单
[打印本页]
作者:
A1PZT7rw
时间:
昨天 21:53
标题:
DeepSeek被点名了,但这件事没你想的那么简单
这两天,一件事让我反复想了好久。Anthropic公开了一个数字,说他们记录到来自DeepSeek、Moonshot AI、MiniMax等中国AI公司的1600万次未授权交互。OpenAI和谷歌也经过「前沿模型论坛」结合曝光了这件事,锋芒直指中国AI企业「蒸馏」了他们的模型才能。1600万次。我第一反应是,这个数字太准确了,准确到让人起疑。但在我聊聊这个数字背后有什么之前,我想先把一件事讲清楚,「蒸馏」到底是什么。蒸馏是什么假如你不是AI从业者,听到「模型蒸馏」能够觉得这是什么高深技术。坦率的讲,原理其实挺朴素的。想象一下,你考完试,发现班里有个同窗总能答对你都不会的题。你不知道他的解题思绪,但你可以偷偷把他的答案抄上去,然后拿这些答案反复训练本人,渐渐的,你也末尾能答对相似的题了。模型蒸馏就是这个逻辑。用一个「强」模型的输入,去训练一个「弱」模型。先生模型经过大量观察教师模型的行为,模拟它的推理方式、回答风格、甚至思想链路,最后完成「后来居上」的效果。这是一种完全合法的技术手腕,学术界早就玩了十几年了。那Anthropic这次到底在指控什么呢?他们说的是未授权的商业蒸馏。就是说,DeepSeek、Moonshot这些公司,大量调用了Claude、GPT等模型的API,拿这些调用前往的结果作为训练数据,在没有获得答应的状况下把美国顶级模型的才能「提炼」进本人的模型里。这其实是违犯了服务条款的。不是说蒸馏本身是违法的,而是这种规模化的数据采集行为,相当于绕过了正常的授权购买,走了一条「薅羊毛」的捷径。这是理想,我不替中国公司辩解这个行为。但——这件事真的只是这么简单吗?三巨头为什么这个时分站出来我寻思了一下,三件事同时发生,OpenAI、Anthropic、谷歌结合发声,经过一个叫「前沿模型论坛」的机构对外公布这件事。这个论坛是这三家加上微软一同搞的,名义上是AI安全行业自律组织。你想想看,这三家公司往常在市场上是不折不扣的竞争对手。OpenAI和Anthropic抢的就是同一批企业客户,GPT和Claude每隔几周就要打一次榜,互相揭老底。谷歌的Gemini也在拼命追逐。他们什么时分变得这么勾结了?还有一个成绩值得想想,蒸馏这件事是最近才发生的吗?不是。模型蒸馏和API数据采集在AI圈子里早就不是机密了,各家多少都知道本人的输入被人拿去训练了。那为什么偏偏是如今公开点名?我觉得有几层缘由值得单独说。第一层是商业层面的。DeepSeek之前年终忽然爆红,证明了一件之前大家只是猜测的事情,用少得多的算力和训练成本,照样能做出媲美顶级模型的效果。而且是开源的。这对OpenAI等闭源商业模型来说,等于对本人商业形式的直接应战。你有没有想过,假如蒸馏技术成熟到足够好用,任何一家公司都能用极低的成本「复制」一个差不多的模型,那谁还情愿花大价钱买API、买企业授权?从这个角度看,「点名蒸馏违规」有没有能够也是一种商业防护动作?第二层是技术竞争层面的。斯坦福AI指数2026版数据显示,美国和中国顶级模型之间的功能差距曾经减少到2.7%。中国在论文数量、援用份额、专利授权总量上片面抢先,美国在顶级模型数量和高影响力专利上保持优势。这个2.7%,在技术竞争里是一个什么概念?五年前,这个差距估计是50%以上。如今缩到2.7%,这不是蒸馏能完全解释的,中国研讨者在基础技术上的积累是真实的。而一旦这个差距归零,美国在AI范畴的抢先地位就成了空壳子。从这个视角看,这次「维权」动作,能否也带有一丝焦虑?第三层是地缘政治层面的。美国政府对中国AI企业的限制在逐渐晋级,从芯片禁令到实体清单,如今加上了商业层面的言论压力。前沿模型论坛的这次公开,很难说跟这个大背景没关系。它制造了一种叙事,美国AI公司是规则的捍卫者,中国AI公司是规则的毁坏者。这种叙事,在中美科技竞争激化的当下,作用不只仅是商业层面的。但美国公司本人是怎样做的这里我必须说一件让整个故事故得更复杂的事情。AI圈里有个公开的机密,大模型的训练数据里充斥着大量未经授权的内容。ChatGPT训练用了哪些数据?包括大量没有明白授权的网页文本、书籍、代码。Anthropic、谷歌异样如此。纽约时报和OpenAI的版权诉讼打了一年多了还没结。很多作家、艺术家、程序员都在起诉这些公司用了他们的作品但没有付费。所以你看,用别人的数据来训练模型,美国公司本人也干,而且干得很彻底。更有意思的是,Anthropic训练Claude的时分,有没有拿GPT的输入做过参考?谷歌训练Gemini的时分,有没有研讨过Claude的行为形式?这些成绩,在技术层面是完全可以做到的,而且外人很难判别。我不是说美国公司有没有这样做,我是说这套游戏的规则从来就不透明,谁来定义「违规」,谁来执法,本身就是一个有意思的成绩。当规则的制定者和执行者是同一批人的时分,这套规则对一切人公平吗?蒸馏不会停,但牌桌的规矩会重写回到技术本身。蒸馏技术会消逝吗?不会。它太有用了,而且越来越成熟。将来一定会出现两件事。第一,更严厉的API运用监控和运用协议。模型公司会更细心肠追踪API的运用形式,假如发现某个用户的调用行为像在做大规模数据采集,直接封号。这是技术层面能做到的事情。第二,授权蒸馏会变成一个合法的商业形式。就像字体授权、图片授权一样,「AI才能授权」能够会出现。你想用我的模型输入训练你的模型,没成绩,付钱就行。这件事的走向,不是某一家公司获胜,而是整个AI行业的商业规则在被重新会谈。1600万次未授权交互,是一个证据,更是一张牌。这张牌被打出来的机遇,背景,以及打牌的人,比牌本身更值得看清楚。我不断觉得,看AI旧事,不只是看技术停顿,更要看清楚这些技术停顿背后的人在想什么,在下什么棋。DeepSeek被点名了。但这件事的剧情,还远没到结束的时分。
欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/)
Powered by Discuz! X3.5