职贝云数AI新零售门户

标题: DeepSeek V3.1,你还好吗? [打印本页]

作者: s6ngzde    时间: 2025-8-21 18:14
标题: DeepSeek V3.1,你还好吗?
点击上方蓝色字「大全Prompter」>右上角...>设为星标

我是大全,90后宝爸,前BAT大厂架构师,专注探求AI片面赋能工作与生活,带领100万人用好AI。

一醒悟来,感觉我的 DeepSeek 有点「肉体分裂」。

习气性打开深度思索形式,想让它跑个复杂的义务,结果它回头告诉我:“我是 DeepSeek V3”。

这就很魔性了,你明明是 R 系列的内核,怎样还抢 Chat 模型的名字?

这奇异的一幕,正发生在最近更新的 V3.1 版本上。假如你只看了官方公告里那个大大的 128K 上下文,那你能够错过了这场大戏真正主角。
别被 128K 带沟里,这根本不是重点

每次大模型更新,加长上下文窗口似乎成了“标准动作”,但这次 DeepSeek 128K 上下文,说假话,更像是个“障眼法”。

为啥这么说?由于 DeepSeek V3 底子本来就支持 128K。

早在 V3-0324 版本的时分,官方就明白说了,模型参数约 660B,开源的版本上下文长度就是 128K。

只不过,之前官网和 API 出于成本思索,只开放了 64K。包括火山引擎、SiliconFlow 等第三方平台提供的 API,也早就支持 128K 了。

所以,这次官方 API 支持 128K,最多算是“解锁”了原有功能,让官方用户也能享用 full-context 的快感。这固然是好事,但绝不是这次更新核心变革。

那么,真正的“大招”是什么?
V3 + R1 = V3.1 ?一场模型交融

答案直指一个让有数开发者和研讨者既兴奋又纠结的方向:模型交融。

种种迹象表明,DeepSeek V3.1 极有能够将原先独立对话模型(V3)和推理模型(R1)给“融”到了一同。

最直观的证据就是文章扫尾提到的“身份认知错误”。无论是网页端打开深度思索形式,还是直接调用 deepseek-reasoner 的 API,新模型都坚定地宣称本人是 V3。

这曾经不是巧合了,独一的解释是:R1 没了,或者说,R1 的灵魂被注入了 V3 身体里。

假如你觉得这只是模型的“幻觉”,那代码层面的变更就是实锤了。有技术大佬 diff 了一下 V3.1-Base 和 V3-Base 配置文件,发现了关键线索:

V3.1 新增了几个特殊的 token:

这些 token 加入,意味着模型从底层结构上就末尾支持残缺的“思想链”形式。Chat Template 也相应添加了 thinking 变量的支持。

简单来说,V3.1 不再需求一个独立“大脑”来处理复杂推理,而是试图在一个模型外部完成对话、思索、搜索、工具调用等多种才能。

这操作,像极了当初想“一口吃成瘦子”的 Qwen3,也让人联想到 GPT-5 提出的交融道路。

大厂们似乎都想处理一个共同的痛点:部署和维护两套模型太烧钱、太费力了。假如能交融成一个,不只能节约海量算力,还能大大提高运维效率。

想法很美妙,但理想骨感吗?
新模型的初体验

说假话,对于这次更新,我的心境很复杂。

往好处想,假如 DeepSeek 这波“交融实验”成功了,那相对是行业内的一大步。一个模型搞定一切事,将来的 Agent 才能或许能原地降落。

初步拿它跑了跑经典的案例,

“生成一个骑自行车的鹈鹕的 SVG 图像”

效果还不错。新模型似乎特别宠爱写残缺的 HTML 网页,而不只是给一段 SVG 代码,而且还自作主张加了标题。

(, 下载次数: 2)

但坏音讯是,一些老缺点似乎也跟着回来了:幻觉成绩、中英文混杂输入的现象,在我测试的几个 case 里都出现了。感觉像是为了追求“全能”,牺牲了一部分原有波动性和准确性。

更让老用户,尤其是商用开发者感到“背刺”的,是 DeepSeek 激进的更新策略。

他们是业内稀有的“覆盖式更新”反对者。只需发新版,旧版 API 就会被直接交换掉,不提供任何历史版本快照。OpenAI 至今还保留着 GPT-4o 的 0513、0806 等多个版本,就是为了让线上业务不受影响。

DeepSeek 这种做法,几乎是把“我们不欢迎消费环境的商用客户”写在了脸上。想象一下,你辛辛劳苦调试好的业务流,能够由于下游的一次“小更新”,瞬间全线崩溃。

果不其然,社区曾经“炸锅”了。

HuggingFace 上曾经有人开喷,以为这次更新是“a huge step back”(一次宏大的倒退)。

(, 下载次数: 1)

HackerNews 上的主流建议是:“建议继续运用 0324 版本”。

Reddit 上的讨论则愈加欢乐,甚至出现了这样的神评论:

Qwen: DeepSeek 一定得出了混合模型效果更差的结论。

DeepSeek: Qwen 一定得出了混合模型效果更好的结论。

(, 下载次数: 1)

这波失实是“友商”间顶级博弈了。

至于传说中的 R2 还会不会有,V4 又在何方?也许只要工夫能给我们答案。

那么成绩来了,你对这次 V3.1 的更新有什么体感?欢迎在评论区分享你的实测 case 和看法,我们一同来“驯龙”。

好啦,以上的分享就到这里了!假如你觉得有播种,请关注 + 点赞 + 在看!👇下方关注「大全」回复2,进AI交流群,领10万字AI入门实操手册~我是大全,90后宝爸,前BAT大厂架构师,专注研讨AI提示词、AI工具及AI自媒体工作流,探求AI片面赋能工作与生活,愿景成为AI布道者,带领100万人用好 AI。
#<往期文章精选>:


你「在看」吗,点个「在看」吧?👇




欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) Powered by Discuz! X3.5