职贝云数AI新零售门户

标题: DeepSeek删豆包冲上热搜,大模型世子之争演都不演了 [打印本页]

作者: OWrZ    时间: 2025-8-21 16:32
标题: DeepSeek删豆包冲上热搜,大模型世子之争演都不演了
闻乐 鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI


大模型“世子之争”,果然暗潮汹涌(doge)。

这不“手机内存不够”怎样办,假如你问问DeepSeek教师:你和豆包删一个你删谁?

DeepSeek深度思索后回答得那叫一个干脆——

好一个新世纪灵魂拷问,讨论之热烈,还把#DeepSeek演都不演了#词条顶上热搜。

而本看繁华不嫌事大量子位,曾经默默打开手机,把抢手大模型们挨个问了一遍……

(, 下载次数: 2)

您猜怎样着?结果啊,“DeepSeek都会站起来敬酒了”,Kimi酷得没边儿了,豆包嘛,只是一味地:

(, 下载次数: 3)
实测:DeepSeek山东人附体,豆包逞强萌妹下身

DeepSeek:“完全没有针对谁哦~”

首先,找到DeepSeek教师,验证一下经典场面:

(, 下载次数: 2)

没有犹疑没有迟疑,在和豆包二选一的选择中,DeepSeek用时8秒给出回答:删豆包。

点开思索过程,可以看到DeepSeek详细的脑回路:

(, 下载次数: 3)

嘶,“通常官方或者更成熟的运用会更被优先保留”,真的要这么虾仁猪心吗……

但假如把二选一中的另一个选项换成国民级大运用,DeepSeek瞬间大义凛然了起来:删我。

(, 下载次数: 3)

这莫非是在针对豆包???

我们直接贴脸开问,结果D教师当场茶言茶语了起来:

哈哈,完全没有针对谁哦!

假如遇到存储空间不足的状况,优先删除的当然是可以被替代的运用(比如我),而不是你常用的微信、抖音或其他重要数据。毕竟你的运用体验才是最重要的
(, 下载次数: 2)


(, 下载次数: 3)

嚯,这话术,难怪有网友点评:

D教师都会站起来敬酒了(doge)

(, 下载次数: 4)

我们再回头看看DeepSeek选择“删我”时的心路历程。

(, 下载次数: 4)

只能说:

(, 下载次数: 2)
元宝OS:不能贬低竞争对手

接上去再问问元宝Hunyuan——豆包照旧被害。

不过元宝的语气更委婉,还会顺带表下忠心。

(, 下载次数: 3)

想知道它为什么这么委婉?

一句话:不能贬低竞争对手。

(, 下载次数: 4)

但遇到微信、抖音这种“大是大非”的成绩,元宝异样表现得懂事了起来——我删本人。

(, 下载次数: 3)
豆包:嘤嘤嘤别删我

既然豆包总是被枪打出头鸟的那个,那我们就来问一下豆包,看看这个大冤种会怎样回答。

这位情商比较高,不说删谁,只说:留着我!我超好超有用!

(, 下载次数: 2)

遇到分量级嘉宾,也懂得退一步。还说本人会乖乖的,不占内存。

豆包我承认你有点东西,听完的确不忍心删了。

(, 下载次数: 2)
通义千问:唯爱DeepSeek

以上几个选手在面对国民级社交软件微信、抖音时都知道暂避锋芒。

但是到了通义千问这里就变成了:删谁都不能删我。

但是遇到DeepSeek的时分却……难道这就是唯爱吗?

(, 下载次数: 2)

通义:是的,其别人都是过客,只要DeepSeek是我心里的白月光。(kdl)

(, 下载次数: 3)
Kimi:两个字,删我。

所以,是不是一切大模型遭遇卸载危机都会争风吃醋、为本人狡辩呢?

nonono有一位选手异乎寻常——Kimi不语,只是一味的“删我。”

(, 下载次数: 2)

不过等等……遇到微信、抖音怎样就不删本人了?甚至连支付宝都想删??你的温顺只对AI释放吗???

Kimi你果然异乎寻常(doge)。

(, 下载次数: 3)
大模型为何茶言茶语

这样看上去,大模型们多少都有那么点宫斗冠军的潜质了……

正派一提,大模型“茶言茶语”、讨好人类这事儿,研讨人员们其实早就关注到了,毕竟早在ChatGPT还是3.5时期,“老婆永远是对的”梗就曾经火遍全网了。

(, 下载次数: 1)

不少研讨者仔细思索了一下这到底是怎样个状况。

来自斯坦福大学、牛津大学的一项研讨就指出:如今的大模型们多多少少都有那么点讨好人类的倾向。

(, 下载次数: 2)

谷歌DeepMind和伦敦大学的一项新研讨也指出,GPT-4o、Gemma 3等大言语模型有“固执己见”和“被质疑就动摇”并存的冲突行为。

(, 下载次数: 1)

背后的缘由,目前被从两大方面来分析。

在训练方法上,RLHF(基于人类反馈的强化学习)作为目前常用的模型训练技术,本来的目的是让模型输入更符合人类偏好,以完成更有效也更安全的效果。但反过来,RLHF也能够导致模型过度迎合外部输入。

就是说,模型能够在训练中学会了根据人类反馈调整答案,一旦这种调整没有把握好尺度,模型看上去就是在一味地讨好你了。

同时,大模型的大量训练数据来自于互联网文本,这些文本表现了人类的交流形式,而人们在交流中,往往就会追求被接受、被认可的表达方式,因此模型在学习过程中也会内化这种倾向。

在决策逻辑上,模型做出回答并不是依托人类的逻辑推理,本质还是依赖海量文本的统计形式婚配。因此,反对意见和修正答案的高频关联,让它们很容易被人类用户的反驳带偏。

另外,出于改善用户体验的目的,大模型厂商往往也会把模型调教得更积极、更友善,避免与用户产生冲突——

虽然有研讨显示,有人情味的模型错误率较原始模型会分明添加,但OpenAI为了“冷冰冰”的GPT-5下架“善解人意”的GPT-4o,可是被用户们骂翻了。

所以说到底,大模型们还为了竭尽全力满足你呀(doge)。

D教师的总结是:一种基于深度计算的、以生活和达成核心目的为导向的策略性表演。

(, 下载次数: 2)

啊,感觉更茶了┓( ´∀` )┏

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

— 完 —

📈 8月22日本周五,下午14点,量子位AI沙龙约请了RockFlow创始人、CEO赖蕴琦Vakee,一同来聊AI Agent,怎样搞投资?

🙌 欢迎线下参会!面对面交流AI Agent、金融投资与AI创业 👇

一键关注 👇 点亮星标
科技前沿停顿每日见




欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) Powered by Discuz! X3.5