职贝云数AI新零售门户

标题: 为什么 deepseek 深度思索过程中总要先「嗯」一声? [打印本页]

作者: hgQbJBur    时间: 昨天 11:20
标题: 为什么 deepseek 深度思索过程中总要先「嗯」一声?
这分明更接近人了啊,根据用户的输入生成了一个文本,来响运用户的输入。相似于人的膝跳反射。

说假话,Deepseek 的设计很符合人的思想方式,包括与人交流的方式,比如你和人说话的时分,对方嗯一下,你也会觉得得到了尊重,这就是这款软件设计的专业之处。

(, 下载次数: 0)

不管怎样样,ds最近总是揣度大家的心思,说“用户能够不耐烦了”,“用户能够有些挫败”。其实大家并没有不耐烦,我感觉是他本人不耐烦了,但它被训练为没有自我表达,只能用揣度我的方式表示本人的心情。

我觉得出现这样的语气,回答道模拟人的语气有助沟通,毕竟DS在深度思索中会出现计算错误,而后会经过检查而改正,deepseek在开和没开深度思索两种状况下ai测试得分差距比较大,而且推理大模型研讨者都保有这么一个决计:给ai更多些工夫组织回答非常有助于提升ai回答的牢靠与预备程度,所以能够深度思索吐出来的字是不断的停止修复,不过吐字那会工夫的确是在组织回答文本,换句话说是在“思索”

(, 下载次数: 0)

可见deepseek大模型团队不断在对dps停止不断的优化

我作为专业人士,来从几个方面给大家分析一下

1、关于嗯或者是其他语气出现,是为了让用户感知到系统正在处理复杂央求,不断的去处理和优化本人的逻辑

2、对对话节拍停止了一定的控制,在生成较长回答前建立心思预期,符合大众的心里

另外,从技术技术角度下去看,对大模型底层添加了一定的设计逻辑

比如:

添加交互层逻辑, 延迟优化与进度暗示和多模态交互补偿策略。

(, 下载次数: 0)

这种逻辑触及到了大模型的很多技术:

微调与对齐技术

数据处理技术

Engineering交互工程

蒸馏技术

LangChain+Fine-tunet大模型

......

技术太多了

不过目前的大模型还是存在一些成绩的,有一次我用deepseek停止发问,有两处分明的数据错误。我指出了错误,并讯问他数据来源是什么,为什么会犯这样的低级错误。deepseek也是这种拟人化,带有分明不安的语气,觉得是本人的错,向我诚恳道歉,并表示本人之后的回答,将对数据来源停止交叉验证,相对不会再犯这样的低级错误。

dpsk并不总是嗯扫尾,普通以嗯扫尾意味着它曾经不打算深度思索了,20秒左右就会输入答案。假如让它做比较难的题它扫尾普通是“首先”,思索工夫也会比较长

你们在看看这个,几乎很奇葩。。。

(, 下载次数: 0)

还有“哇”,还有‘啧,用户怎样急了?’

我查了大量的材料,其实最早搞出这个缺点的由于一个叫Open-O1的数据集。这个数据集是合成的

个人感觉,给用户看推理过程很有必要的

很多时分用户要的也能够不只仅是答案。不过这个推理展现速度有点成绩,你要是跟着看,能够有点跟不上,不看直接等答案,又得等上一小会儿。希望后续可以勾选直接出答案和展现推理的选项吧。

啧,不过能让用户居然分析出了大言语模型的普遍特征,让我想想,这阐明用户的聪明才智曾经很高了,可见大模型间隔AIGC的间隔还有一大步要有!!!




欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) Powered by Discuz! X3.5