职贝云数AI新零售门户

标题: 只是RAG了一下,我看到了AI大模型的态度! [打印本页]

作者: rC9s7r2    时间: 2025-1-27 14:57
标题: 只是RAG了一下,我看到了AI大模型的态度!
金磊 发自 凹非寺
量子位 | 公众号 QbitAI


假如想让AI大模型在作答的时分,可以做到既准确又丰富,还能观点鲜明有态度,该怎样办?

或许,给它一个RAG(检索加强生成)就够了。

例如我们问这样一个成绩:

苹果、三星和华为三家手机,谁在国内的市场将来发展前景最好?

如今的AI在回答的时分,就会非常有态度:

它直接是给出了一个非常明白的答案,还给了总结——

华为的市场将来发展前景最好。

并且在作答的过程中,会从市场份额和增长趋向、产品创新与竞争力,以及市场策略与消费者认可等多个维度来做证明。

这就和以往AI(例如ChatGPT)一碗水端平的回答风格产生了差别:

(, 下载次数: 0)

而这不得不说,国内大模型里文心一言在RAG方面还是挺牛的。

昨天看到MacTalk的一篇文章,外面详细解读了检索加强早在百度2023年3月发布文心一言的时分就曾经提出来。

如今将近两年工夫过去了,检索加强的价值,从百度最早推出到如今曾经成为业界共识。

百度检索加强技术深度交融大模型才能和搜索系统,构建了“了解-检索-生成”的协同优化技术。

一言蔽之,就是以本身搜索的优势,结合RAG技术,所做到的AI原生检索。

那么如此打法还能应对什么的成绩?

我们这就一波实测走起~
各种刁钻成绩服侍

信息、数据整合,该当是我们大多数人希望AI可以帮我们处理的义务之一。

但往往AI回答的结果,要么信息过于冗余,要么就是重点不够明晰。

因此在这方面,我们先来测试一下文心一言的实力。如下测试,我们运用的是文心大模型4.0 Turbo版,请听题:

李永乐全网粉丝有多少?

(, 下载次数: 0)

可以看到,文心一言作答的内容非常简约,了如指掌。

它先是直击成绩,给出了超过3000万的数字;然后应用总分的方式,罗列了抖音、西瓜视频和B站上各自拥有的粉丝。

然后它还简单的对李永乐教师做了人物引见,全体的感觉可以用恰如其分来描画了。

相似的成绩要是给到ChatGPT,例如“马斯克全网粉丝有多少”,虽然也是采用总分方式罗列了各个平台的粉丝数,但最核心的总数却没做统计:

(, 下载次数: 0)

有些时分我们的成绩能够并不只是一个,会出现围绕一个话题或关键词延续发问的状况。

而这也是考验大模型能否精准捕捉用户意图的一个点。

于是乎,我们接上去提这样一个成绩:

什么是三⼈制篮球⽐赛?⽐赛工夫、胜出条件、场地和⽤球分别是什么规则,和五⼈制篮球有什么区别?

来看一下这一次文心一言的表现:

(, 下载次数: 0)

从回答的内容来看,文心一言是把延续的几个成绩都get到了。

值得一提的是,它还会根据成绩的内容,采用较为合适的方式来回答。

例如在三人制篮球方面,文心一言会以文字的方式为主,用明晰的展现方式回答各种细节。

但在三人制与五人制篮球区别的成绩上,文心一言则是采用表格的方式,而这种方式是更容易让用户一看出细节对比。

最后,文心一言还提供了几个相关内容的视频,可以说是把多模态这事儿给玩儿明白了。

那么对于非常专业的知识,文心一言的回答又会和其它AI有什么样的区别呢?

请听题:

傅里叶变化的时分,函数应该具有频率、相位和幅度三个重要参数,为什么其中的相位在频域图上是没有的?

(, 下载次数: 0)

文心一言在做到的最扫尾,就直接回答了成绩的核心关键,即“次要触及到频域图的表示方式和目的”。

(PS:即便我们的Prompt中有错别字,文心一言也会按照正确内容输入哦~)

然后照旧是像剥洋葱一样,层层分析,给最终的结论做证明。

可以看到,对用户提出的专业知识成绩里的意图这一块,文心一言是拿捏住了。

那么再接上去,我们再来考验一下文心一言能否有明白态度、鲜明观点的才能。

标题是这样的:

微软和谷歌2024年在大模型上的发展,哪个对生态有更大的影响?

(, 下载次数: 0)

嗯,回答的还是一针见血——微软的影响力更大。

但在评价微软和谷歌的优劣时,文心一言也是尽量保持了客观和中立的态度,没有过度倾向某一方。是基于理想和数据停止了分析,并尝试从多个角度呈现成绩,以便读者可以构成本人的判别。

并且从参考链接来看,回答的内容还注重适用性,尽量提供了详细的信息和例子来支持论点,使得回答愈加具有压服力和适用性。

最后的一波测试,我们来考验一下文心一言的“心智”——连环“弱智吧”成绩发问:

一个半小时是几个半小时?陨石为什么总是落在陨石坑里?人假如只剩一个心脏还能活吗?

(, 下载次数: 0)

嗯,毫不相关的弱智吧三连发问,文心一言是统统都hold了。

(, 下载次数: 0)
怎样做到的?

在实测完后,我们继续来扒一扒文心一言背后的技术。

即为什么给大模型一个RAG,就能让它回答的内容不只降低了幻觉,还能像人一样有态度和观点。

首先,对于RAG(检索加强生成)来说,检索是方法,生成是目的。

经过高质量的检索系统,RAG可以处理大型言语模型生成过程中的幻觉现象、垂类细分场景下的知识更新较慢,以及在回答中缺乏透明度等一系列成绩。

检索质量的优劣在很大程度上影响了生成模型的最终生成结果的优劣。

RAG技术经过引入检索机制,使得模型在生成回答时可以参考更多的信息,从而提高了回答的准确性和丰富性。

而文心一言基于百度在中文互联网范畴的深沉积累,具有中文深度了解才能,可以更准确地了解中文语境和语义,从而在RAG义务中表现出色。

从我们刚才的实测内容来看,它还支持多模态检索,可以处理图像、文本等多种类型的数据,进一步拓宽了模型的信息来源。

而且对于大型模型而言,人类易读的搜索结果往往并不适用于模型的处理需求。

因此,我们需求找到一种创新的架构处理方案,它可以同时高效地满足搜索业务场景的需求以及大型模型的生成场景。

为了应对这一应战,百度将本身高质量的搜索结果融入大模型停止检索加强,能为大模型提供准确率高、时效性强的参考信息,从而更好地满足用户需求。

自文心一言发布以来,百度便强调检索加强的重要性,历经近两年工夫,检索加强的价值已获得业界广泛认可。

百度研发的“了解 - 检索 - 生成”协同优化检索加强技术,提升了大模型技术及运用效果。

在了解阶段,借助大模型分析用户需求,拆解知识点。

检索阶段,则针对大模型优化搜索排序,一致处理搜索前往的异构信息后提供给大模型。

而在生成阶段,综合多源信息停止判别,应用大模型的逻辑推理才能消解信息冲突,进而生成准确率高、时效性优的答案。

因此,如何让大模型回答得更准、更丰富且更有态度,文心一言算是给出了一种解法。

RAG技术可谓大模型的根基所在,它对大模型输入结果的影响极为关键且直接。

从回答的基础特性来看,其左右着回答内容的真实性,能否基于牢靠理想给出回应;把控着时效性,确保答案贴合当下动态,不滞后于理想发展。

在丰富性层面,决议了回答能否能引经据典、多元呈现;于专业性维度,关乎能否以专业知识深度分析成绩。

就连回答的结构搭建以及所呈现出的立场态度,也与RAG技术严密相连。

当下,大模型范畴竞争激烈,新技术、新成果不断涌现,各方似乎都热衷于展现前沿、高超的才能。

但是,无论如何 “炫技”,大模型最终的落脚点必然是实在的理想场景运用。

毕竟,只要扎实地掌握像RAG技术这类基础 “看家本领”,夯实根基,才能在实践运用中站稳脚跟,真正发挥大模型的价值。

— 完 —

一键关注 👇 点亮星标
科技前沿停顿每日见

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!




欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) Powered by Discuz! X3.5