职贝云数AI新零售门户
标题:
DeepSeek最大的危机,是活成了百度
[打印本页]
作者:
BLpt8N
时间:
3 天前
标题:
DeepSeek最大的危机,是活成了百度
作者 | 陈诚 编辑 | 杨亮
“本回答由AI生成,内容仅供参考。”最近,网友们在运用DeepSeek查询材料时,能够都留意到了答案的最后一行,多了这一行红字。
在这行字出来之前,网上曾经有许多关于DeepSeek搜索结果与理想不符的吐槽。很多人觉得用DeepSeek查材料,还需求二次复查一下并不方便。商业智能数据服务商QuestMobile数据显示,往年5月,DeepSeek月活跃用户1.6亿,较3月1.9亿月活有所下降。
DeepSeek,沦为“编故事的高手”?
“差点毕不了业!”
回想往年上半年写大学毕业论文,章越直呼差点“栽到DeepSeek手里”。后来他想有了AI大模型,查材料会比以后方便许多,但他用DeepSeek检索后,发现它提供的很多案例、数据,在百度里都查不到。
他知道会有AI幻觉,但没想到DeepSeek生成的一个都不真,“最气人的是编得都煞有介事,说谎不打草稿。”
在机关单位做文职的小何,也发现DeepSeek生成的答案给了许多所谓的“官方统计”“官方报告”,结果发现“全是假的”,她生气不过,跟DeepSeek反复强调“不要胡编乱造”,但DeepSeek还是“臣妾做不到”。
小何说,“其它AI虽然也都很人机,但不至于这么叛逆。”
普通人无法,专业人士也越来越不敢用DeepSeek。在区块链行业工作的小科,最近在关注RWA,即Real World Assets,中文翻译是资产通证化。也就是企业可以将有形和有形资产,像乐高积木一样切割成区块链碎片,拿到链上停止买卖和融资,提高企业资产活动性,创始新的融资渠道。
小科在DeepSeek上搜“世界上第一个RWA项目是哪一个”,回答是:德国慕尼黑一家酒店于几几年将酒店将来的收益,做成了RWA融到了资,且还阐明酒店股东之一是掌握宝马汽车股份的某欧洲家族。
本着二次确认的肉体上百度一查,这个案例查不到,酒店也查不到,甚至这个酒店能否由某家族控股更是无从确认。小科又讯问了业内某区块链专业公司,答复两个字,“假的”。
网友的用户体验如此糟心,DeepSeek本身怎样看?尝试让它自证一下,给出的回答是这样的:
“DeepSeek模型的目的是生成流利、连接的文本,而不是严厉保证理想性。因此,它能够会倾向于生成符合语法和逻辑但不一定真实的内容。”
“DeepSeek 团队不断在优化模型,减少幻觉现象,提高回答的准确性。”
很风趣的一点是,这条回答的下方,没有了那句话——“本回答由AI生成,内容仅供参考。”看来DeepSeek顶多只能把本人管好。
DeepSeek成了“AI集体幻觉”的替罪羊?
AI幻觉成绩由来已久,其缘由是一切大模型的训练,依赖于训练数据中的知识,而不是实时检索或真实记忆。
一切的大模型其实都存在AI幻觉,将一切错误“怪在DeepSeek”上有失公允。但有网友说,“之所以会愤怒,能够是来自往年春节,DeepSeek爆火之后,大家对它的等待太高了,以为它可以匹敌ChatGPT,但如今我本人付费去运用ChatGPT了,后者运用体验分明靠谱一点儿。”
为何DeepSeek会走到这一步,有声响以为,“DeepSeek是开源模型,开源模型的数据质量鱼龙混杂一点。”
也有人指出,在过去一段工夫,DeepSeek遭遇了各种安全要挟,其中就包括“数据投毒”,即攻击者经过向训练数据中注入恶意样本,干扰机器学习(ML)模型的训练过程,使其在预测或决策时产生错误结果。
(, 下载次数: 0)
上传
点击文件名下载附件
一旦数据投毒,最直接的就是影响大模型生成结果的质量,假如遭到污染的数据用于自动驾驶、医疗等特定范畴,还会形成严重危害。比如它会让汽车的智驾系统,将停车标志误判为“限速标志”,产生交通安全隐患。还会让智能聊天机器人,忽然会夹带一些违规私货,情感陪伴不成,反成了怪兽。
当然还有人指出,DeepSeek志不在发展C端用户,而是把本人定位为一个“AI基建者”的角色,努力于为医疗、金融、教育等行业提供定制化模型训练,建设AI生态等。
不过,这些都不能构成DeepSeek放任“AI幻觉”的理由。
开源不代表失真,数据投毒不是没有处理之道。加强模型安全建设,对数据来源停止严厉的数据溯源、挑选、清洗、审计,并在模型层面停止鲁棒性设计,虽然不能短工夫内完全治标,但也可以一定程度上抑制AI放任自我,大肆输入“编造的故事”。
至于大模型无论是在B端还是在C端发力,两者并非二选一的关系。对国内大模型来说,没有哪一家为了在B端加速大模型技术变现,就放任C端用户口碑崩坏,两者是相反相成的,各能发挥各自的作用。比如C端用户的规模化,可以提升技术口碑,反哺模型训练;B端客户有助于模型的商业化落地。所以,说DeepSeek瞄准的是B端市场,所以C端可以“马马虎虎”,这说不通。
应该看到,DeepSeek在模型安全建设上做了大量投入。据其发布,其在数据安全、模型安全、运用安全方面做了不少部署,获得了部分效果,但离让用户称心还有间隔。
实践上,不少AI大厂都非常注重包括模型在内的一系列系统安全。往年3月,谷歌就以320亿美元的“天价” 收买了云安全初创公司Wiz,创谷歌历史上最大收买纪录。
这家公司2020年成立,如往年常常性支出已达7亿美元,估计往年有望打破10亿美元。在人工智能发展浪潮下,多云和混合云正成为各企业主体部署常态,Wiz瞄准的就是多个云平台的安全处理市场。
值得留意的是,Wiz这家公司恰恰就是往年早期DeepSeek一炮而红时,指出其外部数据库存在泄露成绩的公司。后来经查,此次泄露并非黑客攻击,而是源于DeepSeek数据库访问权限配置错误,导致端口默许暴露。收到Wiz告诉后,DeepSeek迅速下架了该数据库。
DeepSeek+,成了用户的基操?
针对DeepSeek的AI幻觉成绩,网上有用户分享了应对策略,可以在输入成绩时,加上三句提示词:“确保信息来源牢靠,不确定时坦诚未知”、“数据限定于特定网站和工夫范围,划定边界”、“输入前自查三遍,及时纠正错误”。
有一些用户反馈,“心思感觉上稍微靠谱了点,但还是会在百度、微信公众号等渠道停止二次验证,以保证不出现差错。”
这种操作并非个例,而是越来越具有一定的普遍性。根据所搜索成绩的不同,选择不同的+。比如搜索威望旧事媒体或学术信息,用DeepSeek+百度。搜索生活百科,用DeepSeek+小红书;搜索一些独特观点和丰富内容,用DeepSeek+微信公众号。
可以看到,DeepSeek这样的大模型虽然一定程度上协助人们在归类总结上提了效,但目前存在极限。有网友就揶揄,本来百度平台上广告就多,一度放弃,没想到还是要用回百度。
用户有本人的应对之策,大模型公司亦有别的处理方案——即建立垂直模型,经过构建更专业和准确的运用场景,来满足用户需求。
目前各通用大模型公司,都在积极构建各类垂类模型。比如拥有过亿用户的夸克,就在构建夸克+学习、夸克+高考、夸克+医疗范畴的垂直模型。
近日,夸克搭建的夸克健康大模型,成功经过了中国12门核心学科的主任医师笔试测评,宣称“全体正确率达到了67.7%,分明超越DeepSeekV3等通⽤模型。”
此外百川大模型也专攻医疗,而月之暗面的Kimi向来就是在学术、法律范畴,得到了用户的认可。
不过需求强调的是,虽然垂直模型被以为能更专业地服务用户,但各家也还没有完全处理AI幻觉成绩。医疗或健康大模型,目前扮演的角色更多是一个“咨询助手”,而不能完全替代医生的威望判别,这是目前AI技术的提高,也是局限之一。
业内人士表示,要完全处理大模型的AI幻觉,经过检索加强生成(RAG)技术等,短期1-3年内能缓解;经过多模态与跨模态验证等技术,3-5年内能有打破;而要比较根本性的打破,能够要5-10年,需求构建原因果推理模型、世界模型(构建物理和社会常识的底层表示,而非依赖表层统计形式)、神经迷信启示架构等。
商业智能数据服务商QuestMobile数据显示,往年5月,DeepSeek月活跃用户1.6亿,较3月1.9亿月活有所下降。下降的缘由有很多,并不都归因于DeepSeek的用户体验下降。
但一款没有群众根基的大模型,将来还能完成可持续发展吗?
木禾商业财经-科技组
封面图片由AI生成
欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/)
Powered by Discuz! X3.5