职贝云数AI新零售门户
标题:
DeepSeek AI大模型运用方法
[打印本页]
作者:
a6Olk
时间:
2025-2-10 04:21
标题:
DeepSeek AI大模型运用方法
大家新年好,这几天都在研讨DeepSeek-R1 AI模型的运用,给大家分享一下,这个大模型的确很强,不管是文章写作,还是代码生成,Excel助手,医疗专家…… 早点学会运用,AI就是你的工具。 避坑指南:听说第一波收费部署大模型的人曾经赚得盆满钵满了,本文也会在最后引见大模型本地部署的方法,但是需求强调一句,普通用户根本没必要学这个,即便有一台高配电脑能成功部署个14B模型,推理才能跟官网的残缺版大模型也没法比,大家不要花冤枉钱。一、DeepSeek模型引见 最近很火的是国产DeepSeek-R1模型,该模型逻辑推理才能很强,尤其擅长数学、代码和自然言语推理等复杂义务,残缺版模型的参数规模有6710亿,所以也叫671B,这里的B就是10亿个参数的意思。该模型还有各种蒸馏版本(70B,32B,14B,8B,7B,1.5B),数字越小,逻辑推理才能越差,智能程度越低,例如1.5B就是把参数规模缩减到15亿,缩减了几百倍,能够就答非所问了。 另外,每个不同参数规模的模型还有量化版本。量化就是降低模型参数运算的精度,残缺精度是32bit,假如模型称号结尾Q8_0就是8bit量化,Q4_K就是4bit量化,量化会降低运算量,降低硬件配置要求,但是模型的了解才能就进一步下降了。二、学习运用AI的几种方案方案一 在线访问
1.1直接访问DeepSeek官网,或下载官方App
https://www.deepseek.com/
(, 下载次数: 0)
上传
点击文件名下载附件
举例:上传表格,让DeepSeek帮你写公式
留意:上传的表格数据不要太多,制造一个样表能拿到公式即可。
1.2访问国家超算互联网官网https://www.scnet.cn/ui/mall/
(, 下载次数: 0)
上传
点击文件名下载附件
(, 下载次数: 0)
上传
点击文件名下载附件
选择更大参数的模型,逻辑推理才能更强
方案一总结:合适AI轻度用户,操作最简单,只需手机注册一下就可运用,其中DeepSeek官网运用的是671B残缺版的大模型,还可以选择深度思索和联网搜索,质量最高,独一的不足就是访问量太大,服务器繁忙。其他途径很多都是蒸馏版本。
方案二 API访问(引荐)
第一步:创建API密钥
硅基活动&华为云
https://cloud.siliconflow.cn/models
注册一个账号,并创建API密钥。同时可以看看这个模型广场里,有收费的7B、8B模型,也有收费的14B及以上参数模型。
(, 下载次数: 0)
上传
点击文件名下载附件
DeepSeek官网注册账号后也可以创建API密钥,但近期访问量过大和国外攻击的缘由,目前已关闭充值,所以引荐运用硅基活动提供的API。
(, 下载次数: 0)
上传
点击文件名下载附件
(, 下载次数: 0)
上传
点击文件名下载附件
不管运用哪种API,收费标准都是Tokens(一个汉字或一个单词或单词的常见前缀或一个符号),普通用户10块钱都可以用很久了。
第二步:下载Chatbox或Cherry Studio
这一步是下载一个客户端软件,在客户端软件外面选择模型提供方,填写之前创建的API密钥,打造一个桌面AI聊天工具。本文以Chatbox为例,Cherry Studio也很好用,配置方法相似。
https://chatboxai.app/zh
(, 下载次数: 0)
上传
点击文件名下载附件
下载和安装都很简单,启动后点左下角的设置,按下面的方法配置一下
(, 下载次数: 0)
上传
点击文件名下载附件
(, 下载次数: 0)
上传
点击文件名下载附件
(, 下载次数: 0)
上传
点击文件名下载附件
举例:让AI模拟朱自清的《背影》,写一篇散文
激烈引荐方案二,多种AI模型可供选择,日常运用方便,配置一次也不复杂。
方案三 本地部署
后面曾经讲过不引荐,只是针对纯内网环境的用户,可以思索本地部署,普通电脑,即便是i7cpu+32g内存+4060显卡,也就能跑个14B的版本,智能程度和官网的残缺版比差远了。
第一步:下载Ollama用于部署模型
https://ollama.com/download
(, 下载次数: 0)
上传
点击文件名下载附件
下载好之后直接安装即可,要求Windows 10及以上系统。
PowerShell输入ollama,能看到以下内容,就是安装成功了。
(, 下载次数: 0)
上传
点击文件名下载附件
第二步:下载一个大模型
https://www.modelscope.cn/models
详细下载哪个参数规模、哪个量化版本,取决于你的电脑配置,我电脑配置不高,以“DeepSeek-R1-Distill-Qwen-7B-Q6_K-GGUF”为例。7B代表70亿参数规模,Q6_K代表6位量化,下载这个模型了解才能及推理才能有限,只能用于简单义务。
(, 下载次数: 0)
上传
点击文件名下载附件
搜索费事的也可以换下面的地址
https://henjihenji.feishu.cn/wiki/MN3Vwl2STigk2qk1r6lcGoY5nYg
(, 下载次数: 0)
上传
点击文件名下载附件
直接点击这个链接就可以阅读器下载(不建议用迅雷下载,但可以用Motrix下载,很快),网上很多教程都是在命令行窗口下载,这种方式除非你有VPN能连到国外,不然的话就不用试了,我第一次下载14b版本下载了一天一夜还没下到10%,中间还会衔接失败。
第三步:创建及部署模型
1.在模型下载好的文件夹新建一个文件,命名为Modelfile,不要扩展名,文件内容用记事本填写一下内容。
FROM ./DeepSeek-R1-Distill-Qwen-7B-Q6_K.gguf
2.设置环境变量
OLLAMA_MODELS
Ollama模型的下载途径,默许是在C盘的,假如要改变,可以先设置这个环境变量,再重启一下Ollama服务。
OLLAMA_HOST
Ollama模型以服务方式运转的时分,即提供API,默许是只能被localhost访问的,设置这个为0.0.0.0,可以被网络访问。
(, 下载次数: 0)
上传
点击文件名下载附件
3.创建、启动模型
打开PowerShell,输入命令切换到目录刚才下载好模型的目录,比如我的是D盘的Models文件夹
Set-Location "D:\Models"
#创建模型
ollama create DeepSeek-R1-Distill-Qwen-7B-Q6_K -f Modelfile#运转模型ollama run DeepSeek-R1-Distill-Qwen-7B-Q6_K:latest看到一下画面,就是运转成功了
方案二里的客户端也可以配置为访问本地部署的大模型
模型提供方选择:Ollama
API密钥不填写
API地址填写:http://localhost:11434
Ollama模型:选择你部署的模型
三、运用技巧
1、需求高质量回答时,不要选择参数规模小的蒸馏版本,直接访问官网、或官方的手机app、或配置官网API key才是最好的选择。也就是说,要了解从671B到1.5B各个参数规模的区别。
2、发问时指出要点。比如:我要做什么,目前什么样,遇到什么成绩,希望什么结果,提示AI要留意什么,或者需求强调哪些方面。
例如:请帮我写一篇引见湖北省大悟县的文章,模拟岳阳楼记和滕王阁序的风格来写,要求突出红色旅游特征,脱贫攻坚成果,自然风景优美,地理地位优越,营商环境良好。
3、假如上传文件的话,要思索文件大小,数据量,上下文长度限制。
欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/)
Powered by Discuz! X3.5