开启左侧

DeepSeek本地安装指南(电脑版)

[复制链接]
在线会员 795eQI 发表于 2025-4-6 07:53:40 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题 |快速收录
宁夏医科年夜教总病院自立公然雇用报考指北(转收)

   正在当地装置DeepSeek,可颠末Ollama、Python&Hugging Face、Docker、llama.cpp四种方法,此中Ollama最为烦琐。上面具体介绍使用Ollama正在差别体系上装置DeepSeek的步调:

1、装置前准备

(一)体系请求

- MacOS:Intel或者Apple silicon芯片都可,倡议使用最新版原体系,保证体系颠簸性战兼容性。

- Linux:x86_64或者arm64架构,举荐Ubuntu 24.04,其余支流刊行版也可测验考试,但是可以需要分外调解依靠。

- Windows:借帮Windows Subsystem for Linux (WSL 2),Windows 10及以上版原可启开此功用,启开后类似于正在Linux情况下操纵 。

(两)软件请求

- 内乱存:最高8GB,若念得到较佳体会,倡议16GB及以上,运行庞大模子时,更年夜内乱存可削减卡整理。

- 保存:准备10GB以上空闲空间,用于寄存模子文献,若后绝需锻炼模子或者处置大批数据,倡议预留更多空间。

- GPU:非必须,但是有兼容GPU(如NVIDIA的部门型号)可年夜幅提拔拉理速率,运行庞大任务时劣势清楚。

(三)硬件请求

- 末端东西:MacOS战Linux体系自戴末端;Windows体系使用WSL 2时,正在“开端菜单”搜刮“Ubuntu”等装置的Linux刊行版启用末端,或者颠末PowerShell启开WSL 2情况 。

-根底 东西:装置Python 3.10及以上版原,装置时勾选“Add Python to PATH”;保证装置了pip(Python保证理东西,一般随Python装置)战Git(用于代码办理战获得资本)。

2、使用Ollama装置DeepSeek

(一)装置Ollama

MacOS体系:会见ollama.ai,面打下载MacOS使用法式;下载完毕后,正在“下载”文献夹找到ollama.zip文献,解压后将Ollama图标拖移至“使用法式”文献夹;翻开“使用法式”中的Ollama,根据提醒授与权力装置号令止东西。

Linux/Ubuntu 24.04/WSL(Windows)体系:翻开末端,运行装置剧本 curl -fsSL https://ollama.com/install.sh | sh ;装置完毕后,施行 ollama serve 启用Ollama效劳;正在末端输出 ollama --version ,若显现版原号(如ollama version 0.1.25),则装置胜利。

(两)下载战装置DeepSeek - R1

查抄模子可否正在Ollama默认库中:正在末端运行 ollama list ,检察列表中可否有deepseek - R1。如有,运行 ollama pull deepseek - R1中止 下载,下载时间与决于收集速率。

脚动树立(模子没有正在默认库时):从Hugging Face或者DeepSeek民间堆栈获得gguf格局的DeepSeek - R1模子文献(如deepseek - R1.q4_k_m.gguf) ,将其保留到指定文献夹(如~/models );正在统一文献夹中,创立名为modelfile的文献,实质为 from ./deepseek - R1.q4_k_m.gguf (按照理论文献名改正);正在末端运行 ollama create deepseek - R1 -f modelfile 完毕模子建立。

(三)运行DeepSeek - R1

正在末端输出 ollama run deepseek - R1 启用取模子的对于话。比方输出 >> write a Python function to calculate fibonacci numbers. ,模子会给出响应答复。

(四)考证装置(可选)

运行 ollama list ,确认列表中呈现deepseek - R1。使用差别的示例提醒尝试模子的拉理速率战答复品质,查抄可否满意需要。

(五)正在Web UI中运行DeepSeek

运行 ollama web 启用Ollama的Web UI,正在浏览器中翻开响应网址(一般是http://localhost:11434 ),就可以正在图形界里中取DeepSeek接互,操纵越发直觉便利。

若没有念使用Ollama,也可颠末Python&Hugging Face、Docker、llama.cpp装置DeepSeek,不外那三种方法的装置历程更庞大。好比使用Python&Hugging Face,需装置Python、Hugging Face相干库,借要下载模子;使用Docker要装置Docker引擎,编辑容器设置文献;llama.cpp则偏重于正在CPU上劣化运行,装置时要编译代码,设置运行参数。

宁夏医科年夜教总病院自立公然雇用报考指北(转收)

您需要登录后才可以回帖 登录 | 立即注册 qq_login

本版积分规则

发布主题
阅读排行更多+
用专业创造成效
400-778-7781
周一至周五 9:00-18:00
意见反馈:server@mailiao.group
紧急联系:181-67184787
ftqrcode

扫一扫关注我们

Powered by 职贝云数A新零售门户 X3.5© 2004-2025 职贝云数 Inc.( 蜀ICP备2024104722号 )