DeepSeek本地部署

ollama

  1. 第一步下载https://ollama.com/ 按照对应的操作系统去选择对应的版本

  2. 第二步在CMD执行下列deepseek蒸馏模型 选适合的版本

模型版本 运行命令
DeepSeek-R1-Distill-Qwen-1.5B ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B ollama run deepseek-r1:70b

可用命令:

serve Start ollama
create 从 Modelfile 创建模型
show 显示模型的信息
Run a model 运行+模型名称 比如deepseek-r1:70b (ollama run deepseek-r1:70b)
stop 停止正在运行的模型
pull 从注册表中提取模型
push 将模型推送到注册表
list 列出型号
ps 列出正在运行的型号
cp 复制模型
rm 删除模型
help 关于任何命令的帮助

Cherry Studio

Cherry Studio一个可以把cmd命令行的聊天页面转为 像deepseek web端的效果

  1. 首先打开并安装Cherry Studio

  2. 点击设置 看到ollama

  3. 点击管理 添加deepseek的模型 当然在这个过程 ollama是要保持在后台运行的 不然识别不到

下面ollama Cherry Studio的分享链接

https://www.123865.com/s/tfTvjv-7yuF3