DeepSeek本地部署教程
DeepSeek本地部署
ollama
第一步下载https://ollama.com/ 按照对应的操作系统去选择对应的版本
第二步在CMD执行下列deepseek蒸馏模型 选适合的版本
模型版本 | 运行命令 |
---|---|
DeepSeek-R1-Distill-Qwen-1.5B | ollama run deepseek-r1:1.5b |
DeepSeek-R1-Distill-Qwen-7B | ollama run deepseek-r1:7b |
DeepSeek-R1-Distill-Llama-8B | ollama run deepseek-r1:8b |
DeepSeek-R1-Distill-Qwen-14B | ollama run deepseek-r1:14b |
DeepSeek-R1-Distill-Qwen-32B | ollama run deepseek-r1:32b |
DeepSeek-R1-Distill-Llama-70B | ollama run deepseek-r1:70b |
可用命令:
serve Start ollama
create
从 Modelfile 创建模型
show
显示模型的信息
Run a model
运行+模型名称 比如deepseek-r1:70b (ollama run deepseek-r1:70b)
stop
停止正在运行的模型
pull
从注册表中提取模型
push
将模型推送到注册表
list
列出型号
ps
列出正在运行的型号
cp
复制模型
rm
删除模型
help
关于任何命令的帮助
Cherry Studio
Cherry Studio一个可以把cmd命令行的聊天页面转为 像deepseek web端的效果
首先打开并安装Cherry Studio
点击设置 看到ollama
点击管理 添加deepseek的模型 当然在这个过程 ollama是要保持在后台运行的 不然识别不到
下面ollama Cherry Studio的分享链接
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 这是一个测试网站!