一、通过 Ollama 部署 DeepSeek 模型

1. 安装 Ollama

https://ollama.com/

2. 模型部署命令

常用模型列表:

模型版本 运行命令 显存需求
DeepSeek-R1-Distill-Qwen-1.5B ollama run deepseek-r1:1.5b ≥ 4GB
DeepSeek-R1-Distill-Qwen-7B ollama run deepseek-r1:7b ≥ 8GB
DeepSeek-R1-Distill-Llama-8B ollama run deepseek-r1:8b ≥ 10GB
DeepSeek-R1-Distill-Qwen-14B ollama run deepseek-r1:14b ≥ 16GB

高级模型(需要高性能硬件):

1
2
3
4
5
# 32B 版本(需要 ≥ 24GB 显存)
ollama run deepseek-r1:32b

# 70B 版本(需要专业级显卡)
ollama run deepseek-r1:70b

3. Ollama 管理命令速查表

1
2
3
4
5
6
7
8
9
10
11
12
# 服务管理
ollama serve # 启动服务
ollama stop # 停止服务

# 模型操作
ollama pull <model> # 下载模型
ollama list # 已安装模型
ollama rm <model> # 删除模型

# 实用功能
ollama ps # 查看运行中的模型
ollama help # 获取帮助信息

二、使用 Cherry Studio 图形界面

安装配置流程

  1. 下载安装

    • 官网下载地址:https://www.cherryml.com/studio
  2. 基础配置

    1
    2
    3
    4
    设置路径:
    Settings → Ollama Integration →
    - 设置 API 端口(默认11434)
    - 启用自动检测
  3. 模型管理

    • 确保 Ollama 服务正在运行
    • 在 Cherry Studio 的模型管理界面点击”扫描本地模型”
    • 选择需要加载的 DeepSeek 版本

使用技巧

1
2
3
4
5
# 自定义启动参数示例(高级用户)
cherry-studio \
--model deepseek-r1:7b \
--quant 4bit \
--gpu-layers 20

三、常见问题解答

Q1:如何选择适合的模型版本?

  • 普通用户:建议从 7B 版本开始尝试
  • 游戏显卡(8-12GB):可运行 7B-14B 版本
  • 专业显卡:推荐 32B 及以上版本

Q2:出现显存不足错误怎么办?

1
2
# 尝试量化版本(添加 --quant 参数)
ollama run deepseek-r1:7b --quant 4bit

Q3:如何提高响应速度?

  • 关闭其他占用显存的程序
  • 在 Cherry Studio 中降低”Context Size”参数
  • 使用 --gpu-layers 参数增加 GPU 计算层数

提示:首次运行模型时会自动下载,请确保网络通畅(模型文件通常 5-40GB 不等)

1
2
3
4
5
6
7
8
9
这个 Markdown 版本:
1. 采用分层结构组织内容
2. 添加了参数说明和硬件要求
3. 包含代码块和表格等格式元素
4. 补充了常见问题解答
5. 使用注释说明重要注意事项
6. 保留了所有原始信息的同时增强可读性

可以直接复制到支持 Markdown 的博客平台使用,建议配合截图和实际运行示例效果更佳。

[!NOTE]

123


[!CAUTION]

123