deepseek测试
一、通过 Ollama 部署 DeepSeek 模型
1. 安装 Ollama
2. 模型部署命令
常用模型列表:
模型版本 | 运行命令 | 显存需求 |
---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | ollama run deepseek-r1:1.5b |
≥ 4GB |
DeepSeek-R1-Distill-Qwen-7B | ollama run deepseek-r1:7b |
≥ 8GB |
DeepSeek-R1-Distill-Llama-8B | ollama run deepseek-r1:8b |
≥ 10GB |
DeepSeek-R1-Distill-Qwen-14B | ollama run deepseek-r1:14b |
≥ 16GB |
高级模型(需要高性能硬件):
1 | # 32B 版本(需要 ≥ 24GB 显存) |
3. Ollama 管理命令速查表
1 | # 服务管理 |
二、使用 Cherry Studio 图形界面
安装配置流程
下载安装
- 官网下载地址:
https://www.cherryml.com/studio
- 官网下载地址:
基础配置
1
2
3
4设置路径:
Settings → Ollama Integration →
- 设置 API 端口(默认11434)
- 启用自动检测模型管理
- 确保 Ollama 服务正在运行
- 在 Cherry Studio 的模型管理界面点击”扫描本地模型”
- 选择需要加载的 DeepSeek 版本
使用技巧
1 | # 自定义启动参数示例(高级用户) |
三、常见问题解答
Q1:如何选择适合的模型版本?
- 普通用户:建议从 7B 版本开始尝试
- 游戏显卡(8-12GB):可运行 7B-14B 版本
- 专业显卡:推荐 32B 及以上版本
Q2:出现显存不足错误怎么办?
1 | # 尝试量化版本(添加 --quant 参数) |
Q3:如何提高响应速度?
- 关闭其他占用显存的程序
- 在 Cherry Studio 中降低”Context Size”参数
- 使用
--gpu-layers
参数增加 GPU 计算层数
提示:首次运行模型时会自动下载,请确保网络通畅(模型文件通常 5-40GB 不等)
1 | 这个 Markdown 版本: |
[!NOTE]
123
[!CAUTION]
123
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 这是一个测试网站!