镜像社区
部署GPU实例
文档中心
常见问题(FAQ)
LLM
DeepSeek
Ollama-DeepSeek-R1-671B-Q1
671Bdeepseek 量化版本,最低可以双卡4090运行,速度较慢,如果有较快需求可以提卡,建议4卡运行这个ollama模型是最好的,并在`vim /etc/systemd/system/ollama.service`文件中将两卡,修改成你加载的卡数`Environment=CUDA_VISIBLE_DEVICES=0,1`
0/小时
v1.0

1. 引言

本手册旨在指导用户如何安装和使用 Ollama 和 Open WebUI,以便更好地利用深度学习模型进行推理和交互。通过本手册,您将学习如何启动服务、运行模型以及解决常见问题。详细内容可以查看这篇文章

2. 运行 Ollama

待实例初始化完成后,在控制台-应用中打开“JupyterLab”;进入JupyterLab后,新建一个终端Terminal,输入以下指令启动 Ollama 服务

ollama serve

如需通过cherrystudio、dify等本地工具配置连接Ollama,则启动命令改为:

export OLLAMA_HOST=0.0.0.0:11434
ollama serve

3. 运行模型

您可以安装并运行指定的深度学习模型。以下是安装和运行 DeepSeek-R1-UD-IQ1 模型的命令:

ollama run DeepSeek-R1-UD-IQ1:latest

4. 启动 Open WebUI

启动 Open WebUI 服务,您可以指定端口和主机。请使用以下命令:

open-webui serve --port 6080 --host 0.0.0.0

5. 用户名和密码设置

在启动 Open WebUI 后,您需要设置用户名和密码。请按以下步骤进行设置:

- 创建用户名和密码,均设置为 123

- 邮箱地址为:pony@123.com

1739015592717.jpg

6. 常见问题解答

Q1: 如何确认 Ollama 和 Open WebUI 是否成功启动?

您可以在终端中查看输出信息,确认没有错误信息。同时,您可以通过浏览器访问指定的地址(例如 http://localhost:6080)来检查 Open WebUI 是否正常工作。

Q2: 如果遇到安装问题,我该怎么办?

请确保您的 Python 和 pip 版本是最新的,并且网络连接正常。您可以尝试使用以下命令来升级 pip:

pip install --upgrade pip

Q3: 如果 Web 端打不开怎么办?

如果 Web 端无法打开,请尝试多刷新几次页面。有时 Docker 显示的 Web 端可能会出现问题。确保服务正在运行,并且没有其他网络问题。

Q4: 如果 Web 端报错怎么办?

因为两卡的算力比较紧张,相应较慢,有可能出现Web端提问没有反馈的情况,这里我们建议使用Maxkb配置在本地,并映射11434的节点

Q5: 如果deepseek加载步骤报错怎么办?

因为该模型较大,有可能会超过预定义的加载时间,一般来说两卡会加载几分钟。如果加载报错重新加载即可

镜像信息
@敢敢のwings
已使用
40
镜像大小480GB
最近编辑2025-02-10
支持卡型
RTX40系48G RTX40系
+2
框架版本
PyTorch-CUDA-12.4
CUDA版本
CUDA-12.4
应用
JupyterLab: 8888
版本
v1.0
2025-06-24
PyTorch:CUDA-12.4 | CUDA:CUDA-12.4 | 大小:480.00GB