1. 引言
本手册旨在指导用户如何安装和使用 Ollama 和 Open WebUI,以便更好地利用深度学习模型进行推理和交互。
2. 运行 Ollama
先选择GPU型号和数量,再点击“立即部署”,该镜像建议双卡RTX40系运行

待实例初始化完成后,在控制台-应用中打开“JupyterLab”;进入JupyterLab后,新建一个终端Terminal,在终端中执行以下命令以启动 Ollama 服务:
ollama serve
如需通过cherrystudio、dify等本地工具配置连接Ollama,则启动命令修改如下,同时本地工具中模型名称填写为:deepseek-r1:70b
export OLLAMA_HOST=0.0.0.0:11434
ollama serve
3. 运行模型(可选)
接下来,您可以安装并运行指定的深度学习模型。以下是安装和运行 deepseek-r1:32b
模型的命令:
ollama run deepseek-r1:70b
4. 启动 Open WebUI
不要关闭前一个正在运行的终端,再新开一个终端,输入以下指令启动 Open WebUI 服务,指定端口和主机:
open-webui serve --port 6080 --host 0.0.0.0
待运行结果如下图所示时,即可在浏览器中输入 外网ip:6080 访问WebUI界面

5. 用户名和密码设置
在启动 Open WebUI 后,您需要设置用户名和密码。请按以下步骤进行设置:

6. 常见问题解答
Q1: 如何确认 Ollama 和 Open WebUI 是否成功启动?
您可以在终端中查看输出信息,确认没有错误信息,并且可以通过浏览器访问指定的地址(例如 http://localhost:6080
)来检查 Open WebUI 是否正常工作。
Q2: 如果遇到安装问题,我该怎么办?
请确保您的 Python 和 pip 版本是最新的,并且网络连接正常。您可以尝试使用 pip install --upgrade pip
命令来升级 pip。
Q3:如果Web端打不开怎么办
多刷新几次,这个docker显示的web端有点问题
扫码加入DeepSeek使用交流群
