本手册旨在指导用户如何安装和使用 Ollama 和 Open WebUI,以便更好地利用深度学习模型进行推理和交互。
在终端中执行以下命令以启动 Ollama 服务:
ollama serve
如需通过cherrystudio、dify等本地工具配置连接Ollama,则启动命令修改如下
API地址填写为:外网IP地址:11434,同时本地工具中模型名称填写为:deepseek-r1:32b
export OLLAMA_HOST=0.0.0.0:11434
ollama serve
接下来,您可以安装并运行指定的深度学习模型。以下是安装和运行 deepseek-r1:32b
模型的命令:
ollama run deepseek-r1:32b
启动 Open WebUI 服务,指定端口和主机:
open-webui serve --port 6080 --host 0.0.0.0
在启动 Open WebUI 后,您需要设置用户名和密码。请按以下步骤进行设置:
123
。邮箱为:pony@123.com您可以在终端中查看输出信息,确认没有错误信息,并且可以通过浏览器访问指定的地址(例如 http://localhost:6080
)来检查 Open WebUI 是否正常工作。
请确保您的 Python 和 pip 版本是最新的,并且网络连接正常。您可以尝试使用 pip install --upgrade pip
命令来升级 pip。
多刷新几次,这个docker显示的web端有点问题