本手册旨在指导用户如何安装和使用 Ollama 和 Open WebUI,以便更好地利用深度学习模型进行推理和交互。通过本手册,您将学习如何启动服务、运行模型以及解决常见问题。详细内容可以查看这篇文章。
ollama serve
export OLLAMA_HOST=0.0.0.0:11434
ollama serve
DeepSeek-R1-UD-IQ1
模型的命令:ollama run DeepSeek-R1-UD-IQ1:latest
open-webui serve --port 6080 --host 0.0.0.0
123
pony@123.com
您可以在终端中查看输出信息,确认没有错误信息。同时,您可以通过浏览器访问指定的地址(例如 http://localhost:6080
)来检查 Open WebUI 是否正常工作。
请确保您的 Python 和 pip 版本是最新的,并且网络连接正常。您可以尝试使用以下命令来升级 pip:
pip install --upgrade pip
如果 Web 端无法打开,请尝试多刷新几次页面。有时 Docker 显示的 Web 端可能会出现问题。确保服务正在运行,并且没有其他网络问题。
因为两卡的算力比较紧张,相应较慢,有可能出现Web端提问没有反馈的情况,这里我们建议使用Maxkb配置在本地,并映射11434的节点
因为该模型较大,有可能会超过预定义的加载时间,一般来说两卡会加载几分钟。如果加载报错重新加载即可