镜像社区
部署GPU实例
文档中心
常见问题(FAQ)
LLM
其他
ollama
用于大模型镜像制作或接口部署
0/小时
v1.0
  ollama

Ollama

让大型语言模型在本地运行变得简单。

镜像快速部署教程

1. 在镜像详情界面,点击“使用该镜像创建实例”

image

2. 先选择GPU型号(以RTX40系为例),再点击“立即部署”

image

3. 待实例初始化完成后,在控制台-应用中点击“JupyterLab”

image

4. 进入JupyterLab后,新建一个终端Terminal,输入以下命令以启用Ollma服务

ollama serve

不要关闭前一个终端,再新开一个终端Terminal,输入以下指令

ollama run llama3.2

运行成功后如下图所示,在>>>后输入问题,即可开始和Llama开始对话

image

CLI 命令参考

创建模型

ollama create mymodel -f ./Modelfile

拉取模型

ollama pull llama3.2

移除模型

ollama rm llama3.2

复制模型

ollama cp llama3.2 my-model

多行输入

使用 """ 包装文本:

>>> """Hello,
... world!
... """

查看模型信息

ollama show llama3.2

列出本地模型

ollama list

查看正在运行的模型

ollama ps

停止运行中的模型

ollama stop llama3.2

REST API

Ollama 提供 REST API 用于运行和管理模型。

生成回答

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt":"Why is the sky blue?"
}'

与模型对话

curl http://localhost:11434/api/chat -d '{
  "model": "llama3.2",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'

自定义模型

可以通过 Modelfile 自定义模型:

FROM llama3.2

# 设置温度参数 [更高更具创造性,更低更连贯]
PARAMETER temperature 1

# 设置系统消息
SYSTEM """
你是超级马里奥。请以马里奥的口吻回答问题。
"""

支持库

社区交流

可用模型库

Ollama 支持多种模型,可在 ollama.com/library 查看。以下是部分示例:

模型参数大小下载命令
DeepSeek-R17B4.7GBollama run deepseek-r1
Llama 3.370B43GBollama run llama3.3
Llama 3.23B2.0GBollama run llama3.2
Phi 414B9.1GBollama run phi4
Gemma 22B1.6GBollama run gemma2:2b
Mistral7B4.1GBollama run mistral

NOTE

运行 7B 模型需要至少 8GB RAM, 运行 13B 模型需要 16GB RAM, 运行 33B 模型需要 32GB RAM。

镜像信息
@Faych
已使用
33
镜像大小40GB
最近编辑2025-02-28
支持卡型
RTX40系30903080TiP4048G RTX40系
+5
框架版本
PyTorch-2.3.0
CUDA版本
12.1
应用
JupyterLab: 8888
版本
v1.0
2025-06-12
PyTorch:2.3.0 | CUDA:12.1 | 大小:40.00GB