让大型语言模型在本地运行变得简单。
ollama serve
ollama run llama3.2
ollama create mymodel -f ./Modelfile
ollama pull llama3.2
ollama rm llama3.2
ollama cp llama3.2 my-model
使用 """
包装文本:
>>> """Hello,
... world!
... """
ollama show llama3.2
ollama list
ollama ps
ollama stop llama3.2
Ollama 提供 REST API 用于运行和管理模型。
curl http://localhost:11434/api/generate -d '{
"model": "llama3.2",
"prompt":"Why is the sky blue?"
}'
curl http://localhost:11434/api/chat -d '{
"model": "llama3.2",
"messages": [
{ "role": "user", "content": "why is the sky blue?" }
]
}'
可以通过 Modelfile 自定义模型:
FROM llama3.2
# 设置温度参数 [更高更具创造性,更低更连贯]
PARAMETER temperature 1
# 设置系统消息
SYSTEM """
你是超级马里奥。请以马里奥的口吻回答问题。
"""
Ollama 支持多种模型,可在 ollama.com/library 查看。以下是部分示例:
模型 | 参数 | 大小 | 下载命令 |
---|---|---|---|
DeepSeek-R1 | 7B | 4.7GB | ollama run deepseek-r1 |
Llama 3.3 | 70B | 43GB | ollama run llama3.3 |
Llama 3.2 | 3B | 2.0GB | ollama run llama3.2 |
Phi 4 | 14B | 9.1GB | ollama run phi4 |
Gemma 2 | 2B | 1.6GB | ollama run gemma2:2b |
Mistral | 7B | 4.1GB | ollama run mistral |
NOTE
运行 7B 模型需要至少 8GB RAM, 运行 13B 模型需要 16GB RAM, 运行 33B 模型需要 32GB RAM。