Ollama 是一个本地运行大模型的工具,支持拉取、运行、管理、删除模型,并提供 API 供外部应用调用。以下是 Ollama 的常用命令及其用法。
1. Ollama 基本操作命令
(1)检查是否安装
ollama
如果安装成功,会显示 Ollama 的版本信息。
(2)查看 Ollama 版本
ollama version
2. 运行和管理模型
(1)运行大模型
ollama run <模型名称>
例如:
ollama run mistral
Ollama 会自动下载(如果模型未下载)并运行。
(2)下载(拉取)模型
ollama pull <模型名称>
例如:
ollama pull llama3
下载指定模型,而不会立即运行。
(3)列出已安装的模型
ollama list
会显示所有已下载的模型及其大小。
(4)删除(卸载)模型
ollama rm <模型名称>
例如:
ollama rm mistral
删除指定的模型以释放磁盘空间。
3. Ollama 服务管理
(1)启动 API 服务器
ollama serve
这将使 Ollama 在 http://localhost:11434
提供 API 服务。
(2)停止运行中的模型
Ollama 本身不提供 stop
命令,但可以通过 终止进程 来停止:
pkill -f ollama
或者:
killall ollama
如果是在 screen
或 tmux
里运行,可以用:
screen -X -S ollama quit
tmux kill-session -t ollama
4. API 调用(与 Ollama 交互)
(1)生成文本
如果 Ollama 服务器正在运行,可以使用 curl
或 Python 调用 API:
curl -X POST http://localhost:11434/api/generate -d '{
"model": "mistral",
"prompt": "What is AI?",
"stream": false
}'
或者使用 Python:
import requests
url = "http://localhost:11434/api/generate"
data = {
"model": "mistral",
"prompt": "What is AI?",
"stream": False
}
response = requests.post(url, json=data)
print(response.json())
(2)获取已安装的模型
curl http://localhost:11434/api/tags
(3)删除模型
curl -X DELETE http://localhost:11434/api/delete -d '{"name": "mistral"}'
5. 高级功能
(1)创建自定义模型
你可以创建一个 Modelfile
来微调模型:
echo "
FROM mistral
PARAMETER temperature 0.7
" > Modelfile
然后创建新模型:
ollama create my-model -f Modelfile
运行:
ollama run my-model
(2)查看模型信息
ollama show <模型名称>
例如:
ollama show llama3
会显示模型的详细信息,如大小、参数等。
(3)查看日志
如果 Ollama 运行时有问题,可以查看日志:
journalctl -u ollama --no-pager --lines=100
或者直接运行:
ollama logs
6. 让 Ollama 后台运行
如果你想让 Ollama 持续运行并提供 API,可以使用以下方式:
screen
(1)使用 screen -S ollama
ollama serve
然后按 Ctrl + A + D
退出,后台仍在运行。
恢复:
screen -r ollama
tmux
(2)使用 tmux new -s ollama
ollama serve
然后按 Ctrl + B + D
退出。
恢复:
tmux attach -t ollama
7. 总结
功能 | 命令 |
---|---|
安装 Ollama | `curl -fsSL https://ollama.com/install.sh |
运行模型 | ollama run <模型名称> |
下载模型 | ollama pull <模型名称> |
列出已安装的模型 | ollama list |
删除模型 | ollama rm <模型名称> |
启动 API 服务器 | ollama serve |
停止 Ollama | pkill -f ollama 或 killall ollama |
API 调用 | curl -X POST http://localhost:11434/api/generate -d '{...}' |
创建自定义模型 | ollama create my-model -f Modelfile |
查看模型信息 | ollama show <模型名称> |
后台运行 Ollama | screen -S ollama 或 tmux new -s ollama |