Ollama 所有命令使用指南

Ollama 是一个本地运行大模型的工具,支持拉取、运行、管理、删除模型,并提供 API 供外部应用调用。以下是 Ollama 的常用命令及其用法。


1. Ollama 基本操作命令

(1)检查是否安装

ollama

如果安装成功,会显示 Ollama 的版本信息。

(2)查看 Ollama 版本

ollama version

2. 运行和管理模型

(1)运行大模型

ollama run <模型名称>

例如:

ollama run mistral

Ollama 会自动下载(如果模型未下载)并运行。

(2)下载(拉取)模型

ollama pull <模型名称>

例如:

ollama pull llama3

下载指定模型,而不会立即运行。

(3)列出已安装的模型

ollama list

会显示所有已下载的模型及其大小。

(4)删除(卸载)模型

ollama rm <模型名称>

例如:

ollama rm mistral

删除指定的模型以释放磁盘空间。


3. Ollama 服务管理

(1)启动 API 服务器

ollama serve

这将使 Ollama 在 http://localhost:11434 提供 API 服务。

(2)停止运行中的模型

Ollama 本身不提供 stop 命令,但可以通过 终止进程 来停止:

pkill -f ollama

或者:

killall ollama

如果是在 screentmux 里运行,可以用:

screen -X -S ollama quit
tmux kill-session -t ollama

4. API 调用(与 Ollama 交互)

(1)生成文本

如果 Ollama 服务器正在运行,可以使用 curl 或 Python 调用 API:

curl -X POST http://localhost:11434/api/generate -d '{
  "model": "mistral",
  "prompt": "What is AI?",
  "stream": false
}'

或者使用 Python:

import requests

url = "http://localhost:11434/api/generate"
data = {
    "model": "mistral",
    "prompt": "What is AI?",
    "stream": False
}
response = requests.post(url, json=data)
print(response.json())

(2)获取已安装的模型

curl http://localhost:11434/api/tags

(3)删除模型

curl -X DELETE http://localhost:11434/api/delete -d '{"name": "mistral"}'

5. 高级功能

(1)创建自定义模型

你可以创建一个 Modelfile 来微调模型:

echo "
FROM mistral
PARAMETER temperature 0.7
" > Modelfile

然后创建新模型:

ollama create my-model -f Modelfile

运行:

ollama run my-model

(2)查看模型信息

ollama show <模型名称>

例如:

ollama show llama3

会显示模型的详细信息,如大小、参数等。

(3)查看日志

如果 Ollama 运行时有问题,可以查看日志:

journalctl -u ollama --no-pager --lines=100

或者直接运行:

ollama logs

6. 让 Ollama 后台运行

如果你想让 Ollama 持续运行并提供 API,可以使用以下方式:

(1)使用 screen

screen -S ollama
ollama serve

然后按 Ctrl + A + D 退出,后台仍在运行。

恢复:

screen -r ollama

(2)使用 tmux

tmux new -s ollama
ollama serve

然后按 Ctrl + B + D 退出。

恢复:

tmux attach -t ollama

7. 总结

功能 命令
安装 Ollama `curl -fsSL https://ollama.com/install.sh
运行模型 ollama run <模型名称>
下载模型 ollama pull <模型名称>
列出已安装的模型 ollama list
删除模型 ollama rm <模型名称>
启动 API 服务器 ollama serve
停止 Ollama pkill -f ollamakillall ollama
API 调用 curl -X POST http://localhost:11434/api/generate -d '{...}'
创建自定义模型 ollama create my-model -f Modelfile
查看模型信息 ollama show <模型名称>
后台运行 Ollama screen -S ollamatmux new -s ollama
已有 0 条评论 新浪微博
滚动至顶部