很多人在使用 OpenClaw 时,希望能够直接调用本地的大模型,而不是依赖云端 API。 通过Ollama,我们可以非常方便地在本地运行模型(例如 Qwen、Llama 等),并让 OpenClaw 直接调用。
这篇文章将一步一步介绍如何:让 OpenClaw 连接本地 Ollama 模型。
一、前置条件
在开始之前,请确保已经安装:
- OpenClaw (安装OpenClaw 教程 Mac版)
- Ollama (安装Ollama 教程)
可以通过以下命令检查是否安装成功:
openclaw --version ollama --version
二、让 OpenClaw 连接 Ollama
OpenClaw 需要一个 API Key 来识别 Ollama 服务。由于 Ollama 是本地服务,所以这个 Key 可以是任意字符串。
方法 1:设置环境变量
export OLLAMA_API_KEY="ollama-local"
方法 2:通过 OpenClaw 配置
openclaw config set models.providers.ollama.apiKey "ollama-local"
三、确认 Ollama 服务正在运行
检查 Ollama 服务:
curl http://localhost:11434/api/tags
如果没有运行,可以启动
ollama serve
四、检查 OpenClaw 模型
查看 OpenClaw 当前可用模型:
openclaw models list
如果没有 Ollama 模型,可以添加:
ollama launch openclaw # 然后选择想要添加的模型 ollama launch openclaw --model qwen3:8b # 已经明确想要添加的模型
五、运行 OpenClaw 初始化向导
运行配置向导:
openclaw onboard
OpenClaw 会 自动检测本地 Ollama 服务 。在向导中可以根据以下选择:
◆ I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue? │ ● Yes / ○ No ◆ Onboarding mode │ ● QuickStart (Configure details later via openclaw configure.) │ ○ Manual
然后会显示目前正在连接着的模型,本文使用的是 ollama/qwen3:8b 模型作为例子:
◇ Existing config detected ─────────╮ │ │ │ workspace: ~/.openclaw/workspace │ │ model: ollama/qwen3:8b │ │ gateway.mode: local │ │ gateway.port: 18789 │ │ gateway.bind: loopback │ │ │ ├────────────────────────────────────╯
这里选择Use existing values或者Update values都可以,但不能选Reset:
◆ Config handling │ ● Use existing values │ ○ Update values │ ○ Reset
Model provider选Skip for now:
◆ Model/auth provider │ ... │ ○ Cloudflare AI Gateway │ ○ Custom Provider │ ● Skip for now
选All providers:
◆ Filter models by provider │ ● All providers │ ○ amazon-bedrock │ ○ anthropic │ ○ azure-openai-responses ...
在Default Model里,连接着的Ollama 模型应该会出现在最上面,并作为默认模型,选这个就可以了,例如:
◆ Default model │ ● Keep current (ollama/qwen3:8b) │ ○ Enter model manually │ ○ amazon-bedrock/anthropic.claude-3-haiku-20240307-v1:0 │ ○ amazon-bedrock/anthropic.claude-3-5-haiku-20241022-v1:0 ...
此时,OpenClaw 已经成功连接到本地 Ollama 模型了。接下来的步骤按自己需求设置就可以了:
◆ How do you want to hatch your bot? │ ○ Hatch in TUI (recommended) │ ● Open the Web UI │ ○ Do this later ...
六、开始使用 OpenClaw + Ollama
向导完成后,OpenClaw 会自动打开 Web UI。
此时你的机器人已经可以使用本地 Ollama 模型来运行了。如果想切换模型,可以:
ollama launch openclaw
也可以直接指定模型:
ollama launch openclaw --model qwen3:8b
七、常见问题
1. Ollama API 无法访问
确认 Ollama 服务正在运行:
ollama serve
再次测试
curl http://localhost:11434/api/tags
2. OpenClaw 检测不到 Ollama 模型
查看 Ollama 已安装模型:
ollama list
如果没有模型,可以下载一个,例如:
ollama pull qwen3:8b
然后连接:
ollama launch openclaw --model qwen3:8b
总结
整个流程如下:
- 安装 OpenClaw 和 Ollama
- 设置 Ollama API Key,让OpenClaw 连接到 Ollama
- 启动 Ollama 服务
- 运行检查 OpenClaw 的Ollama模型
- 运行 OpenClaw 初始化向导