OpenClaw + Ollama 本地AI Agent部署教程

很多人在使用 OpenClaw 时,希望能够直接调用本地的大模型,而不是依赖云端 API。 通过Ollama,我们可以非常方便地在本地运行模型(例如 Qwen、Llama 等),并让 OpenClaw 直接调用。
这篇文章将一步一步介绍如何:让 OpenClaw 连接本地 Ollama 模型。

一、前置条件

在开始之前,请确保已经安装:

  • OpenClaw (安装OpenClaw 教程 Mac版)
  • Ollama (安装Ollama 教程)

可以通过以下命令检查是否安装成功:

openclaw --version
ollama --version

二、让 OpenClaw 连接 Ollama

OpenClaw 需要一个 API Key 来识别 Ollama 服务。由于 Ollama 是本地服务,所以这个 Key 可以是任意字符串。

方法 1:设置环境变量

export OLLAMA_API_KEY="ollama-local"

方法 2:通过 OpenClaw 配置

openclaw config set models.providers.ollama.apiKey "ollama-local"

三、确认 Ollama 服务正在运行

检查 Ollama 服务:

curl http://localhost:11434/api/tags

如果没有运行,可以启动

ollama serve

四、检查 OpenClaw 模型

查看 OpenClaw 当前可用模型:

openclaw models list

如果没有 Ollama 模型,可以添加:

ollama launch openclaw # 然后选择想要添加的模型
ollama launch openclaw --model qwen3:8b # 已经明确想要添加的模型

五、运行 OpenClaw 初始化向导

运行配置向导:

openclaw onboard

OpenClaw 会 自动检测本地 Ollama 服务 。在向导中可以根据以下选择:

◆  I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?
│  ● Yes / ○ No
◆  Onboarding mode
│  ● QuickStart (Configure details later via openclaw configure.)
│  ○ Manual

然后会显示目前正在连接着的模型,本文使用的是 ollama/qwen3:8b 模型作为例子:

◇  Existing config detected ─────────╮
│                                    │
│  workspace: ~/.openclaw/workspace  │
│  model: ollama/qwen3:8b            │
│  gateway.mode: local               │
│  gateway.port: 18789               │
│  gateway.bind: loopback            │
│                                    │
├────────────────────────────────────╯

这里选择Use existing values或者Update values都可以,但不能选Reset:

◆  Config handling
│  ● Use existing values
│  ○ Update values
│  ○ Reset

Model provider选Skip for now:

◆  Model/auth provider
│  ...
│  ○ Cloudflare AI Gateway
│  ○ Custom Provider
│  ● Skip for now

选All providers:

◆  Filter models by provider
│  ● All providers
│  ○ amazon-bedrock
│  ○ anthropic
│  ○ azure-openai-responses
...

在Default Model里,连接着的Ollama 模型应该会出现在最上面,并作为默认模型,选这个就可以了,例如:

◆  Default model
│  ● Keep current (ollama/qwen3:8b)
│  ○ Enter model manually
│  ○ amazon-bedrock/anthropic.claude-3-haiku-20240307-v1:0
│  ○ amazon-bedrock/anthropic.claude-3-5-haiku-20241022-v1:0
...

此时,OpenClaw 已经成功连接到本地 Ollama 模型了。接下来的步骤按自己需求设置就可以了:

◆  How do you want to hatch your bot?
│  ○ Hatch in TUI (recommended)
│  ● Open the Web UI
│  ○ Do this later
...

六、开始使用 OpenClaw + Ollama

向导完成后,OpenClaw 会自动打开 Web UI。
此时你的机器人已经可以使用本地 Ollama 模型来运行了。如果想切换模型,可以:

ollama launch openclaw

也可以直接指定模型:

ollama launch openclaw --model qwen3:8b

七、常见问题

1. Ollama API 无法访问

确认 Ollama 服务正在运行:

ollama serve

再次测试

curl http://localhost:11434/api/tags

2. OpenClaw 检测不到 Ollama 模型

查看 Ollama 已安装模型:

ollama list

如果没有模型,可以下载一个,例如:

ollama pull qwen3:8b

然后连接:

ollama launch openclaw --model qwen3:8b

总结

整个流程如下:

  1. 安装 OpenClaw 和 Ollama
  2. 设置 Ollama API Key,让OpenClaw 连接到 Ollama
  3. 启动 Ollama 服务
  4. 运行检查 OpenClaw 的Ollama模型
  5. 运行 OpenClaw 初始化向导
上一篇 世界,您好!