云端模型提供商
OpenAI
全球领先的AI模型提供商,提供 GPT 系列大语言模型。
Anthropic
Claude 系列模型的创造者,以安全性和长上下文著称。
OpenAI Code (Codex)
OpenAI 的代码专用模型,针对编程任务优化。
OpenCode Zen
OpenCode 提供的 AI 模型服务。
Google Gemini
Google 的多模态大语言模型系列。
Google Vertex / Antigravity / Gemini CLI
Google Cloud 的企业级 AI 平台及相关工具。
Z.AI (GLM)
智谱 AI 提供的 GLM 系列中文大模型。
Vercel AI Gateway
Vercel 提供的统一 AI 模型网关服务。
其他内置提供商
OpenClaw 还支持以下开箱即用的 AI 模型提供商:
OpenRouter
统一的 API 网关,支持访问多个模型提供商
xAI
Elon Musk 的 AI 公司,提供 Grok 系列模型
Groq
超快速推理的 AI 推理平台
Cerebras
专用 AI 芯片推理服务
Mistral
欧洲开源大模型领导者
GitHub Copilot
GitHub 的 AI 编程助手
通过 models.providers 配置的提供商
以下提供商需要通过 models.providers 配置自定义/基础 URL:
| 提供商 | 说明 | 配置方式 |
|---|---|---|
| Moonshot AI (Kimi) | 月之暗面 AI 模型 | models.providers |
| Kimi Coding | Kimi 编程专用模型 | models.providers |
| Qwen OAuth | 通义千问 OAuth 认证 | models.providers |
| Synthetic | 合成数据训练模型 | models.providers |
| MiniMax | MiniMax 中文大模型 | models.providers |
💡 配置提示
使用 models.providers 配置时,需要指定基础 URL、API 密钥和模型名称映射。
本地模型
Ollama(本地模型)
Ollama
在本地运行开源大模型的最简单方式,无需配置,自动检测本地服务。
本地代理(LM Studio、vLLM、LiteLLM等)
如果你使用其他本地模型代理工具,OpenClaw 也支持通过标准 OpenAI 兼容 API 连接:
配置示例
bash
# LM Studio 默认在本地运行 OpenAI 兼容 API
openclaw models set --provider openai --base-url http://localhost:1234/v1
# vLLM 服务
openclaw models set --provider openai --base-url http://localhost:8000/v1
⚠️ 注意事项
- 确保本地服务已启动并监听正确的端口
- 本地模型可能需要较大的内存和 GPU 资源
- 某些工具调用功能可能在本地模型上效果不佳
CLI示例
快速配置模型
1. 初始化配置向导
bash
openclaw onboard
2. 设置默认模型
bash
# 设置 OpenAI GPT-4
openclaw models set openai/gpt-4
# 设置 Anthropic Claude
openclaw models set anthropic/claude-opus-4-5
# 设置 Ollama 本地模型
openclaw models set ollama/llama3.3
3. 列出可用模型
bash
openclaw models list
🔑 环境变量配置
大多数云端提供商需要 API 密钥。你可以在 ~/.openclaw/config.json 中配置,或使用环境变量:
bash
export OPENAI_API_KEY="your-api-key"
export ANTHROPIC_API_KEY="your-api-key"
export GEMINI_API_KEY="your-api-key"