OpenClaw 第三方API集成

支持的AI模型提供商,灵活切换云端或本地大模型

☁️ 云端模型提供商

🅾️
OpenAI

全球领先的AI模型提供商,提供 GPT 系列大语言模型。

提供商: openai
认证: OPENAI_API_KEY
示例模型: openai/gpt-5.2
🅰️
Anthropic

Claude 系列模型的创造者,以安全性和长上下文著称。

提供商: anthropic
认证: ANTHROPIC_API_KEYclaude setup-token
示例模型: anthropic/claude-opus-4-5
💻
OpenAI Code (Codex)

OpenAI 的代码专用模型,针对编程任务优化。

提供商: openai-codex
认证: OAuth (ChatGPT)
🌀
OpenCode Zen

OpenCode 提供的 AI 模型服务。

提供商: opencode
认证: OPENCODE_API_KEY
🌟
Google Gemini

Google 的多模态大语言模型系列。

提供商: google
认证: GEMINI_API_KEY
🔺
Google Vertex / Antigravity / Gemini CLI

Google Cloud 的企业级 AI 平台及相关工具。

提供商: google-vertex, google-antigravity, google-gemini-cli
🇨🇳
Z.AI (GLM)

智谱 AI 提供的 GLM 系列中文大模型。

提供商: zai
认证: ZAI_API_KEY
Vercel AI Gateway

Vercel 提供的统一 AI 模型网关服务。

提供商: vercel-ai-gateway
认证: AI_GATEWAY_API_KEY

🧩 其他内置提供商

OpenClaw 还支持以下开箱即用的 AI 模型提供商:

🔀
OpenRouter 统一的 API 网关,支持访问多个模型提供商
𝕏
xAI Elon Musk 的 AI 公司,提供 Grok 系列模型
Groq 超快速推理的 AI 推理平台
🧠
Cerebras 专用 AI 芯片推理服务
🌊
Mistral 欧洲开源大模型领导者
👨‍💻
GitHub Copilot GitHub 的 AI 编程助手

⚙️ 通过 models.providers 配置的提供商

以下提供商需要通过 models.providers 配置自定义/基础 URL:

提供商 说明 配置方式
Moonshot AI (Kimi) 月之暗面 AI 模型 models.providers
Kimi Coding Kimi 编程专用模型 models.providers
Qwen OAuth 通义千问 OAuth 认证 models.providers
Synthetic 合成数据训练模型 models.providers
MiniMax MiniMax 中文大模型 models.providers
💡 配置提示

使用 models.providers 配置时,需要指定基础 URL、API 密钥和模型名称映射。

🏠 本地模型

Ollama(本地模型)

🦙
Ollama

在本地运行开源大模型的最简单方式,无需配置,自动检测本地服务。

提供商: ollama
认证: 无需认证
示例模型: ollama/llama3.3

本地代理(LM Studio、vLLM、LiteLLM等)

如果你使用其他本地模型代理工具,OpenClaw 也支持通过标准 OpenAI 兼容 API 连接:

配置示例

bash
# LM Studio 默认在本地运行 OpenAI 兼容 API
openclaw models set --provider openai --base-url http://localhost:1234/v1

# vLLM 服务
openclaw models set --provider openai --base-url http://localhost:8000/v1
⚠️ 注意事项
  • 确保本地服务已启动并监听正确的端口
  • 本地模型可能需要较大的内存和 GPU 资源
  • 某些工具调用功能可能在本地模型上效果不佳

⌨️ CLI示例

快速配置模型

1. 初始化配置向导

bash
openclaw onboard

2. 设置默认模型

bash
# 设置 OpenAI GPT-4
openclaw models set openai/gpt-4

# 设置 Anthropic Claude
openclaw models set anthropic/claude-opus-4-5

# 设置 Ollama 本地模型
openclaw models set ollama/llama3.3

3. 列出可用模型

bash
openclaw models list
🔑 环境变量配置

大多数云端提供商需要 API 密钥。你可以在 ~/.openclaw/config.json 中配置,或使用环境变量:

bash
export OPENAI_API_KEY="your-api-key"
export ANTHROPIC_API_KEY="your-api-key"
export GEMINI_API_KEY="your-api-key"