OpenClaw 支持多种 LLM 模型提供商。首先进行身份验证,然后设置默认提供商为 "provider/model" 格式。
概述
本页面介绍 OpenClaw 支持的 LLM/模型提供商(不是聊天频道)。模型引用使用 provider/model 格式,例如 openai/gpt-5.2 或 anthropic/claude-opus-4-5。
快速开始
推荐使用 Venice AI 进行隐私优先的推理,默认模型为 venice/llama-3.3-70b,最佳综合性能模型为 venice/claude-opus-45。
配置步骤
- 运行
openclaw onboard进行初始配置 - 在 JSON5 配置中设置主要模型:
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-opus-4-5"
}
}
}
}
支持的提供商
OpenClaw 支持以下内置和自定义提供商:
内置提供商
- OpenAI - 环境变量:
OPENAI_API_KEY - Anthropic - 环境变量:
ANTHROPIC_API_KEY - Qwen - 需要 OAuth 认证
- OpenRouter - 环境变量:
OPENROUTER_API_KEY - Vercel AI Gateway - 环境变量:
AI_GATEWAY_API_KEY - Google (Gemini) - 环境变量:
GEMINI_API_KEY - Z.AI - 环境变量:
ZAI_API_KEY - xAI - 环境变量:
XAI_API_KEY - Groq - 环境变量:
GROQ_API_KEY - Cerebras - 环境变量:
CEREBRAS_API_KEY - Mistral - 环境变量:
MISTRAL_API_KEY - GitHub Copilot - 环境变量:
COPILOT_GITHUB_TOKEN
自定义提供商
以下提供商需要通过 models.providers 进行自定义配置:
- Moonshot AI - 需要配置
baseUrl和 API 密钥 - MiniMax - 需要配置
baseUrl和 API 密钥 - OpenCode Zen - 环境变量:
OPENCODE_ZEN_API_KEY - Amazon Bedrock - 需要 AWS 凭证配置
- Ollama - 本地代理,自动检测
http://127.0.0.1:11434/v1 - LM Studio / vLLM / LiteLLM - 本地代理服务器
常用命令
# 引导式配置
openclaw onboard --auth-choice openai-api-key
# 列出可用模型
openclaw models list
# 设置默认模型
openclaw models set anthropic/claude-opus-4-5
# 认证管理
openclaw models auth paste-token --provider openai
openclaw models auth login --provider anthropic --set-default
# 启用插件(某些提供商需要)
openclaw plugins enable google-gemini-cli
认证方式
不同的提供商支持不同的认证方式:
- API 密钥 - 大多数提供商支持,通过环境变量或配置文件设置
- OAuth - Anthropic Claude、Google Gemini、Qwen 等支持
- 设备码流程 - Qwen 使用设备码 OAuth 认证
重要提示
不要将客户端 ID 或密钥直接粘贴到
openclaw.json 中。认证令牌应存储在认证配置文件中。更多信息
完整的提供商配置目录和详细说明请参考 模型提供商概念文档。