9.1 提供商概述

OpenClaw 支持多种 LLM 模型提供商。首先进行身份验证,然后设置默认提供商为 "provider/model" 格式。

概述

本页面介绍 OpenClaw 支持的 LLM/模型提供商(不是聊天频道)。模型引用使用 provider/model 格式,例如 openai/gpt-5.2anthropic/claude-opus-4-5

快速开始

推荐使用 Venice AI 进行隐私优先的推理,默认模型为 venice/llama-3.3-70b,最佳综合性能模型为 venice/claude-opus-45

配置步骤

  1. 运行 openclaw onboard 进行初始配置
  2. 在 JSON5 配置中设置主要模型:
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-opus-4-5"
      }
    }
  }
}

支持的提供商

OpenClaw 支持以下内置和自定义提供商:

内置提供商

  • OpenAI - 环境变量: OPENAI_API_KEY
  • Anthropic - 环境变量: ANTHROPIC_API_KEY
  • Qwen - 需要 OAuth 认证
  • OpenRouter - 环境变量: OPENROUTER_API_KEY
  • Vercel AI Gateway - 环境变量: AI_GATEWAY_API_KEY
  • Google (Gemini) - 环境变量: GEMINI_API_KEY
  • Z.AI - 环境变量: ZAI_API_KEY
  • xAI - 环境变量: XAI_API_KEY
  • Groq - 环境变量: GROQ_API_KEY
  • Cerebras - 环境变量: CEREBRAS_API_KEY
  • Mistral - 环境变量: MISTRAL_API_KEY
  • GitHub Copilot - 环境变量: COPILOT_GITHUB_TOKEN

自定义提供商

以下提供商需要通过 models.providers 进行自定义配置:

  • Moonshot AI - 需要配置 baseUrl 和 API 密钥
  • MiniMax - 需要配置 baseUrl 和 API 密钥
  • OpenCode Zen - 环境变量: OPENCODE_ZEN_API_KEY
  • Amazon Bedrock - 需要 AWS 凭证配置
  • Ollama - 本地代理,自动检测 http://127.0.0.1:11434/v1
  • LM Studio / vLLM / LiteLLM - 本地代理服务器

常用命令

# 引导式配置
openclaw onboard --auth-choice openai-api-key

# 列出可用模型
openclaw models list

# 设置默认模型
openclaw models set anthropic/claude-opus-4-5

# 认证管理
openclaw models auth paste-token --provider openai
openclaw models auth login --provider anthropic --set-default

# 启用插件(某些提供商需要)
openclaw plugins enable google-gemini-cli

认证方式

不同的提供商支持不同的认证方式:

  • API 密钥 - 大多数提供商支持,通过环境变量或配置文件设置
  • OAuth - Anthropic Claude、Google Gemini、Qwen 等支持
  • 设备码流程 - Qwen 使用设备码 OAuth 认证
重要提示
不要将客户端 ID 或密钥直接粘贴到 openclaw.json 中。认证令牌应存储在认证配置文件中。
更多信息
完整的提供商配置目录和详细说明请参考 模型提供商概念文档