9.2 快速入门

OpenClaw 支持众多 LLM 提供商,只需简单的两步设置过程:使用您选择的提供商进行认证,然后配置默认模型。

概述

模型提供商配置是 OpenClaw 的核心功能之一。通过简单的设置,您可以连接到各种 AI 模型服务并开始使用。

推荐设置

Venice AI 被推荐为首选选项,提供"隐私优先的推理服务,并可选择使用 Opus 处理最困难的任务"。推荐的默认配置为:

  • 标准版:venice/llama-3.3-70b
  • 高级版:venice/claude-opus-45

配置方法

要设置默认模型,请修改您的配置文件:

{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}

设置步骤

  1. 选择提供商:从支持的提供商列表中选择您要使用的服务
  2. 获取 API 密钥:在提供商平台注册并获取 API 密钥
  3. 运行入门命令:使用 openclaw onboard 命令配置认证
  4. 配置默认模型:在配置文件中设置您的首选模型

支持的提供商

文档列出了 13+ 个支持的提供商入门集,包括:

  • OpenAI
  • Anthropic
  • OpenRouter
  • Vercel AI Gateway
  • Moonshot AI
  • Amazon Bedrock
  • 以及更多专业选项...

高级配置部分还提供了涵盖更多提供商(xAI、Groq、Mistral 等)的完整目录。

提示
完整的文档和提供商目录可通过 索引文件 访问。