OpenClaw 支持众多 LLM 提供商,只需简单的两步设置过程:使用您选择的提供商进行认证,然后配置默认模型。
概述
模型提供商配置是 OpenClaw 的核心功能之一。通过简单的设置,您可以连接到各种 AI 模型服务并开始使用。
推荐设置
Venice AI 被推荐为首选选项,提供"隐私优先的推理服务,并可选择使用 Opus 处理最困难的任务"。推荐的默认配置为:
- 标准版:
venice/llama-3.3-70b - 高级版:
venice/claude-opus-45
配置方法
要设置默认模型,请修改您的配置文件:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}
设置步骤
- 选择提供商:从支持的提供商列表中选择您要使用的服务
- 获取 API 密钥:在提供商平台注册并获取 API 密钥
- 运行入门命令:使用
openclaw onboard命令配置认证 - 配置默认模型:在配置文件中设置您的首选模型
支持的提供商
文档列出了 13+ 个支持的提供商入门集,包括:
- OpenAI
- Anthropic
- OpenRouter
- Vercel AI Gateway
- Moonshot AI
- Amazon Bedrock
- 以及更多专业选项...
高级配置部分还提供了涵盖更多提供商(xAI、Groq、Mistral 等)的完整目录。
提示
完整的文档和提供商目录可通过 索引文件 访问。