OpenRouter 提供统一的 API 接口,通过单一端点支持多种模型,并保持与 OpenAI SDK 的兼容性,便于轻松集成。
概述
OpenRouter 是一个多模型路由服务,允许您通过统一的 API 访问多个 AI 模型提供商。它保持与 OpenAI API 的兼容性,使您可以轻松切换不同的模型而无需修改代码结构。
设置说明
CLI 入门配置需要运行以下命令:
openclaw onboard --auth-choice apiKey --token-provider openrouter --token "$OPENROUTER_API_KEY"
配置示例
基本的 JSON 格式配置如下:
{
env: { OPENROUTER_API_KEY: "sk-or-..." },
agents: {
defaults: {
model: { primary: "openrouter/anthropic/claude-sonnet-4-5" },
},
},
}
关键信息
- 模型引用格式:引用遵循
openrouter/<provider>/<model>模式 - 认证方式:使用您的 API 密钥进行 Bearer 令牌认证
- SDK 兼容性:保持与 OpenAI SDK 的完全兼容
模型命名规范
在 OpenRouter 中使用模型时,需要按照以下格式指定模型名称:
openrouter/<提供商>/<模型名称>
例如:
openrouter/anthropic/claude-sonnet-4-5- Claude Sonnet 4.5 模型openrouter/openai/gpt-4-turbo- GPT-4 Turbo 模型openrouter/meta-llama/llama-3-70b- Llama 3 70B 模型
提示
此设置使您能够通过单一、标准化的接口路由请求到各种 AI 模型。有关完整的模型和提供商选项,请参阅 模型提供商概念文档。