OpenClaw从入门到应用——Agent:模型供应商(Model Providers)
通过OpenClaw实现副业收入《OpenClaw赚钱实录从“养龙虾“到可持续变现的实践指南》模型提供商本页面涵盖LLM/模型提供商而非 WhatsApp/Telegram 等聊天渠道。关于模型选择规则请参阅 /concepts/models。快速规则模型引用使用提供商/模型格式例如opencode/claude-opus-4-6。如果设置了agents.defaults.models它将成为允许列表。CLI 帮助命令openclaw onboard、openclaw models list、openclaw models set。API 密钥轮换支持选定提供商的通用提供商轮换。通过以下方式配置多个密钥OPENCLAW_LIVE__KEY单个实时覆盖最高优先级_API_KEYS逗号或分号列表_API_KEY主密钥_API_KEY_*编号列表例如_API_KEY_1对于 Google 提供商GOOGLE_API_KEY也作为后备。密钥选择顺序保留优先级并去重。仅在遇到速率限制响应例如429、rate_limit、quota、resource exhausted时才会使用下一个密钥重试请求。非速率限制失败会立即失败不会尝试密钥轮换。当所有候选密钥都失败时最终错误将从最后一次尝试返回。内置提供商pi-ai 目录OpenClaw 附带 pi-ai 目录。这些提供商无需models.providers配置只需设置身份验证 选择模型即可。OpenAI提供商openai身份验证OPENAI_API_KEY可选轮换OPENAI_API_KEYS、OPENAI_API_KEY_1、OPENAI_API_KEY_2以及OPENCLAW_LIVE_OPENAI_KEY单个覆盖示例模型openai/gpt-5.4、openai/gpt-5.4-proCLIopenclaw onboard --auth-choice openai-api-key默认传输方式为autoWebSocket 优先SSE 回退通过agents.defaults.models[openai/].params.transportsse、websocket或auto覆盖每个模型OpenAI Responses WebSocket 预热默认通过params.openaiWsWarmuptrue/false启用可以通过agents.defaults.models[openai/].params.serviceTier启用 OpenAI 优先级处理可以通过agents.defaults.models[/].params.fastMode为每个模型启用 OpenAI 快速模式openai/gpt-5.3-codex-spark在 OpenClaw 中被有意禁止因为实时 OpenAI API 会拒绝它Spark 仅被视为 Codex{ agents: { defaults: { model: { primary: openai/gpt-5.4 } } }, }Anthropic提供商anthropic身份验证ANTHROPIC_API_KEY或claude setup-token可选轮换ANTHROPIC_API_KEYS、ANTHROPIC_API_KEY_1、ANTHROPIC_API_KEY_2以及OPENCLAW_LIVE_ANTHROPIC_KEY单个覆盖示例模型anthropic/claude-opus-4-6CLIopenclaw onboard --auth-choice token粘贴 setup-token或openclaw models auth paste-token --provider anthropic直接的 API 密钥模型支持共享的/fast切换和params.fastModeOpenClaw 将其映射到 Anthropic 的service_tierauto对比standard_only政策说明setup-token 支持是出于技术兼容性考虑Anthropic 过去曾阻止某些订阅在 Claude Code 之外使用。请验证当前的 Anthropic 条款并根据您的风险承受能力做出决定。建议Anthropic API 密钥身份验证是比订阅 setup-token 身份验证更安全、更推荐的路径。{ agents: { defaults: { model: { primary: anthropic/claude-opus-4-6 } } }, }OpenAI Code (Codex)提供商openai-codex身份验证OAuth (ChatGPT)示例模型openai-codex/gpt-5.4CLIopenclaw onboard --auth-choice openai-codex或openclaw models auth login --provider openai-codex默认传输方式为autoWebSocket 优先SSE 回退通过agents.defaults.models[openai-codex/].params.transportsse、websocket或auto覆盖每个模型与直接的openai/*共享相同的/fast切换和params.fastMode配置当 Codex OAuth 目录公开openai-codex/gpt-5.3-codex-spark时它仍然可用取决于权限政策说明OpenClaw 明确支持 OpenAI Codex OAuth 用于外部工具/工作流。{ agents: { defaults: { model: { primary: openai-codex/gpt-5.4 } } }, }OpenCode身份验证OPENCODE_API_KEY或OPENCODE_ZEN_API_KEYZen 运行时提供商opencodeGo 运行时提供商opencode-go示例模型opencode/claude-opus-4-6、opencode-go/kimi-k2.5CLIopenclaw onboard --auth-choice opencode-zen或openclaw onboard --auth-choice opencode-go{ agents: { defaults: { model: { primary: opencode/claude-opus-4-6 } } }, }Google Gemini (API 密钥)提供商google身份验证GEMINI_API_KEY可选轮换GEMINI_API_KEYS、GEMINI_API_KEY_1、GEMINI_API_KEY_2、后备GOOGLE_API_KEY以及OPENCLAW_LIVE_GEMINI_KEY单个覆盖示例模型google/gemini-3.1-pro-preview、google/gemini-3-flash-preview兼容性使用google/gemini-3.1-flash-preview的旧版 OpenClaw 配置会标准化为google/gemini-3-flash-previewCLIopenclaw onboard --auth-choice gemini-api-keyGoogle Vertex、Antigravity 和 Gemini CLI提供商google-vertex、google-antigravity、google-gemini-cli身份验证Vertex 使用 gcloud ADCAntigravity/Gemini CLI 使用各自的身份验证流程注意事项OpenClaw 中的 Antigravity 和 Gemini CLI OAuth 是非官方集成。一些用户报告在使用第三方客户端后遇到了 Google 帐户限制。请查看 Google 条款如果您选择继续请使用非关键帐户。Antigravity OAuth 作为捆绑插件google-antigravity-auth默认禁用提供。启用openclaw plugins enable google-antigravity-auth登录openclaw models auth login --provider google-antigravity --set-defaultGemini CLI OAuth 作为捆绑插件google-gemini-cli-auth默认禁用提供。启用openclaw plugins enable google-gemini-cli-auth登录openclaw models auth login --provider google-gemini-cli --set-default注意您不要将客户端 ID 或密钥粘贴到openclaw.json中。CLI 登录流程将令牌存储在网关主机的身份验证配置文件中。Z.AI (GLM)提供商zai身份验证ZAI_API_KEY示例模型zai/glm-5CLIopenclaw onboard --auth-choice zai-api-key别名z.ai/*和z-ai/*标准化为zai/*Vercel AI Gateway提供商vercel-ai-gateway身份验证AI_GATEWAY_API_KEY示例模型vercel-ai-gateway/anthropic/claude-opus-4.6CLIopenclaw onboard --auth-choice ai-gateway-api-keyKilo Gateway提供商kilocode身份验证KILOCODE_API_KEY示例模型kilocode/anthropic/claude-opus-4.6CLIopenclaw onboard --kilocode-api-key基础 URLhttps://api.kilo.ai/api/gateway/扩展的内置目录包括 GLM-5 Free、MiniMax M2.5 Free、GPT-5.2、Gemini 3 Pro Preview、Gemini 3 Flash Preview、Grok Code Fast 1 和 Kimi K2.5。有关设置详情请参阅 /providers/kilocode。其他内置提供商OpenRouteropenrouterOPENROUTER_API_KEY示例模型openrouter/anthropic/claude-sonnet-4-5Kilo GatewaykilocodeKILOCODE_API_KEY示例模型kilocode/anthropic/claude-opus-4.6xAIxaiXAI_API_KEYMistralmistralMISTRAL_API_KEY示例模型mistral/mistral-large-latestCLIopenclaw onboard --auth-choice mistral-api-keyGroqgroqGROQ_API_KEYCerebrascerebrasCEREBRAS_API_KEYCerebras 上的 GLM 模型使用 IDzai-glm-4.7和zai-glm-4.6。兼容 OpenAI 的基础 URLhttps://api.cerebras.ai/v1。GitHub Copilotgithub-copilotCOPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKENHugging Face InferencehuggingfaceHUGGINGFACE_HUB_TOKEN或HF_TOKEN— 兼容 OpenAI 的路由器示例模型huggingface/deepseek-ai/DeepSeek-R1CLIopenclaw onboard --auth-choice huggingface-api-key。请参阅 Hugging Face (Inference)。通过models.providers配置的提供商自定义/基础 URL使用models.providers或models.json来添加自定义提供商或 OpenAI/Anthropic 兼容代理。Moonshot AI (Kimi)Moonshot 使用兼容 OpenAI 的端点因此将其配置为自定义提供商提供商moonshot身份验证MOONSHOT_API_KEY示例模型moonshot/kimi-k2.5Kimi K2 模型 IDmoonshot/kimi-k2.5moonshot/kimi-k2-0905-previewmoonshot/kimi-k2-turbo-previewmoonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbo{ agents: { defaults: { model: { primary: moonshot/kimi-k2.5 } }, }, models: { mode: merge, providers: { moonshot: { baseUrl: https://api.moonshot.ai/v1, apiKey: ${MOONSHOT_API_KEY}, api: openai-completions, models: [{ id: kimi-k2.5, name: Kimi K2.5 }], }, }, }, }Kimi CodingKimi Coding 使用 Moonshot AI 的兼容 Anthropic 的端点提供商kimi-coding身份验证KIMI_API_KEY示例模型kimi-coding/k2p5{ env: { KIMI_API_KEY: sk-... }, agents: { defaults: { model: { primary: kimi-coding/k2p5 } }, }, }Qwen OAuth免费层Qwen 通过设备代码流程提供对 Qwen Coder Vision 的 OAuth 访问。启用捆绑插件然后登录openclaw pluginsenableqwen-portal-auth openclaw models auth login--providerqwen-portal --set-default模型引用qwen-portal/coder-modelqwen-portal/vision-model有关设置详情和注意事项请参阅 /providers/qwen。火山引擎 (Doubao)火山引擎提供对中国境内豆包及其他模型的访问。提供商volcengine编码volcengine-plan身份验证VOLCANO_ENGINE_API_KEY示例模型volcengine/doubao-seed-1-8-251228CLIopenclaw onboard --auth-choice volcengine-api-key{ agents: { defaults: { model: { primary: volcengine/doubao-seed-1-8-251228 } }, }, }可用模型volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)编码模型volcengine-planvolcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7BytePlus国际版BytePlus ARK 为国际用户提供与火山引擎相同的模型访问。提供商byteplus编码byteplus-plan身份验证BYTEPLUS_API_KEY示例模型byteplus/seed-1-8-251228CLIopenclaw onboard --auth-choice byteplus-api-key{ agents: { defaults: { model: { primary: byteplus/seed-1-8-251228 } }, }, }可用模型byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)编码模型byteplus-planbyteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7SyntheticSynthetic 在synthetic提供商背后提供了兼容 Anthropic 的模型提供商synthetic身份验证SYNTHETIC_API_KEY示例模型synthetic/hf:MiniMaxAI/MiniMax-M2.5CLIopenclaw onboard --auth-choice synthetic-api-key{ agents: { defaults: { model: { primary: synthetic/hf:MiniMaxAI/MiniMax-M2.5 } }, }, models: { mode: merge, providers: { synthetic: { baseUrl: https://api.synthetic.new/anthropic, apiKey: ${SYNTHETIC_API_KEY}, api: anthropic-messages, models: [{ id: hf:MiniMaxAI/MiniMax-M2.5, name: MiniMax M2.5 }], }, }, }, }MiniMaxMiniMax 通过models.providers配置因为它使用自定义端点MiniMax兼容 Anthropic--auth-choice minimax-api身份验证MINIMAX_API_KEY有关设置详情、模型选项和配置片段请参阅 /providers/minimax。OllamaOllama 作为捆绑提供商插件提供并使用 Ollama 的原生 API提供商ollama身份验证无需本地服务器示例模型ollama/llama3.3安装链接https://ollama.com/download# 安装 Ollama然后拉取一个模型ollama pull llama3.3{ agents: { defaults: { model: { primary: ollama/llama3.3 } }, }, }当您选择使用OLLAMA_API_KEY时Ollama 会在本地http://127.0.0.1:11434被检测到并且捆绑的提供商插件会将 Ollama 直接添加到openclaw onboard和模型选择器中。有关入门、云/本地模式和自定义配置请参阅 /providers/ollama。vLLMvLLM 作为捆绑提供商插件提供用于本地/自托管兼容 OpenAI 的服务器提供商vllm身份验证可选取决于您的服务器默认基础 URLhttp://127.0.0.1:8000/v1要在本地选择加入自动发现如果您的服务器不强制身份验证任何值都可以exportVLLM_API_KEYvllm-local然后设置一个模型替换为/v1/models返回的 ID 之一{ agents: { defaults: { model: { primary: vllm/your-model-id } }, }, }有关详细信息请参阅 /providers/vllm。SGLangSGLang 作为捆绑提供商插件提供用于快速的本地/自托管兼容 OpenAI 的服务器提供商sglang身份验证可选取决于您的服务器默认基础 URLhttp://127.0.0.1:30000/v1要在本地选择加入自动发现如果您的服务器不强制身份验证任何值都可以exportSGLANG_API_KEYsglang-local然后设置一个模型替换为/v1/models返回的 ID 之一{ agents: { defaults: { model: { primary: sglang/your-model-id } }, }, }有关详细信息请参阅 /providers/sglang。本地代理LM Studio、vLLM、LiteLLM 等示例兼容 OpenAI{ agents: { defaults: { model: { primary: lmstudio/minimax-m2.5-gs32 }, models: { lmstudio/minimax-m2.5-gs32: { alias: Minimax } }, }, }, models: { providers: { lmstudio: { baseUrl: http://localhost:1234/v1, apiKey: LMSTUDIO_KEY, api: openai-completions, models: [ { id: minimax-m2.5-gs32, name: MiniMax M2.5, reasoning: false, input: [text], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 200000, maxTokens: 8192, }, ], }, }, }, }注意对于自定义提供商reasoning、input、cost、contextWindow和maxTokens是可选的。当省略时OpenClaw 默认reasoning: falseinput: [text]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192建议设置与您的代理/模型限制匹配的显式值。对于非原生端点上的api: openai-completions任何非空baseUrl且其主机不是api.openai.comOpenClaw 会强制设置compat.supportsDeveloperRole: false以避免提供商因不支持的developer角色而返回 400 错误。如果baseUrl为空/省略OpenClaw 将保留默认的 OpenAI 行为解析为api.openai.com。为了安全起见在非原生openai-completions端点上显式的compat.supportsDeveloperRole: true仍会被覆盖。CLI 示例openclaw onboard --auth-choice opencode-zen openclaw modelssetopencode/claude-opus-4-6 openclaw models list另请参阅/gateway/configuration 获取完整配置示例。