之前写过类似文章请参考LLM系列之API聚合平台OpenRouter、TogetherAI、LiteLLM。本文继续汇总几个开源API统一管控平台。one-api官网开源GitHub30.1K Star5.8K Fork平台旨在解决多API并行模式的问题接口差异大代码重复且脆弱每个平台的API协议、参数格式、认证方式、错误码甚至响应结构都不尽相同。开发者需为每个平台单独编写适配层一旦某家平台升级接口多处代码需同步修改极易出错。API Key分散管理安全风险高开发人员各自持有不同平台的Token密钥硬编码在代码或配置文件中容易泄露。无法统一控制用量、权限和生命周期离职员工仍可能保留访问权限。调试与测试成本高切换模型需修改代码或配置无法快速对比不同模型效果。缺乏统一日志、监控和计费视图难以评估各平台性价比。上线后难以灵活调度无法根据成本、性能或可用性动态切换后端模型。某个平台限流或故障时缺乏自动降级或故障转移机制。开源大模型API聚合网关通过提供标准化的OpenAI兼容接口屏蔽底层平台差异实现一次接入多端兼容。浏览器打开http://localhost:3000开始体验输入用户名密码root/123456。优势完全屏蔽各平台的技术差异所有后端模型均通过统一的/v1/chat/completions接口被调用请求/响应格式严格遵循OpenAI API规范前端或业务代码无需感知后端是GPT、Qwen、Llama3。自动处理各平台特有的字段映射如max_tokens、max_output_tokens、认证头、错误码转换等细节。集中管理所有平台的Token与权限所有第三方平台的API Key仅由one-api后台管理员配置普通开发者无需接触原始密钥为每个开发者或应用分配独立的访问令牌具备使用额度限制按Token数或请求次数可用模型白名单如仅允许调用qwen-turboIP白名单、速率限制、QPS控制支持密钥轮换、禁用、审计日志大幅提升安全性与合规性。提升开发效率与系统灵活性快速切换模型只需在请求中更改model字段即可对比不同模型效果无需改代码。支持自定义模型别名如将gpt-4映射到qwen-max实现无缝迁移。本地模型无缝集成通过Ollama、FastChat等提供OpenAI兼容接口可将私有模型纳入统一调度体系。增强生产环境的可靠性与可观测性多渠道负载均衡为同一模型配置多个供应商如多个OpenAI账号自动分摊请求。故障自动转移当首选渠道失败如配额耗尽、网络超时自动尝试备用渠道。完整请求日志与用量统计记录每次调用的模型、耗时、Token消耗、费用估算便于成本分析与优化。Web管理界面可视化管理用户、渠道、模型、配额降低运维门槛。配置文件示例ai:openai:api-key:xxxbase-url:http://ip:3000/chat:options:model:qwen3-maxembedding:options:model:text-embedding-3-largedimensions:1024new-api官网开源GitHub19.2K Star3.7K ForkLLM API Key统一管理平台把各种LLM Provider的API入口、Key、渠道、配额、模型映射、审计统一管理对外提供稳定的兼容接口对内做鉴权、分发、路由、限流、日志脱敏、密钥加密存储、监控与成本控制。让客户端保持稳定接口把复杂度留在网关层解决。问题多Provider分裂OpenAI、Anthropic、Gemini、本地模型……接口差异带来维护成本Key管理混乱密钥散落在各服务里轮换、权限、审计都很难配额与成本不可控没有统一的限流、计费与监控超支和滥用很常见模型命名不统一同名不同能力、不同名同能力客户端适配非常痛苦稳定性问题单一渠道故障会直接影响业务需要路由与容灾功能渠道与Key管理Distribution面向团队/多租户的常见能力管理多个渠道不同Provider/不同Key组做分发、配额与访问控制降低Key滥用、泄露等风险模型映射与兼容层Model Mapping解耦前端命名和后端路由支持模型映射/重命名更容易做灰度、替换与统一接入路由与稳定性负载均衡/容灾面向生产实践的关键能力支持负载均衡与故障切换思路按项目说明为准多家Provider做成稳定服务出口亮点网关/控制面思路成熟把权限、配额、路由、模型管理集中处理客户端更简单更适合团队化使用多租户与分发能力不仅是反代而是平台层可部署可自建提供Docker等部署方式适合内网/自托管场景Grok2API官网生产就绪的开源GitHub3.9K Star1.4K ForkFastAPI服务为Grok提供兼容OpenAI的API接口。将Grok的基于Web的API转换为标准化的REST API具备全面的令牌管理、自动负载均衡和多后端存储支持。特性兼容OpenAI的API标准/v1/chat/completions端点参数完全对齐多模态支持聊天、图像生成/编辑、视频生成和视频放大令牌池管理跨多个令牌的自动负载均衡、健康监控和故障转移自动令牌刷新可配置间隔的计划令牌刷新多存储后端支持本地(TOML/JSON)、Redis、MySQL和PG管理面板用于令牌管理、配置和监控的基于Web的UI流式与非流式所有模型类型均支持两种响应模式NSFW模式支持无限制内容生成的开关需要代理设置Docker部署支持多Worker的容器化部署模型支持grok-3、grok-3-fast、grok-4、grok-4-mini、grok-4-fast、grok-4-heavy、grok-4.1、grok-4-thinking、grok-imagine-1.0、grok-imagine-1.0-video部署git clone https://github.com/chenyme/grok2api docker compose up -d uv sync uv run main.py浏览器打开http://localhost:8000/admin登录密码grok2api。暴露端点POST /v1/chat/completions POST /v1/images/generationsQuotio官网专门为解决多API Key账号管理痛点而生的开源GitHub3.9K Star244 Fork工具显示各个AI账号的剩余额度。功能在本地启动一个代理服务只需要把编程工具的Base URL指向代理服务地址检测到当前使用的Key爆出Rate Limit或余额不足的错误时自动切换到下一个可用的Key重试请求。在后台默默调度资源。API路由器通过配置规则可灵活地分配策略让不重要请求走便宜的API通道核心逻辑走高质量通道。Sub2API功能强大的开源GitHub3.4K Star597 ForkAI API网关平台旨在解决AI订阅服务的统一接入、配额分发和成本管理问题。体验地址用户名密码adminsub2api.com/admin123。允许将多个上游AI服务的订阅接入平台然后通过平台生成统一的API Key分发给不同的用户。当用户使用这些Key调用AI服务时Sub2API负责处理鉴权、计费、负载均衡和请求转发。这一切都在一个统一的管理后台中清晰可见让复杂的订阅管理变得简单高效。核心功能多账号管理支持多种类型的上游账号包括OAuth认证和传统的API Key模式API Key分发为不同的用户生成和管理独立的API Key并设置不同的权限和额度精确计费用量追踪精确到Token级别成本计算一目了然智能调度当有多个可用账号时系统能智能选择并支持粘性会话以保证对话的连续性并发控制可对用户和上游账号设置并发请求限制防止滥用速率限制可灵活配置请求速率和Token速率保障服务稳定管理后台提供现代化Web界面用于实时监控和管理所有资源。技术栈后端Go 1.25.7、Gin、Ent前端Vue 3.4、Vite 5、TailwindCSS安装curl-sSLhttps://raw.githubusercontent.com/Wei-Shaw/sub2api/main/deploy/install.sh|sudobashsudosystemctl start sub2apisudosystemctlenablesub2api# 升级docker-compose.ymldocker-compose-fdocker-compose.local.yml pull# 源码gitclone https://github.com/Wei-Shaw/sub2api.gitcdsub2api# 2. 编译前端cdfrontendpnpminstallpnpmrun build# 3. 编译后端嵌入前端cd../backend go build-tagsembed-osub2api ./cmd/server# 4. 配置并运行cp../deploy/config.example.yaml ./config.yamlnanoconfig.yaml ./sub2api解读编译后端时使用-tags embed参数会将前端静态资源打包进二进制文件实现单文件部署。使用模式环境变量RUN_MODEsimpleUniAPIChrome搜索UniAPI可找到好几个不同的项目uniapi.aiuniapi.top文档托管在GitHubGitHub上也能搜到好几个不同的项目yym686861.2K Star152 Forkzhangtyzzz87 Star34 Fork项目已归档已部署在VercelLiuLucian30 Star6 Forkzhangtyzzz功能列表支持OpenAI及兼容OpenAI协议的服务包括Azure OpenAI、Claude等将不同厂商的API统一转换为OpenAI格式简化调用流程支持模型映射用统一模型名调用不同厂商的实际模型提供模型择优机制根据72小时成功率和首token响应时间选择最佳服务内置断路器机制服务连续失败后自动暂停请求保护系统稳定性优化流式输出把大块响应拆成小块提升视觉效果支持自定义API密钥、BaseURL和模型列表灵活配置通过Vercel部署提供管理面板和安全认证OpenAI RouterGitHub轻量级、持久化、零配置OpenAI API统一网关。功能特性描述统一入口/chat/completions、/embeddings、/images/generations…所有OpenAI兼容接口都能转发多后端支持vLLM、SGLang、lmdeploy、Ollama…任意组合零配置持久化内置SQLite存储路由配置自动保存关机重启不丢失告别繁琐配置文件实时流式SSEChunked Transfer全双工支持流式输出体验和直连原生服务一样开箱即用WebUI自带Gradio管理面板开发者友好完美兼容OpenAI现有的OpenAI SDK、LangChain、LlamaIndex代码不改一行只需更换base_url安装uvaddopenai-router-U# 或pipinstallopenai-router-Uopenai-router--hostlocalhost--port8000浏览器打开http://localhost:8000文档参考http://localhost:8000/docs。示例fromopenaiimportOpenAI# 唯一改变base_url指向路由器clientOpenAI(base_urlhttp://localhost:8000/v1,api_keyxxx)respclient.chat.completions.create(modelgpt-4,messages[{role:user,content:hello}],streamTrue)forchunkinresp:print(chunk.choices[0].delta.content or,end)