LiteLLM

开源的 LLM 聚合代理网关,用一套 OpenAI 兼容 API 对接百余家模型厂商,支持路由、预算、fallback 与日志。适合自建多供应商策略又不想重复造基础设施。

推理 / 托管开源代理聚合
访问官网新窗口打开

更适合

需要在多个 LLM 供应商之间切换/路由、统一计费与审计日志、做灰度实验的团队;企业场景下的 AI 网关首选之一。

不太适合

只用一家模型、极致追求最薄接入层、或需要深度自定义路由策略但不想自己维护的超小团队。

对比时可看

与 OpenRouter / Portkey / Braintrust Proxy 对比:LiteLLM 开源灵活、生态广;OpenRouter 更偏消费级路由层;Portkey 在 guardrails 与缓存方向深耕。

选用前自检

  • 规划 API key/多租户隔离与审计
  • 设定速率限制与 fallback 策略
  • 监控每个模型的成本/延迟基线
  • 准备自托管或 LiteLLM Cloud 的容量规划

常见检索问题

LiteLLM 和 OpenRouter 怎么选?

LiteLLM 更像企业内部的 AI 网关:部署在你的 VPC、可扩展策略、支持审计;OpenRouter 是消费级/对外暴露的模型市场,开箱即用但策略定制较弱。两者不冲突,常见组合是:OpenRouter 做模型目录,LiteLLM 做治理层。

使用场景

以上介绍帮助你判断这款工具是否适合当前需求。同类工具较多时,建议先明确自己的使用频率、预算与对数据隐私的要求,再选择最顺手的一款。

同类工具

Groq以自研 LPU 推理芯片与极低延迟著称的推理平台,提供多款开源模型的极速对话体验,适合对响应速度敏感的原型与演示。高峰期排队与可用模型列表会变化,生产环境需评估稳定性与条款。Replicate按调用计费的模型托管与 API 平台,聚合大量开源图像、语音与语言模型,适合快速试验而无需自管 GPU。成本随调用量上升,建议加缓存与批处理控制账单。fal面向创作者的生成式 API 与工作流,强调低延迟图像/视频推理与队列管理,适合把开源模型封装进产品。开发者需阅读各模型的许可与商用边界。Together AI专注开源模型推理与微调的云平台,提供高吞吐 API 与专用算力,适合需要 Llama、Mixtral 等模型私有化实验的团队。定价与区域节点以官网为准。Fireworks AI面向企业的快速推理与部署平台,强调低延迟与 OpenAI 兼容接口,适合在已有应用内无缝切换模型后端。适合已有工程团队评估与压测。OpenRouter统一调用多家模型厂商的聚合网关,一个接口可切换不同模型与定价,适合原型与 A/B 测试。需注意数据路由策略与供应商条款,敏感业务建议走直连与合同。硅基流动 SiliconFlow国内团队提供的模型推理与微调平台,支持多种开源模型与中文场景优化,适合国内开发者降低实验门槛。合规与备案要求请按你所在行业自行确认。Cerebras InferenceCerebras 基于 WSE 晶圆级芯片的推理服务,宣称对主流开源 LLM 的极速 token 吞吐,适合对延迟敏感的交互型应用。配额与模型清单会随发布节奏变化。