Categoría
LLM inference & hosting — aggregators, low-latency hardware, pricing
Token-metered inference services, aggregator gateways, custom-silicon providers, and serverless GPU platforms at a glance.
This is the feeder line for apps that don’t want to babysit GPUs. Compare **unit price** (token or second), **tail latency** (P95 on the same model), **model catalog**, **data routing**, and **OpenAI-compatible endpoints**. Ultra-low-latency use cases (voice agents, interactive IDEs) look at Groq/Cerebras/SambaNova. Multi-vendor experimenting leans on OpenRouter/LiteLLM. Custom weights land on Replicate/Modal/Baseten/Together/Fireworks.
Editorial / GSC
Aggregator gateways vs direct vendor contracts
Gateways win on speed-of-switch and A/B pricing; they lose on extra data hop and longer SLA chain. Critical enterprise paths usually graduate to direct contracts.
Are Groq and Cerebras actually cheaper than GPU clouds?
On latency-sensitive loads the $/token and tail-latency curve are often better, but model catalog and burst quotas are narrower—load test with real traffic before cutover.
Where do I deploy a fine-tuned model?
Replicate, Modal, Baseten, Together, and Fireworks all offer custom weights with metered billing. Watch cold-start tail latency and how reserved hardware is billed.
Herramientas en esta categoría
Los resúmenes y enlaces oficiales están en cada ficha; navega otras entradas de la misma categoría.
Groq: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.
Replicate: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.
fal: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.
Together AI: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.
Fireworks AI: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.
OpenRouter: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.
硅基流动 SiliconFlow: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.
Inferencia de Cerebras en silicio wafer‑scale con throughput extremo en LLMs OSS populares; apto para apps interactivas, consulta modelos en la web.
SambaNova Cloud: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.
Baseten: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.
Modal: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.
Gateway proxy open source para 100+ proveedores LLM con API compatible con OpenAI—enrutado, presupuestos, fallbacks y logs.