Categoría

LLM inference & hosting — aggregators, low-latency hardware, pricing

Token-metered inference services, aggregator gateways, custom-silicon providers, and serverless GPU platforms at a glance.

This is the feeder line for apps that don’t want to babysit GPUs. Compare **unit price** (token or second), **tail latency** (P95 on the same model), **model catalog**, **data routing**, and **OpenAI-compatible endpoints**. Ultra-low-latency use cases (voice agents, interactive IDEs) look at Groq/Cerebras/SambaNova. Multi-vendor experimenting leans on OpenRouter/LiteLLM. Custom weights land on Replicate/Modal/Baseten/Together/Fireworks.

Editorial / GSC

Aggregator gateways vs direct vendor contracts

Gateways win on speed-of-switch and A/B pricing; they lose on extra data hop and longer SLA chain. Critical enterprise paths usually graduate to direct contracts.

Are Groq and Cerebras actually cheaper than GPU clouds?

On latency-sensitive loads the $/token and tail-latency curve are often better, but model catalog and burst quotas are narrower—load test with real traffic before cutover.

Where do I deploy a fine-tuned model?

Replicate, Modal, Baseten, Together, and Fireworks all offer custom weights with metered billing. Watch cold-start tail latency and how reserved hardware is billed.

Herramientas en esta categoría

Los resúmenes y enlaces oficiales están en cada ficha; navega otras entradas de la misma categoría.

Groq

Groq: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.

Inferencia / Hosting
Replicate

Replicate: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.

Inferencia / Hosting
fal

fal: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.

Inferencia / Hosting
Together AI

Together AI: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.

Inferencia / Hosting
Fireworks AI

Fireworks AI: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.

Inferencia / Hosting
OpenRouter

OpenRouter: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.

Inferencia / Hosting
硅基流动 SiliconFlow

硅基流动 SiliconFlow: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.

Inferencia / Hosting
Cerebras Inference

Inferencia de Cerebras en silicio wafer‑scale con throughput extremo en LLMs OSS populares; apto para apps interactivas, consulta modelos en la web.

Inferencia / Hosting
SambaNova Cloud

SambaNova Cloud: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.

Inferencia / Hosting
Baseten

Baseten: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.

Inferencia / Hosting
Modal

Modal: producto de IA popular—consulta el sitio oficial para funciones, precios, regiones, datos y modelos actuales.

Inferencia / Hosting
LiteLLM

Gateway proxy open source para 100+ proveedores LLM con API compatible con OpenAI—enrutado, presupuestos, fallbacks y logs.

Inferencia / Hosting