分类
开源与开发者平台丨模型、框架与本地部署
面向开发者的模型托管、框架与本地运行栈;附文档与社区入口链接。
这一页更偏工程向:集成方式、许可证、硬件门槛与运维成本往往比界面功能更重要。若在做合规或内网部署,优先核实权重来源、遥测默认值与依赖供应链。
检索与补充说明
本地跑大模型最低配置大概多少?
视模型参数与量化而定;7B/8B 量化常见消费级显卡可试,更大模型需多卡或云主机。以各推理框架文档为准。
LangChain 还值得学吗?
生态仍活跃但竞争多;可按项目需求评估编排框架、托管 API 与云函数方案的组合。
本类工具
简介与官网以各工具详情页为准;可在同类条目间交叉浏览。
全球最大的开源模型与数据集社区之一,提供模型托管、在线演示(Spaces)、数据集与教程。适合开发者查找最新论文实现、微调小模型与参与开源协作;对非技术用户可作为「了解行业进展」的宝库。
Claude 背后的 AI 安全与研究公司,官网提供 API 文档、模型说明与负责任扩展相关论述。开发者可在此了解上下文长度、定价与政策更新。
OpenAI 开发者入口,提供 GPT 系列等模型的 API、计费与用量面板,适合自建产品与实验。生产环境需做好限流、监控与提示词版本管理。
构建 LLM 应用的框架与工具生态,涵盖链、代理、检索与评估,适合 Python/JS 开发者快速搭 RAG 与 Agent 原型。生态迭代快,跟文档与版本说明很重要。
在本地运行开源大模型的桌面/命令行工具,适合隐私敏感场景与离线实验。性能取决于你的显卡与内存,小模型更易在笔记本上跑通。
面向企业的文本模型与嵌入(embedding)API 提供商,强调检索、分类与多语言支持,适合构建搜索、客服与内部知识助手。与 OpenAI 相比更偏 B2B 与私有化选项。
以自研 LPU 推理芯片与极低延迟著称的推理平台,提供多款开源模型的极速对话体验,适合对响应速度敏感的原型与演示。高峰期排队与可用模型列表会变化,生产环境需评估稳定性与条款。
按调用计费的模型托管与 API 平台,聚合大量开源图像、语音与语言模型,适合快速试验而无需自管 GPU。成本随调用量上升,建议加缓存与批处理控制账单。
面向创作者的生成式 API 与工作流,强调低延迟图像/视频推理与队列管理,适合把开源模型封装进产品。开发者需阅读各模型的许可与商用边界。
专注开源模型推理与微调的云平台,提供高吞吐 API 与专用算力,适合需要 Llama、Mixtral 等模型私有化实验的团队。定价与区域节点以官网为准。
面向企业的快速推理与部署平台,强调低延迟与 OpenAI 兼容接口,适合在已有应用内无缝切换模型后端。适合已有工程团队评估与压测。
统一调用多家模型厂商的聚合网关,一个接口可切换不同模型与定价,适合原型与 A/B 测试。需注意数据路由策略与供应商条款,敏感业务建议走直连与合同。
国内团队提供的模型推理与微调平台,支持多种开源模型与中文场景优化,适合国内开发者降低实验门槛。合规与备案要求请按你所在行业自行确认。
阿里等机构支持的模型与数据集社区,提供中文语境下丰富的模型卡片、在线体验与教程,适合检索国产模型与复现论文。部分资源需登录与实名。
面向 AI Agent 与 RAG 的搜索 API,返回带摘要的网页结果,适合给自建助手接「可联网」能力。调用成本与速率限制需写进系统提示与重试策略。
提供嵌入、重排序与 Reader 等面向 RAG 的基础设施,开源组件丰富,适合自建搜索与问答流水线。企业部署需评估延迟与缓存策略。
为 AI 应用提供长期记忆层的开源框架,帮助 Agent 记住用户偏好与历史事实,适合个性化助手。记忆内容涉及隐私时需加密与可删除设计。
以 Rust 编写的高性能代码编辑器,内置协作编辑与可扩展 AI 能力;适合追求低延迟编辑体验与多人在线结对编程的团队。插件生态与模型接入仍在快速演进,重度 IDE 用户建议与 VS Code/JetBrains 对比试用。