カテゴリ
Vector DBs & retrieval — pick the base layer for RAG
Vector databases, embeddings, rerankers, and memory layers—compare the stack that feeds your RAG and agents.
Unlike chat LLMs, retrieval stacks differ mostly on **throughput, recall quality, filtering, and ops shape**. Split the short list into serverless (Pinecone, Turbopuffer) vs self-hosted (Milvus, Qdrant, Weaviate, Chroma, LanceDB), then check hybrid search (BM25 + vectors), metadata filters, namespaces, and per-tenant auth. Embedders and rerankers (Jina, Cohere, OpenAI) plug in as independent layers.
編集用 / GSC 追記欄
Pinecone vs Qdrant vs Weaviate vs Milvus
Small teams chasing speed: Pinecone/Turbopuffer. Self-host camp: Qdrant/Milvus. Local evals and dev: Chroma/LanceDB. Past 100M vectors, ops cost and backup story dominate the choice.
Do I need a reranker?
If your Top-K retrieval is noisy and answers drift, a cross-encoder rerank is often cheaper than swapping embeddings. Cohere Rerank, Jina Reranker, and bge-reranker are common picks.
Do agents need long-term memory?
Most apps get by with session state plus RAG. Only reach for Mem0 or a custom memory layer when you truly need cross-session personalization—and design deletion and audits up front.
このカテゴリのツール
概要と公式リンクは各ツール詳細へ。カテゴリ内の関連ピックも参照してください。
Tavily: 人気のAI製品です。機能・料金・対応地域・データ取り扱い・最新モデルは公式サイトで確認してください。
Jina AI: 人気のAI製品です。機能・料金・対応地域・データ取り扱い・最新モデルは公式サイトで確認してください。
Mem0: 人気のAI製品です。機能・料金・対応地域・データ取り扱い・最新モデルは公式サイトで確認してください。
マネージドのベクトルDB。サーバーレスと名前空間で RAG を速く本番化;規模拡大時は Qdrant/Milvus 自ホストと比較。
Weaviate: 人気のAI製品です。機能・料金・対応地域・データ取り扱い・最新モデルは公式サイトで確認してください。
Rust 製 OSS ベクトルDB。マネージドと企業版あり。ペイロードフィルタ/ハイブリッド検索/量子化でメモリと吞吐を両立。
Chroma: 人気のAI製品です。機能・料金・対応地域・データ取り扱い・最新モデルは公式サイトで確認してください。
Milvus / Zilliz: 人気のAI製品です。機能・料金・対応地域・データ取り扱い・最新モデルは公式サイトで確認してください。
LanceDB: 人気のAI製品です。機能・料金・対応地域・データ取り扱い・最新モデルは公式サイトで確認してください。
Turbopuffer: 人気のAI製品です。機能・料金・対応地域・データ取り扱い・最新モデルは公式サイトで確認してください。