¿Qué es una vector database y por qué la necesitas para hacer RAG?
Definición técnica, comparativa entre pgvector, Qdrant y Pinecone, costes reales y criterios para elegir la adecuada en una pyme española. Sin marketing de proveedor.
Actualizado mayo 2026
Vector database: el motor de búsqueda semántica que hace funcionar a RAG.
Una vector database (base de datos vectorial) es un sistema de almacenamiento especializado en guardar y consultar embeddings: representaciones numéricas (vectores de cientos o miles de dimensiones) que capturan el significado semántico de un texto, imagen o audio. Sirve para responder preguntas del tipo "dame los documentos más parecidos en significado a esta consulta", no por coincidencia exacta de palabras sino por similitud conceptual.
Funciona en dos fases. Indexación: trozos de documento → embedding (mediante un modelo como text-embedding-3-small de OpenAI o voyage-3) → almacenado en la base. Búsqueda: la consulta del usuario también se convierte en embedding y la base devuelve los k vectores más cercanos por similitud coseno o producto escalar. Para que esto sea rápido con millones de vectores se usan algoritmos como HNSW (Hierarchical Navigable Small Worlds) o IVF.
Es el componente central de cualquier sistema RAG (Retrieval Augmented Generation): sin vector database no hay forma eficiente de que un LLM consulte tus documentos en tiempo real. También se usa en motores de recomendación, búsqueda de imágenes, detección de duplicados y clasificación por similitud.
En una pyme española, las tres opciones principales en 2026 son pgvector (extensión gratuita de PostgreSQL — recomendada para empezar), Qdrant (open-source, self-hosted o cloud, equilibrio óptimo) y Pinecone (SaaS gestionado, caro pero zero-ops). La elección depende del volumen, del equipo técnico disponible y de si ya usas Postgres.
pgvector vs Qdrant vs Pinecone en mayo 2026
Comparativa real basada en proyectos de pyme española, no benchmarks de fabricante.
pgvector (Postgres)
Extensión gratuita de PostgreSQL. Hasta ~1 millón de vectores: rendimiento excelente. Ventaja: usas tu Postgres existente, sin nuevo servicio. Coste: 0 € si ya tienes Postgres. Limitación: por encima de 5-10 millones de vectores empieza a sufrir.
Qdrant
Open-source en Rust, muy rápido, self-hosted en VPS o cloud gestionado. Escala fluidamente hasta cientos de millones de vectores. Coste self-hosted: 10-50 €/mes en Hetzner. Cloud: desde 25 €/mes. El equilibrio óptimo para 2026.
Pinecone
SaaS 100% gestionado, escala sin esfuerzo a miles de millones de vectores. Cero administración. Coste: desde 70 €/mes (plan Standard) y sube rápido con volumen. Solo merece la pena si no tienes equipo técnico y necesitas escalar mucho ya.
Weaviate
Open-source, similar a Qdrant pero con módulos integrados de embeddings y generación. Más pesado pero todo-en-uno. Cloud desde 25 €/mes. Buena opción si quieres montar RAG sin orquestador externo.
Chroma
Open-source en Python, muy fácil para prototipos. Ideal para POCs y desarrollos locales. Limitación clara: producción a escala media-alta no es su fuerte. Para producción suele migrarse a Qdrant o pgvector.
Milvus
Open-source con escala extrema (miles de millones de vectores). Complejidad operativa alta, requiere Kubernetes para self-hosting serio. Solo justificado en proyectos muy grandes. Para una pyme española normal: overkill.
Cómo elegir la vector database adecuada para tu pyme.
Volumen estimado de chunks
Cuenta documentos × chunks por documento. Un manual de 200 páginas → ~600 chunks. Si tu base completa < 500.000 chunks: pgvector basta. 500.000-10M: Qdrant. >10M o con multi-tenancy fuerte: Pinecone o Milvus.
Stack existente
¿Ya usas PostgreSQL? Empieza con pgvector — añadir una extensión es trivial. ¿No tienes Postgres y no quieres servidor adicional? Pinecone o Qdrant Cloud. ¿Tienes VPS y equipo técnico? Qdrant self-hosted.
Latencia exigida
¿Chatbot público con miles de consultas/min? Pinecone o Qdrant con réplicas. ¿Asistente interno con decenas de consultas/min? pgvector va sobrado. La latencia de la vector DB rara vez es el cuello de botella en pyme — suele serlo el LLM.
Presupuesto recurrente
pgvector: 0 €. Qdrant self-hosted: 10-50 €/mes. Qdrant Cloud: 25-150 €/mes. Pinecone: 70-500 €/mes según volumen. Para una pyme arrancando, gastar 100 €/mes en vector DB cuando pgvector funciona es derrochar.
Plan de escalado
Empieza simple. Migrar de pgvector a Qdrant lleva 1-3 días de trabajo (los embeddings ya están calculados, solo se reindexan). NO sobre-optimices al inicio: el dolor real lo descubres con datos reales en producción.
Cinco errores típicos al elegir y montar vector database
Empezar con Pinecone "por si acaso"
Pagar 70-500 €/mes cuando pgvector sobra para tu volumen real. El 80% de pymes no necesita más que pgvector en sus primeros 18 meses de producción.
No filtrar metadatos al consultar
Si tu base mezcla documentos de varios clientes/departamentos, hay que filtrar por metadato (cliente_id, departamento) además de buscar por similitud. Sin filtros, devuelves información de otros clientes — fallo de seguridad grave.
Chunks demasiado grandes o pequeños
Chunks de 50 caracteres no tienen contexto suficiente; chunks de 5.000 son demasiado largos para que el modelo destile lo relevante. Tamaño habitual: 400-800 tokens por chunk con 10-20% de overlap.
No actualizar el índice cuando cambia la fuente
Si tu documentación se actualiza semanalmente, hay que tener pipeline que re-genere embeddings de los chunks modificados. Sin esto, el modelo responde con información obsoleta y nadie se entera.
Confiar solo en similitud vectorial sin reranking
La búsqueda vectorial pura devuelve resultados parecidos en significado, pero no siempre los más relevantes. Combinar con búsqueda por keywords (híbrida) o un modelo reranker (cohere-rerank, jina-rerank) mejora calidad 15-30%.
Vector database en el ecosistema de IA empresarial.
La vector database es uno de los cuatro componentes esenciales de un sistema RAG: junto con el modelo de embeddings (que convierte texto a vector), el orquestador (LangChain, LlamaIndex o código propio) y el LLM que genera la respuesta final. Quitar cualquiera de los cuatro hace que el sistema deje de funcionar.
En arquitecturas más avanzadas, la vector database forma parte de la capa de memoria de un agente IA: el agente guarda conversaciones pasadas como vectores y consulta a sí mismo para mantener contexto entre sesiones. Es la base de la "memoria de largo plazo" en agentes que recuerdan al usuario.
A nivel de protocolo, está cobrando tracción MCP (Model Context Protocol) de Anthropic, que estandariza cómo un LLM consume datos externos. Muchos servidores MCP usan vector databases por debajo — el modelo no necesita saber cuál, solo consume el endpoint.
Si tu pyme necesita implantar un sistema RAG o asistente con tu documentación, en Magnetia montamos arquitectura completa (vector DB, embeddings, orquestador, modelo) como parte del servicio de automatización IA. Si calificas, lo cubre el Kit Consulting categoría IA.
Dudas que nos hacéis llegar
¿Necesitas montar RAG con tu documentación?
Reunión técnica con Marcos: revisamos tu volumen, tu stack y tus restricciones. Te recomendamos la combinación correcta (vector DB, embeddings, orquestador, modelo) y la montamos. Cofinanciable con Kit Consulting si calificas.