Snowflake, BigQuery, Databricks: qué warehouse elegir en pyme.
Los tres grandes del data warehouse cloud comparados sin pelotazo comercial. Arquitectura, modelo de precio, encaje con stack moderno y cuándo conviene cada uno según volumen real y equipo.
Actualizado mayo 2026
Tres caminos distintos para el mismo objetivo: separar computación y almacenamiento en cloud.
BigQuery (Google Cloud) es el warehouse serverless puro: no eliges máquinas, pagas por consulta y por almacenamiento. Encaja en pymes que valoran simplicidad operativa y ya están en ecosistema Google. Curva de inicio rapidísima.
Snowflake es el warehouse multinube neutral: separa por warehouses virtuales que arrancas y paras, pagas por segundo de cómputo. Más control sobre coste y rendimiento, gobernanza muy madura. Coste por crédito en lugar de consulta. Estándar en empresas medianas-grandes.
Databricks es la plataforma data+IA basada en lakehouse: combina warehouse SQL (Databricks SQL) con motor Spark para datos no estructurados y machine learning. Encaja cuando tienes carga mixta (BI + ML + streaming) o equipo data engineering fuerte. Ver qué es data warehouse.
Cuándo elegir cada uno
En 3 frases para no perderse.
BigQuery · simplicidad
Si quieres el menor friction operativo, ya usas Google Workspace o GCP, tu volumen es bajo-medio y tu carga principal es BI sobre datos estructurados. Coste arranca desde casi cero. La opción que recomendamos por defecto en pyme española sin equipo data senior.
Snowflake · gobernanza
Si tu empresa es multinube (AWS o Azure ya en uso), valoras gobernanza fuerte (data sharing, masking, lineage), tienes equipo data dedicado y vas a crecer a varios cientos de usuarios. Coste predecible si controlas warehouses virtuales.
Databricks · lakehouse + IA
Si tu carga incluye datos no estructurados, machine learning serio, streaming o cargas tipo IoT. Si ya usas Spark o tu equipo viene de data engineering Python. Más complejo de operar pero potencia mayor en carga mixta.
Cómo cobra cada uno y qué facturas reales vemos en pyme española.
1. BigQuery. Almacenamiento 0,02 $/GB/mes (activo) o 0,01 $/GB/mes (long-term). Consultas: modelo on-demand 6,25 $/TB procesado o capacity (slots reservados desde ~2.000 €/mes). Pyme típica con 200 GB y 50 consultas/día: 80-300 €/mes total. Setup: barato porque no hay nodos que dimensionar.
2. Snowflake. Almacenamiento 23 $/TB/mes. Cómputo por créditos según tamaño de warehouse virtual: X-Small ~2 créditos/hora, Small ~4, Medium ~8. Crédito en España alrededor de 2,5-4 $ según plan. Pyme típica con 200 GB y warehouses X-Small intermitentes: 250-900 €/mes. Riesgo: warehouses encendidos sin uso queman crédito en vano.
3. Databricks. Almacenamiento depende de tu cloud (S3, ADLS, GCS) que tú pagas aparte. Cómputo en DBU (Databricks Units) según tipo cluster: SQL Warehouse Pro ~0,55 $/DBU, jobs ML mayores. Pyme típica con cargas BI+ML mixtas: 600-2.500 €/mes. Más caro normalmente, pero más capacidades.
4. Coste oculto principal: control de gasto. Los tres tienen "casos famosos" de facturas de 50.000 € por una consulta mal escrita o un cluster olvidado encendido. Mínimo desde día 1: cuotas, alertas de presupuesto, autopause de warehouses, tablas particionadas.
5. Coste oculto secundario: egress. Sacar datos de tu cloud cuesta dinero (0,08-0,12 $/GB hacia internet). Si BI o reverse ETL extraen tablas enteras a diario, el egress se nota. Ver reverse ETL: Hightouch, Census.
Cómo elegir warehouse en 5 pasos
Paso 1 · ¿Qué cloud usa el resto del negocio?
Si la empresa ya está en GCP y Google Workspace: BigQuery por gravedad. Si en AWS: Snowflake o Databricks (Redshift queda fuera de esta comparativa). Si en Azure: Databricks (integración nativa) o Snowflake. Pelear contra la inercia cloud cuesta dinero.
Paso 2 · Carga: BI o mixta
Solo BI sobre datos estructurados: BigQuery o Snowflake encajan perfectos. BI + ML + streaming + datos no estructurados (logs, imágenes, texto largo): Databricks gana en arquitectura unificada.
Paso 3 · Capacidad operativa del equipo
BigQuery: serverless, sin dimensionar. Apto sin equipo data dedicado. Snowflake: hay que gestionar warehouses virtuales y créditos. Equipo data junior funciona. Databricks: requiere data engineer senior para sacarle partido real.
Paso 4 · Gobernanza necesaria
Si compartes datos con clientes externos o filiales, necesitas masking, RBAC fino, lineage: Snowflake es el más maduro. BigQuery va por detrás pero suficiente para pyme. Databricks Unity Catalog ha mejorado mucho pero requiere configuración.
Paso 5 · Cómo va a crecer
Pyme 10-50 empleados con 50-300 GB y BI sencillo: BigQuery casi seguro. Pyme 50-200 empleados con varios departamentos consumiendo datos: Snowflake. Pyme con producto data-intensive (recomendadores, scoring, IA en producto): Databricks o Snowflake con servicios IA encima.
Lo que vemos roto en warehouses pyme
Snowflake con un solo warehouse XL siempre encendido
Pyme contrata Snowflake y monta un warehouse Medium o Large que nunca se apaga. Factura 4.000-8.000 €/mes haciendo el trabajo que un X-Small intermitente haría por 300 €/mes. Auto-suspend a 60 segundos es obligatorio.
BigQuery sin particionar tablas
Tabla de eventos de 200 GB sin partición por fecha. Cada consulta recorre los 200 GB enteros. Factura mensual se dispara. Partitioning por DATE y clustering por columnas filtro habitual ahorra 70-90% del coste.
Databricks sin Unity Catalog
Equipo arranca con notebooks sueltos, sin catálogo unificado, sin permisos por tabla. Tres meses después: caos, duplicidad, fuga de datos. Unity Catalog desde el día 1, no como añadido posterior.
No medir consumo por usuario o consulta
Sin saber qué dashboard o equipo consume qué, no puedes optimizar. Los tres ofrecen tablas de billing detalladas: úsalas. Reuniones mensuales mirando top 10 consultas más caras evitan facturas locas.
Checklist mínima antes de elegir warehouse
Inventario de fuentes y volumen estimado
Filas/mes y GB/mes de cada fuente. Sin este número no se pueden comparar precios reales. Vendors te dan calculadora, pero solo sirve con datos tuyos honestos.
Casos de uso BI y ML separados
Si solo BI: BigQuery o Snowflake. Si ML serio: Databricks o Snowflake con SnowPark. Mezclar BI ligero con un proyecto ML pequeño no justifica saltar a Databricks.
Plan de gobernanza desde día 1
Roles, esquemas por entorno (dev/stage/prod), masking de columnas sensibles, owners de datasets. Sin esto cualquier warehouse se convierte en pantano en 6 meses.
Capa de transformación elegida
Casi siempre dbt encima del warehouse. Define modelos finales que BI y producto consumen. Ver <a href="/blog/dbt-vs-fivetran-vs-airbyte" class="text-magnetia-red underline">dbt vs Fivetran vs Airbyte</a>.
Presupuesto con alerta y cuota
Alertas de presupuesto mensuales y diarias. Cuotas por usuario o por consulta máxima. Sin esto, la primera consulta loca te come 3 meses de presupuesto en 4 horas.
Dudas que nos hacéis llegar
¿Tienes que elegir warehouse y quieres recomendación sin agenda comercial?
Diagnóstico de fuentes, casos de uso, cloud actual y previsión a 24 meses. Te decimos cuál encaja, con coste honesto y sin sobre-ingeniería.