Magnetia — Agencia de marketing digital, IA y diseño web
Glosario · Data Stack

¿Qué es Snowflake y por qué dominó el mercado del data warehouse en cinco años?

Data cloud nativo que separa almacenamiento y cómputo, escala elásticamente por workload y se cobra por consumo. Estándar enterprise en analítica y datos compartidos en 2026.

Hablar con Magnetia sobre Snowflake

Actualizado mayo 2026

Definición

Snowflake: plataforma cloud de datos con arquitectura desacoplada.

Snowflake es una plataforma cloud-native de datos (data cloud) que combina data warehouse, data lake, data sharing, marketplace y capacidades de ML/IA en una sola arquitectura. Salió a bolsa en 2020 con la mayor IPO de software de la historia (USD 33B) y en 2026 es referente enterprise en analítica de datos.

Su diferencial técnico es la arquitectura de tres capas con almacenamiento y cómputo desacoplados: (1) capa de almacenamiento centralizada en object storage (S3, GCS, Azure Blob), (2) capa de cómputo con virtual warehouses independientes que se escalan/pausan por workload, (3) capa de servicios cloud (metadata, optimizador, autenticación). Permite escalar cómputo sin tocar datos y aislar workloads sin contención.

Funciona multi-cloud (AWS, Azure, GCP) con regiones independientes; los datos no salen de la región. Pricing por créditos: paga por segundo de cómputo consumido. Cuando no hay queries, virtual warehouse se pausa automáticamente y no cobra. Modelo opuesto a Redshift clásico (paga el clúster siempre).

Compite con BigQuery (serverless, GCP), Databricks (lakehouse, foco ML), Redshift (AWS), Synapse (Azure). Convive con dbt para transformación, Fivetran para ingesta y BI moderno (Looker, Tableau, Sigma) para consumo.

Arquitectura

Las tres capas de Snowflake

Lo que diferencia a Snowflake de Redshift y similar.

Capa de almacenamiento

Object storage subyacente (S3/GCS/Blob) gestionado por Snowflake. Datos en formato columnar comprimido propio (micro-particiones). Inmutable; cambios crean nuevas versiones. Habilita time travel y clonación zero-copy.

Capa de cómputo (virtual warehouses)

Clusters MPP independientes que ejecutan queries. Cada VW se dimensiona (XS, S, M, L, XL, 2XL, 3XL, 4XL, 5XL, 6XL) y puede multi-cluster. Pausa automática tras inactividad (segundos). Distintos VW no se interfieren.

Capa de servicios cloud

Cerebro: metadata, optimizador, autenticación, control de acceso, gestión de transacciones, infraestructura. Compartido entre todos los VW. Lo que hace que cualquier VW vea los mismos datos consistentemente.

Time Travel

Recuperación de versiones anteriores de tablas hasta 90 días (en plan Enterprise). Útil para deshacer DROP TABLE o UPDATE accidental. Snapshots casi instantáneos sin coste extra de almacenamiento mientras vivan.

Zero-copy cloning

Clonar bases de datos, esquemas o tablas sin duplicar almacenamiento. Snowflake solo guarda diferencias. Habilita entornos de dev/test sobre datos reales sin coste de copia.

Secure data sharing

Compartir datos con otra cuenta Snowflake sin moverlos. El receptor consulta con su cómputo sobre tu storage. Marketplace público (Snowflake Marketplace) con datasets de terceros (Bloomberg, FactSet, Foursquare).

Snowflake vs alternativas

Cómo se compara con BigQuery, Databricks y Redshift

Tabla simplificada para decisión rápida.

Snowflake

Pricing por créditos (segundos de cómputo). Virtual warehouses dimensionables por workload. Multi-cloud. Fuerte en analítica enterprise, data sharing. Curva de optimización: gestionar tamaños y pausas de VW.

BigQuery (Google)

Serverless puro, pricing por bytes procesados o slots reservados. Sin gestión de clusters. Ideal si ya usas GCP. Mejor tier gratuito y rampa inicial para pymes. Menos flexibilidad de aislamiento.

Databricks

Lakehouse con foco ML/IA. Spark como motor, Delta Lake como formato. Más cercano a data engineering / data science que warehouse puro. Mejor para workloads ML pesados.

Redshift (AWS)

Warehouse clásico AWS, ahora con Redshift Serverless. Mejor integración con resto del stack AWS. Históricamente menos elástico que Snowflake; las últimas versiones reducen la brecha.

Cómo arrancar

Implantación típica de Snowflake en pyme

Cuatro fases. 4-8 semanas para MVP usable.

01

Setup cuenta y diseño RBAC

Cuenta Snowflake, edición (Standard, Enterprise, Business Critical) y región. Roles, usuarios, permisos. Política de seguridad: MFA, IP whitelist, network policies. 3-5 días.

02

Ingesta de fuentes

Conectores Fivetran/Airbyte cargando datos brutos al esquema raw. Snowpipe para casos near real-time desde S3/GCS. 1-3 semanas según cantidad de fuentes.

03

Modelado con dbt

Proyecto dbt con capas raw → staging → intermediate → marts. Tests automatizados, documentación, lineage. Patrones de modelado: dimensional o data vault según volumen y madurez. 2-4 semanas para core models.

04

BI y observabilidad

Conexión BI (Looker, Tableau, Sigma, Hex). Cost dashboards (Snowsight) y alertas por consumo. Optimización warehouse sizing en función de patrones reales. Continuo.

Créditos
Modelo de pricing por segundo
90 días
Time travel Enterprise
Multi-cloud
AWS, Azure, GCP
XS a 6XL
Dimensiones virtual warehouse
Cómo se integra en el stack

Snowflake en el ecosistema moderno de datos.

Snowflake encaja en el centro del moderno data stack. Ingesta con Fivetran, Airbyte o Snowpipe; transformación con dbt; consumo con Looker/Tableau/Sigma/Hex; orquestación con Airflow/Dagster/Prefect.

Para arquitecturas data mesh, Snowflake soporta multi-cuenta + secure data sharing entre dominios. Para casos IA/ML, Snowflake Cortex permite ejecutar LLMs (incluyendo Llama, Mistral, Snowflake Arctic) directamente sobre datos sin moverlos.

Para sistemas con RAG, Snowflake ofrece Cortex Search y vector type nativos, posicionándose como alternativa a vector databases dedicadas para casos enterprise donde los datos ya viven en Snowflake.

En Magnetia evaluamos Snowflake vs BigQuery vs Databricks para pymes según presupuesto, volumen y stack existente. Cuando Snowflake es la elección, diseñamos arquitectura RBAC, optimización de coste y best practices. Combinable con automatización IA. Ver comparativa Snowflake vs BigQuery vs Databricks.

Preguntas frecuentes

Dudas que nos hacéis llegar

Conceptualmente sí (warehouses cloud), técnicamente no. Snowflake: multi-cloud, créditos por segundo, virtual warehouses dimensionables. BigQuery: solo GCP, serverless puro, pricing por bytes procesados. Redshift: solo AWS, clusters tradicionales + serverless reciente. Tienen modelos de pricing y arquitectura distintos.
45 min, sin compromiso

¿Snowflake, BigQuery o Databricks para tu pyme?

Evaluamos tu caso (presupuesto, volumen, stack actual, uso ML) y te recomendamos warehouse con justificación. Coordinamos implantación end-to-end.

Hablemos