¿Qué es el A/B testing y cuándo merece la pena hacerlo?
Definición clara, fundamento estadístico básico, ejemplos en landings, emails y anuncios, y los errores que invalidan los resultados en la mayoría de tests de pymes.
Actualizado mayo 2026
A/B testing: dos versiones, mismos usuarios, decisión basada en datos.
El A/B testing (también llamado split testing) es la metodología que compara dos versiones de un elemento (página web, email, anuncio, CTA, copy) mostrándolas a usuarios similares en paralelo y midiendo cuál convierte mejor. La versión A es la actual (control); la versión B es la propuesta (variante). Si la variante gana con significancia estadística, se implementa.
A diferencia de "lanzar el cambio y comparar antes/después", el A/B testing aísla el efecto del cambio porque las dos versiones se exponen en el mismo periodo, al mismo público, con las mismas condiciones de tráfico. Eso elimina variables externas (estacionalidad, campaña paralela, fin de mes) que pueden confundir.
El A/B testing serio requiere significancia estadística: que la diferencia observada no sea fruto del azar. Las herramientas (Google Optimize hasta 2023, ahora VWO, Optimizely, AB Tasty, GrowthBook) calculan el p-value automáticamente, pero el principio importa: con muestras pequeñas, una diferencia del 20% puede ser ruido. Como referencia, se necesitan típicamente 1.000-5.000 conversiones por variante para detectar mejoras realistas (5-15%) con confianza.
En una pyme española, el A/B testing aplica cuando hay tráfico suficiente y hipótesis clara. Si tu landing recibe 200 visitas/mes con 5 conversiones, ningún test va a ser concluyente. Si recibe 10.000 visitas/mes con 300 conversiones, sí se pueden testear elementos clave (CTA, copy hero, formulario) y mover la aguja meses tras mes con experimentos sistemáticos.
Seis ejemplos reales de A/B tests con impacto medible
Tipos de cambios que más suelen mover la aguja en pymes B2B y ecommerce.
CTA: "Pedir demo" vs "Ver cómo funciona"
Caso B2B SaaS. CTR del botón en hero subió de 4,2% a 5,8% (+38%). El segundo copy reduce la fricción percibida ("ver" suena menos comprometido que "pedir"). Significancia 95% tras 4 semanas y 8.000 visitas.
Asunto email: emoji vs sin emoji
Newsletter B2B 5.000 destinatarios. Open rate con emoji: 22%. Sin emoji: 28%. En B2B serio, el emoji puede percibirse como spam o poco profesional. En B2C suele funcionar al revés. Siempre depende de la audiencia.
Formulario: 3 campos vs 6 campos
Reducir el formulario aumentó conversiones de 2,1% a 4,3% (+105%). Pero la calidad de lead bajó: SQL rate cayó de 30% a 18%. Lección: optimizar conversión web no siempre es lo mismo que optimizar leads cualificados.
Precio: 49€/mes vs 50€/mes con descuento
Mismo precio efectivo, distinta presentación. "50€/mes (oferta 49€)" convirtió 12% más que "49€/mes" plano. El precio tachado con descuento activa sesgo de ancla. Trick antiguo, sigue funcionando.
Imagen hero: producto vs persona
Hero con foto del producto: 3,1% conversión. Hero con persona usando producto: 4,5% (+45%). En servicios y SaaS, mostrar personas activa empatía y proyección. Excepto en productos muy técnicos donde lo contrario funciona.
Anuncio Google: titular con beneficio vs con feature
Google Ads B2B. Titular "Más leads cualificados en 90 días": CTR 5,1%. Titular "Plataforma cold mailing con IA": CTR 3,2%. Beneficios concretos con timeline siempre superan a descripción de feature, aún más en B2B.
Cinco errores típicos al hacer A/B testing
Parar el test antes de tener significancia
A los 3 días, la variante va 15% por encima. Cierras el test, declaras ganador. Una semana después, los datos se igualan. Sin significancia estadística (típicamente 95%), las decisiones son puro azar. Espera al cierre matemático.
Testar varias cosas a la vez
Cambias hero, CTA y formulario en la variante B. Si gana, no sabes qué movió la aguja. A/B testing prueba <strong>una variable cada vez</strong>. Para varias variables al mismo tiempo se usa multivariate testing, que requiere mucho más tráfico.
Tests con muestras irrisorias
200 visitas por variante no concluyen nada. Con esa muestra, una diferencia del 30% puede ser ruido puro. Calcula tamaño de muestra mínimo (calculadoras online como Evan Miller) antes de empezar.
No segmentar tráfico
Una variante puede ganar en móvil y perder en desktop. O ganar en tráfico SEO y perder en paid. Analizar resultados solo agregados oculta señales. Mira siempre desglose por dispositivo, fuente y geo.
Optimizar la métrica equivocada
Subir conversión web no siempre sube cierres. Una variante que duplica formularios pero atrae más curiosos puede empeorar pipeline. Métrica reina: conversión a venta o lead cualificado, no clic o submit. Ver <a href="/glosario/que-es-lead-scoring" class="text-magnetia-red underline">lead scoring</a>.
A/B testing en el mapa de conceptos relacionados.
El A/B testing es la herramienta táctica principal del CRO (Conversion Rate Optimization). CRO es la disciplina; A/B testing es uno de sus métodos. Otros métodos complementarios: análisis cualitativo (mapas de calor con Hotjar, grabaciones de sesión), encuestas in-app, entrevistas con usuarios y user testing.
En SaaS y ecommerce con tráfico alto, los tests A/B se realizan continuamente — un programa de CRO maduro lanza 2-4 tests al mes. En B2B con tráfico bajo (<5.000 visitas/mes), conviene priorizar mejoras "evidentes" (heurística + best practice) antes que testear todo. Cuando el volumen no permite tests, mejor hacer cambios basados en revisión cualitativa.
A/B testing se cruza con Core Web Vitals (página más rápida = más conversión sin testar copy), con atribución (saber qué canal trajo cada visita testada) y con tracking serio en GA4 o herramientas dedicadas.
Para pymes españolas que quieren montar programa de tests serio en su web B2B, Magnetia ofrece CRO web B2B: roadmap de hipótesis, implementación, análisis y reporting trimestral. La parte estratégica encaja en "Estrategia Empresarial" o "Ventas Digitales" del Kit Consulting.
Dudas que nos hacéis llegar
¿Tu web convierte lo que debería? Lo medimos.
Auditoría CRO + plan de 6-12 tests priorizados por impacto y esfuerzo. Implementación, análisis y reporting incluidos. Si calificas, cofinanciado por Kit Consulting.