TeaCup Lab Logo

Optimizando Experiencias: Cómo usar Test A/B para mejorar la conversión de nuestra web

Mónica Bohigas
6 marzo, 2024

Leads no cualificados, tasas altas de abandono en el funnel de compra, engagement bajo… ¿Te resulta familiar? Son varios problemas muy frecuentes a los que nos enfrentamos a diario, especialmente los CROs.

Con un Test A/B, podemos tomar decisiones rápidas, fundamentadas en datos cuantitativos, sobre el diseño de nuestra web o app y aplacar estas problemáticas de conversión y abandono que tanto perjudican a nuestro negocio.

En este artículo, desglosaremos qué es un Test A/B, sus ventajas, cómo se implementa y qué KPIs debemos establecer para sacar el mayor potencial a esta técnica de UX Research.

¿Qué es un Test A/B?

En términos sencillos, un Test A/B es una metodología experimental donde presentamos dos versiones diferentes de una página web o app a usuarios distintos durante una visita real. Luego, analizamos cuál de las dos versiones genera un mejor rendimiento en términos de conversiones.

Con esta metodología, recopilamos datos de visitas reales al dirigir a un porcentaje de nuestros usuarios a la versión A y al restante porcentaje a la versión B, ambas versiones en vivo en nuestra web o app. Por lo tanto, los resultados de un Test A/B permiten a los expertos en Optimización de la Tasa de Conversión (CRO) tomar decisiones respaldadas por datos de visitas reales, asumiendo un menor riesgo.

Comparativa TestAB de una interfaz. Una con un botón rojo y la otra con un botón azul.
https://juicermkt.com/blog/test-web-cro/

La clave de un buen Test A/B radica en la variación controlada y el establecimiento de KPIs claros y apropiados. Mientras una audiencia experimenta la versión A (original), otra se expone a la versión B (variante). Posteriormente, se comparan los resultados para identificar cuál de las dos versiones ha logrado mejores KPIs, buscando diferencias estadísticamente significativas que respalden decisiones informadas y garantizadas.

¿Qué ventajas tiene el A/B testing?

Si resumimos los principales beneficios de esta técnica en 6 puntos:

  1. Facilidad de Implementación: en comparación con métodos más complejos, como los estudios etnográficos o tests de usabilidad, el Test A/B es más ágil y menos invasivo ya que puedes probar cambios directamente en la plataforma en la que se ejecuta tu producto sin necesidad de grandes cambios.
  2. Rigor Estadístico: el Test A/B, normalmente, ofrece resultados estadísticamente significativos, lo que proporciona una comprensión numérica y objetiva del impacto de las variaciones y ofrece unas conclusiones que se basan en evidencias cuantitativas sólidas.
  3. Optimización Continua: el Test A/B es ideal para la mejora continua de tus datos de conversión (CRO), ya que puedes iterar y probar constantemente nuevas ideas y cambios.
  4. Validación de Hipótesis Específicas: Es efectivo para validar hipótesis específicas sobre cómo ciertos elementos o cambios que podrían estar afectando a las métricas clave de rendimiento.
  5. Eficiencia en Recursos: en términos de recursos y tiempo, el Test A/B puede ofrecer resultados en un corto plazo, sin necesidad de un setup complicado y sin coste de participantes. Comparado con otras investigaciones con usuarios, el Test A/B es una técnica ágil y de costes reducidos.
  6. Enfoque en Resultados Tangibles: los resultados del Test A/B están directamente vinculados a métricas de negocio tangibles, como tasas de conversión o ingresos generados. En comparación con enfoques más teóricos, el Test A/B se traduce directamente en mejoras medibles y cuantificables.

El Test A/B destaca por su capacidad para ofrecer resultados cuantitativos sólidos, su enfoque en la mejora continua y su eficiencia en términos de recursos y tiempo. Sin embargo, es esencial considerar la complementariedad de diferentes metodologías según los objetivos y el contexto específico de cada investigación en UX.

También debemos tener en cuenta algunas limitaciones de los Test A/B:

  • Para decidir qué versión probar, necesitamos tener datos que informen nuestro nuevo diseño.
  • El número de variables que podemos testar con esta técnica está, en cierto modo, limitado. Cuantas más variables introduzcamos en el diseño B, más dificil nos resultará asignar el éxito o mejores resultados a un cambio concreto.
  • Un AB Testing no proporciona datos cualitativos que nos permitan explicar por qué una versión funciona mejor que la otra. Además, si nuestra versión no tiene éxito, no tendremos información sobre que alternativas plantear si no hemos hecho investigación antes. Esto también implica que no podemos sacar aprendizajes para otros diseños o cambios futuros.
  • Puede resultar complicado establecer cuánto tiene que durar el experimento y cuándo declarar un ganador. Existen factores que hacen que los resultados puedan cambiar a lo largo del tiempo.
graph that shows test a and test b
En esta imagen de un test real podemos ver cómo la nueva versión gana durante las primeras dos semanas. Sin embargo, si dejamos el test activo durante uno par de meses se vuelve la peor opción.
  • Algunas empresas abusan del uso de esta técnica con el afán de conseguir una mejora en la conversión con cada mínimo cambio de diseño o flujo. La realidad es que, los pequeños cambios en diseño o copy normalmente nos ayudan a mejorar los resultados en una pequeña medida, pero sólo los cambios estructurales o estratégicos van a reportar mejoras significaticas en la conversión, en la mayoría de los casos. Por ello, si el objetivo es impactar de forma significativa la tasa de conversión, un Test A/B podría no ser la mejor herramienta por si sola.

¿Cómo Implementar un Test A/B?

illustration of the steps needed to implement an ab test
https://www.kiwop.com/blog/que-es-como-usar-test-ab-marketing

1. Definir el Objetivo: Antes de sumergirnos, es crucial tener claro qué queremos mejorar o modificar. ¿Queremos incrementar las suscripciones, ventas, optimizar un mensaje o la interacción con ciertos elementos? Para ello, nos basaremos en una hipótesis bien formulada con los siguientes tres elementos: un problema, una propuesta de solución y las métricas o parámetros que nos ayudarán a medir los resultados.

Por ejemplo: Si modificamos [el elemento que se está probando], cambiando [la descripción del cambio], se espera que [aumente/disminuya] [el KPI] debido a [la descripción del fundamento de nuestra hipótesis].

En un caso real: Si modificamos el literal del botón para que sea “Finalizar compra” en lugar de “Siguiente” disminuirá la tasa de abandono en el paso final porque el literal ayudará a entender mejor el proceso de compra e incentivará al usuario a querer confirmar la compra.

2. Crear Versiones Variadas: Diseñar una variante (B) que sea diferente de la original (A). Puede ser un cambio en el color, la disposición de elementos o el texto.
Es importante limitar nuestro Test A/B a una única hipótesis. Es decir, sólo testar un cambio concreto cada vez y nunca lanzar varios Test A/B de forma simultánea. De lo contrario, los KPIs y resultados podrían no ayudarnos a concluir qué diseño es mejor ya que no podríamos atribuir la mejora a un único cambio sino que podría tratarse de una combinación de factores.

En nuestro ejemplo anterior, la opción A sería el botón con el literal “Siguiente” y la opción B sería un botón con “Finalizar compra”.

3. Implementación: Utiliza herramientas específicas de Test A/B, como Google Optimize, Optimizely, o herramientas integradas en plataformas de comercio electrónico. Estas herramientas te permiten configurar, ejecutar y recoger datos de manera centralizada. Debes definir los eventos y conversiones específicos que deseas rastrear durante el Test A/B, como clics en botones, envíos de formularios o compras. También puedes utilizar herramientas como Hotjar o Crazy Egg para obtener heatmaps (mapas de calor) y grabaciones de sesiones que te ayuden a visualizar el comportamiento de los usuarios.

4. Selección Aleatoria de Usuarios: Asignar aleatoriamente a los usuarios a la versión A o B. Esto asegura una distribución equitativa y elimina sesgos.

https://www.seobility.net/es/wiki/AB_Testing

5. Recopilación de Datos y Análisis Estadístico: ¡Esperar y observar! Integra tu Test A/B con Google Analytics o herramientas analíticas similares para obtener datos detallados sobre el comportamiento de los usuarios en ambas variantes. Si estás ejecutando anuncios como parte de tu Test A/B, asegúrate de configurar el seguimiento de objetivos en las plataformas publicitarias, como Facebook Ads o Google Ads. Adicionalmente, puedes utilizar herramientas estadísticas para determinar si la variación B es significativamente mejor en términos de nuestro objetivo e hipótesis.

Recuerda configurar todas las integraciones y seguimientos antes de lanzar el Test A/B. Además, asegúrate de cumplir con las políticas de privacidad y ética al recoger y analizar datos de usuarios.

¿KPIs Clave para Evaluar en Tests A/B y cómo elegir el nuestro?

En la implementación de un Test A/B, es esencial definir una o varias métricas, nuestros KPIs claves alineados con los objetivos empresariales. Para ello, debemos tener en cuenta que debemos diferenciar:

  • Métricas Primarias: La métrica principal, o KPI fundamental, que actuará como indicador clave, “la Estrella Polar” o el objetivo del test que guía el éxito o fracaso de la prueba A/B.
  • Métricas Secundarias: Mientras la métrica principal determina la versión ganadora, las métricas secundarias o microconversiones ofrecen capas adicionales de información sobre los objetivos subyacentes del proyecto, revelando cambios en el comportamiento del usuario.

A continuación, repasamos algunos de los KPIs más comunes en un Test A/B:

  • Tasa de Conversión (CR): es una métrica central que indica la proporción de usuarios que realizan la acción deseada en comparación con el total de usuarios. Una 'conversión' podría ser hacer clic en un enlace específico, registrarse en tu servicio o comprar un producto. Es una de las métricas más comunes y cruciales para medir el éxito de las pruebas A/B.
    📈 ¿Cómo se calcula? Divide el número total de acciones deseadas realizadas (conversiones) entre el total de visitantes del sitio web y multiplica el resultado por 100.
    Tasa de conversión = (Número de conversiones / Total de visitantes) x 100
  • Tasa de Clics (CTR): Mide la proporción de usuarios que hacen clic en un elemento específico en relación con el número total de usuarios que ven ese elemento.
    📈 ¿Cómo se calcula? Divide el número de clics entre el total de impresiones y multiplica el resultado por 100.
    CTR = (Clics / Impresiones) x 100
  • Tiempo de Permanencia: Indica la duración promedio que los usuarios pasan interactuando con la página. Un aumento podría sugerir un mayor compromiso/engagement con el contenido.
    📈¿Cómo se calcula? Divide la duración total de todas las sesiones entre el número de sesiones en una página web durante el tiempo que está activo el test A/B.
    Tiempo de Permanencia = Duración total de la sesión / Sesiones totales
  • Tasa de Rebote: Representa el porcentaje de usuarios que abandonan la página sin realizar ninguna interacción. Un descenso en la tasa de rebote puede indicar una mejor retención; es un indicador del interés y engagement del usuario.
    📈¿Cómo se calcula? Se calcula dividiendo el número de sesiones con rebote entre el total de sesiones durante el test A/B y multiplicando el resultado por 100.
    Tasa de Rebote = (Número de sesiones de Rebote / Total de sesiones) * 100
  • Tasa de abandono: similar a la anterior aunque más centrada en una conversión/compra. La tasa de abandono se refiere al porcentaje de tareas que los usuarios inician pero no completan, como abandonar una personalización de un vehículo a mitad de proceso o dejar un carrito lleno sin comprar.
    📈¿Cómo se calcula? Se divide el número de tareas incompletas entre el total de tareas iniciadas y el resultado final se multiplica por 100.
    Tasa de abandono = (Número de tareas incompletas / Total de tareas iniciadas) * 100
  • Valor Medio del Pedido (AOV) o Ingresos totales Generados: especialmente en ecommerce y entornos comerciales, un KPI crucial podría ser el total de ingresos o ventas completadas o el valor medio del ticket. Entender si el diseño A o B genera más ventas podría ser clave para el negocio. El Valor Medio del Pedido (AOV) es la cantidad promedio del total de una compra única. Resulta especialmente útil para entender los resultados, por ejemplo, de un test A/B sobre tipos de promociones o mensajes.
    📈¿Cómo calcular el AOV? Se dividen los ingresos totales durante el test AB sobre el número total de pedidos.
  • Profundidad del scroll: mide cuánto baja un usuario en una página web, revelando las partes más atractivas y los puntos donde la atención disminuye. Esto nos permite priorizar el contenido y espacio.
    📈¿Cómo se calcula? Para este KPI, será necesario utilizar una herramienta de heat mapping o grabación de las sesiones, como HotJar. Y a partir de los gráficos de saturación (de color) podremos ver dónde se concentra principalmente la atención de nuestros usuarios.
  • Índice de Satisfacción del Cliente (CSAT): con él medimos la satisfacción de los usuarios con una web, producto o servicio.
    📈¿Cómo se calcula? Se lanza una breve encuesta a los visitantes de la web (participantes de nuestro test AB) preguntando si han logrado lo que querían realizar en la web o si se corresponde con lo que esperaban, utilizando normalmente una escala del 1 al 5. Tomando el porcentaje de encuestados que respondieron con 4 o 5 (respuestas positivas), lo dividimos entre el número total de respuestas y se multiplica por 100.
    CSAT = (Respuestas Positivas/Total de Respuestas) * 100

¿Cuándo estamos listos para analizar los resultados de nuestro Test AB?

La duración de cada test AB depende de varios factores (volumen de visitas recibidas, el nivel de confianza o de significancia que queremos alcanzar —normalmente 95% y 0.05 respectivamente—, la variabilidad de los datos, etc.). No obstante, sí que hay unas pautas para el análisis de esta metodología:

  • Intenta lograr resultados estadísticamente significativos. ¡No tengas prisa! Espera hasta haber recopilado suficientes datos para poder determinar si las diferencias en el rendimiento entre la variación A y B son significativas y no accidentales.
  • Monitorea de forma recurrente el tamaño de la muestra y los resultados de tu test. De esta forma, podrás ir asesorando si necesitas más tiempo/muestra para poder lograr el nivel de confianza que deseas alcanzar sobre la hipótesis. A mayor nivel de confianza, mayor deberá ser la muestra.
  • No saques conclusiones precipitadas. Aunque vayas monitoreando los resultados y haciendo algunos cálculos o gráficos, espera a tener el total de la muestra para sacar las conclusiones y resultados finales.
  • Informa a todos los equipos implicados en web de que hay un Test A/B en marcha para evitar solapes o cambios no previstos. También es interesante estar atentos a cambios notorios en el tráfico a la web durante nuestro test para entender su origen, valorar si podría sesgar de alguna forma nuestro test y tomar medidas necesarias.

Referencias y Lecturas/Podcast recomendados:

A / B Testing: The Most Powerful Way to Turn Clicks Into Customers de Dan Siroker

Trustworthy Online Controlled Experiments: A Practical Guide to A/B Testing de Ron Kohavi

The ultimate guide to A/B testing | Ronny Kohavi (Airbnb, Microsoft, Amazon)

https://www.hotjar.com/ab-testing/metrics/

https://www.productmarketingalliance.com/how-to-choose-the-right-kpis-for-your-a-b-tests/

https://vwo.com/es/ab-testing/

¿Listo para mejorar la experiencia de tus usuarios? ¡Hablemos!
Las respuestas que buscas, a tan solo un clic.
Contáctanos ->
TeaCup Lab Logo
TeaCup Lab is a user experience consultancy agency founded in Madrid in 2016. We specialize in User Research & User testing for global brands.
Copyright 2019-2023 TeaCup Consulting SL

Contact us

TeaCup Lab 
Calle Jaén 2, 1ºG
28020, Madrid, Spain
+34 910 59 21 36
hola@teacuplab.com