Apple Podcasts | Google Podcasts | Spotify | Pandora | RSS
Hoy vamos ver como nos pueden ayudar los Test A/B a identificar que cambios exactos nos pueden conseguir más conversiones o menos rebote pero antes, demos paso al patrocinador!!!!:
WebEmpresa, hosting especializado en WordPress.
Es el hosting que uso y recomiendo desde hace tiempo
En pampua.es/webempresa te dejo los 13 motivos que tienes contratarlo; échale un vistazo!
Además te doy un cupón del 20% de descuento. Entra ahora mismo en pampua.es/webempresa y guárdate tu cupón.
Si nunca has oido hablar de los test A/B este episodio te va a encantar.
Es algo que Amazon y otras grandes tiendas hacen constantemente.
¿En qué consisten los Tests A/B?
Te lo explico, como a priori, no podemos saber con certeza qué cambios de una Landing Page propiciarían un aumento de las conversiones, necesitamos experimentar para encontrar la mejor combinación, pero reduciendo el riesgo de perder beneficios u obtener resultados no concluyentes debidos a influencias externas.
En este sentido, los tests A/B nos permiten comparar el comportamiento de dos versiones de una misma página, normalmente una Landing Page o la home, que difieran en un único elemento y cuyo objetivo es evaluar el impacto que ese elemento tiene en los usuarios visitantes, medido por la métrica que definamos, durante un determinado periodo de tiempo.
Durante la ejecución del test, los visitantes visualizan aleatoriamente una u otra versión de la página, de forma que, al final del experimento, el total de visitantes se repartirán en partes iguales entre ambas versiones.
Se podría ver como si, cuando un usuario solicita la página, se echara una moneda al aire y, según salga cara o cruz, se le muestra una u otra versión.
Con este método, resolvemos dos de los problemas que aparecen si nos planteamos modificar la Landing Page sin ninguna otra consideración:
- Dado que las dos versiones de la página coexisten, eliminamos la influencia de cualquier factor externo o estacional en el análisis de los resultados, puesto que ambas son afectadas por igual.
- En caso de que el cambio afecte negativamente a la tasa de conversión, el impacto en la pérdida de nuestros beneficios queda reducido a la mitad.
El ejemplo clásico en los tests A/B hace referencia al color de los botones en las llamadas a la acción, utilizando un color en la página original (versión «A» o página de control) y otro color en la variación (versión «B») de la página.
Sin embargo, no debemos limitar estos test a cambios tan simples como variaciones de colores, de tipos de letras o incluso de titulares e imágenes, sino también cambios estructurales en la disposición de diferentes elementos de la página, como la longitud de un artículo o la posición de un banner publicitario.
No tengáis miedo de probar cualquier cambio que se os ocurra, pero siempre con la precaución de evitar modificaciones múltiples o radicales que hagan diferenciarse demasiado ambas páginas.
De hacerlo así, no podríamos identificar qué cambio ha producido mayor beneficio o, incluso, puede suceder que los efectos positivos de un cambio sean neutralizados por los efectos negativos de otro y estemos desechando algún cambio que habría sido beneficioso.
Cambies lo que cambies, nunca olvides la máxima de los tests A/B: dos versiones similares de una página, con un único elemento diferente entre ambas
Para que os hagáis una idea de la importancia de ser creativos con los cambios que podemos realizar, pensad en 2 anuncios de pañales:
La información de ambas páginas es idéntica pero, mientras que en una, el bebé nos mira de frente, en la otra mira al titular del anuncio… y cual crees que funcionó mejor? Claro, la segunda, porque los ojos del bebé nos invitan a leer el titular. Por tanto, no pongas límites a tu imaginación en cuanto al tipo de cambios que quieras experimentar.
El proceso de ejecución de un test A/B
Como ya tenemos claro qué son los tests A/B y lo que podemos hacer a través de ellos, veamos ahora cómo es el proceso que debemos seguir para llevar a cabo un test A/B en nuestro sitio web:
- Identificar qué páginas web queremos analizar y la métrica que utilizaremos para evaluar el impacto de los cambios que efectuaremos en cada página.
No hay restricciones en el número de tests A/B que queramos ejecutar simultáneamente, siempre y cuando sean sobre distintas páginas web.
Asimismo, cada test puede evaluarse con la métrica que consideremos oportuna, independientemente del resto.
- Identificar qué elemento de cada página queremos evaluar y cuál será el cambio que haremos.
Sólo puede haber un cambio por página y que afecte solamente a ese único elemento, para asegurar la correcta asignación del impacto en la variación de la métrica a analizar.
- Crear las correspondientes variaciones de cada página, idénticas a las originales en todos los conceptos excepto en los elementos identificados en el punto anterior.
- Determinar la duración del experimento, ya sea en número de visitas o por un periodo de tiempo concreto.
En ambos casos, debe ser lo suficientemente grande para recopilar los datos necesarios para el posterior análisis de las métricas.
- Ejecutar el test, repartiendo las visitas aleatoriamente al 50% entre ambas versiones de cada página.
Y registrando por separado el comportamiento de los usuarios según la métrica que hayamos asociado para esa página.
- Detener el experimento y analizar las métricas de ambas versiones de cada página para determinar el impacto y alcance del cambio efectuado en la página original.
Esto, una vez hayamos alcanzado el número de visitas o periodo de tiempo establecido como duración del experimento.
- Un experimento no debe ejecutarse indefinidamente.
Google apoya la realización de tests A/B, pero establece algunas recomendaciones y condiciones de uso.
Dada su importancia, en un apartado posterior veremos con más detalle el posible efecto de los tests A/B sobre el SEO.
Una vez concluido el test A/B, si observas mejores valores para la métrica elegida en la variación de la página, ¡enhorabuena!, has conseguido mejorar tu página web.
Pero no te duermas en los laureles: el proceso no finaliza aquí, sino que te abre la puerta para seguir haciendo más tests A/B.
Esta vez, sobre la nueva versión de la página y así seguir mejorando otros aspectos de ésta, para la misma u otras métricas.
Si, por el contrario, la métrica en la variación ha sido peor, no te apenes, porque has aprendido una importante lección: lo que no atrae o no gusta a tu audiencia.
Y eso, posiblemente, te pueda inspirar otros cambios que sí les atraigan o gusten.
Aunque los resultados de un test A/B no reflejen mejoras en la métrica-objetivo, nos ayudarán a conocer mejor a nuestra audiencia.
En este proceso, fíjate que todos los puntos dependen exclusivamente de decisiones nuestras, excepto el punto dedicado a repartir las visitas entre la página de control y su variación.
La realización de esta tarea debe ser implementada en el propio servidor web y, por tanto, requiere una solución técnica, de la que hablaremos la semana que viene.
¿Qué duración debe tener un test A/B?
Pues depende… Porque depende de cuantas visitas tengas al mes. Porque si no hay bastantes visitas, el resultado puede estar sesgado.
Imagina que lanzas una moneda al aire 10 veces. Te saldrían 5 caras y 5 cruces? Improvable. Y si la lanzas 100 veces? Pues probablemente obtengas 45-55. Ni lanzándola 1000 veces obtendrías un 50% exacto.
Pero si dejamos correr el test demasiado tiempo tampoco nos dará unos resultados muy fiables, porque la gente igual tiene más dinero a principios de mes que a final (y por eso compra más en esas fechas)
Mi recomendación es hacer un test A/B siempre que quieras, pero coger los resultados con pinzas si no tienes más de 3000 visitas mes.
Y la duración debería ser como máximo de un mes, aunque lo ideal sería de 2 semanas.
¿Cómo analizar los resultados en el A/B testing?
Sin embargo, no basta con tener un número elevado de visitas para eliminar el efecto de la aleatoriedad y analizar los resultados del test, sino que también tenemos que tener en cuenta cuánto cambia la métrica que hayamos elegido para el test.
Veámoslo con un ejemplo…
Imagina que tienes 10.000 visitas con una tasa de conversión del 1%.
Esto significa 100 conversiones al mes.
Pero pongamos otro caso, de una página con 1.000 visitas y una tasa de conversión del 10%; también supondrían 100 conversiones al mes.
Supongamos que ejecutamos en ambas páginas un test A/B durante un mes, obteniendo el mismo resultado: 95 conversiones en la página de control y 105 conversiones en la página de variación.
¿Qué conclusiones podríamos sacar de estos resultados? ¿En ambos casos es mejor la página de variación?
Por lo pronto, hay que tener en cuenta que la tasa de conversión es, en sí mismo, un valor promedio, lo que significa que también mostrará pequeñas fluctuaciones a lo largo del tiempo.
Con esta consideración en mente, las conversiones obtenidas en el primer ejemplo se traducen en unas tasas de conversión del 0,95% y 1,05% respectivamente, mientras que, en el segundo ejemplo, en unas tasas del 9,5% y 10,5%.
Ya no parece tan claro que la página de variación es mejor en ambos casos, ¿verdad?
Forzado a elegir, me quedaría con la página de control en el primer caso, puesto que la variación no introduce ningún cambio significativo en la tasa de conversión.
Mientras que, en el segundo caso, me quedaría con la página de variación, aunque también analizaría la evolución de tasa de conversión durante los meses anteriores para comprobar hasta qué punto la mejora observada no forma parte de la fluctuación propia de esa métrica.
Como veis, no hay un “número mágico” para la duración de un test A/B ni una “receta infalible” para analizar los resultados, sino que debemos elegirlos cuidadosamente en función del número de visitas, el cambio en la métrica elegida durante el test y la fluctuación de esta métrica en periodos anteriores.
Debemos mentalizarnos con que las “mejoras espectaculares” de una métrica-objetivo solo los conseguiremos paso a paso, test a test.
Por supuesto, si la métrica analizada muestra un margen de mejora enorme (del 10% al 50%, o cosas así), no hay ninguna duda de qué página elegir pero, como ya comprobaréis cuando hagáis vuestros propios tests, estos resultados son poco habituales.
Afortunadamente, a efectos prácticos no tendremos que preocuparnos demasiado de la duración de los tests A/B y de cómo analizar sus resultados.
Las herramientas para realizar tests incluyen mecanismos de análisis estadístico que nos avisan cuando un test ha recopilado los datos necesarios para que los resultados tengan un alto grado de fiabilidad.
Es importante que comprendamos porqué no debemos acortarlos.
¿Se lleva bien el SEO con los A/B Tests?
Quizás ya os lo hayáis preguntado: si tenemos dos versiones de una misma página, ¿no afectará negativamente a su posicionamiento orgánico, puesto que las visitas se reparten entre ellas?
Es más, ¿no podría Google incluso penalizarnos por tener dos páginas distintas con una misma dirección, confundiéndolo con un intento de cloaking?
Lo primero de todo: no, Google ni os penalizará ni afectará vuestro posicionamiento orgánico.
De hecho, Google publicó en su blog oficial que acepta plenamente los Tests A/B, así como otros tipos de tests, puesto que el objetivo de estos es mejorar la experiencia de usuario y hacer un contenido más atractivo y útil para el usuario.
Los Tests A/B no penalizan el SEO de las páginas, hasta el punto que Google anima a hacerlos para mejorar la experiencia de usuario
En ese mismo artículo, Google recomienda buenas prácticas para asegurarnos de no incumplir ninguna de las Directrices para Webmasters ni que Google pueda penalizarnos y que os resumo a continuación:
- No utilizar el test como un pretexto para hacer cloaking. Estamos hablando de páginas muy similares, con diferencias muy pequeñas y localizadas, cuyo acceso no depende de quién (o qué, en caso de tratarse del rastreador de Google) navegue en la página.
- Si la página de control y su variante utilizan direcciones URL distintas, añadir el atributo “rel=’canonical’” en la variante y que apunte a la página de control, para informar a Google que ambas páginas están relacionadas.
- No utilizar la meta-etiqueta “noindex” en la página variante, puesto que puede confundir a Google y hacer que canonice la variante en detrimento de la página original, desechando la dirección de ésta en los índices de búsqueda.
- Si la página de control y su variante tienen la misma URL, siendo el servidor web quien hace la redirección para mostrar la variante, utilizar redirecciones 302 para indicar a Google que es una redirección temporal y que la URL relevante es la original, no la redirigida y así, evitar que Google la indexe en perjuicio de la original.
- Establecer un límite temporal a la ejecución del test. Por definición, estos tests se realizan para diferenciar qué versión de una página proporciona mejores resultados y publicarla como definitiva. Por tanto, no pueden ejecutarse indefinidamente. Si Google detecta un test que lleva ejecutándose “demasiado” tiempo, puede interpretarlo como un intento de manipular los resultados de las búsquedas y penalizarlo. Google no aclara cuánto es “demasiado tiempo”, pues depende de muchos factores, pero el número de visitas nos puede marcar una referencia: a mayor tráfico web, menor necesidad hay de que el test dure más tiempo.
Desde el punto de vista práctico, sólo debemos preocuparnos por el último punto, evitar que el test A/B se ejecute indefinidamente, puesto que el resto depende de que su ejecución esté correctamente implementada en el servidor web o la herramienta que utilicemos.
Conclusiones: Ventajas y limitaciones de los Tests A/B
A lo largo de este episodio de los tests A/B y su proceso de ejecución hemos visto algunas de sus ventajas y también de sus limitaciones.
Repasémoslas ahora todas agrupadas para tener una mejor perspectiva de su alcance y posibilidades:
► Ventajas
- Las dos versiones de la página reciben un número similar de visitas durante el mismo periodo de tiempo, por lo que cualquier influencia exterior afectará a ambas por igual y no contaminará la interpretación de los resultados.
- Se minimiza el coste por pérdidas en beneficios, en caso de que el cambio en la página perjudicase el valor de la métrica elegida, pues solo afecta al 50% de las visitas cualificadas (aquellas que visitaron la página variante).
- Al analizar solo un cambio muy concreto en la página original, la evolución de la métrica analizada será exclusivamente debida a ese cambio, facilitando la elección de una versión u otra.
- La duración del experimento puede ser variable, ajustándose al volumen de visitas necesario para obtener resultados relevantes en la métrica seleccionada.
- Se pueden y se deberían hacer tests acumulativos, uno detrás de otro. Es decir, primero sobre un elemento, seleccionando la página ganadora y entonces continuando sucesivamente con otros cambios puntuales en la página.
- La experiencia adquirida con un test A/B, sea positiva o negativa, puede servir para el diseño de futuras páginas con objetivos similares.
► Limitaciones
- Solo se puede comprobar el efecto de un cambio muy localizado dentro del conjunto de la página, por lo que no aporta ninguna referencia para el primer diseño de la página o nuevas campañas.
- A priori, no se sabe qué cambio puede ser más propicio (por ejemplo, qué color, qué texto o qué imagen) y requiere utilizar conjuntamente otros tipos de análisis para identificarlo (por ejemplo, los tests A/B suelen complementarse muy bien con los mapas de calor, como vimos en el ejemplo de las fotos del bebé).
- Puede requerir un alto número de visitas para conseguir acumular suficientes datos para que el análisis de la métrica-objetivo sea relevante y fiable.
- Sólo permite comparar dos versiones de una página. Aunque se puede ampliar para incorporar más versiones, la duración del test también debe ser más larga para recopilar los datos suficientes para analizar los efectos sobre la métrica.
- El reparto de las visitas entre las versiones de la página se mantiene constante y al 50% durante toda la duración del test, incluso cuando la métrica empieza a mostrar una tendencia claramente favorable a alguna de las versiones.
Y esto ha sido todo por hoy, si has puesto en práctica algún test A/B y quieres comentarme tus resultados, mándame un mail a [email protected] o pásate por Pampua.es/contacto y déjame un mensaje; estaré encantado de comentarlo contigo.
Y si quieres que en próximos episodios hable de algún tema en concreto o tienes cualquier duda o comentario que quieras hacerme, déjamelo en Pampua.es/contacto, en los comentarios de iVoox, en twitter @pampua, o en nuestra página de Facebook: facebook.com/pampua
Si te ha gustado este episodio compártelo al menos con una persona a la que pueda resultarle interesante. Por whatsapp, por mail, por Facebook, twitter o incluso por SMS, como quieras, pero compártelo! Recuerda que puedes escucharlo y suscribirte en iTunes, iVoox, Spreaker, Youtube y desde la web de Pampua.es/podcast.
Y por último estaré inmensamente agradecido si me dejas una reseña de 5 estrellas en iTunes o un me gusta y un comentario en iVoox. Puedes ver cómo dejar una reseña en www.pampua.es/resena
El jueves que viene veremos la parte práctica de los test A/B: cual es la forma más sencilla para implementarlos, trucos, consejos, etc.
Muchísimas gracias por escuchar hasta el final, por comentar, por tus “Me gusta” y reseñas. Nos escuchamos la semana que viene llueva, nieve o truene!
Deja una respuesta