Analizar experimentos en Google Ads es bastante fácil. Google nos da las herramientas para que de un vistazo sepamos cuál variante funciona mejor. Con una UI basada en asteriscos, sabremos si usar target CPA nos vendrá mejor o peor. Porque como sabemos, no siempre la versión de control es la que pierde.

Creamos un experimento cuando necesitamos saber si un cambio nos va a generar un beneficio. Antes de aplicarlo, siempre es mejor hacer un test entre las dos opciones para que podamos ver con las mismas variables, qué cambios se producen.

Experimentar en Google
Los experimentos suelen comenzar en una libreta con la hipótesis

El gran problema para muchos especialistas en Google Ads es interpretar los experimentos, cuando realmente es muy sencillos.

Métricas de los Experimentos

Aunque podremos ver todas las métricas dentro de la UI de la plataforma, el análisis de experimentos en Google tiene unas métricas prefijadas muy de performance:

  • Conversiones
  • Clics
  • Coste
  • Valor de las conversiones
  • Valor de las conversiones/ coste
  • CTR
  • CPC Medio
  • Impresiones
  • Todas las conversiones
  • Ratio de conversión
  • CPA
  • Conversiones post impresión
  • Valor / conversiones

Analizar Experimentos en Google con Significancia Estadística

¿Cuánto tiempo hay que esperar para tener resultados de un A/B test en Google Ads? Es una de las preguntas que más veces me hacen los alumnos. Y la solución no la marca el tiempo, sino el volumen de información.

Google – y cualquier analista de datos – requiere la cantidad de información suficiente para tener resultados fiables. Entender que se trata de una afirmación estadística y no fruto del azar o de alguna variable que no dominamos.

La herramienta – o más bien la fórmula – que se usa es la significación estadística. Y Google Ads la marca con un asterisco cuando se obtiene *. No para decir que la variante ha ganado, sino simplemente para decir que en una de las métricas ya hay resultados definitivos.

Podemos tener dos resultados: no hay datos suficientes y cuando tenemos un ganador.

Experimentos: No hay datos suficientes

Empezamos un experimento desde la plataforma de Google. Lo más normal es que en los primeros días queramos ver resultados: error.

En cada tarjeta de datos podremos ver los resultados del experimento. Debajo en pequeño, las diferencias porcentuales en las que se mueve. Si hay positivas y negativas, como en el ejemplo de abajo, probablemente no haya resultados aún:

UI experimentos google ads
Experimentos Google Ads: El volumen de datos es básico para poder tener resultados certeros

Experimentos: Resultados con significación estadística

Cuando los resultados son definitivos tenemos el asterisco azul * al lado de cada dato de cambio porcentual.

analizar experimentos google: resultados definitivos
Experimentos Google Ads: Cuando tenemos resultados definitivos nos aparece un asterisco azul

 

En este ejemplo podemos ver como el experimento va a conseguir siempre menos conversiones: en el mejor escenario un 6% menos, en el peor hasta un 53% menos. El dato del experimento fue -30% de conversiones.

Analizando este caso: se pierden conversiones, conversion rate, valor de conversión y se sube el cpa deducimos: el experimento falló. Para los curiosos: en este caso era una nueva estrategia de puja.

Best Practices en Experimentos Google Ads

Hacer experimentos es una tarea obligatoria para progresar positivamente en el mercado de los cpcs, incluso cuando algunos experimentos resultan peor que el original.

Los experimentos tienen que tener persistencia en diferentes apartados para poder sacar el máximo beneficio de ellos. Estas mejores prácticas son:

  1. Usar el mismo nombre de la campaña duplicada añadiendo el objetivo del test. Esto hará más fácil analizar experimentos tanto para el que lo hizo como para otro compañero:
    1. Ejemplo de nomenclatura:
      1. Campaña Original: 01. Brand
      2. Campaña Test: 01. Brand –  v2.0 tCPA
  2. Añadir una anotación en Google Ads, porque los resultados de los tomará del rango de fecha y no del experimento.
  3. Hacer experimentos donde tengamos volumen de tráfico, de nada sirve hacer test cuando tenemos 100 clics a la semana. Tardaremos mucho en tener la significación estadística.
  4. Tener una hipótesis y basarnos en un objetivo / métrica
  5. No descartar otras métricas, de experimentos fallidos hay casos de éxito
  6. Esperar a que pase el tiempo de calibración

¡A experimentar!

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *