Ir al contenido
Información > Medios de comunicación

El Santo Grial de la publicidad: Conectar la exposición a los anuncios con las ventas en las tiendas

4 minutos de lectura | Leslie Wood, directora de investigación de Nielsen Catalina Solutions | Julio de 2016

¿Cómo se sabe si la publicidad funciona? ¿Existe una forma de medir directamente los resultados de las ventas de los consumidores expuestos a una campaña publicitaria?

Los estudiosos y los profesionales del marketing llevan décadas tratando de medir la eficacia de la publicidad. En los años setenta y principios de los ochenta, se centraron en los efectos de retardo, las tasas de decaimiento, el adstock, los coeficientes de retardo y las vidas medias. En los años 90, un trabajo que cambió el panorama demostró que el efecto a largo plazo de la publicidad es aproximadamente igual al doble del valor de su efecto a corto plazo. La industria estaba avanzando en su comprensión de la eficacia de la publicidad de muchas maneras diferentes, pero cuando se trataba de comparar realmente los anuncios a los que la gente estaba expuesta con lo que compraba, las fuentes de datos en las que se basaba tenían tan poco en común, que era imposible establecer conexiones definitivas entre la publicidad y el comportamiento que pretendía influir.

La respuesta más potente a esta dificultad ha llegado en forma de datos de "fuente única". Los datos de fuente única permiten hacer un seguimiento de lo que ve un grupo de personas y de lo que compran. Como se sabe que algunos estuvieron expuestos a determinada publicidad y otros no, se pueden aislar las ventas impulsadas por esa publicidad, controlando suficientes variables para que la única diferencia real entre los dos grupos sea que uno vio la publicidad y el otro no.

El concepto existe desde mediados de la década de 1960, pero el Proyecto Apolo de 2006 fue el primer piloto comercial a gran escala que aprovechó las metodologías de una sola fuente. Se utilizó la tecnología Nielsen Homescan® para captar el comportamiento de compra de los consumidores y se combinó con los datos de exposición televisiva de Arbitron para varias de las principales empresas de bienes de consumo (CPG).

Bingo - más o menos. Se aprendió mucho. Pero recopilar todo de un hogar o una persona -tanto lo que veían como lo que compraban- era caro, así que el precio de la precisión era que los datos eran pequeños. El panel de Apollo incluía a unas 11.000 personas en 5.000 hogares, lo que no era lo suficientemente grande como para presentar los resultados con el nivel de detalle necesario para las marcas pequeñas.

Sin embargo, hoy en día podemos crear conjuntos de datos de fuente única fusionando conjuntos de datos de transacciones a la escala necesaria. Los conjuntos de datos se vinculan y son anonimizados por un tercero a través de un identificador compartido en cada conjunto de datos para crear un único conjunto de datos que muestre cómo las compras de los hogares de los expuestos a una determinada publicidad difieren de las de los no expuestos, aislando el efecto de las ventas de la campaña publicitaria.

Estos conjuntos de datos son difíciles de crear. ¿Cómo se puede replicar la precisión de los datos pequeños a la escala de los grandes datos? Nos basamos en los datos de los compradores frecuentes, en los datos de los descodificadores, en los datos de las cookies... en definitiva, en todos los big data que podemos reunir. Pero ningún big data está completo. Por ejemplo, con los datos de los descodificadores, no siempre se puede saber si el televisor está encendido o quién lo está viendo (para más información, véase "El valor de los paneles en el modelado de big data" en este número). E incluso con 90 millones de personas en nuestra base de datos de compradores frecuentes, no podemos saber qué otras compras están haciendo sin sus tarjetas de fidelidad.

Una solución es tomar un conjunto de datos realmente completo y utilizarlo para "calibrar" el conjunto de datos de big data. En nuestro caso, tomamos nuestros datos de Homescan, que registran todas las compras realizadas por 100.000 hogares. Si "comparamos" Homescan con nuestra base de datos de compradores frecuentes, encontraremos solapamientos entre los conjuntos de datos. Ahora puede ver, para las personas de ambas bases de datos, qué compras faltan en la base de datos de compradores frecuentes. A continuación, puede modelar esa brecha para reflejar todos los patrones de compra de la gran base de datos, y proyectar los resultados a la población total.

Esta progresión de los datos "pequeños e inteligentes" a los "grandes datos" es lo que hace posible que hoy en día se aprovechen los datos de una sola fuente a escala, y con la suficiente precisión para apoyar las decisiones diarias de marketing.

Por supuesto, sigue habiendo una próxima frontera en la precisión. Por ejemplo, se plantean muchas cuestiones cuando se combinan conjuntos de datos de compra y vigilancia. Algunos de los datos son a nivel de persona, otros a nivel de hogar. La persona que ve el anuncio de Fruit Loops no es necesariamente la persona que compra los Fruit Loops. Hoy en día sigue siendo muy difícil desentrañar la importante cuestión de la influencia de compra, es decir, cuándo alguien ve algo y consigue que otra persona compre algo. La capacidad de visualización de los anuncios digitales es otro reto importante, al igual que el fraude: el tráfico de bots y las muchas otras formas en que la exposición digital se incrementa de forma fraudulenta. La resolución de estos retos hará que nuestra respuesta a la pregunta central -qué efecto tiene el visionado en la compra- sea mucho más precisa.

En última instancia, es importante reconocer que las fuentes de datos que contribuyen a los conjuntos de datos de fuente única deben ser casi en tiempo real, precisas, completas y exhaustivas, y las metodologías utilizadas para calibrarlas deben ser capaces de proyectar los resultados a la población total.