Skip to content
Aperçus > Médias

Le Saint Graal de la publicité : Relier les expositions publicitaires aux ventes en magasin

4 minutes de lecture | Leslie Wood, directrice des études, Nielsen Catalina Solutions | Juillet 2016

Comment savoir si la publicité fonctionne ? Existe-t-il un moyen de mesurer directement les résultats des ventes des consommateurs exposés à une campagne publicitaire ?

Les chercheurs et les spécialistes du marketing s'efforcent de mesurer l'efficacité de la publicité depuis des décennies. Dans les années 1970 et au début des années 1980, ils se sont concentrés sur les effets de décalage, les taux de décroissance, l'adstock, les coefficients de décalage et les demi-vies. Dans les années 1990, des travaux révolutionnaires ont démontré que l'effet à long terme de la publicité est à peu près égal à deux fois la valeur de son effet à court terme. L'industrie a fait des progrès dans sa compréhension de l'efficacité de la publicité de différentes manières, mais lorsqu'il s'agissait de comparer réellement les publicités auxquelles les gens étaient exposés avec ce qu'ils achetaient, les sources de données sur lesquelles elle s'appuyait avaient si peu en commun qu'il était impossible d'établir des liens précis entre la publicité et le comportement qu'elle cherchait à influencer.

La réponse la plus puissante à cette difficulté a pris la forme de données "à source unique". Les données à source unique vous permettent de suivre ce qu'un groupe de personnes regarde et ce qu'il achète. Comme vous savez que certaines personnes ont été exposées à une certaine publicité et d'autres non, vous pouvez isoler les ventes induites par cette publicité, en contrôlant suffisamment de variables pour que la seule différence réelle entre vos deux groupes soit que l'un a vu la publicité et l'autre non.

Le concept existe depuis le milieu des années 1960, mais le projet Apollo, en 2006, a été le premier pilote commercial à grande échelle à exploiter des méthodologies à source unique. La technologie Nielsen Homescan® a été utilisée pour saisir le comportement d'achat des consommateurs et combinée avec les données d'exposition à la télévision d'Arbitron pour plusieurs grandes entreprises de biens de consommation (CPG).

Bingo - en quelque sorte. On a beaucoup appris. Mais tout collecter auprès d'un ménage ou d'une personne - à la fois ce qu'ils regardent et ce qu'ils achètent - est coûteux, et le prix de la précision est que les données sont petites. Le panel d'Apollo comprenait environ 11 000 personnes réparties dans 5 000 foyers, ce qui n'était pas suffisant pour présenter des résultats au niveau de granularité nécessaire pour les petites marques.

Aujourd'hui, cependant, nous pouvons créer des ensembles de données à source unique en fusionnant des ensembles de données de transaction à l'échelle requise. Les ensembles de données sont liés et anonymisés par un tiers via un identifiant partagé dans chaque ensemble de données afin de créer un ensemble de données unique montrant comment les achats des ménages exposés à une publicité particulière diffèrent de ceux qui n'y ont pas été exposés, isolant ainsi l'effet de la campagne publicitaire sur les ventes.

Ces ensembles de données sont difficiles à créer. Comment reproduire la précision des petites données à l'échelle des grandes données ? Nous nous appuyons sur les données des acheteurs fréquents, les données des décodeurs, les données des cookies - bref, toutes les big data que nous pouvons rassembler. Mais aucun big data n'est complet. Par exemple, avec les données des décodeurs, on ne peut pas toujours dire si le téléviseur est allumé ou qui le regarde (pour en savoir plus, voir "La valeur des panels dans la modélisation du big data" dans ce numéro). Et même avec 90 millions de personnes dans notre base de données de clients fréquents, nous ne pouvons pas savoir quels autres achats ils effectuent sans leurs cartes de fidélité.

Une solution consiste à prendre un ensemble de données véritablement complet et à l'utiliser pour "calibrer" l'ensemble de données volumineuses. Dans notre cas, nous prenons nos données Homescan, qui suivent chaque achat effectué par 100 000 ménages. Si vous "comparez" Homescan à notre base de données de clients fréquents, vous trouverez des chevauchements entre les ensembles de données. Vous pouvez maintenant voir, pour les personnes figurant dans les deux bases de données, quels sont les achats qui manquent dans la base de données des clients fréquents. Vous pouvez ensuite modéliser cet écart afin de refléter l'ensemble des habitudes d'achat de la grande base de données, et projeter les résultats sur la population totale.

Cette progression des données "petites et intelligentes" vers les données "grandes et intelligentes" est ce qui permet aujourd'hui d'exploiter les données de source unique à grande échelle et avec suffisamment de précision pour soutenir les décisions marketing quotidiennes.

Bien sûr, il reste une nouvelle frontière à franchir en matière de précision. Par exemple, de nombreuses questions se posent lorsque vous combinez les ensembles de données sur les montres et les achats. Certaines des données sont au niveau de la personne, d'autres au niveau du ménage. La personne qui regarde la publicité pour les Fruit Loops n'est pas nécessairement celle qui achète les Fruit Loops. Il est encore très difficile aujourd'hui de démêler l'importante question de l'influence de l'achat - c'est-à-dire quand quelqu'un regarde quelque chose et incite quelqu'un d'autre à acheter quelque chose. La visualisation des publicités numériques est un autre défi important, tout comme la fraude - le trafic de robots et les nombreuses autres façons dont l'exposition numérique est frauduleusement augmentée. En relevant ces défis, nous pourrons répondre de manière beaucoup plus précise à la question centrale : quel est l'effet de l'observation sur l'achat ?

En fin de compte, il est important de reconnaître que les sources de données qui contribuent aux ensembles de données à source unique doivent être quasiment en temps réel, précises, complètes et exhaustives, et que les méthodologies utilisées pour les calibrer doivent être capables de projeter les résultats sur la population totale.