Use Cases
    Capacités
    Rôles

Le revirement de Google sur les cookies : qu’est-ce que cela signifie pour les annonceurs

28 août 2024

Regarder ou écouter sur :

Description de l’épisode

Dans cet épisode de PPC Town Hall, la discussion s’est concentrée sur la récente décision de Google de ne finalement plus abandonner les cookies tiers dans Google Chrome, malgré les annonces précédentes allant dans le sens inverse.

Ben Vigneron, de Blackbird PPC, a expliqué ce que cela signifie pour les annonceurs et pour l’écosystème plus large du marketing digital.

Points clés de l’épisode

La décision de Google et ses implications :

  • Google a décidé de reporter l’abandon des cookies tiers dans Chrome, une évolution initialement motivée par des préoccupations de confidentialité et des pressions réglementaires (par ex. GDPR, CCPA).
  • Ce report signifie que les annonceurs continueront à utiliser les cookies tiers encore un certain temps, mais cela ne change pas la direction générale du secteur vers davantage de confidentialité et une plus grande dépendance aux données first-party.

Confidentialité et choix des consommateurs :

  • Malgré ce report, Chrome introduira un écran de choix, similaire à celui d’Apple, permettant aux utilisateurs de refuser le suivi, ce qui pourrait entraîner une réduction significative des données disponibles pour les annonceurs.

Transition vers les données first-party :

  • Les annonceurs devraient se concentrer sur l’exploitation des données first-party en les réintégrant dans les plateformes publicitaires (par ex. Google Offline Conversion Tracking).
  • Le suivi basé sur les UTM reste pertinent et doit être utilisé pour mesurer les performances sur différentes plateformes.

Techniques de mesure avancées :

  • Media Mix Modeling (MMM) : une méthode puissante qui corrèle les dépenses historiques sur l’ensemble des canaux avec les données back-end (par ex. ventes ou abonnements) afin de déterminer l’impact réel des différentes initiatives marketing.
  • GeoLift Testing : utile pour isoler l’impact de campagnes spécifiques dans certaines zones géographiques en les comparant à des groupes de contrôle.
  • Ces deux techniques aident à contourner les limites des cookies tiers et offrent une vision plus globale de la performance marketing.

Outils d’analytics :

  • Google Analytics (GA) reste utile, mais présente des limites, en particulier pour les canaux qui ne génèrent pas de sessions sur le site web (par ex. formulaires de leads LinkedIn, vues YouTube).
  • Le MMM peut combler les lacunes laissées par les analytics traditionnels en offrant une vision plus large de la performance des canaux.

L’avenir du marketing digital :

  • À mesure que le secteur évolue vers des pratiques davantage axées sur la confidentialité, les annonceurs doivent s’adapter en devenant plus techniques, notamment en data science et en intégration des données first-party.
  • Des outils comme R, Python et des bibliothèques open source (par ex. Robin de Meta, Meridian de Google) peuvent aider les marketeurs à mettre en œuvre des techniques de mesure avancées sans avoir besoin d’être data scientists.

Survivre à l’ère de l’IA :

  • Avec l’essor de l’IA générative (GenAI), les marketeurs digitaux devraient chercher à utiliser ces outils pour renforcer leurs compétences plutôt que pour les remplacer.
  • Apprendre à intégrer et à utiliser efficacement ces outils sera essentiel pour rester pertinent dans le secteur.

Transcription de l’épisode

Frederick Vallaeys: Bonjour et bienvenue dans un nouvel épisode de PPC Town Hall. Je m’appelle Fred Vallaeys. Je suis votre hôte. Je suis aussi le CEO et cofondateur de , un logiciel de gestion PPC. Aujourd’hui, nous avons un épisode extrêmement pertinent compte tenu de certaines des récentes annonces de Google. Bienvenue. Google Chrome était censé abandonner les cookies tiers, et ils ont sans cesse repoussé l’échéance, année après année.

Et finalement, ils ont annoncé qu’ils n’abandonneraient plus les cookies tiers. La mort des cookies tiers a donc été largement exagérée. Mais qu’est-ce que cela signifie réellement pour les annonceurs ? Les consommateurs continueront-ils à autoriser les cookies tiers ? Ou est-il temps de trouver de nouvelles façons de faire de la publicité ? La mesure et tout ce à quoi nous pensons habituellement beaucoup en PPC et en marketing digital.

Pour en parler, et bien plus encore, nous avons un expert très analytique. Il s’appelle Ben Vigneron. Il travaille chez Blackbird PPC à San Francisco, et nous allons entrer en profondeur dans les cookies, les modèles de media mix, et bien d’autres sujets d’analytics pour le marketing digital. Alors, lançons-nous dans cet épisode de PPC Town Hall.

Très bien, Ben, bienvenue dans l’émission. Ravi de vous avoir parmi nous.

Ben Vigneron: Merci de m’avoir invité. C’est un plaisir.

Frederick Vallaeys: Très bien. Vigneron, ce nom vient d’où ?

Ben Vigneron: Eh bien, de France. Cela signifie vigneron. Donc on ne peut pas faire beaucoup plus français, en réalité. Et oui, je travaille aux États-Unis depuis environ 12 ans maintenant.

Avant cela, j’étais à Paris, dans l’industrie tech, pendant des années. Et actuellement, chez Blackbird PPC, je fais beaucoup de mesure pour nos clients. Et, évidemment, tout le monde a été un peu bousculé par tous les allers-retours autour des cookies tiers.

Donc, c’est de cela que nous allons parler aujourd’hui.

Frederick Vallaeys: Oui. Et évidemment, il y a beaucoup de choses que vous écrivez sur Search Engine Land. Donc si les gens veulent aller lire un peu plus sur les sujets que nous abordons, c’est un excellent point de départ. Vous avez aussi récemment pris la parole à SMX Advanced. Cette session est disponible gratuitement.

Sur le site de SMX, nous mettrons un lien vers cela dans les notes de l’épisode, mais nous allons couvrir quelques-uns de ces sujets. Entrons directement dans le vif du sujet, d’accord ? Comme nous l’avons dit, la nouvelle la plus récente de Google est que les cookies tiers ne seront pas abandonnés. Alors, parlez-nous-en un peu. Qu’est-ce que cela signifie ?

Et est-ce que cela veut vraiment dire que nous devrions continuer à nous appuyer sur les cookies tiers ?

Ben Vigneron: Oui, c’est une bonne question. Tout d’abord, on voit rarement Google changer de cap de cette manière. Ils ont déjà déployé par le passé des fonctionnalités controversées et s’y sont tenus. Comme, vous savez, les campagnes améliorées.

Et, vous savez, le type de correspondance exacte, le fait que les termes de recherche exacts ne soient plus disponibles dans le reporting. Donc ils ont déjà lancé des fonctionnalités auprès des utilisateurs finaux et s’y sont tenus, et il est rare de les voir changer de direction. C’est donc intéressant à observer. Je pense que, vraiment, il faut penser aux annonceurs, aux agences, et évidemment aux utilisateurs finaux quand on évalue l’impact potentiel. Je dirais, pour faire court, que nous allons encore utiliser les cookies tiers un peu plus longtemps.

Il semble qu’il y ait eu une certaine résistance, non pas de la part de Google lui-même, mais d’autres comités antitrust. Ils estimaient que Google prendrait un avantage sur le reste du secteur en abandonnant le support des cookies tiers avant les autres. C’est assez intéressant de voir comment tout cela fonctionne.

Le fait de se concentrer sur la confidentialité des données donne désormais un avantage concurrentiel. Et on le voit avec la publicité d’Apple sur Safari, leur navigateur, n’est-ce pas ? Être centré sur la confidentialité des données, c’est quelque chose qui compte aujourd’hui. Des gens comme DuckDuckGo ont lancé un navigateur que vous pouvez télécharger et utiliser, sans suivi, sans cookies. Par défaut, il refuse pratiquement toute autorisation.

Il me semble donc que l’orientation générale prise par le secteur n’a pas changé avec cette décision. En revanche, à court terme, les choses ralentissent.

Google met le frein et dit : « D’accord, nous allons vous laisser quelques mois, peut-être quelques années, avant de passer à plein régime sans cookies tiers. » Cela dit, ils sont clairement prêts techniquement ; GA4 est entièrement construit autour de cela. Et puis.

Ils veulent avoir une longueur d’avance. Ils veulent mener le secteur. Ils veulent être en avance sur le GDPR et le CCPA. Et, en ce moment, nous voyons que le secteur n’est pas tout à fait prêt. Les comités antitrust disent : « Hmm, cela pourrait vous donner un avantage supplémentaire que vous avez déjà. »

Alors, attendons et voyons. Je ne pense pas qu’il y aura un quelconque inconvénient pour les utilisateurs, en réalité. Je pense donc qu’ils avaient plus à perdre à pousser cela, alors ils lui laissent simplement un peu de temps.

Frederick Vallaeys: Oui. Il y a beaucoup de choses très intéressantes à décortiquer là-dedans. Évidemment, tout cela découle de la pression exercée par le GDPR et le CCPA.

En ce qui concerne le fait de donner aux utilisateurs des choix en matière de confidentialité. Et donc l’un des éléments fondamentaux ici, c’est le choix, n’est-ce pas ? Il ne s’agit pas de dire que vous ne pouvez pas déployer la technologie des cookies tiers. Il s’agit de donner aux utilisateurs le choix de savoir si cela leur convient ou non. Je pense donc que l’une des grandes choses à ne pas perdre de vue, c’est que même si Google a dit : « Bon, techniquement, nous n’allons pas changer le fonctionnement du navigateur Chrome, nous allons introduire un écran de choix », ce qui ressemble beaucoup à ce que nous voyons aujourd’hui sur les appareils Apple, où à chaque fois que vous installez une application, l’utilisateur voit un message disant : « Souhaitez-vous autoriser le suivi entre toutes les applications ? »

Et le chiffre que j’ai entendu, c’est qu’environ 70 % des utilisateurs refusent ce suivi inter-applications, n’est-ce pas ? Donc on perd énormément de données. Et ce qui est intéressant ici, c’est que Chrome va avoir un écran d’avertissement similaire. Nous allons probablement perdre les données issues des cookies tiers, même si, techniquement, les cookies tiers existeront toujours.

Alors, qu’est-ce qu’on fait avec ça ?

Ben Vigneron: Eh bien, il faut s’y préparer. Nous avons vu cela se produire avec iOS d’Apple, qui permet aux utilisateurs de refuser les cookies. Et donc, pour les annonceurs, ce qui s’est passé, c’est qu’ils ont perdu le suivi des conversions provenant des utilisateurs iOS, dans la plupart des cas. Peut-être que 70 % ont refusé, à peu près, selon le secteur, mais la grande majorité.

Il faut donc trouver d’autres moyens de mesurer la performance, que ce soit en ligne ou hors ligne, mais il faut trouver une manière d’évaluer l’efficacité de votre programme. Il existe donc plusieurs alternatives, et je pense qu’il y a de nouvelles technologies qui se concentrent précisément là-dessus, mais pour faire court.

Sans cookies tiers, vous devez utiliser vos données first-party. Et cela signifie vraiment qu’il faut d’abord renvoyer vos données first-party vers la plateforme publicitaire. On parle de Google Offline Conversion Tracking. Le nom a changé, je ne me souviens plus exactement, mais l’idée est essentiellement de renvoyer vos données back-end vers les plateformes publicitaires.

C’est devenu énorme, et Facebook propose la même fonctionnalité. LinkedIn travaille sur la même fonctionnalité. Ils auront tous des noms similaires, mais clairement, c’est la priorité numéro un. Je dirais : ne faites plus confiance aux données des plateformes publicitaires. Soyez sceptiques, remettez les chiffres en question et utilisez vos propres données, puis essayez de les renvoyer vers la plateforme publicitaire.

Pour moi, c’est la priorité numéro un. La deuxième, c’est que le suivi basé sur les UTM n’est pas remis en cause. Les paramètres de suivi respectent toutes sortes d’exigences en matière de confidentialité des données, n’est-ce pas ? Ce qu’ils doivent faire, bien sûr. Donc si toutes les données que vous transmettez dans vos URL et vos UTM sont anonymisées ou simplement anonymes — on parle d’un nom de campagne, peut-être d’un ID d’annonce, ce genre de choses — on ne peut pas identifier la personne.

C’est donc parfaitement conforme à 100 %. Et ces paramètres de suivi continueront à fonctionner correctement, et cela vous aidera à mesurer vos performances dans HubSpot, dans GA, dans Salesforce, dans votre instance Shopify. Donc, pour ceux qui n’utilisent pas encore le suivi basé sur les UTM, c’est clairement quelque chose à envisager.

Le dernier point, qui m’est cher, c’est la mesure avancée. Autrement dit, utiliser la data science pour vraiment aller au fond de la véritable influence, de la véritable contribution ou de la véritable incrémentalité de n’importe quelle initiative. Cela signifie utiliser des méthodes comme le MMM, ou media mix modeling, où l’on cherche essentiellement à corréler l’ensemble de vos dépenses sur toutes vos initiatives.

Avec vos chiffres back-end first-party, qu’il s’agisse de vos opportunités Salesforce, de vos abonnements Shopify, quel que soit le résultat final. C’est de cela qu’il s’agit, et c’est extrêmement puissant. Cela contournera vraiment tous les problèmes de suivi basés sur les clics et sur les cookies tiers, n’est-ce pas ? C’est donc extrêmement robuste à cet égard.

Et puis il existe d’autres méthodes où l’on peut simplement lancer un test et voir ce qui se passe dans le back-end. Donc, en réalité, les données first-party sont l’avenir, si ce n’est déjà le présent. Et il existe des moyens de renvoyer ces données. Cela s’appelle le marquage ou les opérations marketing. Il faut donc quelqu’un pour.

Mettre cela en place, puis vous pourrez disposer de tous ces signaux très fiables et de haute qualité, utilisés pour le bidding algorithmique dans les plateformes Google, Facebook, LinkedIn, et ensuite, au-delà de cela, essayer de prendre du recul et voir si vos campagnes Search ont réellement un impact sur votre activité. Est-ce que vos actions sur les réseaux sociaux ont un impact ?

Vous pouvez regarder le paid, vous pouvez regarder l’organique, vous pouvez regarder l’effet des promotions. C’est cela, l’objectif : essayer d’obtenir une vision holistique de ce qui fait réellement bouger les choses pour vous. Encore une fois, nous n’utilisons aucune donnée de cookies tiers. Nous utilisons vraiment vos chiffres back-end, que nous essayons de corréler, pour l’essentiel, avec vos dépenses historiques.

Tous les signaux peuvent également être utilisés. C’est à peu près tout. Et c’est vraiment ce que j’aime faire. Je le fais pour mes clients. Donc le GeoLift testing et le MMM sont les deux choses que nous utilisons beaucoup. Soit pour avoir une vision globale de ce qui fait bouger les choses, soit pour lancer un test en silo et dire, par exemple, YouTube : ce que nous entendons souvent, c’est que nous n’avons jamais vu de valeur venant de YouTube.

Nous ne voyons pas de conversions provenant de YouTube. Nous avons mis en place des UTM. Nous ne voyons aucune donnée catégorisée comme provenant de YouTube dans notre back-end. Donc nous ne pensons pas que YouTube fasse quoi que ce soit pour nous. Et puis, si vous lancez un GeoLift test, qui consiste essentiellement à diffuser vos annonces YouTube dans certaines zones et pas dans d’autres.

Et vous allez regarder l’écart entre vos groupes. Vous verrez pratiquement à chaque fois une certaine hausse dans les zones où vous diffusez des annonces YouTube. À condition de dépenser suffisamment d’argent, bien sûr, c’est-à-dire que votre budget de test doit être suffisamment important. Et à condition de savoir quelle méthode utiliser pour mesurer ces données, vous verrez toujours une augmentation des sessions, des nouveaux utilisateurs, et potentiellement des achats, des abonnements, des MQL, des opportunités, n’est-ce pas ?

Selon la latence. Il y a donc un certain nombre d’éléments à prendre en compte, mais le GeoLift testing est un excellent outil pour examiner un canal individuel ou un sous-canal dans un silo et mesurer son impact réel. L’objectif est d’obtenir une vision d’ensemble.

Frederick Vallaeys: D’accord. Donc oui, il y a beaucoup de choses là-dedans, n’est-ce pas ? Vous avez parlé de faire passer les données via OCI, de mettre en place des UTM, et ce sont les éléments les plus basiques.

Et il existe déjà beaucoup d’articles de blog que nous avons publiés, et que vous avez publiés, où l’on peut en apprendre davantage à ce sujet. Alors allons un peu plus loin sur ces deux domaines qui vous passionnent vraiment : le GeoLift test et les modèles de Media Mix. Une chose que vous venez de dire, c’est qu’avec les GeoLift tests, il faut disposer de suffisamment de données.

Parlons donc un peu plus en détail. Quelle doit être la taille d’un annonceur ? De quel type de données avez-vous besoin en back-end ? Et, plus généralement, c’est un sujet débattu. J’ai toujours pensé que, dans ces tests en split, il faut contrôler autant de variables que possible. Donc faire un split test entre, disons, la Californie et.

Le Minnesota n’est peut-être pas la meilleure option, parce que nous avons des climats complètement différents, des régions différentes du pays. Donc, plus souvent, j’entends parler de Seattle contre Portland, des villes proches géographiquement, mais avec des démographies largement similaires. Cela permet de contrôler ces variables. Alors, pouvez-vous nous en dire un peu plus sur ces aspects précis ?

Si quelqu’un voulait faire un GeoLift test.

Ben Vigneron: Oui, bonne question. Donc oui, comme vous l’avez dit, il faut s’assurer que les zones de test sont soigneusement sélectionnées. Elles doivent être similaires à vos zones de contrôle, n’est-ce pas ? Il faut que les deux groupes, test et contrôle, soient similaires d’un point de vue statistique, et cela vaut aussi géographiquement.

Et je veux dire, sur beaucoup d’aspects, en fait sur tous les aspects. Globalement, si vous lancez un test aux États-Unis, il y a 50 États. Donc potentiellement, et la plupart des annonceurs vont randomiser les groupes et choisir 25 États. Si vous faites cela, vous avez de fortes chances d’échouer. La randomisation de vos groupes peut ne pas fonctionner.

Par exemple, vous pourriez avoir la Californie et New York dans le même groupe. Vous ne voulez probablement pas cela. Vous voulez probablement la Californie et New York dans le contrôle, ou l’inverse. Ensuite, si vous randomisez vos groupes, vous pourriez très bien avoir davantage d’États de la côte Ouest et moins de la côte Est.

C’est donc délicat. Vous pourriez aussi utiliser les DMAs au lieu des États, même si l’État est plus courant comme dimension dans n’importe quelle source de données. Donc, en général, l’État est un bon choix pour cette raison. Par exemple, GA, Shopify, Salesforce ont tous le niveau État. Ils n’ont pas tous le niveau DMA. Sinon, j’utiliserais plus souvent les DMAs parce que c’est plus granulaire, mais oui.

Donc, si l’on pense en termes d’États, la manière de les sélectionner est la suivante : tout d’abord, votre groupe test doit représenter au moins 20 % du pays selon la métrique que vous observez. Si l’on parle d’achats, par exemple. Il faut donc s’assurer qu’au départ, votre groupe test représente environ 20 % ou plus, entre 20 et 50 % du pays dans son ensemble.

Mais ce n’est pas tout, n’est-ce pas ? Il faut maintenant s’assurer que ces zones de test potentielles ont eu un comportement similaire à vos zones de contrôle historiquement. Ce qu’il faut faire, c’est mesurer les données existantes entre votre groupe test et votre groupe de contrôle avant l’intervention. Nous n’avons pas encore lancé le test. Nous voulons simplement nous assurer qu’il n’y a pas de différence entre nos groupes au départ.

N’est-ce pas ? Ainsi, tout effet détecté pourra effectivement être attribué au test. À notre intervention, n’est-ce pas ? J’ai donc mis au point un script en R qui fait cela pour moi, où, essentiellement, je vais randomiser les États et exécuter un test statistique pour minimiser la variance entre les groupes.

Et je vais sélectionner les zones de test qui génèrent la variance la plus faible. Ce qui signifie que mon groupe test et mon groupe de contrôle, jour après jour, ont tendance à se comporter de manière similaire historiquement. Ce qui veut dire que, dans le futur, lorsque je lancerai mon test, mon intervention, je saurai que si j’observe un certain écart, je peux l’attribuer à mon intervention, à mon expérience, n’est-ce pas ?

Tout est donc une question d’analyse de vos données X Circle et de minimisation de la variance, c’est-à-dire essentiellement de la différence de performance entre les groupes. C’est un peu technique et c’est super intéressant. Si vous ne le faites pas, vous pourriez voir quelque chose. Vous pourriez dire : « D’accord, je choisis cet État. Je diffuse mes annonces YouTube dans cet État. »

Et je pense voir quelque chose. Vous ne pourrez pas établir de causalité. Vous pourrez seulement, en quelque sorte, informer votre équipe et vous-même que oui, cela semble bon, mais vous ne pourrez pas dire avec confiance que cela fonctionne. Et je peux attribuer en toute confiance cette hausse à cette expérience. Avec la méthode dont je parle, et d’ailleurs, j’utilise la méthode causal impact de Google pour cela, qui était une bibliothèque open source conçue précisément pour mesurer l’impact d’une intervention marketing sous forme de série temporelle, entre deux groupes.

C’est donc un cas d’usage parmi d’autres, et cela vous indiquera exactement quel est le lift, ainsi que le niveau de confiance que vous pouvez avoir dans les résultats, n’est-ce pas ? C’est donc ce que j’utilise. Avant l’intervention, pour m’assurer que mes groupes sont similaires au départ. Voilà. C’est pour cela que j’ai mentionné la data science.

C’est un peu avancé et, une fois le script mis en place, ce n’est plus un problème ; toute l’équipe peut le mettre en place elle-même sans sortir du cadre du script. Mais c’est effectivement un peu avancé. Il m’a fallu du temps pour le construire de manière à ce qu’il fonctionne à chaque fois.

Mais alors, quel est votre parcours ? Êtes-vous de formation technique ou comment avez-vous appris à programmer ? Pas vraiment. Enfin, j’ai étudié les mathématiques, mais j’ai vraiment appris à coder chez Adobe. Je suis donc arrivé chez Adobe sans aucune connaissance en SQL ni en R. Et vous savez, les deux premières années chez Adobe, je m’y suis vraiment consacré.

J’étais business analyst à l’époque et nous avons commencé à travailler sur une, sur une, sur une plateforme qui allait en fait analyser une grande quantité de données et en sortir quelques, enfin une série de présentations PowerPoint pour l’équipe Customer Success, afin qu’elle puisse les utiliser et les partager avec ses clients. C’est comme ça que j’ai appris, vous savez, SQL et tout le reste.

Et je pense vraiment avoir rencontré les bonnes, les bonnes personnes qui m’ont vraiment passionné par le sujet. Et je m’y suis vraiment plongé. J’ai donc commencé à lire des livres là-dessus et, vous savez, j’apprends encore en faisant, encore aujourd’hui. J’apprends presque chaque jour de nouvelles fonctions, de nouvelles visualisations. Et c’est vraiment, vraiment génial.

Et, vous savez,

Frederick Vallaeys: comment apprenez-vous de nouvelles choses ?

Ben Vigneron: En général, cela commence par un cas d’usage. J’essaie de résoudre un problème. Et ensuite, je vais, vous savez, faire des recherches. J’ai donc quelques livres à la maison, mais j’utilise surtout Google. Et puis ces sites web que je connais déjà. J’ai donc tendance à leur faire davantage confiance.

Et en général, il existe plusieurs façons de résoudre le même problème. C’est justement ce qui fait la beauté de la chose. Parce qu’ensuite, on peut se demander : pourquoi cette méthode est-elle pertinente pour ce cas précis ? Et c’est ce que je fais. Par exemple, si vous pensez aux first-party data, un problème que j’ai eu il n’y a pas si longtemps était d’essayer de déterminer quelles étaient les principales personas pour nos comptes, n’est-ce pas ?

Donc, en gros, du profiling ou du clustering, si vous voulez. Et c’est un sujet très complexe. Et R et Python offrent aussi de nombreuses façons de résoudre ce problème. Et cela me dit qu’une méthode est la meilleure, n’est-ce pas ? Elles ne peuvent pas toutes être équivalentes. Il doit y avoir une méthode qui… Alors je les exécute toutes. Et je me plonge dans les scripts.

Je charge mes données, je les exécute de différentes manières, puis je vais choisir celle avec laquelle je me sens le plus à l’aise, en termes d’insights et de capacité à expliquer à une équipe comment tout cela fonctionne. Mais oui, vous savez, R est un langage de programmation open source. Il est très facile de trouver une excellente documentation, en particulier pour les travailleurs à distance.

C’est très facile d’en apprendre davantage. Et, vous savez, cela peut paraître très technique au départ, et ça l’est, mais, vous savez, après quelques heures, on se dit que c’est, c’est, c’est assez simple.

Frederick Vallaeys: Qu’en est-il de Code Interpreter de GPT ? L’utilisez-vous du tout pour écrire des scripts Python ?

Ben Vigneron: Non, je l’ai essayé et je n’ai pas été impressionné. Pour être honnête, la plupart du temps. Je l’utilise surtout avec R et cela m’a un peu aidé. Mais dans la plupart des cas, ça ne fonctionnait tout simplement pas. Il fallait donc que je corrige, n’est-ce pas ? Il fait donc 80 % du travail, puis il faut entrer dans le script et corriger soi-même, ce qui fait quand même gagner du temps, mais je l’utiliserais tout de même.

Par exemple, si je cherche quelque chose, si je suis sûr de mon prompt, si je sais que c’est essentiellement ce que je recherche. Je peux donc saisir cela dans GPT et je pense que cela devrait être utile. Mais dans la plupart des cas, je ne lui ferais pas trop confiance. Cela peut m’aider à comprendre comment rendre une visualisation plus jolie, on peut simplement dire :

Pouvez-vous faire en sorte que ce graphique ressemble à ceci et à cela, et cela va, en quelque sorte, se produire. Mais oui, d’après mon expérience, cela nécessite encore beaucoup d’intervention manuelle, ce qui me convient. Je

Frederick Vallaeys: suis d’accord avec ça. Je réfléchissais récemment au fait que je parle beaucoup des scripts Google Ads et de la façon dont GPT peut les écrire pour vous.

Et… vous copiez-collez le script dans Google Ads. Il renvoie des erreurs. Vous redonnez ces erreurs à GPT et il les corrige. Et après quelques itérations, vous obtenez quelque chose qui produit un résultat. Mais le problème, c’est qu’il faut vraiment vérifier le résultat, car il a pu y avoir des erreurs en cours de route.

Donc, mon idée de départ est que si vous avez déjà la capacité de le faire. GPT peut vous rendre plus rapide, et vous pouvez prendre, comme vous l’avez dit, les 20 % restants, faire ces corrections manuellement, ou si vous savez ce qu’il fait mal, vous pouvez lui dire quelles sont les erreurs, et il les corrigera réellement. Je pense aussi que si vous êtes prêt à apprendre R ou Python ou les statistiques, GPT peut être un excellent professeur.

Et vous pouvez lui demander : quel est le bon modèle ? Pourquoi pensez-vous que c’est le bon modèle ? Où puis-je en apprendre davantage sur ce modèle ? Et je pense que là où il commence à échouer, c’est dans les domaines pour lesquels vous avez très peu d’intérêt ou de capacité à apprendre par vous-même. Si vous comptez simplement lui faire confiance pour faire un travail parfait à 100 %, c’est là que vous allez échouer.

Ben Vigneron: Oui, il va compléter vos compétences existantes, mais il faut quand même avoir les compétences de départ, n’est-ce pas ? Parce qu’il faudra de toute façon corriger le résultat, n’est-ce pas ? Donc je suis totalement d’accord avec vous. Et j’ajouterais aussi que YouTube est un excellent endroit pour apprendre n’importe quoi. C’est fou. Il y a des tutoriels sur, par exemple, comment installer Python sur votre machine et commencer.

Et c’est incroyable et c’est gratuit. C’est donc aussi un bon point de départ. Évidemment, cela n’ira pas très en profondeur, mais c’est un bon point de départ. Ensuite, vous pouvez passer à Coursera, LinkedIn, peu importe, vous y mettre, acheter quelques livres et apprendre en faisant. Il y a tellement de connaissances disponibles.

C’est une période très excitante. Si vous deviez commencer une carrière dans le marketing digital aujourd’hui. Qu’apprendriez-vous ?

Je suppose que, enfin, cela dépend un peu de ce que vous aimez faire, je dirais, mais pour moi, j’ai aimé devenir de plus en plus technique en permanence. Donc j’étudierais définitivement la data science dès le départ à l’école.

Et donc les statistiques. Ou Python, je pense qu’une formation plus formelle dans ce domaine est vraiment puissante. SQL aussi, même si SQL est assez facile, mais si vous voulez atteindre un niveau plus avancé, vous pourriez bénéficier d’une formation. Ce sont donc les choses que, vous savez, j’ai apprises.

Principalement chez Adobe, et c’était formidable, je pense, parce que, vous savez, nous avions des cas business à résoudre. Je n’étais pas seul, j’avais une équipe avec laquelle travailler, donc c’était super. Mais je pense que si vous êtes intéressé par le marketing et que vous êtes encore à l’école, allez aussi loin que possible dans le technique. Ces compétences techniques porteront leurs fruits avec le temps, parce que la plupart des marketeurs ne savent pas autant, vous savez, comment fonctionne le tracking, comment regarder les données, comment lancer un test.

Et ce sont les domaines dans lesquels vous pouvez vraiment faire la différence. Et encore une fois, instaurer la confiance autour de vos résultats et ne pas seulement dire : « Oh, mon CPA baisse dans Google Ads », mais aussi prendre en compte les rendements marginaux, les rendements décroissants, qui est un concept que nous n’avons pas encore abordé, mais qui est très important. Puis le concept d’incrémentalité.

Est-ce que toutes ces conversions sont réelles ? Auraient-elles eu lieu de toute façon ? Ce genre de choses. Ce sont les éléments qui comptent vraiment, au final, pour le CMO. Oui,

Frederick Vallaeys: et toutes ces choses dépendent du fait d’avoir les bonnes données, les bonnes first-party data, ce que vous avez mentionné plusieurs fois. Vous avez aussi mentionné qu’il y a une équipe data ops.

Parlez-nous un peu de ce à quoi cela devrait ressembler si quelqu’un ne réfléchit pas vraiment beaucoup aux first-party data. Comment les intègre-t-on ? Comment commence-t-on ? Existe-t-il un outil pour les collecter ? Comment les renvoyer dans Google Ads ? Que faites-vous ?

Ben Vigneron: Oui. Oui, absolument. Au fil des années, j’ai vu beaucoup de changements à ce niveau-là, par exemple avec nos clients qui utilisent Zapier. Zapier est un outil incroyable pour connecter différentes sources de données entre elles.

Et en gros, par exemple, pour les annonceurs B2B, LinkedIn est une plateforme puissante et, vous savez, les gens y soumettent leur e-mail. Peut-être leur intitulé de poste, peut-être autre chose. Et ensuite, ces données se perdaient généralement un peu dans les limbes. Elles restaient dans LinkedIn et n’étaient pas nécessairement partagées avec les données back-end, n’est-ce pas ?

C’est donc clairement quelque chose de difficile, parce que dans ce cas, vos meilleures données ne se trouvent pas dans votre propre back-end. Vos meilleures données appartiennent à LinkedIn. C’est donc quelque chose que vous voulez absolument traiter et vous assurer de capturer toutes ces données. Et c’est quelque chose qu’un outil comme Zapier permet de faire. Je ne travaille pas avec Zapier.

Il existe peut-être d’autres outils qui font exactement la même chose, mais je sais que Zapier est assez facile à utiliser et fonctionne bien. C’est assez robuste, d’après ce que je comprends. Et vous pouvez simplement capturer tous les détails de votre lead depuis LinkedIn vers votre back-end. Ensuite, vous pouvez utiliser ces données en interne pour n’importe quel usage, n’est-ce pas ?

C’est donc un rôle qui n’existait pas vraiment quand j’ai commencé. Vous savez, nous avions des campaign managers qui géraient des campagnes sur Google, Facebook et LinkedIn, peut-être toutes, mais ils faisaient vraiment confiance aux données de la plateforme et n’avaient même pas accès au back-end. Et maintenant, nous avons des équipes qui comblent vraiment l’écart entre les données back-end first-party et les plateformes.

Newsletters, tout, n’est-ce pas ? Et c’est donc un rôle qui est devenu plus courant, parce qu’il faut combler cet écart dans les deux sens. Il faut capturer toutes les données de la plateforme publicitaire vers votre back-end. Et il faut aussi renvoyer vos données back-end, peut-être enrichies, n’est-ce pas ? Vous pouvez qualifier votre lead. Vous pouvez faire toutes sortes de choses vers les plateformes publicitaires afin que la plateforme publicitaire puisse, vous savez, ingérer les signaux et trouver des utilisateurs pour vous de manière pertinente.

C’est donc clairement quelque chose que j’ai vu se produire au cours des dernières années. Les marketing operations sont définitivement quelque chose d’assez nouveau. Et, vous savez, je pense que c’est formidable d’avoir des personnes pour vous aider à combler cet écart. Maintenant, je dirais que de mon point de vue, ce que nous faisons ici, c’est que toutes les données que nous faisons circuler sont surtout basées sur les clics.

Et cela ne résout donc pas le problème sous-jacent de l’incrémentalité. Quelle est la véritable influence de telle ou telle initiative ? Et c’est là que les GeoLift tests sont pertinents, parce qu’ils résolvent cela. Parlons-en davantage

Frederick Vallaeys: à ce sujet, n’est-ce pas ? Donc maintenant, vous avez toutes ces excellentes données, vous les avez placées aux bons endroits, et nous avons perdu les données de cookies, donc nous ne pouvons pas nécessairement savoir, au niveau individuel, quel clic a conduit à quel résultat. Et c’est là que cela intervient. Cela vous donne une vision plus large. Alors à quoi cela ressemble-t-il vraiment ? Comment cela fonctionne-t-il ?

Ben Vigneron: En général, vous allez vouloir disposer de deux ans de données et, par données, j’entends les dépenses historiques par canal.

Disons que vous avez diffusé des campagnes sur Google, Facebook et LinkedIn, n’est-ce pas ? Vous avez donc trois points de données : vos dépenses historiques sur Google, Facebook et LinkedIn, puis votre back-end, vous savez, le volume d’abonnements, n’est-ce pas ? Donc tout cela par semaine. Vous avez donc trois entrées : vos dépenses sur trois canaux et vous avez une sortie, vos chiffres, par exemple le total, n’est-ce pas ? Pas attribués à un seul canal. Nous ne le savons pas encore. C’est ce que nous voulons découvrir. Et donc ce que nous allons faire, c’est ce qu’on appelle une décomposition de la réponse, où nous allons essentiellement corréler votre volume hebdomadaire d’abonnements avec vos dépenses historiques sur ces trois canaux, n’est-ce pas ?

Et donc, il existe actuellement deux façons accessibles au public, qui sont des bibliothèques open source. Il y a la bibliothèque robin de Meta, disponible en R et en Python, et vous avez Meridian de Google. C’est amusant de voir les éditeurs donner accès à ces ressources incroyables, et il y a énormément de documentation.

J’utilise Robin depuis longtemps, que j’ai personnalisé au fil des années. De sorte que, vous savez, les courbes de réponse aient une certaine forme que je connais, ou, vous savez, je supervise un peu le modèle, si vous voulez. Mais en gros, c’est assez simple. Vous n’avez pas besoin de lancer un test pour cela. Il suffit de récupérer vos chiffres de dépenses des deux dernières années sur tous les canaux pertinents que vous avez utilisés.

Cela peut aller au-delà de Google, Facebook, LinkedIn, peut-être que l’e-mailing était une priorité l’année dernière. Vous devriez l’inclure. Et puis vos chiffres back-end, que vous devriez avoir, n’est-ce pas ? Donc, en général, il s’agit vraiment de tout rassembler. Ensuite, vous pouvez lancer votre analyse et vous serez en mesure de dire : quand j’obtiens un abonnement plus difficile à attribuer, 10 viennent vraiment de Google, 20 viennent de Facebook, 5 viennent de LinkedIn, 20 viennent des tendances saisonnières, et certains ne sont pas attribués, nous ne savons pas.

Évidemment, vous voulez réduire autant que possible cette part non attribuée, mais c’est ce qu’il en est. Et c’est formidable parce que, encore une fois, les dépenses sont toujours là. Ce n’est pas discutable. Vous savez combien vous avez dépensé, n’est-ce pas ? Ce n’est pas comme le tracking. Et vos chiffres back-end devraient également être là et disponibles pour être utilisés.

Ensuite, ce que vous voulez faire, c’est comparer ce que vous avez trouvé avec votre reporting traditionnel. D’accord, au cours des derniers mois, nous pensions que, vous savez, notre ROI Google était X, mais en réalité, cela nous dit que c’est Y. Est-ce plus élevé ? Est-ce plus bas ? C’est quelque chose que vous voulez examiner et peut-être lancer un GeoLift test si vous voulez établir la causalité.

Ce sont deux méthodes qui fonctionnent très bien ensemble. Ce que je dirais, c’est que l’attribution est un jeu à somme nulle et que l’utilisation des données de cookies tiers pour mesurer la performance est, dans la plupart des cas, incorrecte. Certains canaux seront surévalués, d’autres sous-évalués. Le but du jeu est donc d’identifier quels canaux sont sous-évalués ou surévalués.

Et c’est de cela qu’il s’agit. Et je conseillerais à toute personne dans le monde du marketing de s’y mettre. Parce que c’est vraiment ce qui compte, au final.

Frederick Vallaeys: Et un excellent conseil. Je pense que beaucoup de gens n’utilisent pas encore vraiment les media mix models, et il semble en fait que ce ne soit pas si difficile à mettre en place en utilisant des systèmes open source comme Robin, et si vous avez les données, vous devriez déjà simplement les intégrer.

Mais cela dit, la plupart des gens, la plupart des annonceurs ont Google Analytics configuré, et cela évolue beaucoup plus vers une vision modélisée de ce qui se passe dans le monde. Et l’un des avantages, c’est qu’il déduplique effectivement dans de nombreux cas, n’est-ce pas ? Parce qu’il regarde les canaux de manière croisée. Ce n’est pas comme si Facebook, Google et Microsoft allaient chacun revendiquer le mérite de la même conversion et la compter trois fois dans ce cas.

Mais quel est votre avis ? Où Google Analytics trouve-t-il encore sa place, étant donné que cela a vraiment changé par rapport à ce que c’était auparavant ? Est-ce encore utile ? Comment l’utilisez-vous ?

Ben Vigneron: C’est utile. Je pense que c’est utile pour toute initiative qui va générer une session sur votre site web, n’est-ce pas ? Ce qui n’est pas toujours le cas, n’est-ce pas ? Donc, si vous pensez à ces formulaires de leads LinkedIn, les utilisateurs ne vont jamais sur votre site web, donc cela n’apparaîtra pas dans GA.

Si vous pensez aux vues de vidéos YouTube, elles n’apparaîtront pas dans GA. Vous pourriez, s’ils cliquent, vous les verrez, mais la plupart du temps ils ne cliquent pas, n’est-ce pas ? Vos publicités TV. Vos spots radio, la radio, l’affichage extérieur, tous les médias traditionnels, rien de tout cela n’apparaîtra dans votre GA. Donc, selon la composition de votre mix, GA peut être un excellent outil ou un outil moins pertinent.

D’après mon expérience, les annonceurs B2B qui utilisent beaucoup les formulaires de leads LinkedIn ne choisissent pas autant GA. Ils ne s’appuient pas autant sur GA. Ils utiliseront GA pour leurs campagnes Google, peut-être leurs campagnes Facebook s’ils en mènent, mais… oui, LinkedIn et GA ne fonctionnent pas très bien ensemble.

Frederick Vallaeys: Et donc, pour résumer très brièvement.

Votre point est que, dans la mesure où vous avez les données de coût LinkedIn associées à ces remplissages de formulaires LinkedIn et que vous avez vos données back-end sur le nombre de nouveaux clients obtenus, vous pouvez en fait attribuer cela d’une manière que GA ne pourrait jamais faire.

Ben Vigneron: Oui, exactement. Parce que votre entrée, ce sont uniquement les chiffres de dépenses, n’est-ce pas ?

Donc combien vous dépensez sur LinkedIn, et votre sortie, ce sont uniquement les KPI globaux ou les achats d’abonnement, peu importe. Ce n’est pas encore attribué, n’est-ce pas ? Donc si LinkedIn a joué un rôle, vous allez voir une hausse pendant les semaines où vous dépensez le plus sur LinkedIn, en général. Donc oui, vous contournez tout le problème en regardant simplement les dépenses brutes et les chiffres back-end bruts.

Mais oui, je pense que GA reste excellent pour beaucoup de raisons, mais oui, surtout, vous savez, l’intégration avec Google Ads, évidemment. C’est natif. C’est plutôt génial. Mais sinon, si vous menez beaucoup d’initiatives qui ne génèrent pas de sessions sur votre site web, alors GA est tout simplement sans intérêt.

Donc voilà, oui.

Frederick Vallaeys: Très bien. Eh bien, des choses incroyables. Merci de nous avoir montré un peu GeoLift testing et comment cela peut être appliqué. Aussi quelques mots encourageants : vous n’avez pas besoin d’être data scientist, mais il existe beaucoup de très bonnes ressources sur YouTube et Udemy et ailleurs pour vraiment apprendre à utiliser R.

Personnellement, je suis un grand fan de GPT Code interpreter, et j’ai certainement fait des analyses statistiques qui auraient dépassé mes capacités. Cela dit, Sam Altman a dit que 95 % des marketeurs digitaux perdront leur emploi à cause de la Gen AI. L’idée centrale ici est : comment faire pour faire partie des 5 % et non des 95 % ?

Comment garder notre emploi ? Un conseil à ce sujet pour rester pertinent.

Ben Vigneron: Je suis assez optimiste, pour être honnête. Je pense que la Gen AI consiste vraiment à combler les lacunes et pas nécessairement à faire le travail que les humains font. Il faut savoir utiliser ces outils. Si c’est vous qui utilisez l’outil, vous ne perdrez pas votre emploi.

Quelqu’un doit utiliser l’outil. Et ensuite, tout est une question d’intégrations, parce que généralement, vous savez, vous travaillez dans RStudio et vous avez ChatGPT à côté. Mais comment intégrer les deux ? N’est-ce pas ? Donc si vous vous concentrez sur l’utilisation de tous les outils disponibles et pertinents pour vous et que vous apprenez les compétences nécessaires pour intégrer ces outils dans votre flux de travail quotidien, vous garderez définitivement votre emploi.

Je ne m’inquiète pas du tout pour ça. Oui, je pense que la transition sera plus lente que certains ne le pensent. Vous savez, nous n’avions pas Excel et nous n’avons pas perdu nos emplois. Vous voyez ce que je veux dire ? SQL n’existait pas. Nous pouvions quand même découvrir certaines choses. Enfin, je ne suis pas très inquiet à ce sujet et la transition sera plus lente.

Cependant, se concentrer sur les compétences techniques, je pense que c’est vraiment. La pertinence de l’utilisation de ces outils, apprendre comment ils fonctionnent sous le capot, c’est très utile à savoir. Et puis, encore une fois, les intégrations.

Frederick Vallaeys: Oui. Oui. Vous ne rivalisez pas avec un outil, vous rivalisez avec d’autres personnes qui savent utiliser ces outils.

Ben Vigneron: Exactement. C’est ce que j’essaie de dire. Exactement. Oui, je suis d’accord.

Frederick Vallaeys: Très bien. C’était incroyable, Ben. Si les gens veulent vous contacter, LinkedIn, ou d’autres endroits ?

Ben Vigneron: Vous pouvez m’envoyer un e-mail à ben@blackbirdppc ou, vous savez, nous trouver en ligne blackbirdppc.com. Mais oui, mon LinkedIn convient très bien. Donc Ben Vigneron et oui, je serai ravi d’échanger, bien sûr.

Frederick Vallaeys: Oui, surtout si les gens aiment ces idées et ne veulent peut-être pas le faire eux-mêmes et ont besoin d’expertise. Sur quoi Blackbird PPC se concentre-t-il ?

Ben Vigneron: Nous faisons donc historiquement du marketing à réponse directe. Donc très orienté ROI. Pour le B2B et le B2C, nous avons été davantage orientés B2B au cours des dernières années, mais nous pouvons aussi faire du B2C.

Je dirais que nous faisons de la gestion de campagnes. Mais aussi, évidemment, à travers moi et mon équipe, de l’analytique avancée et de la mesure. Nous avons donc parlé des tests GeoLift, mais nous réalisons un certain nombre d’autres analyses pour nos clients. Par exemple, définir des personas qui génèrent une forte valeur vie client, ce genre de choses, et déterminer quels sont

Les attributs créatifs qui génèrent un CTR supérieur à la moyenne ou des taux de conversion. Ce sont des choses que nous pouvons exécuter en interne. Donc, je dirais, gestion de campagnes plus analytique avancée, comment appliquer la data science au marketing, en réalité. Et c’est ce que nous faisons ici, à San Francisco, l’équipe est formidable.

Frederick Vallaeys: Super. Donc, oui. Et encore une fois, si vous voulez en savoir plus sur ce sur quoi Ben a travaillé, consultez ses articles sur Search Engine Land, allez voir sa session SMX Advanced, qui est disponible gratuitement, il suffit de s’inscrire pour y accéder. Si vous avez apprécié cet épisode de PPC Town Hall et que vous voulez en voir d’autres, veuillez utiliser le bouton d’abonnement en bas et nous vous informerons lorsque le prochain sera disponible. Vous pouvez également aller sur ppctownhall.

com et vous inscrire à notre newsletter, et ensuite, si vous voulez être plus efficace en tant que PPC manager, nous avons de nombreuses automatisations intéressantes ainsi que des intégrations de données first-party. Nous proposons aussi un essai gratuit. Alors, n’hésitez pas à le découvrir. Merci d’avoir regardé, Ben. Merci d’avoir été avec nous, et à bientôt pour le prochain épisode.

Plus d'épisodes