---
title: "Une masterclass d’analyse de données PPC par Cory Lindholm"
serpTitle: "Une masterclass d’analyse de données PPC par Cory Lindholm"
description: "Rejoignez les experts PPC Frederick Vallaeys et Cory Lidholm pour une discussion approfondie sur les métriques PPC et les techniques avancées d’analyse de données. Découvrez les tendances saisonnières, l’analytique prédictive et comment gérer efficacement Google Ads pour améliorer les performances et le retour sur investissement."
author: "Vimal Bharadwaj"
date: "2024-07-03"
url: "https://www.optmyzr.com/fr/ppc-town-hall/a-ppc-data-analysis-masterclass-by-cory-lindholm/"
---

# Une masterclass d’analyse de données PPC par Cory Lindholm

> PPC Town Hall 96

Rejoignez les experts PPC Frederick Vallaeys et Cory Lidholm pour une discussion approfondie sur les métriques PPC et les techniques avancées d’analyse de données. Découvrez les tendances saisonnières, l’analytique prédictive et comment gérer efficacement Google Ads pour améliorer les performances et le retour sur investissement.

**Author:** Vimal Bharadwaj | **Published:** July 3, 2024

**Watch:** [YouTube Video](https://www.youtube.com/watch?v=Oors-OKmg2Y)

**Apple Podcasts:** [Listen](https://podcasts.apple.com/us/podcast/a-ppc-data-analysis-masterclass-by-cory-lindholm/id1508399985?i=1000661060656)
**Spotify:** [Listen](https://open.spotify.com/episode/1A4T1b0GQ68qHrNvg0QHbY?si=ba5c83cb9a994980)
---

## Description de l’épisode

Dans cet épisode, notre cofondateur et CEO, Frederick Vallaeys, s’est entretenu avec Cory Lindholm pour plonger en profondeur dans l’univers de l’analyse des données PPC.

Cory a commencé par couvrir les fondamentaux. Puis, il a expliqué le processus d’analyse permettant de mettre au jour des insights précieux sur la saisonnalité, les performances de vos comptes, et même les corrélations entre différentes métriques.

Il a également abordé l’importance de disposer de bases solides en statistiques et en données lorsqu’il s’agit de prendre des décisions PPC éclairées.

Cet épisode regorge de valeur. Et nous espérons qu’il vous sera utile.

Regardez cet épisode pour apprendre :

\- Les fondamentaux des métriques PPC

\- Comment mesurer l’impact de la saisonnalité et d’autres facteurs PPC

\- Comment intégrer vos données PPC à vos données business

\- Les erreurs courantes d’analyse de données à éviter

\- Les meilleurs outils d’analyse de données

## Points clés de l’épisode

**Les fondamentaux des métriques PPC**

* Les métriques PPC comme le taux de clics (CTR) et le coût par clic (CPC) fournissent des données fondamentales pour évaluer la pertinence des annonces et l’efficacité du budget.
* Le Quality Score reste une métrique essentielle qui influence le coût et le placement des annonces, soulignant l’importance d’optimiser cette métrique pour améliorer la rentabilité.

**Comment mesurer l’impact de la saisonnalité et d’autres facteurs PPC**

* L’analyse des tendances saisonnières aide à prévoir les variations et à préparer efficacement les futures campagnes.
* Utilisez les données historiques pour anticiper et ajuster les allocations budgétaires ainsi que les stratégies marketing en fonction des évolutions saisonnières prévisibles des performances.

**Comment intégrer vos données PPC à vos données business**

* Reliez les données PPC à d’autres indicateurs business pour offrir une vision complète des performances et du ROI.
* Exploitez les données provenant de différentes plateformes (par ex. Google Ads, systèmes CRM) pour améliorer la précision du ciblage et la compréhension des clients.

**Les erreurs courantes d’analyse de données à éviter**

* Veillez à disposer d’échantillons suffisamment importants pour éviter les biais et garantir la fiabilité des données avant de prendre des décisions de campagne.
* Méfiez-vous du biais de confirmation et du surapprentissage dans l’analyse de données afin de préserver l’objectivité et la précision de vos conclusions.

**Les meilleurs outils d’analyse de données**

* Des outils comme Optmyzr, Tableau et Power BI améliorent l’analyse des campagnes PPC grâce à une visualisation et un reporting avancés des données.
* Les langages de programmation comme Python et R sont recommandés pour mener des analyses statistiques complexes et intégrer l’IA afin d’améliorer la modélisation prédictive.

## Transcription de l’épisode

**FREDERICK VALLAEYS:** Bonjour et bienvenue dans un nouvel épisode de PPC Town Hall. Je m’appelle Fred Vallaeys. Je suis votre hôte. Je suis également le CEO et cofondateur d’Optmyzr, un outil de gestion PPC. Aujourd’hui, nous avons le grand plaisir d’accueillir un invité de retour, Cory Lidholm, qui va partager avec nous tout ce qu’il a fait avec les statistiques pour mieux comprendre le monde.

De Google Ads et des métriques PPC. Nous allons donc commencer par les bases comme le CPC et le CTR, mais nous allons très vite passer à des statistiques vraiment intéressantes et nous allons voir des graphiques très parlants qui vous donneront des insights plus approfondis sur les performances de vos comptes, des éléments comme la saisonnalité, les corrélations entre différentes choses.

Et vraiment vous donner immédiatement les moyens de mieux analyser les comptes et d’améliorer les performances pour les clients que vous gérez. Sur ce, accueillons Cory.

**CORY LINDHOLM:** D’accord. Donc. Si vous ne savez pas qui je suis, Cory Lindholm, adsbycory. com. Je fais du PPC, Google Ads, Microsoft Ads depuis près de dix ans, mais en réalité, je suis surtout un passionné de données, un aficionado de la data science.

Vous verrez donc ici des notions fondamentales, mais aussi des éléments plus avancés sur lesquels je me passionne vraiment. Je pense donc qu’il y en aura un peu pour tout le monde. Dans cette diapositive. Alors oui, entrons directement dans le vif du sujet. Analyse des données PPC, insights clés et bonnes pratiques.

Alors, le taux de clics, qu’est-ce que cela signifie réellement ? Il indique en réalité la pertinence de l’annonce et l’engagement. Le coût par clic. C’est votre CPC. Vous l’entendrez généralement, évidemment important pour le budget. C’est votre coût moyen par clic. Le taux de conversion. Cela indique l’efficacité de votre page de destination, n’est-ce pas ?

Maintenant, si nous parlons d’équipes commerciales, ce sera similaire. Cela indiquera l’efficacité de votre équipe commerciale ou la capacité de votre logiciel à conclure ce lead, quel qu’il soit. Le coût par acquisition, un CPA plus faible suggère une dépense efficace. Si, évidemment, le coût par acquisition est plus élevé, cela vous indiquera qu’il existe certaines inefficacités dans vos dépenses publicitaires. Le return ad spent.

Je ne suis pas un grand fan, mais c’est une métrique très courante pour indiquer la rentabilité de vos dépenses publicitaires, puis les impressions. Cela indiquera vraiment la visibilité de vos annonces, la notoriété de la marque, ce genre de choses. La dernière grande métrique que nous aborderons sera le Quality Score. Évidemment, cela affectera vos coûts par clic et le classement de vos annonces.

Nous avions l’habitude de dire que cela affecte le positionnement des annonces. Ce n’est plus pertinent. Nous n’avons plus cette métrique de positionnement des annonces. Cela dit, cela va toujours indiquer, ou plutôt cela va indiquer en quelque sorte la part d’impressions ou le nombre de fois où vous apparaissez dans des enchères pertinentes. En espérant qu’elles soient pertinentes. Ce sont, je dirais, les métriques les plus courantes.

**FREDERICK VALLAEYS:** Exactement. Et donc cette position de l’annonce ou ce classement a été abandonné par Google, mais évidemment il existe toujours un processus de décision pour déterminer quelle annonce s’affiche au-dessus des autres, même si Google ne le nomme pas nécessairement ainsi. Et le Quality Score est un facteur important dans cela. Mais comme vous l’avez également dit, c’est un facteur de remise.

Donc, plus votre Quality Score est élevé, moins vous devez payer pour maintenir ce même type de classement sur la page par rapport aux concurrents. Et puis le classement, c’est-à-dire votre position plus ou moins haute sur la page, détermine le nombre d’impressions que vous obtenez. Le CTR a tendance à être plus élevé plus on est haut sur la page. Donc, tous ces éléments s’entraident en quelque sorte. Et je reste un grand fan du Quality Score. Je pense que c’est toujours l’une des métriques que vous pouvez vraiment utiliser pour optimiser et réduire vos coûts. Encore une fois, si vous voulez regarder le CPA, très bien, cela devrait être votre métrique de référence, mais si vous n’en êtes pas satisfait, le Quality Score est ce levier qui vous permet d’obtenir un CPA que vous préférez à celui d’avant.

**CORY LINDHOLM:** Oui, et parfois, il n’y a rien, il semble qu’il n’y ait rien que vous puissiez faire avec le Quality Score. Parfois, vous atteignez simplement un point de rendements décroissants. Vous consacrez tout votre temps à l’optimisation de la page de destination, à l’optimisation de l’annonce captive. Cela ne semble tout simplement pas faire de différence. Mais est-ce que cela en vaut la peine ?

Absolument. On me demande souvent : dois-je vraiment m’embêter à optimiser autour des Quality Scores ? Est-ce vraiment si important ? Et je réponds toujours : si vous pouvez obtenir la même chose à moindre coût, ne le feriez-vous pas ? Eh bien, c’est ce que le Quality Score vous permet de faire. Donc, définitivement, oui. Très bien. Alors, allons un peu plus loin dans le côté geek.

Les fondements statistiques. Maintenant, les amis, je m’excuse si les images sont difficiles à lire. Je peux certainement fournir, et je fournirai, un diaporama afin que vous puissiez le télécharger. Vous pourrez zoomer sur les visuels. J’essaierai de les couvrir du mieux possible, mais entrons ici dans les bases. On me demande souvent : si je débutais, quelle serait la première chose que j’apprendrais en PPC en repartant de zéro ?

Ce ne serait pas en fait de suivre l’intégralité de la Google Ads Academy. C’est peut-être une opinion impopulaire, mais en réalité, la base d’une bonne gestion PPC repose sur une bonne base en statistiques, et je sais que cela vous rappelle des cauchemars de courbes en cloche et de lycée, et tout ça.

Mais les amis, les statistiques sont le fondement du PPC. Quand vous vous connectez et que vous voyez tous ces chiffres, ce sont des statistiques. C’est ça. Ce sont des indicateurs de performance pour votre entreprise et votre publicité. Donc, si vous n’avez pas une solide base statistique, comment savoir si ce que vous regardez est statistiquement fiable ?

Comment savoir à quel point vous pouvez être confiant que l’avenir sera probablement X ? À quel point pouvez-vous être confiant pour dire que la période précédente que vous examinez est meilleure que la précédente, et si cela représente suffisamment de données pour prendre des décisions solides ? Donc, le premier point que je vais mentionner ici est la statistique descriptive.

C’est quelque chose que nous utilisons tout le temps lorsque nous examinons un nouvel ensemble de données, mais aussi lorsque nous observons des évolutions dans le temps. En gros, cela va résumer les caractéristiques de nos données, comme nous aimons les appeler. Donc, la moyenne, également appelée average, qui tend à être la valeur par défaut que vous voyez dans votre compte Google Ads.

Votre taux de clics, qui est le taux de clics moyen. Vous allez voir le CPC, le coût par clic, dont nous avons parlé. C’est le coût moyen par clic. Voici le problème. Les moyennes mentent souvent, surtout lorsque vos données sont ce que nous appelons asymétriques. Il y a une forte dispersion. En d’autres termes, vous avez des valeurs aberrantes, n’est-ce pas ?

Vous avez un jour où cette campagne particulière avait un coût par clic de 25 et la plupart des jours, il n’est que dans la fourchette des 15. Eh bien, dans ce cas, si vous constatez que cela arrive souvent, vous ne voulez en réalité pas utiliser la moyenne lorsque vous essayez vraiment de suivre les performances. Vous voudrez probablement passer à quelque chose qui tient compte des valeurs aberrantes, à savoir la médiane.

Petite leçon rapide. Encore une fois, c’est pourquoi les statistiques et les connaissances fondamentales en statistiques peuvent être vraiment utiles pour vous, plutôt que de simplement faire confiance aux valeurs par défaut fournies par vos interfaces et logiciels PPC.

**FREDERICK VALLAEYS:** Oui, et je veux dire, cela me fait aussi penser aux exclusions de données. Donc, si vous voyez des données bizarres, que vous sachiez exactement pourquoi elles sont bizarres ou non, peut-être que votre page de destination est tombée en panne et que votre taux de conversion était vraiment catastrophique. Ou si c’est un phénomène saisonnier que vous n’aviez pas anticipé, si vous voyez qu’il y a une exclusion de données, c’est vraiment important, car sinon les systèmes de machine learning de Google penseront qu’il s’agit de données valides et commenceront à baser leurs décisions dessus. Et ensuite, les enchères automatiques commencent à surenchérir ou à sous-enchérir.

Et c’est très facile. Vous pouvez simplement définir un déclencheur du type : « Hé, si on voit quelque chose de bizarre, ne t’appuie pas sur ces données. On a un problème. » Et dès que c’est corrigé, vous autorisez Google à réévaluer ces données. Vos enchères resteront agréables et cohérentes. Elles ne seront pas perturbées par ce qui s’est passé.

**CORY LINDHOLM:** J’adore ça. Je ne pense pas que ce soit une fonctionnalité dont on parle assez, l’exclusion de données. Donc, lorsque le suivi des conversions est cassé, par exemple, si vous savez que de cette date à cette date, le suivi des conversions était inexact. Il vaut mieux aller là-dedans et dire à ces algorithmes : je ne veux pas que vous en teniez compte.

dans vos enchères, n’est-ce pas ? Je ne veux pas que vous considériez cela comme si vous aviez pris la mauvaise décision sur une audience que vous pensez bonne ou quelque chose comme ça. Je veux simplement que vous l’écartiez pour le moment. Il vaut mieux faire cela que de le laisser en place. J’ajouterais aussi les ajustements saisonniers. Encore une fois, je les trouve très sous-utilisés.

Je pense que beaucoup d’annonceurs, et Freddie, dites-moi si vous constatez cela aussi avec votre audience, supposent que ces algorithmes sont magiques. Ils supposent qu’ils peuvent simplement prédire et voir : « Oh, vous avez une promotion en cours. Nous allons simplement tenir compte du taux de conversion et nous adapter en conséquence. »

Je préférerais, même si c’est vrai, communiquer clairement à Google avec l’ajustement saisonnier que nous avons une promotion du telle date à telle date ou de telle heure à telle heure. Et je m’attends, sur la base des performances historiques ou de mes propres prévisions, à ce que les taux de conversion augmentent de ce montant.

De cette façon, je peux lui donner un début et une fin clairs. Il peut formuler ses prévisions à partir de cela. Il peut enchérir en conséquence. Mais surtout, ce que je trouve vraiment sous-estimé, c’est qu’une fois la promotion terminée et que vous lui dites que je m’attends à ce que les taux de conversion baissent, il ne va pas soudainement, comme si vous n’aviez pas utilisé d’ajustements saisonniers, réduire toutes vos enchères parce qu’il se dit : « Oh, j’ai vraiment mal fait quelque chose. »

Et puis, tout à coup, il faut qu’il remonte en termes d’enchères pour se sentir confiant et atteindre l’objectif que vous avez communiqué à Google. Ce sont donc deux fonctionnalités vraiment importantes. Je suis content que vous ayez mentionné cela.

**FREDERICK VALLAEYS:** Oui, tout à fait d’accord. Je veux dire, la saisonnalité, Google va certainement repérer les grands événements, comme les fêtes de fin d’année, la rentrée scolaire.

C’est la même chose chaque année, n’est-ce pas ? Mais si vous allez lancer cette promotion spéciale. Ou même comme Amazon Prime Day. Je pense que cela change chaque année, exactement quand cela se produit, et Google ne le sait pas. Donc, si vous allez faire une promotion spéciale, le système la détectera, mais cela peut prendre deux jours avant qu’il ne le fasse.

Et si c’était votre promotion du week-end, vous voyez, à quel point est-ce utile que d’ici lundi, ils aient compris que le taux de conversion allait être plus élevé, parce qu’ils enchérissent maintenant de manière plus agressive, alors que votre promotion, vos remises, sont terminées. Donc, maintenant, ils enchérissent plus agressivement pour obtenir du trafic. Ce trafic n’a pas tout à fait la même valeur.

Donc, tout est un peu à l’envers. Comme vous l’avez dit, si vous pouvez dire à Google. Cela va se produire de telle date à telle date. Alors ils peuvent s’y préparer et faire les ajustements exactement comme vous le souhaitez.

**CORY LINDHOLM:** Considérez Google comme votre assistant publicitaire. Ce n’est pas votre génie. Passons aux statistiques inférentielles.

Ça sonne sophistiqué, mais en gros, cela nous permet simplement de savoir, à partir des données d’échantillon, quelles que soient les données que nous examinons, quels sont les intervalles de confiance ? En substance, à quel point pouvons-nous nous sentir confiants dans les statistiques que nous analysons, surtout.

D’une période à l’autre ou lorsque vous réalisez un test d’hypothèse, vous vous demandez : devons-nous utiliser une, devons-nous utiliser la statistique inférentielle ?

Encore une fois, je ne vais pas entrer trop dans les détails, faites absolument vos recherches, utilisez l’IA pour obtenir plus de précisions sur ce sujet. Cela devient vraiment très technique. Donc, pas trop fou. Analyse de régression. Comprendre les relations et prévoir les résultats. On me pose cette question tout le temps : si nous augmentons les dépenses, quelle est la probabilité que nous obtenions plus de conversions ?

En gros, vous essayez de dire : est-ce que ce qui évolue dans cette direction va être corrélé avec autre chose qui évolue dans la même direction ou dans une direction différente ? Par exemple, la plus courante, comme je l’ai dit, ce sera les dépenses et les conversions. Si nous augmentons les dépenses, les conversions ont-elles des chances d’augmenter ? C’est quelque chose que nous utilisons généralement la régression pour essayer de déterminer.

Maintenant, c’est vraiment minuscule, mais sur le côté droit, vous verrez un exemple de visuel de ce à quoi cela ressemble. En général, vous utiliseriez un nuage de points si vous voulez visualiser cette corrélation. Donc, en bas, vous verriez le coût, et à mesure qu’il va vers la droite, le coût augmente. Sur l’axe vertical, à gauche, se trouvent les conversions.

Et à mesure que cela monte vers le haut, cela indique une augmentation des conversions. Ce que vous espérez voir en tant qu’annonceur, disons que vous regardez une campagne qui semble prometteuse et que vous voulez voir si j’augmente les dépenses sur cette campagne, sommes-nous susceptibles d’obtenir plus de conversions ? Ce que vous espéreriez voir, c’est que tous ces points, qui pourraient être des dates ou des groupes d’annonces, soient tous étroitement alignés.

sur cette ligne au milieu, et qu’il y ait une belle tendance linéaire. Cela vous indiquera qu’il y a une forte probabilité qu’à mesure que vous augmentez le coût, vous augmentiez les conversions. Et comme je l’ai mentionné, il existe de nombreuses façons d’utiliser cela. Cela ne doit pas se limiter aux coûts et aux conversions. Il existe aussi des choses comme l’analyse de régression multiple.

Vous pouvez en fait intégrer plusieurs valeurs pour voir comment cela affecte d’autres métriques. Il y a plein de choses amusantes que vous pouvez faire avec cela, mais c’est la manière dont nous répondons à cette question : si nous faisons X, quel sera l’impact probable sur Y ? Une excellente façon de l’utiliser. Les tests A/B, donc nous, en tant qu’annonceurs, en avons tous déjà entendu parler, mais être capable de comparer deux versions de quelque chose afin de déterminer laquelle est la plus performante.

Pour moi, en raison de la façon dont les RSA, les annonces responsives sur le Réseau de Recherche, ont évolué au fil des ans et du fait que nous n’obtenons que des impressions, ce qui est bien. Probablement la chose la plus frustrante. Je pense aussi aux tests A/B par rapport à une période précédente, une certaine période versus une période antérieure. Et en gros, disons que nous avons apporté un changement majeur, comme une restructuration.

Nous avons lancé de nouveaux produits. Nous avons lancé une nouvelle promotion. Nous avons modifié le prix de quelque chose à partir de cette date. par rapport à la période précédente. C’est aussi un type de test A/B. Vous savez, est-ce que cet événement principal qui s’est produit, quelle est la signification statistique de ce changement ? Et pouvons-nous vraiment dire, par exemple avec des intervalles de confiance, que c’était statistiquement dû à cet événement, plutôt qu’au simple hasard.

Ce sont donc des choses que ces outils peuvent nous aider à faire.

**FREDERICK VALLAEYS:** Oui. Et c’est là que l’IA générative est formidable, car vous pouvez lui poser des questions comme : comment faire un test A/B correct ? Parce qu’il existe des tests A/B unilatéraux et bilatéraux. Oui. Et le test unilatéral, qui dit essentiellement : quelles sont les chances que ce changement ait amélioré les choses, mais il n’évalue pas la probabilité que ce changement ait empiré les choses, ce qui est le cas du bilatéral. Il y a deux issues possibles, pas seulement une amélioration. Et vous pouvez donc vous retrouver dans une situation où il y a de bonnes chances que votre test ait amélioré les choses, mais, de même, il y a aussi de bonnes chances qu’il les ait empirées.

Et donc, vous pourriez vouloir prendre une décision différente que si vous n’aviez regardé que le test A/B unilatéral. C’est donc très compliqué. Mais encore une fois, l’IA peut en quelque sorte vous aider à comprendre quels sont les pièges afin que vous ne fassiez pas ces erreurs et que vous ne vous tiriez pas une balle dans le pied.

**CORY LINDHOLM:** Je veux aussi ajouter un conseil lorsque vous utilisez ces ChatGPT ou quel que soit l’outil, Gemini, vous pouvez.

Faire attention à ne pas y injecter n’importe quelles données, sauf si vous utilisez l’outil de niveau entreprise. Par exemple, sur OpenAI, ils vont utiliser les données que vous leur fournissez dans leurs ensembles d’entraînement. Donc, à moins que cela ne vous convienne, soyez très prudent et anonymisez tout ce que vous y mettez avant de le faire. Surtout si vous y avez des clés API, ce que j’ai entendu des gens faire. Ils pensent simplement : « Ah, peu importe. »

Vous savez, ce n’est qu’une clé API. Vous ne voulez pas que cela se retrouve quelque part en public. Donc, soyez très prudent avant d’y injecter n’importe quel jeu de données. Je recommanderais vraiment d’anonymiser les choses autant que possible.

**FREDERICK VALLAEYS:** Oui, exactement. Je veux dire, vous avez donc mis le doigt sur le point clé ici, à savoir que si vous allez utiliser OpenAI. Vous injectez les données dans le modèle qui va apprendre.

Et il peut produire cette clé API dans une réponse à n’importe qui. Et maintenant, cette personne utilise votre clé API. Et puis, dans des outils logiciels comme Optmyzr, nous n’envoyons aucune donnée à OpenAI tant que vous n’avez pas activé vos capacités Sidekick, vos fonctionnalités d’IA générative. Mais comme nous utilisons une API, nous utilisons une version entreprise.

Ces données sont utilisées pour générer une réponse, puis elles sont supprimées. Elles ne sont pas utilisées pour construire de futurs modèles. C’est donc beaucoup plus sûr. Mais vous devez toujours, vous savez, si vous êtes une agence ou un prestataire, simplement informer vos clients des éditeurs de logiciels avec lesquels vous travaillez, où leurs données vont aller, et vérifier qu’ils ne vont pas faire quelque chose.

Que vous ne souhaitez pas, car vos concurrents ayant vos données CPC ne serait pas une bonne chose.

**CORY LINDHOLM :** Brad, j’aimerais qu’on mette nos chapeaux en papier d’aluminium pendant juste une seconde. Je suis vraiment curieux, parce que je sais que tu es un ancien de Google, n’est-ce pas ? Tu pourrais donc être un peu biaisé, mais j’ai confiance en toi. J’ai confiance en toi. Donc, avec cette nouvelle capacité à fournir à Google nos données de profit et à lui permettre d’enchérir en fonction de cela, quels sont, selon toi, certains aspects éthiques à prendre en compte et comment les annonceurs devraient-ils envisager cette approche ?

Merci. Donner ces données à Google, parce qu’il y a beaucoup de débats sur ce sujet.

**FREDERICK VALLAEYS :** Oui, enfin, je continue de penser que Google a fondamentalement l’intention de faire ce qu’il faut, mais c’est aussi une entreprise à but lucratif. Et donc, elle va chercher des moyens de générer davantage de profit, n’est-ce pas ? Et si elle sait qu’il y a davantage.

De pression concurrentielle qu’elle peut introduire dans l’enchère parce que les gens gagnent bien leur vie grâce à ces clics. Alors, oui, elle pourrait faire des choses qui rendent les enchères un peu plus coûteuses, donc il faut faire attention à cela. Et c’est là que nous intervenons, en tant qu’outil tiers, et nous disons : écoutez, vous pouvez aussi apporter ces données de profit à Optmyzr, construire des règles et une logique autour de la manière dont cela doit s’intégrer à votre stratégie globale.

Et ensuite, la seule chose que nous envoyons à Google, c’est le vrai Cool. tROAS ou tCPA, ou dans certains cas l’enchère CPC, qui est informée par votre profit. Mais Google ne sait jamais si vous enchérissez pour un profit nul et maximisez le chiffre d’affaires, ou si vous enchérissez pour avoir un profit énorme sur chaque vente. Ils ne le savent pas.

Cela protège donc un peu mieux certaines de ces informations.

**CORY LINDHOLM :** Très bien. On devient un peu plus techniques, les gars. Une chose, une diapositive à la fois. Donc, le rôle de l’analyse de données dans la stratégie PPC. Je vais couvrir ici trois points principaux. Le premier sera le suivi des performances, puis l’optimisation, et enfin l’allocation budgétaire.

Il y a bien plus de choses dont nous pourrions parler. Je pense que ce sont les trois piliers. Donc, en ce qui concerne le suivi des performances et la manière dont nous pouvons utiliser les statistiques et l’analyse de données, ainsi que des outils comme, vous savez, OpenAI, Gemini, ce genre d’outils d’IA pour créer très rapidement des visuels pour nous. Maintenant, petit indice, tout ce que vous allez voir à l’écran sont des éléments que j’ai.

créés avec mon propre logiciel propriétaire que j’utilise pour mes clients et uniquement mes clients. Donc vous n’obtiendrez pas exactement ces visuels, mais vous pourriez les décortiquer et probablement essayer de faire faire quelque chose de similaire à l’IA, mais cela demande un peu plus de ressources. Donc, à titre d’exemple de suivi des performances, en haut à droite et en bas à gauche, désolé si cela prête à confusion, en haut à droite, quelques éléments que vous voulez généralement suivre.

L’un d’eux sera la valeur réelle, quel que soit ce que vous examinez. Disons que dans cet exemple, il s’agit du retour sur les dépenses publicitaires. Donc, quelle était la valeur réelle du retour sur les dépenses publicitaires au fil du temps ? Ici, c’est ce que vous verriez comme valeur de conversion divisée par le coût dans l’interface Google Ads. Très bien, mais cela ne dit pas tout, n’est-ce pas ?

Vous voulez pouvoir extraire davantage d’enseignements que la seule valeur réelle. C’est là que l’utilisation d’outils comme Python ou d’un logiciel peut vraiment vous aider. J’ajoute donc quelques autres éléments à ce visuel. L’un d’eux sera la moyenne mobile sur trois mois. Elle n’a pas besoin d’être de trois mois.

Vous devrez l’adapter à vos données. Mais dans cet exemple, nous utilisons une moyenne mobile sur trois mois. Donc, plutôt que de voir simplement les hausses et les baisses quotidiennes du ROAS dans cet exemple, nous examinons la tendance globale sur les 90 derniers jours, c’est-à-dire le retour moyen sur les dépenses publicitaires.

Peut-être souhaitez-vous utiliser une autre métrique, etc. Mais ceci n’est qu’un exemple approximatif. Cela nous permet donc de savoir qu’il ne faut pas paniquer à cause des fluctuations à court terme. Elles sont attendues. En revanche, s’il s’agit d’une valeur aberrante, vous voulez pouvoir la repérer et vous voulez pouvoir l’étayer par des statistiques au lieu de simplement dire : « Hé, on dirait que c’est assez élevé. »

Je pense que c’est une valeur aberrante. Vous voulez utiliser les mathématiques pour identifier la valeur aberrante. Dans ce cas, vous pouvez voir que ce point rouge en haut. Ce n’est pas simplement une journée élevée. C’est une journée aberrante sur la base de l’ensemble de données que nous fournissons à ce programme particulier. Vous pourrez donc repérer ces valeurs aberrantes. Vous voudrez toujours les rechercher, car elles vont influencer votre moyenne ou votre moyenne arithmétique.

Et j’aime aussi voir simplement une moyenne statique sur la plage de dates. Vous pouvez voir ici qu’elle est un peu inférieure à trois. C’est cette ligne pointillée. J’aime aussi ajouter, c’est un peu excessif, mais la médiane aussi. En général, ce que je fais, c’est mettre toutes mes métriques principales dans des graphiques comme celui-ci afin de pouvoir les faire défiler rapidement et voir s’il existe une grande différence entre la moyenne et la médiane, et voir réellement ces deux lignes pour me le signaler.

Il y a une grande différence entre la moyenne et la médiane, ce qui signifie que je dois aborder mon analyse en gardant cela à l’esprit pour cette métrique particulière. Et puis le dernier point que je mentionnerai est la zone grisée. C’est votre IQR, également appelé intervalle interquartile. Cela vous indique essentiellement quelle est la tendance centrale des données que vous examinez.

Donc, entre quelle plage et quelle plage est-ce normal, n’est-ce pas ? Maintenant, vous pouvez l’ajuster selon les besoins. En général, cela se situe entre 25 % de vos points de données et 75 % de vos points de données, et tout ce qui se trouve en dehors n’est pas nécessairement une valeur aberrante statistique, mais se situe en dehors de la tendance centrale de ces données.

Donc, dans cet exemple, tout ce qui est en dessous de cette barre grise. est en dehors de la norme, et tout ce qui est au-dessus de cette ligne n’est pas non plus en dehors de la norme, mais dans ce cas, c’est une bonne chose parce qu’il s’agit d’un retour sur les dépenses publicitaires plus élevé. Cela nous indique donc approximativement quelle est la distribution du retour sur les dépenses publicitaires sur une plage de dates donnée et nous permet de savoir si quelque chose se situe dans cette plage ou en dehors.

Très, très utile, surtout lorsque vous examinez plusieurs métriques côte à côte pour voir, vous savez, qu’est-ce qui est normal ? Ainsi, lorsque vous regardez cette moyenne mobile, vous ne paniquez pas à cause des fluctuations à court terme, n’est-ce pas ? Avec

**FREDERICK VALLAEYS :** quelque chose comme ça, vous voudrez probablement aussi avoir un peu de distinction entre marque et hors marque, ainsi que différentes catégories de produits.

Parce qu’évidemment, les performances de la marque et du hors marque sont très différentes. Et donc, ce qui est normal ne serait rien de normal, n’est-ce pas ? Comme, qu’est-ce qui est vraiment élevé ? L’un est vraiment bas. Donc, tout serait essentiellement une valeur aberrante. Vous voulez donc vous assurer que ce n’est pas le cas lorsque vous examinez vos données.

**CORY LINDHOLM :** Absolument. Oui. Tenez toujours compte de vos segmentations. Vous ne voulez pas, comme vous l’avez mentionné, mélanger recherche de marque et hors marque avec Shopping, surtout si vous voyez des distributions de données ou des moyennes très différentes, peu importe. Lorsque vous regardez ces statistiques descriptives, nous venons de les examiner, et que vous regardez la moyenne, le maximum, le minimum de vos différents points de données, vous devez regrouper vos ensembles de données, n’est-ce pas ?

Vous voulez donc voir quelle est la distribution, quelle est la moyenne, quelle est la médiane de certaines métriques pour votre recherche de marque. Comment cela se compare-t-il à vos campagnes Performance Max, à vos campagnes Shopping standards, à votre recherche hors marque, à vos campagnes Display ? Vous voulez répartir ces éléments dans différents groupes en conséquence, car, comme l’a dit Fred, ils vont avoir des moyennes, médianes, maximums, minimums et écarts types très différents. Il est vraiment important de classer chacun d’eux et de les analyser séparément.

Et en ce qui concerne l’optimisation. Donc, vous savez, évidemment, lorsque vous faites de l’analyse de données, vous allez chercher des moyens d’affiner le ciblage. Votre texte publicitaire, vos stratégies d’enchères, beaucoup de choses peuvent être faites à ce niveau. Évidemment, ce sont des éléments plus fondamentaux pour le PPC. Mais l’une des choses que j’ai tendance à penser qu’on néglige peut-être parce qu’elle semble tellement évidente, c’est l’allocation budgétaire.

Mais Fred, je ne peux pas vous dire combien de fois j’ai audité un compte et constaté qu’ils consacraient 80 % de leurs dépenses à ces campagnes qu’ils veulent vraiment faire fonctionner, mais qui ne fonctionnent tout simplement pas. Et puis ils sont limités par le budget sur ces campagnes qui sont clairement gagnantes du point de vue de la rentabilité, du volume, du potentiel, et comme, avons-nous déjà essayé d’y consacrer plus de budget ?

Eh bien, oui, mais nous savons déjà qu’elles sont gagnantes. Alors pourquoi ne pas les faire évoluer ? C’est surprenant. Je me sens donc obligé de le mentionner, mais pour l’utiliser dans notre processus d’analyse de données, c’est là que la modélisation prédictive peut entrer en jeu et prendre en compte des facteurs externes au PPC comme la saisonnalité et les promotions, ce genre de choses.

Mais nous pouvons essentiellement déterminer comment, disons, avec un budget annuel, répartir ce budget de manière dynamique tout au long de l’année. Et à quoi cela ressemblerait-il en termes de nombre de leads que nous obtenons ? Par exemple, c’est en bas à droite. Un bon exemple de quelque chose, une analyse que je viens de faire pour un client de génération de leads.

C’est une entreprise SaaS pour laquelle nous avons essentiellement pris trois ans de données historiques. C’est tout ce que nous avions à disposition dans leurs systèmes internes. Et nous avons pu, avec un objectif de génération de leads, prédire avec un très haut degré de précision combien de budget de notre budget annuel nous devons répartir tout au long de l’année sur un mois donné, et quel sera probablement notre volume de leads pour cette année en tenant compte de la saisonnalité.

C’est une manière incroyablement puissante d’utiliser cela si vous avez simplement les connaissances nécessaires pour vous y plonger. Très bien, avançons cela pour dire rapidement que le bas gauche. C’est un peu la même idée que celui en haut à droite, mais c’est une façon de comparer une période précédente à une période actuelle. Donc cette ligne orange représente la période actuelle par rapport à la période précédente, et le repérage des valeurs aberrantes est vraiment, vraiment important en termes d’enseignements, parce qu’une grande partie de notre travail consiste à aller voir : d’accord, depuis la dernière fois que j’ai optimisé le compte, qu’est-ce qui a changé ?

Quelle est la comparaison des valeurs et des métriques de cette période par rapport à une période précédente ou par rapport à l’année dernière, peu importe, c’est vraiment agréable de pouvoir visualiser ces choses. Et ensuite, vous pouvez utiliser votre cerveau humain pour commencer à décortiquer le pourquoi, parce que c’est une pièce vraiment importante ici, et utiliser vos connaissances du domaine pour dire réellement : d’accord, voici le quoi, voici ce qui se passe, mais pourquoi cela se produit-il ?

Oui. Vous pouvez utiliser l’analyse de données et la modélisation prédictive pour avoir une idée approximative. Oui. Vous pouvez demander à ChatGPT ou à un outil similaire de deviner ce que cela pourrait être. Mais même ces technologies comme OpenAI vous diront : voici ce que je pense, mais vous devez utiliser votre expertise en tant qu’expert du domaine pour vraiment comprendre ce qui se passe.

Très bien, donc intégrer, j’en ai beaucoup parlé, mais intégrer les données PPC avec d’autres données de l’entreprise. Je pense que souvent, en tant qu’experts PPC, que vous fassiez du Facebook, du Google ou du Microsoft, peu importe, nous devenons tellement hyper concentrés que nous commençons à penser en vase clos et nous ne regardons que les données que nous gérons.

Mais il est tellement important, surtout dans l’environnement actuel de la publicité et du marketing en ligne, de penser au canal, de penser à la manière dont, non seulement l’augmentation des dépenses, disons sur Facebook, influence Google Ads. Mais qu’en est-il de l’indice de confiance des consommateurs, n’est-ce pas ? Est-ce que cela pourrait influencer vos ventes ?

Ce sont des éléments que vous devez garder à l’esprit ; y a-t-il une tendance dans l’économie locale qui pourrait avoir un impact sur les ventes ? Si vous ne savez pas ces choses, vous pourriez penser que ce sont les changements que vous avez effectués qui en sont la cause, alors que ces autres facteurs doivent également être pris en compte. Voici donc un exemple simple, encore une fois, d’utilisation d’une étude de marché pour intégrer et comparer l’indice de confiance des consommateurs, le CCI, aux États-Unis et vos conversions PPC.

Donc, encore une fois, à très haut niveau, super simple. Vous pouvez le rendre aussi complexe que nécessaire, mais l’idée centrale ici est vraiment d’intégrer des facteurs externes à vos performances PPC et de ne pas penser uniquement à vos données Google Ads en vase clos. Vous devez considérer l’ensemble du tableau.

**FREDERICK VALLAEYS :** Oui. Et j’adore ça, Cory, parce que je pense qu’il faut vraiment intégrer vos propres données d’entreprise.

Et encore une fois, comme je l’ai dit, rapprochez-les autant que possible de ce qui compte réellement pour votre entreprise. Comme le CPC, le CTR, qui s’en soucie ? Concentrons-nous sur les profits et les revenus. Et vous ne pouvez faire cela que si vous connectez votre CRM. Donc, vous savez, quel lead a réellement abouti à une vente. Et puis, en termes de compréhension, ai-je changé quelque chose dans l’entreprise qui provoque une amélioration ou une dégradation des performances, il est utile d’examiner les benchmarks sectoriels.

Alors, comment se porte tout le monde dans le secteur, ou regardez un outil comme PPC investigator. Donc, si vous voyez que vos conversions augmentent fortement, quelle en est la cause sous-jacente ? Est-ce parce que vous avez plus d’impressions pour les éléments que vous annoncez ? Et ensuite, vous pouvez commencer à poser des questions. Y a-t-il plus d’impressions ?

Est-ce que les actualités en parlent ? Est-ce un sujet tendance ? Y a-t-il un changement dans la demande des consommateurs qui les pousse à rechercher davantage mon offre qu’auparavant ? Et donc, plus vous pouvez avoir d’alertes pour vous signaler quand il est temps d’aller enquêter, parce qu’au final, c’est un problème difficile, n’est-ce pas ?

Si vous pensez à Google et qu’ils ont maintenant, cela a été révélé, plus de 14 000 facteurs de classement, mais pensez que vous pourriez aussi probablement utiliser plus de 14 000 éléments à prendre en compte pour savoir si cela a un impact sur mon entreprise, mais cela demande beaucoup d’efforts pour passer en revue toutes ces choses. Donc, à un certain niveau, savoir quand commencer à poser cette question de niveau supérieur, et je pense que c’est là que les agences et les consultants gagnent vraiment leur place, parce qu’ils travaillent souvent avec davantage d’annonceurs dans cet espace.

Donc, comme vous l’avez dit, vous travaillez avec une entreprise SaaS. Et ils pourraient dire : « Hé Cory, qu’avez-vous observé ? » Et vous n’allez pas divulguer ce client précis, mais vous allez dire : oui, nous observons une sorte de tendance où l’économie est peut-être un peu meilleure. Les gens sont plus disposés à dépenser de l’argent pour des logiciels et ceci et cela.

Et donc maintenant, vous apprenez tous les uns des autres. C’est donc une valeur vraiment énorme.

**CORY LINDHOLM :** Absolument. C’est un très bon point. J’entends souvent cette question : « Bon, est-ce que je ne devrais pas simplement le faire moi-même ? » Et c’est comme, eh bien, vous pourriez peut-être le faire avec ce volume de données, votre propre expérience dans ce domaine et votre disponibilité, etc. Vous pourriez peut-être, mais considérez l’avantage concurrentiel que vous avez si vous travaillez avec une agence qui dispose de ces enseignements partagés à travers un secteur comme le vôtre.

Si vous travaillez avec une agence spécialisée dans le retail e-commerce, vous pouvez. Ils peuvent avoir des enseignements que vous n’aurez tout simplement pas, parce qu’ils sont capables de voir ces enseignements et ces tendances à travers d’autres fournisseurs de retail e-commerce. Donc oui, c’est vraiment, vraiment important et c’est une bonne raison de travailler avec une agence ou un spécialiste plutôt que d’essayer simplement de le faire soi-même.

Très bien. C’est l’une de mes analyses préférées à réaliser. Je pense que les gens ont tendance à trop réfléchir à cela, donc cela semble vraiment compliqué, mais c’est. Cela utilise la saisonnalité et les facteurs externes au PPC. Nous l’avons un peu abordé avec le CCI, mais c’est un peu plus approfondi. L’idée est essentiellement d’utiliser les tendances saisonnières pour prévoir et se préparer aux variations.

Voici le point, les gars : quand je dis saisonnier, il est très facile de penser par défaut à l’automne, au printemps, à l’été et à l’hiver. Ce n’est pas de cela que je parle ici. Il peut donc s’agir de schémas saisonniers dont vous n’avez peut-être aucune idée, que vous n’aviez pas vraiment identifiés. Vous pouviez peut-être en avoir l’intuition, plus vous avez dirigé votre entreprise longtemps.

Mais vous voulez réellement utiliser les données pour découvrir si cela est prévisible, ou si ce n’est que du hasard, du bruit aléatoire. C’est ce qu’une analyse de décomposition saisonnière peut faire pour vous. Donc, encore une fois, c’est l’une de mes choses préférées à faire pour une entreprise : pouvoir prendre ses données historiques et faire des prédictions à partir des données dont nous disposons, mais aussi intégrer la saisonnalité dans cela, ainsi que nous donner une idée de la manière dont nous devrions, comme je l’ai mentionné plus tôt, budgéter, prévoir et nous préparer peut-être pour les promotions ou les niveaux de stock, ce à quoi nous devrions nous attendre compte tenu des schémas saisonniers.

Sur la droite, c’est ce que vous verrez normalement avec une décomposition saisonnière par défaut. Donc, si vous demandiez à ChatGPT ou à un outil similaire, vous savez, Cory a dit de faire une décomposition saisonnière sur cet ensemble de données. Je ne sais pas ce que cela signifie, mais allez-y. Ce sera probablement le résultat par défaut.

Ce sera essentiellement ce que l’on observe, dans ce cas, nous utilisons le total des leads, donc c’est tout combiné. C’est simplement ce que vous verriez normalement si vous représentiez graphiquement vos leads au fil du temps. Très bien, pas très utile, n’est-ce pas ? Vous auriez pu faire cela vous-même, sans code. La deuxième partie est là où les choses commencent à devenir plus intéressantes.

C’est donc la tendance générale des données, n’est-ce pas ? Cela a essentiellement supprimé le bruit, si vous avez déjà entendu l’expression, distinguer le signal du bruit. C’est le signal. C’est la tendance générale au fil du temps. La troisième partie aura un peu plus de sens dans un instant. Cette troisième partie correspond aux schémas saisonniers que nous observons.

Et dans cet ensemble de données, vous pouvez voir en fait un schéma assez clair, n’est-ce pas ? Je pense que c’est vers juin environ que nous commençons à voir une forte augmentation saisonnière, mais essentiellement nous commençons à voir des pics et des leads attribués à la saisonnalité et non au bruit aléatoire. C’est là que les choses deviennent vraiment intéressantes, n’est-ce pas ?

Parce que cette dernière partie en bas à droite est le résidu, un terme technique pour désigner le bruit. Ce sont les éléments qui ne peuvent pas être expliqués par la saisonnalité dans l’ensemble de données. Par exemple, au tout début, vous pouvez voir ce point bleu qui est vraiment très haut. Cela ne peut pas être expliqué par la saisonnalité dans l’ensemble de données.

Par conséquent, cela vous donne matière à vous demander : pourquoi ? Qu’est-ce que nous faisions ? Avions-nous lancé une promotion ? Avions-nous un produit que nous avons arrêté alors que, peut-être, nous n’aurions pas dû ? Cela nous permet de savoir s’il s’agit, en quelque sorte, des éléments aléatoires. Les éléments en haut servent à nous indiquer qu’il s’agit des vraies tendances.

Ce sont les véritables schémas saisonniers. Fantastique, encore une fois, pour prévoir et projeter l’avenir, afin de savoir comment nous devrions gérer des éléments comme les stocks, les dépenses publicitaires, etc., et ce à quoi nous devrions nous attendre. Je dis donc toujours à Fred, dans le cadre de mes missions de conseil, qu’il faut prendre en compte ce que Google appelle vos cycles de conversion.

C’est ce que Google peut voir en termes de parcours d’attribution. Combien de jours s’écoulent généralement entre le clic initial et la conversion ? Cela peut être utile pour décider lesquels de ces points de données seront les plus utiles entre vos données internes et ce que Google voit. Mais cela vous permet aussi de savoir qu’il y aura ce décalage attendu.

Et encore une fois, cela dépend de ce que vous utilisez, de l’outil que vous utilisez, etc. Mais pour rester simple, si vous utilisez Google et qu’il semble que votre cycle de conversion moyen soit de quatre semaines, par exemple, vous ne voulez pas, vous savez, augmenter toutes vos enchères pour juin si en réalité tout commence.

Quatre semaines plus tard. C’est à ce moment-là que vous devrez, parce que vous voudrez tenir compte de ces cycles de conversion. C’est un peu complexe, mais

**FREDERICK VALLAEYS :** avez-vous écrit un GPT ou, en gros, le principe que je veux mettre en place ici, c’est que les gens créent des GPT spécialisés, conçus pour faire certaines choses. J’ai écrit un GPT pour vous aider à rédiger des scripts, et je l’ai alimenté avec des informations sur les cinq choses que vous devriez demander à quelqu’un qui vient vous voir avec une demande de script, n’est-ce pas ?

Parce que quelqu’un va venir et dire : « Hé, peux-tu m’écrire un script qui m’aide à mieux définir le tROAS », mais il ne pensera peut-être pas aux fenêtres de conversion rétrospectives. Il ne regardera peut-être pas la saisonnalité. Il ne pensera peut-être pas qu’on peut faire un script MCC ou un script pour un compte individuel. Il n’a peut-être pas réfléchi à la répartition entre campagnes de marque et hors marque.

Et donc, il y a toutes ces choses que vous et moi, ainsi que les spécialistes, connaissons. Et vous pouvez donc réellement construire un GPT qui oblige cet utilisateur à répondre à ces questions, ou au moins à y réfléchir. Y réfléchir avant d’obtenir le résultat, et espérons-le, obtenir un meilleur résultat final grâce à cela.

**CORY LINDHOLM :** Oui. Mon utilisation principale des GPT, c’est d’écrire des scripts Python et de m’aider à adapter ces scripts Python, ainsi qu’à remettre en question ma propre logique à l’intérieur de ceux-ci pour vérifier les biais, ce genre de choses.

Mais j’ai aussi mes propres petits modèles personnalisés, encore une fois, des choses propriétaires. Ce que j’aime vraiment faire, Fred, encore un petit côté geek, mais aussi un humble brag, c’est en avoir trois que je construis, donc ils ne sont pas vraiment connectés entre eux, mais j’en ai un qui me donne les prompts pour le générateur de scripts.

Et puis j’en ai un troisième qui fait le QA du script en cours de rédaction, parce que je ne vais pas mentir, je trouve en fait de meilleurs résultats en ayant ces trois assistants qui ne savent pas vraiment tout ce qui se passe avec les autres. Mais c’est mieux, parce que si vous mettez tout dans un seul, il a tendance à se mélanger.

Il perd le contexte. Il faut se répéter. Même quand on lui donne un prompt très, très clair. Ce que je ne veux pas faire, c’est en avoir un qui construit un script. Puis je lui pose des questions et je le fais un peu dévier. Il a tendance à avoir du mal à revenir en arrière et à se corriger. Donc j’aime vraiment en avoir trois.

J’ai donc une sorte de système personnalisé qui utilise essentiellement trois assistants pour vérifier le travail des uns et des autres et obtenir d’excellents résultats. Oui,

**FREDERICK VALLAEYS :** c’est brillant. Je veux dire, si vous n’avez pas à payer un assistant de plus, pourquoi pas, n’est-ce pas ?

**CORY LINDHOLM :** Exactement. Oui.

**FREDERICK VALLAEYS :** Très cool.

**CORY LINDHOLM :** Et puis, pour conclure sur la saisonnalité, quelques éléments que je recommande vraiment pour simplifier cela pour les parties prenantes, parce que si vous leur montrez les éléments à droite, ils vont probablement être complètement perdus et ne pas comprendre ce que vous dites.

Donc, présentez-le dans un langage qu’ils vont comprendre. Et le graphique en bas au centre est probablement celui que j’utilise le plus. Il s’agit de l’effet saisonnier moyen sur, dans cet exemple, les leads par mois. Cela nous indiquerait essentiellement que, pour un mois donné, par rapport à la moyenne annuelle des leads, combien de leads en plus ou en moins pouvons-nous attendre dans un mois donné ?

Et encore une fois, vous devez tenir compte de la qualité de vos données et des délais de conversion, etc., comme nous venons de le mentionner. Mais dans cet exemple, on peut voir qu’en juin, nous nous attendons en réalité à 15 leads de moins que notre moyenne annuelle en juin, alors qu’en mai, nous nous attendons à 41 leads de plus que la moyenne. Ce sont donc, encore une fois, des moyens de visualiser rapidement la situation.

C’est un visuel très clair qui permet, même si vous n’étiez pas totalement à l’aise avec tout cela et que vous n’aviez pas une solide formation statistique, de vous dire : « Eh bien, clairement, cette grande barre verte montre qu’il faut dépenser beaucoup plus en mai, ou peut-être le mois précédent, en lien avec notre point sur le délai de conversion. »

Afin de vraiment capitaliser sur cet effet saisonnier évident qui se produit, et nous devrions probablement dépenser moins en juin ou en juillet, ou peut-être devons-nous simplement enquêter pour comprendre pourquoi nous observons cela ; est-ce la période où notre équipe commerciale a tendance à prendre beaucoup de vacances et cela impacte certaines de nos ventes ? Et vous pouvez exécuter ces analyses de régression dont nous avons parlé plus tôt, si vous avez suffisamment de données pour voir si, par exemple, les vacances de l’équipe commerciale sont fortement corrélées à la baisse de nos ventes. C’est juste un exemple un peu simpliste, mais cela donne une idée générale de la manière dont vous pouvez utiliser ces éléments pour réfléchir à tout cela.

**FREDERICK VALLAEYS :** Et donc Google Ads est très pratique parce qu’ils vous donnent les données depuis le début de la période où vous avez lancé une campagne.

Vous avez donc souvent plusieurs années de données que vous pouvez alimenter dans GPT. Mais lorsqu’il s’agit de quelque chose comme Amazon ads, ils imposent une limite de 90 jours sur la période historique que vous pouvez consulter. Avez-vous déjà constaté que vous pouviez exploiter les enseignements d’une plateforme pour prédire la saisonnalité sur une autre plateforme ?

**CORY LINDHOLM :** Oh oui, absolument.

Je fais ça très souvent. C’est ce qu’on appelle, dans le monde de la data science, le feature engineering. Donc vous récupérez tout ce que vous pouvez, toutes les données disponibles, Shopify, Amazon, Facebook, je veux tout. Et je veux faire passer tout cela dans des métriques ou des matrices de corrélation pour déterminer statistiquement quelles métriques, issues de quelles sources, doivent être combinées.

Est-ce que cela influence la précision de mes modèles de prédiction, etc. ? Donc, sans aucun doute, je tire constamment des données via des API pour obtenir un maximum d’informations afin de faire des prédictions vraiment solides et de construire des bases robustes dans mon analyse. Oui.

**FREDERICK VALLAEYS :** Très cool.

**CORY LINDHOLM :** Très bien. Et puis, en bas à gauche, pour tous ceux qui se demandent : « Quelle est celle que vous n’avez pas mentionnée ? »

C’est un sujet vraiment déroutant, mais je voulais quand même le glisser ici. Il s’agit de l’autocorrélation. Je vais donc rester très bref, car nous manquons de temps. Si vous constatez que le point est en dehors de la zone ombrée, qui dans ce cas était de trois, cela nous indique que tous les trois mois, nous avons une corrélation négative avec les trois mois précédents.

Autrement dit, tous les trois mois, nous nous attendons à une performance négative de nos leads, puis, au cours des trois mois suivants, nous nous attendons en réalité à une augmentation positive des leads. Donc ces personnes ont tendance à voir que leurs leads suivent un cycle d’activité très clair, trimestriel. Ainsi, tous les trois mois environ, nous nous attendons à avoir quelques mois en baisse et quelques mois en hausse.

Maintenant, encore une fois, il faut prendre cela avec précaution. Ce ne sera pas toujours la même hausse et la même baisse tous les trois mois. Et ce ne sera peut-être pas aussi mauvais que les trois mois précédents, et ce ne sera pas exact à 100 %. Rien de tout cela ne signifie que nous pouvons le prédire avec une précision de 100 %. Ce ne sont que des estimations fondées sur les mathématiques et sur une solide base statistique.

Mais je ne veux pas que les gens se lancent là-dedans en disant : « Nous allons pouvoir prédire avec une certitude absolue que mai sera incroyable parce que nous avons fait une décomposition de saisonnalité. » Cela nous donne simplement notre meilleure inférence, ou notre meilleure hypothèse, ou notre meilleure estimation de ce qui est susceptible de se produire ; cela ne garantit pas que cela se produira.

Et donc, l’analytique prédictive, nous en avons déjà un peu parlé. Je veux simplement montrer un visuel de ce à quoi cela pourrait ressembler, mais essentiellement, avec l’analytique prédictive dans le contexte du PPC, sur lequel je ne vois pas beaucoup de contenu, on a tendance à utiliser des concepts de biologie ou autre, et il est difficile pour les gens de comprendre comment l’appliquer au PPC.

De manière générale, nous allons essayer de prédire les performances futures à partir des tendances historiques, etc. Un exemple courant consiste à prédire la valeur vie client. Vous verrez cela dans beaucoup d’agences de data science, où l’une des premières tâches consiste à prendre tous vos produits et autant de caractéristiques et de points de données que possible pour essayer de vous donner une idée approximative de ce que votre valeur vie client est susceptible d’être pour un produit donné ou pour une cohorte particulière, une cohorte d’audience.

Cela pourrait donc être, par exemple, un type d’audience, des personnes qui achètent des produits premium et qui commencent par acheter ce produit. Ce serait quelque chose comme une analyse de marché, une analyse de panier, quelque chose comme ça. Mais la manière dont nous pourrions l’appliquer très facilement au PPC dans ce cas était la génération de leads. Donc, pour cela, j’utilise plusieurs modèles prédictifs différents.

En tant que marketeurs, je suis un grand fan du modèle de profit de Facebook. Fred, je suis sûr que vous l’avez utilisé dans une certaine mesure, parce que ce qui est génial avec ce modèle, c’est qu’il prend en compte les jours fériés, ce qui, si vous construisiez votre propre modèle prédictif, vous obligerait à l’intégrer sur mesure et à l’adapter chaque année aux jours fériés et aux dates qui changent. Le modèle de profit de Facebook intègre déjà cela dans ses prédictions.

C’est donc un excellent moyen de voir, dans ce cas, notre ligne bleue représente la prévision générale, puis les bornes supérieure et inférieure de cette prédiction. C’est vraiment important. Cela rejoint notre point selon lequel rien n’est une prédiction parfaite à 100 %. Dans ce cas, nous espérons, et nous avons de fortes chances de voir, que la valeur réelle des leads se situera entre la ligne verte et la ligne rouge.

Par exemple, l’année prochaine, nous nous attendons à un mois de juin vraiment, vraiment excellent. Cela pourrait être l’un des meilleurs que nous ayons eus. Et encore une fois, cela repose sur une base solide de données propres. Et puis, il y a certaines choses qui ne correspondront pas à ce que nous avons vu avec la décomposition saisonnière, ce qui est très intéressant. Donc, lorsque nous examinons les performances historiques, cela montre que ces mois donnés ne sont pas si bons, mais lorsque vous utilisez nos modèles prédictifs, ils peuvent ne pas correspondre, ce qui, vous savez, est un tout autre sujet, mais vous voudrez enquêter sur les raisons possibles et sur la précision de votre modèle prédictif, etc.

Mais vous pouvez toujours essayer d’optimiser, et vous devriez optimiser ces modèles pour obtenir une meilleure précision au fil du temps. Très bien, accélérons un peu. Donc, expérimentation des données, test d’hypothèse. Dans cette analyse, ce que nous voulions faire, c’était obtenir une idée de ce qui se passerait si nous modifiions nos principaux groupes d’annonces et les URL associées à ces groupes d’annonces les plus dépensiers et les plus performants. Quel est le risque et à quoi pouvons-nous nous attendre en termes de revenus et de retour sur les dépenses publicitaires si nous passions d’URL de blog à des URL de pages produit ?

C’est en fait une question assez courante pour les grands annonceurs e-commerce, parce que, vous savez, nous avons lancé des campagnes Search principalement vers des URL de blog parce qu’on nous avait dit que c’était la bonne pratique, mais nous ne l’avons jamais vraiment testé. C’est une bonne façon d’entrer dans le test d’hypothèses sur quelque chose qui est clairement applicable au PPC.

Donc, dans ce cas, la première chose que nous avons faite, l’une des premières choses que nous avons faites, c’est d’examiner la distribution générale du retour sur les dépenses publicitaires pour ces deux éléments : le retour sur les dépenses publicitaires pour les URL de blog par rapport aux URL de produit. On peut voir que la distribution est beaucoup plus asymétrique vers la droite pour l’URL produit. Donc un retour sur les dépenses publicitaires beaucoup plus élevé pour certaines d’entre elles, mais la plupart des blogs ont tendance à suivre une distribution plus normale.

Ils ont donc tendance à se situer autour de la plage de 0,5 à 2x en retour sur les dépenses publicitaires. Donc Greg nous donne une idée générale. Pour la suite, à quoi pouvons-nous réellement nous attendre en termes de prédiction du retour sur les dépenses publicitaires ? Eh bien, le graphique en bas à droite entre en jeu ici. Essentiellement, cela va nous montrer sur l’axe des x, en bas, l’axe horizontal, le nombre d’échantillons.

C’est donc un modèle dans lequel, plus il y a d’échantillons, plus il teste cette chose, quelle est la distribution ? Quel retour sur les dépenses publicitaires devons-nous attendre si nous utilisons le retour sur les dépenses publicitaires des produits par rapport à celui des blogs ? Et ce qui est clair ici, c’est que le retour sur les dépenses publicitaires des blogs, à mesure que le nombre d’échantillons augmente, donc à mesure que le nombre de tests exécutés dans ce modèle augmente, est généralement beaucoup plus faible que le retour sur les dépenses publicitaires des produits.

Donc, si votre objectif est d’augmenter l’efficacité de ces groupes d’annonces, cela pourrait vous amener à dire : « Eh bien, les choses semblent plutôt bonnes en termes de retour sur les dépenses publicitaires. » Mais ensuite, ce qu’il faut faire, c’est poursuivre en disant : « Et les revenus, alors ? Parce que les pourcentages ne mettent pas d’argent à la banque pour l’entreprise, n’est-ce pas ? »

Ce sont les bénéfices. C’est le chiffre d’affaires. C’est ce qui va réellement nous permettre de continuer à faire tourner la boutique. Vous voudrez donc aussi faire passer cela et dire : « D’accord. Maintenant, je sais à quoi ressemble le retour sur les dépenses publicitaires. Il semble que le retour sur les dépenses publicitaires des produits soit le gagnant pour nous en termes d’efficacité, mais si je fais la même chose et que je vois ensuite que les revenus commencent à s’effondrer à mesure que j’augmente le nombre d’échantillons, cela ne va peut-être pas valoir le compromis. » Mais il est vraiment important de mener ce type d’analyse.

Donc, erreurs courantes d’analyse de données à éviter. Nous en avons déjà abordé plusieurs, donc nous allons aller vite. Mais un point majeur, et vous l’avez probablement entendu depuis le lycée, c’est que corrélation n’est pas causalité. Nous devons donc être extrêmement attentifs à ces éléments dans nos données PPC également. Ce n’est pas parce que vous voyez, vous avez fait un nuage de points, et qu’il semble que lorsque les CPC augmentent, le retour sur les dépenses publicitaires augmente aussi, ce qui serait étrange, mais disons, à titre d’exemple, que c’est le cas, que cela signifie nécessairement que le fait d’augmenter vos enchères et donc votre coût par clic entraîne une hausse de votre retour sur les dépenses publicitaires. D’autres facteurs doivent entrer dans ce type d’analyse. Ignorer les petits échantillons. Nous en avons parlé au début de l’appel.

Assurez-vous d’avoir des tailles d’échantillon fiables. Cela arrive souvent avec les annonceurs plus récents ou les chefs d’entreprise qui essaient de faire cela eux-mêmes. Et ils paniquent parce qu’ils ont 13 clics la semaine dernière sur ce groupe d’annonces particulier et que le retour sur les dépenses publicitaires est catastrophique. Et on ne sait pas quoi faire.

Devons-nous revenir à PMAX ? Devons-nous, vous savez, supprimer toutes nos enchères ? Que devons-nous faire ? Et la première chose que je vais regarder, c’est la taille de l’échantillon. Eh bien, nous avons 13 clics, donc il y a beaucoup d’aléatoire là-dedans. Cela peut être purement dû au hasard. Nous ne voulons probablement pas prendre de décisions radicales avec un échantillon aussi petit.

Maintenant, je peux aussi comprendre, en tant que chef d’entreprise, n’est-ce pas ? Vous essayez de payer les factures. Cette chose semble très peu rentable. Mais si vous ne retenez qu’une chose de cette vidéo et de cet épisode, c’est de surveiller les tailles d’échantillon et de savoir à quoi ressemble la normale pour un segment donné. À quoi ressemble la normale pour vos campagnes de recherche de marque en termes de retour sur les dépenses publicitaires ?

À quoi ressemble un coût par clic normal pour un groupe d’annonces donné ? Cela peut être difficile à suivre, mais nous avons déjà abordé la manière dont vous pourriez faire cela avec Python et en utilisant des logiciels. Vous pouvez essayer de suivre et de comparer les performances de votre compte, de vos campagnes, de vos groupes d’annonces, etc., de vos types de campagnes.

Et cela sera vraiment utile lorsque vous vous demanderez combien de clics sont suffisants avant de prendre une bonne décision. Eh bien, cela dépendra de votre cycle de conversion normal. Est-ce trois semaines ? Alors, attendez d’abord trois semaines avant de commencer à faire des changements. Combien de clics y a-t-il dans cette période ?

Combien de clics faut-il normalement pour obtenir une conversion sur ce produit similaire ou sur ce que nous examinons ? Eh bien, vous devez également en tenir compte. De manière générale, la plupart des gens diront que 30 est le minimum absolu. Donc 30 conversions avant de pouvoir faire un changement statistiquement solide. Chaque compte sera un peu différent.

Il y aura beaucoup de comptes qui ne pourraient pas modifier les choses tous les six mois s’ils attendaient 30 conversions. Vous devez donc évidemment en tenir compte. Il existe des analyses statistiques, il existe des moyens d’utiliser les statistiques sur de très petits échantillons, mais c’est un sujet très complexe et vous devez prendre toutes ces informations avec prudence en raison de la petite taille de l’échantillon.

C’est un point de vigilance très important. Le biais de confirmation, éviter de se concentrer uniquement sur les données qui soutiennent ce que vous voulez trouver. Cela arrive tout le temps lors des réunions de reporting avec les agences, où vous cachez tout ce qui est mauvais et vous montrez tout ce qui est bon. Comme : « Regardez notre taux de clics. Il a explosé, 35 % d’un mois sur l’autre », et vous cachez le ROAS qui a baissé de 40 %. Vous ne voulez pas faire cela. Mais vous ne voulez pas non plus faire cela vous-même lorsque vous menez vos analyses et que vous voulez enquêter et répondre à une question. N’y allez pas avec l’idée préconçue que, vous savez, je veux trouver toute preuve qui montre que le fait d’avoir commencé à travailler sur ce compte a augmenté les revenus.

Fred, je sais que vous en avez parlé dans vos livres, vous savez, la différence entre descriptif et prescriptif, n’est-ce pas ? Nous sommes tous des pilotes ici, en tant qu’analystes de données. Il y aura différents niveaux dans la manière dont vous analysez vos données. Et des éléments comme le biais de confirmation jouent un rôle très important.

**FREDERICK VALLAEYS :** Oui, absolument.

Je veux dire, les données peuvent raconter l’histoire que vous voulez. Et vous pouvez donc utiliser GPT. Et nous avons justement utilisé un exemple intéressant de cela dans Optmyzr avec notre psychique. Il y a donc une façon de le prompt pour qu’il vous donne l’histoire heureuse. Donne-moi les bonnes nouvelles à partir des métriques que je peux présenter lors d’une réunion client.

Et c’est vraiment utile, n’est-ce pas ? Parce que cela commence la conversation sur une note positive. Ensuite, nous avons une requête correspondante pour GPT qui dit : « D’accord, maintenant dis-moi où j’aurais pu faire mieux et comment les choses auraient pu être améliorées. » Et donc, maintenant que le client est content et comprend que les choses vont dans la bonne direction, concentrons-nous sur quelques éléments que nous pourrions faire encore mieux.

Mais c’est toujours la même donnée, et c’est simplement la manière dont vous la présentez et où vous filtrez peut-être certaines choses, ou la façon dont vous l’examinez.

**CORY LINDHOLM :** J’adore ça. D’accord. Et puis, le surapprentissage. C’est donc un sujet un peu plus complexe, mais lorsque vous construisez des modèles, vous devez vous demander si les modèles que vous construisez peuvent se généraliser à de nouvelles données.

Un exemple très courant est l’analyse de clustering, comme le clustering K-means, pour déterminer comment vos produits dans votre catalogue devraient être regroupés dans différentes campagnes Shopping. Analyse très courante. Donc, si vous utilisez un algorithme de clustering K-means que vous avez conçu, vous devez vous assurer que, lorsque de nouveaux produits sont intégrés dans ce clustering K-means, le modèle peut bien se généraliser à ces nouveaux produits.

Vous voulez simplement vous assurer que vous ne surajustez pas les choses et que cela donne l’impression d’être une excellente prédiction alors que les mathématiques ne montrent pas que c’en est une très bonne. Vous devez en tenir compte lorsque vous évaluez la précision de vos modèles. Et les visuels à droite et en bas sont simplement des éléments que vous regarderiez normalement lorsque vous essayez d’évaluer si quelque chose est statistiquement significatif, quels indicateurs, c’est quelque chose que j’ai intégré dans mon logiciel et qui me donne essentiellement uniquement les métriques.

Lorsque j’examine une période donnée par rapport à une période précédente, quels sont les indicateurs qui sont statistiquement significatifs en utilisant une valeur p ? Maintenant, encore une fois, nous ne allons pas vous refaire un cours de statistiques du lycée, mais une valeur p, si nous voulons une confiance de 95 %, une confiance de 95 %, nous voulons essentiellement voir une valeur p de 0,5 ou moins. Dans ce cas, ces indicateurs que vous voyez, taux de clics, CPC, conversion par date, ROAS, ont tous connu des changements statistiquement significatifs sur une période donnée depuis qu’un événement s’est produit. Ensuite, je peux approfondir mes données et voir : « D’accord, je vais me concentrer sur ces indicateurs parce que je sais qu’ils reposent sur des données statistiquement solides. »

Ces autres métriques que je devrais examiner et prendre en compte, mais je sais que, d’un point de vue mathématique, elles ne sont pas vraiment prêtes à être évaluées pour cet événement donné. Donc, vraiment, vraiment important. Alors, concluons cela, Fred, des outils tech pour l’analyse de données PPC. Donc, vous savez, si vous n’utilisez pas Optmyzr, vous êtes fou. L’équipe innove et construit en permanence.

Utilisez absolument Optmyzr, et ce n’est pas seulement parce que je suis dans le podcast. Je crois vraiment en l’entreprise ; évidemment, le fondateur est un homme très intelligent. Il sait ce qu’il fait. Donc, utilisez Optmyzr pour vos besoins en PPC. Je suis aussi un grand fan de la visualisation des données et du reporting, parce que je veux pouvoir vraiment personnaliser les choses moi-même. Comme vous pouvez le constater, je suis très porté sur la personnalisation. J’adore utiliser des outils comme Tableau ou Power BI afin de pouvoir raconter l’histoire de ce qui se passe dans les données.

C’est idéal pour les rapports hebdomadaires, mensuels, quel qu’ils soient, destinés aux parties prenantes, pour dire : voici les tendances. Voici ce que je constate. Voici ce que nous allons faire à ce sujet. C’est ça, la puissance du data storytelling. Nous devons arrêter, dans notre secteur, de simplement montrer un graphique en espérant que la partie prenante comprenne ce qui se passe.

Ils auront tous leurs avantages et leurs inconvénients. Tout le monde me demande lequel est le meilleur. Il n’y en a pas de meilleur. Testez. Faites ce qui fonctionne le mieux pour vos besoins spécifiques. Google Analytics, nous en avons déjà beaucoup parlé. Les tableurs, Excel, Google Sheets. Je suis plutôt Excel, parce que Google Sheets est trop lent pour moi.

Évidemment, si vous avez une sortie de script, elle ira dans une Google Sheet, mais ensuite je la transfère généralement dans Excel ou Python, ou quelque chose comme ça. Et le dernier, Python R en termes de programmation. Excellent pour l’analyse statistique avancée. Tout ce que vous avez vu tout au long de cette présentation est excellent.

Des choses que j’ai réellement faites. Ce sont des analyses récentes pour lesquelles j’utilise Python. Donc, si cela vous semble vraiment intéressant et que vous êtes très curieux, je vous recommande vivement d’apprendre R ou Python. En général, Python est un peu plus convivial que R. Mais oui, c’est comme ça que vous pouvez y parvenir : en apprenant un peu de programmation et en utilisant ChatGPT pour vous aider tout au long du processus.

**FREDERICK VALLAEYS:** Très bien. Et merci pour ces compliments à propos d’Optmyzr et de moi-même, j’apprécie vraiment cela, ainsi qu’une multitude d’autres outils incroyables. Un petit conseil : lorsque vous utilisez GPT pour générer votre code Python, enregistrez-le, validez-le, parce que si vous devez réécrire ce même code demain, il sortira différemment et vous ne savez jamais qui fait des erreurs.

Et donc. Ce sera la pire chose si vous allez voir un client et que vous avez utilisé cette analyse mille fois, puis qu’un jour GPT a dérivé et vous donne la mauvaise réponse, et que vous passez pour un idiot devant le client, n’est-ce pas ? Donc, une fois que vous voyez que ça fonctionne, enregistrez-le, puis vous pourrez commencer à le réutiliser et obtenir une cohérence fiable dans les résultats.

**CORY LINDHOLM:** Absolument. Et comme je l’ai mentionné, les gars, si vous allez jusqu’à ce niveau où vous faites écrire des scripts par cette IA, vous devez connaître la différence entre un test t et une ANOVA. Encore une fois, il faut connaître ces choses. Il faut avoir les bases, parce que si elle vous donne une fonction à utiliser et que vous ne comprenez pas comment cette fonction fonctionne.

C’est. J’ai constaté, Fred, qu’en général, cela ne suit pas les meilleures pratiques pour le codage Python ni pour l’analyse de données. Même lorsque j’utilise le plugin d’analyse de données, il a tendance à sauter des étapes. Il a tendance à supposer que je connais ces choses, ce qui est le cas. Mais ensuite, quand je regarde et que je contrôle le code, je me dis : pourquoi utiliser ce test ?

Vous vous dites : c’est une très mauvaise idée. Mais encore une fois, c’est là que votre expertise métier entre en jeu et que vous devez connaître les bases, sinon vous pourriez écrire ce grand script que vous pensez incroyable, mais qui est fondamentalement erroné parce que vous ne connaissiez pas ces principes fondamentaux de l’analyse de données et de l’analyse statistique.

**FREDERICK VALLAEYS:** Oui. Excellent conseil. Merci, Cory.

**CORY LINDHOLM:** Bien sûr. Très bien, les gars, nous avions une diapositive sur les tendances futures. Je sais que nous sommes totalement à court de temps ici. Je voulais donc simplement l’aborder rapidement et montrer que, vous savez, nous avons bien de la publicité qui se déroule à l’intérieur de ces outils OpenAI, des annonces Shopping, des annonces de recherche, des articles associés, etc.

Mais je voulais au moins le signaler et le mentionner : cela va probablement nous influencer en tant que spécialistes PPC, n’est-ce pas ? L’utilisation des assistants IA. Nous allons probablement voir certains changements dans nos termes de recherche. Et évidemment, comme ces annonces arrivent ici, cela va jouer un rôle. C’est une publicité très orientée mobile first.

Quelque chose dont on parle depuis longtemps.

**FREDERICK VALLAEYS:** Oui, je pense qu’il y aura d’énormes changements, mais je pense aussi que nous avons encore quelques années pour effectuer cette transition. Donc, tout ce que vous avez couvert aujourd’hui a absolument du sens. Je pense simplement que nous nous dirigeons davantage vers un monde où votre assistant génératif connaît énormément de choses sur vous.

Il contient essentiellement votre mémoire de là où vous êtes allé, de ce que vous avez vu, de ce que vous avez consulté, de ce que vous avez demandé. Et donc l’importance de choses comme le mot-clé, l’audience, tout cela compte beaucoup moins que la manière dont l’assistant vous comprend. Et cela va rendre plus difficile pour nous de vraiment interroger et commencer à voir ces corrélations en termes de ce que nous avons fait, parce que ce n’est plus vraiment nous qui faisons les choses.

C’est. C’est l’assistant génératif qui comprend les choses en notre nom, en tant qu’annonceurs. Et donc, la manière dont nous manipulons cela, je pense que c’est une grande question et nous devrons la résoudre ensemble, mais d’ici là, utilisez toutes les meilleures pratiques de Cory ici, utilisez beaucoup de ces statistiques lourdes et obtenez des insights incroyables.

Donc, et donc certaines des choses que vous nous avez montrées aujourd’hui, Cory, très avancées, d’autres un peu plus faciles pour commencer. Alors, que diriez-vous aux personnes qui débutent si elles n’ont jamais fait de statistiques auparavant ?

**CORY LINDHOLM:** Oui. Ça va peut-être donner l’impression qu’on suit la vague de l’IA, mais en réalité, je pense que l’IA, je veux dire, c’est d’abord une tâche liée au langage.

Elle est capable d’expliquer les choses très clairement aux gens. Honnêtement, il faut comprendre qu’il y aura quelques erreurs. C’est pour cela qu’il est indiqué que ChatGPT peut faire des erreurs ; vérifiez les informations, mais c’est un excellent moyen d’apprendre. C’est un énorme avantage. Nous n’avons jamais eu cela par le passé, où vous pouvez dire : d’accord, je veux en savoir plus sur l’application de l’analyse de données au PPC, et cela peut vous donner quelques points de départ.

Ensuite, vous pouvez poser des questions de suivi. Vous savez, pouvez-vous développer davantage ce que signifie cette partie ? Qu’est-ce que le test multivarié ? Et puis commencer à en apprendre davantage et aller plus en profondeur, commencer à lire des livres sur le sujet. Si cela vous intéresse vraiment, commencez à apprendre un peu de code.

Et je recommande vivement, lorsque vous obtenez les réponses de ChatGPT, lorsqu’il exécute une analyse pour vous, que vous puissiez développer le code qu’il utilise. Il utilise du code Python. Donc, encore une fois, ce n’est pas de la magie. Il exécute simplement le même code que je vous ai montré et que j’utilise moi-même, et vous pouvez essentiellement commencer à le décomposer et à vous demander : quel code utilise-t-il le plus ?

Et je me demande pourquoi il utilise cela ; vous pouvez prendre certains de ces éléments et commencer à les appliquer à l’écriture de vos propres scripts Python pour l’analyse de données. Je recommande donc vivement d’utiliser ces outils pour apprendre ; il existe beaucoup de bons livres. Si vous voulez apprendre les bases des statistiques, Naked Statistics, titre hilarant, mais c’est un livre fantastique sur les bases des statistiques.

Il rend cela vraiment humoristique et agréable tout au long du parcours. Et bien sûr, si tout cela vous semble beaucoup trop compliqué et que cela ne vous intéresse pas du tout, vous pouvez tout à fait m’engager. Vous pouvez me trouver sur adsbycory. com. Contactez-moi si vous êtes intéressé par du conseil, la gestion de compte ou la formation pour votre agence et vos équipes.

Vous pouvez aussi me trouver sur LinkedIn. J’y publie régulièrement. Je suis également sur YouTube sous Cory Lindholm, et j’anime, avec un co-animateur, un podcast, PBC Unfiltered, où nous sommes deux spécialistes, et je veux dire des spécialistes, de vrais nerds sur le sujet. Nous faisons cela ensemble depuis environ 20 ans, et nous sommes totalement sans filtre, pour le meilleur et pour le pire.

Et nous sommes des gens qui gèrent réellement les comptes. Nous ne sommes pas seulement des gourous du contenu qui parlent de la dernière tendance. Nous parlons de tout et nous sommes en première ligne sur ces sujets. Donc, si vous voulez écouter un podcast hilarant, mais très instructif, nous publions une vidéo à peu près pour chacun, je dirais, toutes les semaines environ, à peu près.

**FREDERICK VALLAEYS:** Très bien. Eh bien, Cory, merci beaucoup d’avoir partagé toute cette expertise incroyable, et merci à tous d’avoir regardé. Si vous voulez voir plus d’épisodes comme celui-ci, cliquez sur les boutons en bas, abonnez-vous et indiquez aussi dans les commentaires ce que vous aimeriez voir davantage, ou si vous avez des questions pour Cory, et je suis sûr qu’il les examinera et y répondra.

Nous mettons les notes de l’émission dans la description. Donc, si vous voulez consulter les diapositives, vous pouvez les trouver juste là. Mais encore merci, Cory, et j’espère vous retrouver très bientôt pour un autre épisode.

**CORY LINDHOLM:** Avec plaisir. Merci, Fred.

&nbsp;


---

*Source: [Une masterclass d’analyse de données PPC par Cory Lindholm](https://www.optmyzr.com/fr/ppc-town-hall/a-ppc-data-analysis-masterclass-by-cory-lindholm/)*
*© Optmyzr. All rights reserved.*
