Je passe beaucoup de temps à parler et à écrire sur les aspects les plus humains de la publicité ; comment toucher votre audience de manière unique et personnelle, comment créer une véritable connexion avec vos visiteurs, et ainsi de suite. D’après notre expérience, il y a beaucoup à dire sur ce genre d’éléments non quantifiables, souvent relégués au second plan au milieu du tourbillon d’analyses statistiques et de traitement de données.
Souvent, nous devons prendre une décision qui tienne compte à la fois de notre intuition et des données immuables accumulées par nos campagnes.
Cela dit, il existe des moments où il est important de mettre de côté nos émotions instinctives et d’optimiser nos campagnes dans le cadre impitoyable et sans concession de nos données historiques.
Le test A/B des textes d’annonces est l’un de ces cas.
Peu de techniques d’optimisation standard, si tant est qu’il y en ait, que nous utilisons en SEM produisent des résultats aussi cohérents et prévisibles que le test A/B de nos textes d’annonces. Nous pouvons déplacer et intégrer des mots-clés dans de nouveaux groupes d’annonces, restructurer notre compte pour travailler nos Quality Scores, réajuster notre stratégie d’enchères personnalisée dans l’espoir d’augmenter nos taux de conversion – mais tout cela reste, par nature, imprévisible dans une certaine mesure. Le test A/B des textes d’annonces, lorsqu’il est bien mené, garantit que le KPI de votre choix augmentera au fil du temps, même progressivement.
Cependant, il y a certains points importants à comprendre à propos du test A/B des textes d’annonces, qui feront toute la différence entre la réussite et l’échec de vos tests.
Se préparer au succès dans Adwords
Optmyzr propose de loin les outils de test A/B les plus avancés et les plus efficaces disponibles pour les agences et les annonceurs indépendants, mais vous devez vous assurer que vos campagnes AdWords sont configurées de manière à vous permettre de lancer correctement vos tests depuis le tableau de bord Optmyzr.
Par défaut, AdWords optimisera la rotation de vos annonces en fonction de celles qui sont censées obtenir le plus de clics. C’est très bien – si vous êtes paresseux 🙂
Si Google fait tourner vos annonces en fonction de celles qui sont censées obtenir le plus de clics, vous verrez généralement une ou deux annonces d’un groupe d’annonces donné capter la grande majorité des impressions et des clics. Logiquement.
Le test A/B consiste à obtenir des données statistiquement significatives sur l’ensemble des annonces impliquées dans un test donné ; la première chose à faire est donc de modifier les paramètres de rotation des annonces pour une rotation équitable. AdWords propose l’option de rotation équitable pendant 90 jours, puis d’optimisation, mais comme nous allons faire du test A/B bien au-delà de 90 jours (n’est-ce pas !?), nous voulons choisir l’option « faire tourner indéfiniment ».
Vous pouvez modifier ce paramètre dans l’onglet des paramètres de campagne. Gardez à l’esprit que, puisqu’il s’agit d’un paramètre modifié au niveau de la campagne, il s’appliquera à tous les groupes d’annonces de la campagne.
Développer vos tests A/B
Maintenant que nous avons configuré nos annonces pour une rotation équitable, nous devons déterminer quoi tester et comment le tester. En fonction du volume de données généré par votre compte, vous devrez décider quel type de test A/B vous souhaitez lancer.
On confond souvent les termes techniques, alors commençons par définir la différence entre un test multivarié (factoriel complet) et un test A/B.
Les tests A/B sont les plus simples à mettre en place et, sauf si vos pages de destination génèrent un trafic quotidien très élevé, le test A/B est la méthode à privilégier (à mon avis, en tout cas). Beaucoup pensent que le test A/B ne sert qu’à tester une seule variable, mais ce n’est pas vraiment le cas. Vous pouvez faire s’affronter 2 annonces complètement différentes (ou 3 ou 4, d’ailleurs), avec des titres, des textes de description et des URL affichées différents, et appeler cela malgré tout un test A/B.
Si vous mesurez simplement quelle annonce a obtenu les meilleurs résultats, et non quelle variable individuelle a été la plus performante, il s’agit d’un test A/B.
Un test multivarié consiste à chercher à savoir quelle variable individuelle a été la plus performante. En d’autres termes, si vous testiez 4 variables différentes (titre, ligne de description 1, ligne de description 2 et URL affichée), vous devriez rédiger 16 annonces différentes (toutes les combinaisons possibles) afin de voir quelle combinaison de variables fonctionne le mieux. Pour la plupart des comptes, les tests multivariés semblent excellents en théorie, mais ne sont pas aussi efficaces en pratique. Pour déterminer une annonce gagnante, il faut des données statistiquement significatives. La plupart des comptes n’ont pas le volume nécessaire pour que les tests multivariés valent le temps et l’effort investis.
Pour notre part, revenons un peu sur les tests A/B.
Je recommande vivement de réaliser, chaque fois que possible, des tests A/B à variable unique (et soyons honnêtes… c’est toujours possible). Lorsque vous faites s’affronter 2 annonces en ne testant qu’une seule variable, vous savez quel élément de l’annonce a été responsable de la meilleure (ou de la moins bonne) performance.
Par exemple, supposons que vous décidiez de lancer un test A/B sur 2 idées de titres d’annonces différentes. Vous êtes une société haut de gamme d’autoédition et vous pensez qu’il pourrait être judicieux d’inclure votre prix minimum de commande dans le titre de votre annonce afin de dissuader les personnes à la recherche de solutions bon marché de cliquer sur votre annonce. Vous rédigez donc deux annonces identiques et ne modifiez que le titre de l’une d’elles pour y inclure votre prix minimum de commande. Lorsque les résultats statistiquement significatifs (nous y reviendrons bientôt) seront disponibles, vous saurez sans l’ombre d’un doute que c’est le changement de titre qui a expliqué la différence de performance.
Si, par exemple, vous aviez également modifié les lignes de description de l’annonce pour qu’elles soient différentes du texte identique de l’autre annonce du groupe d’annonces, vous ne sauriez pas si la différence de performance est due au titre, à la description ou à une combinaison des deux.
Comme nous l’avons dit, cela resterait considéré comme un test A/B valide puisque nous savons qu’une des annonces a statistiquement surpassé l’autre, mais nous ne saurions pas exactement quel élément de l’annonce mérite le crédit.
Cela dit, il arrive qu’un test A/B multivariable soit vraiment utile. Si vous lancez un nouveau groupe d’annonces et que vous avez deux idées complètement distinctes et thématiquement différentes, faire s’affronter deux annonces totalement différentes dans un test A/B afin de déterminer l’orientation à adopter pour vos futurs tests peut être une stratégie très utile.
Reprenons notre exemple précédent de votre société d’autoédition haut de gamme. Vous ne savez pas s’il vaut mieux mettre en avant la rapidité et la qualité de votre service ou le professionnalisme et l’expérience de votre équipe éditoriale. Ce sont deux idées distinctes, et avec l’espace publicitaire alloué, vous ne pouvez pas couvrir les deux aspects de l’activité. Dans ce cas, il peut être judicieux de lancer un test A/B multivariable avec une annonce axée principalement sur la rapidité et la qualité, et une autre axée principalement sur l’équipe éditoriale. Vous ne testez pas une variable précise comme un titre, mais plutôt un concept dans son ensemble. Une fois que votre test a déterminé quelle annonce est la plus attrayante (en fonction du KPI que vous choisissez de mesurer – nous y reviendrons bientôt), vous pouvez ensuite passer à des tests A/B à variable unique pour affiner davantage votre texte et améliorer régulièrement les performances.
Pour éviter de tomber dans une routine de stagnation et de complaisance, il est toujours judicieux de tester périodiquement de nouvelles annonces conceptuelles multivariable afin de trouver de nouvelles idées que vous n’avez pas encore explorées par le passé.
Maintenant que nous savons quel type de test nous voulons lancer, que devons-nous réellement tester ? Si vous posez cette question à cinq personnes différentes, vous obtiendrez probablement cinq réponses différentes, alors je vais simplement vous dire ce que nous avons constaté à partir des centaines de comptes que nous avons gérés au cours des dernières années.
Commencez par tester les titres des annonces en A/B. Lorsque vous testez une seule variable comme un titre, je vise généralement quatre variantes – ce qui nous donnerait bien sûr quatre annonces distinctes dans un groupe d’annonces. Si vous obtenez moins de 75 à 100 clics par jour pour un groupe d’annonces donné, envisagez plutôt de rédiger 2 à 3 annonces.
Votre titre n’est pas seulement le premier élément de votre annonce lu par un utilisateur ; c’est souvent la seule partie de l’annonce qui retient l’attention. Si quelqu’un voit un titre d’annonce qu’il apprécie vraiment, il cliquera souvent sur l’annonce sans lire le reste de votre message. À l’inverse, si le titre le rebute ou ne correspond pas exactement à ce qu’il recherche, il passera probablement son chemin pour aller à l’annonce suivante sur la page.
Il y a énormément d’informations à absorber sur une page de résultats d’un moteur de recherche, et les gens n’ont tout simplement ni le temps ni la capacité mentale de lire et d’analyser chaque ligne de chaque annonce et de chaque résultat organique. Ce n’est pas quelque chose que nous, annonceurs, aimons entendre (après avoir consacré tant de travail à chaque caractère de nos précieuses annonces), mais c’est la réalité froide à laquelle nous devons finir par nous confronter. En résumé, testez d’abord vos titres. J’espère que la plupart des gens seraient d’accord avec cela.
Dans la même logique, testez ensuite vos lignes de description. Le fait de tester une ligne à la fois ou les deux lignes de description en une seule fois dépend de vos préférences et du type d’annonce que vous rédigez (y a-t-il une idée distincte sur chaque ligne ou les deux lignes forment-elles un long message ?).
Il est judicieux de tester vos URL affichées, car le CTR historique de vos URL affichées joue un rôle dans votre Quality Score. N’attendez pas de résultats spectaculaires d’un test A/B sur les URL affichées (s’il y a une partie de votre annonce que quelqu’un ne lira pas, c’est bien l’URL affichée), mais testez-les quand même pour le Quality Score et pour faire votre travail correctement.
La question de savoir précisément quoi tester mériterait une discussion plus longue à un autre moment, mais j’essaie toujours de penser aux produits et services que nous faisons la promotion davantage dans le contexte de leurs bénéfices émotionnels pour le client et moins dans celui de leurs caractéristiques. Personne n’achète un aspirateur parce qu’il veut un aspirateur ; il achète un aspirateur parce qu’il veut une pièce propre. Nous avons vu des résultats de tests A/B extraordinaires en testant les caractéristiques VS. les bénéfices (« sans sac et compact ! » VS. « une maison aussi propre que vous après une longue douche chaude ! »), et dans presque tous les cas, mettre en avant les bénéfices et les retombées émotionnelles produit toujours de meilleurs résultats.
Pensez aussi à ce que j’aime appeler les éléments de qualification. Qualifier vos clics en incluant des prix dans vos annonces est une façon de dissuader les clics indésirables provenant de personnes dont vous ne voulez pas payer le trafic.
Le test A/B des pages de destination est également très efficace, mais avec l’arrivée d’outils et de logiciels complexes de test A/B de landing pages, c’est devenu un secteur à part entière et cela n’a pas à entrer en conflit avec vos tests A/B de textes d’annonces.
Je serais négligent de ne pas mentionner l’idée de tester votre appel à l’action. Bien sûr, vous avez un appel à l’action (n’est-ce pas !?), et c’est une excellente idée de tester différents CTA pour voir lesquels captent le plus efficacement l’attention de votre audience.
Maintenant que nous savons comment et quoi tester, examinons comment mesurer et définir les résultats de nos tests.
Significativité statistique
Si nous n’avions pas un outil comme Optmyzr, les quelques paragraphes suivants vous ennuieraient probablement (définitivement) à mourir. Je ne sais pas pour vous, mais je préfère encore regarder de la peinture sécher plutôt que de parler, écrire ou écouter quoi que ce soit ayant trait aux coefficients, aux corrélations et au graal des mesures statistiques – les p-values.
Heureusement pour nous tous, Optmyzr fait tout ce travail à notre place. Mais, juste pour le bien de notre santé intellectuelle, un petit mot sur les p-values.
Dans un test statistique, une p-value nous indique à quel point nos résultats sont significatifs, ou scientifiquement intéressants. Nous pouvons constater que le titre A a obtenu un CTR plus élevé que le titre B, mais à quel point pouvons-nous être sûrs d’obtenir les mêmes résultats si nous relancions le même test ? Et encore une fois après cela ?
Nos p-values (également appelées intervalle de confiance) nous indiquent à quel point nous pouvons être sûrs d’obtenir les mêmes résultats de manière répétée, autrement dit à quel point nos conclusions sont fiables. Une p-value n’est qu’un nombre produit par les équations statistiques utilisées pour calculer la corrélation entre nos variables, et selon le domaine d’étude, différentes p-values correspondent à différents seuils d’acceptabilité.
Dans le domaine médical, lorsque les résultats d’un test peuvent littéralement éclairer un chirurgien dans une décision de vie ou de mort, une p-value inférieure à .01 est requise pour déterminer la fiabilité. Pour AdWords, un domaine d’étude légèrement moins périlleux, on peut supposer qu’une p-value inférieure à .05 est parfaitement acceptable. En fait, dans les sciences sociales, p<.05 est la référence en matière de fiabilité.
À ce stade, vous pensez probablement que si vous n’entendez plus jamais les mots p-value, ce sera encore trop tôt. Amen à cela, mon frère. Je vous promets qu’à partir d’ici, il n’y aura plus que de jolies images colorées.
Comme il ne s’agit pas d’un tutoriel Optmyzr pour débutants, je vais supposer que vous avez une connaissance pratique de base du tableau de bord Optmyzr.
Nous avons donc configuré et lancé notre test A/B, et nous voulons maintenant voir si nous disposons de suffisamment de données statistiquement significatives pour choisir nos gagnants.
Rendez-vous dans les tests A/B pour les annonces, sous le menu déroulant des optimisations en un clic dans Optmyzr.
Avant d’analyser nos résultats, nous allons examiner les paramètres qu’Optmyzr nous permet de configurer.
Vous vous souvenez des p-values ? C’est à cela qu’OPTMYZR fait référence avec le niveau de confiance requis. Par défaut, il est réglé sur 95 % (p<.05), et c’est une bonne valeur à conserver. Vous pouvez également filtrer vos résultats par type d’annonce, réseau, nombre minimum d’impressions par annonce et plage de dates.
L’option importante à examiner ici est la liste des paramètres. Comme vous pouvez le voir sur la première image, Optmyzr définit par défaut notre paramètre sur le CTR. Cela signifie que l’analyse statistique examinera le CTR comme indicateur clé de performance pour déterminer l’annonce gagnante. Comme vous pouvez le voir dans les surlignages verts et rouges de la colonne CTR, le CTR est la métrique « étudiée » dans ce test.
Vous pouvez également choisir d’exécuter les résultats du test A/B en utilisant le taux de conversion et les conversions par impression comme métrique de référence.
Pour déterminer le paramètre à utiliser, il faut tenir compte de la stratégie derrière les groupes d’annonces dans lesquels vous testez vos annonces. Si vous menez une campagne plus large, à ciblage large, pour générer du trafic vers votre site afin de constituer vos audiences de remarketing ou développer votre notoriété de marque, le CTR peut très bien être la métrique à privilégier. Si votre campagne est conçue pour générer du profit et un ROI positif, vous voudrez peut-être analyser les performances de vos annonces dans le contexte du taux de conversion.
Comme la campagne que nous examinons ici est une campagne de branding, je m’intéresse principalement aux visiteurs du site – je vais donc conserver le CTR comme métrique de référence.
Pour ce test A/B, nous testons donc deux titres différents. Sur la base d’un niveau de confiance de 95 %, Optmyzr affiche une annonce gagnante en utilisant le CTR comme métrique de référence.
Mais voyez-vous quelque chose qui cloche ?
L’annonce gagnante a un volume de clics et d’impressions bien plus élevé que l’annonce perdante. Cela s’explique par le fait que les annonces de ce groupe d’annonces n’étaient pas configurées pour tourner indéfiniment et que Google favorisait l’annonce censée obtenir davantage de clics. Bien que les résultats du test soient toujours statistiquement significatifs, nous voulons que nos données soient plus équilibrées en termes de volume de clics et d’impressions.
Passons à un autre compte pour voir à quoi devrait ressembler un test A/B correct.
Dans cet exemple, nous avons mené un test A/B multivariable sur deux concepts publicitaires globaux différents. Même si l’annonce gagnante a encore nettement plus de clics que l’annonce perdante, l’annonce perdante dispose d’un volume suffisant pour donner une réelle validité aux résultats de ce test.
Remarquez autre chose. Même si mon paramètre de référence ici est toujours le CTR, Optmyzr nous indique aimablement si l’une des autres métriques atteint également la significativité statistique au niveau de confiance souhaité. Dans cet exemple, l’annonce gagnante affiche également un taux de conversions par impression statistiquement significativement plus élevé que l’annonce perdante. Bon à savoir !
Si vous rencontrez des cas où une annonce gagne sur le CTR mais perd sur le taux de conversion, vous devez sérieusement réfléchir à la stratégie de campagne et décider sur quelle métrique baser vos optimisations.
Si vous n’êtes pas encore tombé amoureux d’Optmyzr, ce sera le cas maintenant !
Non seulement Optmyzr rend incroyablement simple (et un peu amusant) l’exécution des résultats de tests A/B sur l’ensemble d’un compte en une seule fois, mais Optmyzr vous permet également de mettre en pause les annonces perdantes de chaque test d’un simple clic.
Par défaut, Optmyzr sélectionne toutes les annonces perdantes dans l’ensemble des groupes d’annonces et des tests A/B ayant obtenu des résultats statistiquement significatifs dans les paramètres que vous avez définis.
Si vous êtes satisfait des résultats, vous pouvez cliquer sur le bouton bleu « Pause Selected Ads » en haut à droite, et les annonces perdantes seront mises en pause dans votre compte AdWords en direct. Franchement, c’est génial, non ?
Mais maintenant que vous avez mis en pause l’une des annonces, vous voulez en rédiger une nouvelle pour pouvoir lancer un autre test A/B. Optmyzr propose un autre outil incroyablement utile qui vous permet de faire exactement cela sans quitter le tableau de bord.
En cliquant sur le bouton « Create Ad » en haut à droite de la section d’un groupe d’annonces, Optmyzr affiche une boîte de dialogue qui vous permettra de rédiger une nouvelle annonce et de la publier en direct dans le groupe d’annonces que vous avez sélectionné. Encore mieux, Optmyzr vous propose des suggestions pour chaque élément de l’annonce textuelle, basées sur les résultats des données historiques et des précédents tests A/B menés dans le compte.
Comme vous pouvez le voir, OPTMYZR offre une solution complète pour réaliser des tests A/B de manière simple, esthétique et intuitive.
La meilleure façon de comprendre son fonctionnement est tout simplement d’aller y faire un tour et de tester les différents paramètres. Une fois que vous aurez pris le coup de main, des analyses qui auraient autrement été complexes ne vous prendront que quelques minutes.
Conclusion
Les tests A/B des textes d’annonces sont souvent négligés, alors qu’ils constituent l’une des formes d’optimisation les plus fiables et les plus efficaces. En raison de leur complexité et de leurs ambiguïtés inhérentes, nous avons tendance à les survoler, en choisissant les textes d’annonces gagnants davantage sur la base de notre intuition que de résultats statistiquement solides.
L’outil de tests A/B d’Optmyzr change réellement la donne pour beaucoup de personnes en simplifiant une tâche complexe et en la rendant incroyablement facile à réaliser régulièrement et sans contrainte.
Même si nous nous appuyons fortement sur des preuves statistiques avec les tests A/B, il est essentiel d’exprimer votre créativité et d’utiliser votre intuition pour déterminer quoi tester, où et comment. En combinant votre personnalité unique et une bonne analyse statistique, vous réaliserez des tests A/B comme un pro.
Là encore, il est facile de se reposer sur ses acquis dans une certaine routine avec les tests A/B ; pensez donc à vous remettre en question tous les deux mois environ (ou toutes les quelques semaines) pour repartir de zéro et tester de nouvelles annonces « concept ».
Si vous avez des données intéressantes sur des tests A/B que vous avez menés par le passé, j’aimerais beaucoup en entendre parler. Bien entendu, tous les commentaires ou questions sont les bienvenus (laissez-les ci-dessous), et je ne manquerai pas de vous répondre.
Si vous êtes arrivé jusqu’ici, je vous remercie sincèrement d’avoir pris le temps de lire cet article. Au plaisir de vous retrouver la prochaine fois …
Bonnes analyses !
En savoir plus sur la façon dont je gère les comptes AdWords sur Adventure PPC.






