La réponse la plus honnête (et la plus agaçante) à n’importe quelle question de marketing est « ça dépend ».

C’est parce qu’en marketing, il n’y a pas de bonne réponse. Ce qui marche pour une entreprise ne va pas forcément marcher pour une autre.

Les clients et les publics peuvent être différents. Même au sein de votre propre public, des facteurs comme la région et l’âge peuvent affecter comment une personne va réagir à vos campagnes d’email marketing.

De nombreuses variables entrent en jeu et nous nous demandons souvent si nous faisons du mieux que nous pouvons. Est-ce que votre email marketing engage vos abonnés, vos clients et vos prospects ?

Ce qui se passe à Vegas, reste à Vegas… ou pas.

Ces dernières années, nous avons eu la chance de participer au MarketingSherpa Summit à Las Vegas. Nous avons appris énormément de choses, mais une leçon nous a particulièrement marqués, celle du fondateur et directeur de MECLABS, Flint McGlaughlin :

Les experts en marketing n’existent pas. Il n’y a que des marketeurs expérimentés.

Vous pensez peut-être avoir réponse à tout, mais vous ne faites que deviner. Maintenant, il est vrai que certains d’entre nous devinent mieux que les autres.

En fin de compte, nous avons tous une offre unique et nous devons trouver une manière personnalisée de connecter avec notre coeur de clientèle.

Une seule véritable réponse

Une tendance clé  a émergé lors de l’événement MarketingSherp. Une réponse plus précise qu’un  « ça dépend ».

La réponse : les tests.

Des petites entreprises aux multinationales, personne n’a trouvé de réponse sans tests préalables.

Les tests vont des formulaires d’inscriptions au contenu des emails, en passant par le nombre d’étapes nécessaires dans le processus de conversion pour établir la confiance.

Au final, le test, c’est la clé.

Les statistiques quant aux résultats augmentent grâce aux tests A/B.

Au MarketingSherpa Summit 2016, nous avons participé à ce qu’Austin McCraw, Directeur senior de la production de contenu chez MECLABS, a appelé « le plus gros test A/B collaboratif de la planète », pour Consumer Reports. (une organisation à but non lucratif, similaire à Que choisir)

L’objectif était d’augmenter les dons à Consumer Reports, en testant, et en améliorant les campagnes d’emails qu’ils envoient lorsqu’ils recherchent des fonds.

D’abord, l’assistance a été sondée sur différentes propositions de valeur. La première série de tests a été menée d’après ces critères.

Ensuite, nous avons voté pour différents traitements d’emails pour la campagne. Des tests ont été menés pour chacun d’entre eux. Grâce au test, nous avons compris ce qui ne marchait pas… et finalement ce qui marchait.

Je vous le donne en mille. A la fin de cet événement de deux jours, nous avons aidé Consumer Reports à augmenter les revenus issus des dons de 32% !

Augmentez les taux d’ouverture avec les tests A/B

L’Apollo Education Group est la société mère de l’université de Phoenix, entre autres. Ils ne pouvaient pas mettre en place des tests A/B à cause d’outils vieux et dépassés. Ils ont changé de fournisseur de service d’email (ESP) et ils ont vite compris à quel point les tests A/B pouvaient être simples.

Les premiers tests qu’ils ont menés à bien étaient simples, comme changer d’objet, et de nom. Ils ont été impressionnés par l’efficacité des tests, qui ont rapidement amélioré leur engagement.

A partir de là, l’Apollo Group a mené des tests A/B sur le placement de liens de désinscription en haut ou en bas de leurs emails. Ils ont continué, organisant des réunions pour analyser les résultats, et mieux comprendre ce qui fonctionnait.

En parlant de succès, voici ce qu’a accompli l’Apollo Group :

  • Une augmentation de 39% en moyenne des taux d’ouverture, grâce au test sur l’expéditeur
  • Une augmentation de 59% en moyenne des taux de clics en testant leurs templates d’email
  • En ajoutant un nom au pré-header, ils ont gagné 9% en taux d’ouverture

MVMT Watches voient une amélioration de leurs revenus

Parmi d’autres tests, MVMT Watches a mené des tests A/B sur la longueur et le contenu des emails. Ce processus leur a permis d’envoyer différentes versions à de petits échantillons de leur liste d’emailing. Ensuite, la campagne gagnante a été envoyée au reste de leur liste. En menant des tests A/B, et en optimisant leurs emails et leur fréquence d’envoi, ils ont constaté une augmentation de 105% de leurs revenus !

Ce sont les faits qui parlent

Comme vous pouvez le voir, chacune de ces entreprises avait une idée différente de ce qui pouvait fonctionner. Ce n’est que grâce aux tests qu’elles ont découvert ce qui fonctionnait vraiment.

Certaines stratégies peuvent sembler contre-intuitives, ou même impossibles, mais il est impossible de savoir exactement avant de tester. En posant les bonnes questions, en menant à bien les tests et en analysant les données, ces entreprises ont eu les réponses qu’elles cherchaient. Elles ont créé les tests adéquats et ont amélioré leurs objectifs.

Ne faites pas seulement confiance à votre instinct

Quand vient le moment de votre prochaine campagne d’emailing, ne vous fiez pas seulement à votre instinct. Regardez les chiffres. Souvenez-vous, les experts en marketing n’existent pas. Vous pouvez devenir un marketeur expérimenté en réalisant des tests, et en apprenant ce qui pourrait marcher pour vos abonnés, vos clients et vos prospects.

Mettez à l’épreuve tout ce que vous faites. Avec Benchmark Email, vous pouvez tester les objets, les noms d’expéditeur, et même des campagnes d’email entières.

Je l’ai dit de nombreuses fois. L’utilisation de tests A/B revient à posséder une boule de cristal. Elle vous permet de voir comment vos abonnés, vos clients et vos prospects s’engagent avec vos campagnes d’email. Ainsi, vous saurez toujours lesquelles de vos idées seront les plus performantes.

C’est à vous

Lorsque vous réalisez un test A/B sur vos propres campagnes d’email, faites attention à ne pas tester trop de variables à la fois. Vous devez pouvoir identifier quel changement a été efficace.

Tenez-vous en à un test à la fois. Identifiez vos objectifs, et testez une idée à la fois pour y parvenir.

Si votre taux d’ouverture est bas, essayez de tester les éléments qui peuvent aider à l’améliorer. Si vous voulez voir une amélioration de votre taux d’engagement, concentrez-vous sur ces éléments-là. Vous avez compris.

Voici quelques tests A/B que vous pouvez réaliser :

  • L’objet ou le nom de l’expéditeur : vous aide à améliorer votre taux d’ouverture
  • Test du titre : peut augmenter votre taux d’engagement
  • Tests des liens ou des boutons : voyez quels CTA augmentent votre taux de clic
  • Contenu ou voix –off : testez votre contenu pour améliorer à la fois votre taux d’engagement et votre taux de clic

A/B TestRacontez-nous ce que vous faites

Partagez vos expériences. Si vous avez déjà réalisé des tests A/B, ou que vous allez le faire après avoir lu cet article, votre histoire nous intéresse. N’hésitez pas à partager vos expériences en nous laissant vos commentaires ci-dessous.

Bio de l'auteur :

by Andy Shore

Andy Shore found his way to Benchmark when he replied to a job listing promising a job of half blogging, half social media. His parents still don’t believe that people get paid to do that. Since then, he’s spun his addiction to pop culture and passion for music into business and marketing posts that are the spoonful of sugar that helps the lessons go down. As the result of his boss not knowing whether or not to take him seriously, he also created the web series Ask Andy, which stars a cartoon version of himself. Despite being a cartoon, he somehow manages to be taken seriously by many of his readers ... and few of his coworkers.