Best Of E-commerce Web Analytics — 22 novembre 2012 — 14 commentaires
L’arme ultime du webmarketeur : le Test

Tout d’abord, il faut préciser au vu du titre relativement vindicatif qu’aucune bannière ou landing page n’ont été maltraitées pendant la rédaction de l’article. Nous autres webmarketeurs, nous sommes certes des soldats mais uniquement quand il s’agit de conversion. Et pour travailler la conversion nous n’avons pas de religion : il y a ceux qui fonctionnent à l’instinct et ceux qui s’appuient  sur une méthodologie de test. Cet article tente d’expliquer pourquoi le test est bon pour un business et ce qu’il peut apporter globalement au quotidien d’une entreprise...

Lecteur, je te propose tout d’abord de commencer par éprouver ton intuition sur un exemple concret : la version électronique du journal The Boston Globe a testé  les 2 versions de sa page de conversion à l’abonnement (modification de mise en page) présentées plus bas. Quelle est celle qui a converti le plus ?  (La réponse se trouve en fin d’article).

VERSION B

VERSION A

 

 

 

 

 

 

 

 

 

 

 

Les tests – qu’est ce qu’ils changent ?

Le résultat d’un test c’est un peu comme une Scarlett Johansson ou un Ryan Gosling, on leur dit difficilement Non. Lorsqu’une question un peu cruciale agite une entreprise et qu’il n’y a pas de réponse évidente, chacun y va de sa suggestion, de son opinion – un tsunami submerge votre boîte email et souvent c’est l’avis du plus gros salaire qui prend le dessus. (ou de celui qui est suffisamment payé pour devoir se mouiller).

Le test doit permettre de faire entendre la voix du client/de l’utilisateur et en passant de faire la nique au plus gros salaire (très respectueusement). Des faits et des preuves contre des intuitions et des doigts mouillés.

Les tests – de quoi parle t’on exactement ?

La méthodologie de test peut se retraduire essentiellement de 2 façons :

• EN CREATION : les alpha/bêta tests ou prototypes

Ils consistent en la création d’une version minimaliste d’un produit qui comporte souvent encore des bugs qui est rendue publique à un nombre limité de personnes pour obtenir en retour leur avis, suggestions et mesurer des comportements (taux de conversion à l’inscription, engagement, taux de rétention, …)

Ils participent beaucoup de la philosophie dite Lean (maigre) ou arriver à produire que ce qui a de la valeur pour le client.

• EN OPTIMISATION : les tests statistiques sous la forme d’A/B tests ou tests multivariés

Ils consistent en la création de deux versions d’un élément à tester (une page, un email, une bannière,…) – un original et une variation de l’original. Ces 2 versions sont présentées à 2 échantillons appariés et à l’issu du test on peut connaître la version qui a le mieux servi l’objectif poursuivi (le taux de conversion par exemple). Lorsqu’il s’agit d’un test multivarié, l’on va tester simultanément plusieurs versions (A, B, C …) de plusieurs variables (le bouton, le formulaire, l’accroche…).

Comment conduire un test ?

On parlera ici essentiellement des tests en phase d’optimisation plus simples à appréhender, la méthodologie pour les tests type prototype pourrait à elle seule faire l’objet d’un autre long article.

1) les pré-requis

Les deux points essentiels à couvrir avant de lancer un test A/b ou multivarié sont de choisir le ou les éléments à tester et ensuite de poser ses hypothèses de départ que l’on cherchera à valider (autrement dit, les comportements que l’on s’attend à retrouver et des objectifs chiffrés plus ou moins précis).

En règle générale, l’on va chercher à tester les éléments suivants :

  • Les textes, couleurs et forme des boutons de validation aussi appelés Call to Action ( « Obtenir mes 30 jours gratuits » à la place de « Je m’inscris » par exemple) ;
  • Les images (illustration, VS photo ou bien des hommes ou une représentation symbolique avec des objets) ;
  • Les accroches (notamment dans le cadre de page d’atterrissage – lire mon article à ce sujet) ;
  • Les incentives (une offre d’essai de 7 jours au lieu de 3 jours par exemple) ou un pourcentage de réduction.

Pour aller plus loin, un article sur  les éléments qui impactent la conversion en e-commerce à tester pour booster ses ventes.

Les hypothèses de départ vont être les objectifs que l’on assigne à son expérience + le degré de confiance recherché.

Exemple : Le Boston Globe a voulu tester si le fait de remonter au dessus de la pliure de la page le bouton call to action allait améliorer leur taux de transformation (et donc par extension si le fait d’augmenter la visibilité du bouton a un impact positif sur la conversion). L’hypothèse va conditionner directement le test à mettre en oeuvre et dans tous les cas elle doit être partagée et bien définie en amont du test. Si le Boston Globe avait cherché à améliorer la conversion, il aurait pu tester différentes versions de son bouton call to action par exemple et non modifier son emplacement dans la page.

2) les outils pour faire du test

Pour mettre en place des tests AB ou multivariés vous pouvez par exemple utiliser l’outil tests de contenu inclus dans google analytics (gratuit), AB tasty ou encore Omniture.

3) Analyser les résultats

Cette partie est la plupart du temps pris en charge par l’outil qui fait tourner le test.

Les paramètres à contrôler sont le taux de confiance (entre 95% et 99%) ou l’intervalle de confiance – Il donnera une fiabilité statistique plus ou moins grande aux résultats de votre analyse et la taille de l’échantillon qui va subir le test (surtout chez google analytics).

Vous pourrez par la suite vérifier la corrélation entre les 2 variables testées (et donc valider si vos résultats sont significatifs) à l’aide d’un test du khi-deux par exemple.
Ressource : un calculateur du Khi-deux

* Réponse : Les 2 versions ont enregistré un taux de conversion très similaire malgré un emplacement du bouton call to action très différent. Vous aviez deviné ? Bravo – d’autres tests existent sur le site anglophone whichtestwon.com si cela vous intéresse.

Ca m’intéresserait de connaître le raisonnement de ceux qui ont « passé le test » – Partagez le dans les commentaires :)

Articles similaires

L'auteur

Lucie Pinzano

Mordue de projets entrepreneuriaux et du web, je suis dans webmarketing depuis 2007. Je blogue pour partager mon opinion sur les grandes tendances Internet et les opportunités offertes par le media. Vous pouvez également me retrouver sur le carnet d'une aventurière du web où je parle de start-up et de web entrepreneuriat.

 

14 Commentaires

  1. Une chose est certaines, pour optimiser et progresser il faut laisser de côté ses préjugés et certitudes pour laisser place aux tests et appliquer ce qui fonctionne, même si cela est en opposition avec ses goûts, notamment en matière de graphisme et ergonomie.

    • Oui oui et re oui :) un visiteur sur un site web n’est pas rationnel et ne ressemble que très peu souvent au chef de projet… à partir de là le test devient obligatoire !

  2. ça alors ? je pensais à la version B qui pour moi, était bien plus lisible et favorisait donc le CTA… comme quoi, le test parle de lui-même. Il faut laisser de côté ses propres goûts (dommage) !

    • Bonjour Julie – oui le test est relativement contre intuitif et prouve pour le Boston Globe que la fameuse pliure de page (le fold) n’a que très peu d’effet sur leur conversion.

    • Bonjour,
      idem pour moi, c’est surprenant ! Et instructif.
      Merci !

  3. Personnellement, j’aurai testé une 3e page comportant 2 boutons. Celui du haut s’adressant aux lecteurs déjà convaincus, leur évitant ainsi d’aller au bas de la page, au risque d’en perdre, et celui du bas étant précédé de puces-promesses pour convaincre les plus hésitants. Cette page, d’après mon expérience, aurait pu faire la différence. À tester.

    • Bonsoir Pierre. En effet l’expérience serait intéressante à mener même si je ne suis pas convaincue que cela change grand chose pour la conversion. Je m’explique, cette expérience semble prouver qu’un futur client du Boston Globe ira autant chercher le bouton tout en bas pour s’inscrire qu’il ira cliquer sur le bouton bien visible.

  4. J’aurais misé sur la version A dont le bouton d’action est plus haut dans la page.

    Et j’aurais surtout testé avec 2 boutons comme l’explique Pierre.

    • Bonsoir Jean-Mchel – d’autres expériences menées ont même prouvé qu’un call to action en bas de page était plus efficace. (pour des achats complexes par exemple car le clients a besoin de beaucoup d’informations avant de « signer » pour obtenir le produit ou service).

  5. Je dirais presque :
    « L’arme première du webmarketeur : le Test ! »

    Merci pour votre contenu toujours claire, pointu et très formateur en e-marketing.

    Bernard

    • Merci Bernard ! Au plaisir de vous recroiser sur les pages de Webmarketing & co’m ou sur le carnet d’une aventurière du web !

  6. Merci pour ce billet! Je suis d’accord sur le fait de tester et retester. C’est comme cela qu’on avance.

  7. bel exemple en effet comme quoi il est toujours utile d’effectuer de tels test avant mise en place définitive.
    Je suis novice en la matière mais quelle est la durée de validité d’un tel test ?
    Ne serait il pas plus probant d’en effectuer sur une période plus ou moins grande ?

    • Bonsoir Dogima – merci pour votre commentaire. Il n’y a pas vraiment de « date de validité » pour un test. Un A/B test est lancé pour répondre à une problématique et il sera valide tant que le résultat de l’expérimentation continuera à atteindre l’objectif assigné. Pour la durée du test, tout dépend du trafic que vous êtes capable d’amener sur les pages testées – l’outil de google analytics impose une durée minimum de 2 semaines.

 

Laisser un commentaire via Facebook

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>