Test A/B
Le test A/B (ou A/B testing) est une technique de marketing qui consiste à proposer plusieurs variantes d'un même objet qui diffèrent selon un seul critère (par exemple, la couleur d'un emballage) afin de déterminer la version qui donne les meilleurs résultats auprès des consommateurs. C'est une technique particulièrement employée dans la communication en ligne où il est maintenant possible de tester auprès d'un échantillon de personnes plusieurs versions d'une même page web, d'une même application mobile, d'un même courriel ou d'une bannière publicitaire afin de choisir celle qui est la plus efficace et de l'utiliser à large échelle.
En français, le test A/B est habituellement un terme générique pour qualifier tout type de testage. Par exemple, on englobe sous ce terme les tests A/A, A/Z ainsi que les tests multivariés (ou tests MVT). Plus il y a de trafic sur un site, plus il est possible de tester de versions simultanément.
Test A/B en ligne
Le principe
Un test A/B permet d’évaluer les performances respectives d'une ou plusieurs versions partiellement ou totalement différentes d'une même page web en les comparant à la version originale. Le test consiste à créer des versions modifiées de la page originale en modifiant autant d’éléments qu’on le souhaite ou que le trafic le permet (contenu, aspect général, présentation…)[1],[2].
Un test A/B permet de mettre en concurrence deux versions de pages afin d'en améliorer l'efficacité (optimiser le taux de transformation, le chiffre d’affaires…). Les tests sont réalisés à l’aide d’un logiciel, souvent en mode SaaS (Software as a Service), qui s’assurera que les deux pages reçoivent un nombre de visiteurs identique et qui en analysera les résultats[2]. Ainsi, on scinde les visiteurs en deux groupes (d’où le nom A/B) et on leur affiche à chacun une version de page différente. L'on suit alors le parcours des deux groupes en temps réel, et on regarde laquelle des deux donne le meilleur résultat par rapport à un objectif donné[3].
Grâce au test, et plus précisément lors de tests multivariés, il est possible de créer une multitude de combinaisons d’éléments sur une page web afin de tester la présentation, le contenu ou l’aspect général de celle-ci. Parmi ces éléments, l'on peut par exemple tester[4],[5] :
- les boutons ;
- les images ;
- un texte ;
- la présence de vidéos ;
- la couleur ;
- la taille d'éléments ;
- l'efficacité d'une landing page ;
- les éléments d'une lettre d'information.
Autres termes utilisés
- Test A/A : Vérifier la précision de l'outil statistique d'un module de test A/B[6].
- Test A/B : Comparer deux versions d’un même élément.
- Test A/Z : Comparer plus de deux versions d’un même élément.
- Test multivarié : Comparer plusieurs combinaisons d’éléments.
- Test multi-pages : Comparer des variations liées sur plusieurs pages.
Exemple du testage dans la campagne 2008 de Barack Obama
Un exemple concret de testage peut être trouvé lors de la campagne présidentielle de Barack Obama en 2008[7]. Les développeurs du site Internet de la campagne ont ainsi testé à la fois différents boutons, différentes images, et ont également testé l’influence de vidéos à la place des images.
Dans cette expérience, quatre boutons et six médias (trois images et trois vidéos) ont été combinés les uns aux autres de façon à obtenir 24 combinaisons différentes afin de déterminer laquelle permettait d’obtenir le taux de souscription le plus élevé.
La combinaison gagnante a obtenu un taux de souscription de 11,6 % alors que la page originale avait un taux de souscription de 8,26 %. Concrètement, la nouvelle page optimisée a permis d’obtenir 2 880 000 souscriptions supplémentaires donc autant d’adresses courriel. Cette technique a eu deux effets bénéfiques principaux : le nombre de bénévoles pour la campagne a augmenté proportionnellement aux souscriptions, et le nombre de donations a également augmenté.
Comparaison des outils de test A/B
Nom de l'outil | Entreprise | Plateformes | Tests multivariés | Campagnes email | Interface | URL |
---|---|---|---|---|---|---|
AB Tasty | AB Tasty | Web et mobile | ✓ | ✗ | Graphique | [1] |
BeamPulse | BeamPulse | Web | ✗ | ✗ | Graphique | [2] |
Convertize | Convertize | Web | ✓ | ✗ | Graphique | [3] |
Devatics | Devatics | Web et mobile | ✓ | ✓ | Service | |
Google Optimize | Web | ✓ | ✗ | Graphique et API | ||
Kameleoon | Web | ✓ | ✓ | Graphique et API | [4] | |
Maxymiser | Oracle | Web et mobile | ✓ | ✓ | Graphique | [5] |
Optimizely | Optimizely | Web et mobile | ✓ | ✗ | Graphique et API | [6] |
Visual Website Optimizer | Web | ✓ | ✓ | Graphique | [7] | |
Webtrends Optimize | Web | ✓ | ✓ | Graphique et API | [8] |
Voir aussi
Notes et références
- Brian Christian, « Test Everything: Notes on the A/B Revolution », sur Wired, (consulté le ).
- « Qu'est-ce qu'un test A/B ? », sur optimizely.com (consulté le ).
- « The Math Behind A/B Testing », sur Amazon Developers (consulté le ).
- « qu'est-ce que l'A/B Testing ? »,
- « Pourquoi faire de l'A/B Testing ? »,
- « Comprendre les dessous d'un test A/A », sur Journal du net (consulté le )
- Articles en anglais expliquant en détail la démarche adoptée : http://blog.optimizely.com/2010/11/29/how-obama-raised-60-million-by-running-a-simple-experiment/ et https://www.wired.com/2012/04/ff_abtesting/.