Test A/B

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Ce modèle est-il pertinent ? Cliquez pour en voir d'autres.
Cet article ou cette section peut contenir un travail inédit ou des déclarations non vérifiées (indiquez la date de pose grâce au paramètre date).

Vous pouvez aider en ajoutant des références.

Le test A/B (ou A/B testing) est une technique de marketing qui consiste à proposer plusieurs variantes d'un même objet qui diffèrent selon un seul critère (par exemple, la couleur d'un emballage) afin de déterminer la version qui donne les meilleurs résultats auprès des consommateurs. C'est une technique particulièrement employée dans la communication en ligne où il est maintenant possible de tester auprès d'un échantillon de personnes plusieurs versions d'une même page web, d'une même application mobile, d'un même e-mail ou d'une bannière publicitaire afin de choisir celle qui est la plus efficace et de l'utiliser à large échelle.

En français, le test A/B est habituellement un terme générique pour qualifier tout type de testing. Par exemple, on englobe sous ce terme les tests A/A, A/Z ainsi que les tests multivariés (ou tests MVT). Plus il y a de trafic sur un site, plus il est possible de tester de versions simultanément.

Test A/B en ligne[modifier | modifier le code]

Le principe[modifier | modifier le code]

Exemple où deux groupes ont deux pages différentes : le bouton vert avec icône génère plus de clics que le bouton bleu.

Un test A/B permet d’évaluer les performances respectives d'une ou plusieurs versions partiellement ou totalement différentes d'une même page web en les comparant à la version originale. Le test consiste à créer des versions modifiées de la page originale en modifiant autant d’éléments qu’on le souhaite ou que le trafic le permet (contenu, aspect général, présentation…)[1],[2].

Un test A/B permet de mettre en concurrence deux versions de pages afin d'en améliorer l'efficacité (optimiser le taux de transformation, le chiffre d’affaires…). Les tests sont réalisés à l’aide d’un logiciel, souvent en mode SaaS (Software as a Service), qui s’assurera que les deux pages reçoivent un nombre de visiteurs identique et qui en analysera les résultats[2]. Ainsi, on scinde les visiteurs en deux groupes (d’où le nom A/B) et on leur affiche à chacun une version de page différente. L'on suit alors le parcours des deux groupes en temps réel, et on regarde laquelle des deux donne le meilleur résultat par rapport à un objectif donné[3].

Grâce au testing, et plus précisément lors de tests multivariés, il est possible de tester un nombre infini de combinaisons d’éléments sur une page web afin d'en modifier la présentation, le contenu ou l’aspect général.[style à revoir] Parmi ces éléments, l'on peut par exemple tester :

  • les boutons
  • les images
  • un texte
  • la présence de vidéos
  • la couleur
  • la taille d'éléments

Autres termes utilisés[modifier | modifier le code]

  • Test A/A : Vérifier la précision de l'outil statistique d'un module d'A/B testing[4].
  • Test A/B : Comparer deux versions d’un même élément.
  • Test A/Z : Comparer plus de deux versions d’un même élément.
  • Test multivarié : Comparer plusieurs combinaisons d’éléments.
  • Test multi-pages : Comparer des variations liées sur plusieurs pages.

Exemple du testing dans la campagne 2008 de Barack Obama[modifier | modifier le code]

Question book-4.svg
Cette section ne cite pas suffisamment ses sources (octobre 2013).
Pour l'améliorer, ajoutez des références vérifiables [Comment faire ?] ou le modèle {{Référence nécessaire}} sur les passages nécessitant une source.

Un exemple concret de testing peut être trouvé lors de la Campagne Présidentielle de Barack Obama en 2008[5]. Les développeurs du site Internet de la campagne ont ainsi testé à la fois différents boutons, différentes images, et ont également testé l’impact de vidéos à la place des images.

Dans cette expérience, quatre boutons et six médias (trois images et trois vidéos) ont été combinés les uns aux autres de façon à obtenir 24 combinaisons différentes afin de déterminer laquelle permettait d’obtenir le taux de souscription le plus élevé.

La combinaison gagnante a obtenu un taux de souscription de 11,6% alors que la page originale avait un taux de souscription de 8,26%. Concrètement, la nouvelle page optimisée a permis d’obtenir 2 880 000 souscriptions supplémentaires donc autant d’adresses e-mail. Cette technique a eu deux effets bénéfiques principaux : le nombre de bénévoles pour la campagne a augmenté proportionnellement aux souscriptions, et le nombre de donations a également augmenté.

Comparaison des outils d'A/B testing[modifier | modifier le code]

Plateformes Tests multivariés Campagnes email Interface
AB Tasty
Web et mobile
Graphique
Google Analytics Content Experiments
Web
Graphique et API
Kameleoon
Web
Graphique et API
Maxymiser
Web
Graphique
Optimizely
Web et mobile
Graphique et API
VWO
Web
Graphique
Webtrends
Web
Graphique et API

Voir aussi[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. Brian Christian, « Test Everything: Notes on the A/B Revolution », sur Wired,‎ (consulté le 29 octobre 2015).
  2. a et b « Qu'est-ce qu'un test A/B ? », sur optimizely.com (consulté le 29 octobre 2015).
  3. « The Math Behind A/B Testing », sur Amazon Developers (consulté le 29 octobre 2015).
  4. « Comprendre les dessous d'un test A/A », sur Journal du net (consulté le 21 septembre 2015)
  5. Articles en anglais expliquant en détail la démarche adoptée : http://blog.optimizely.com/2010/11/29/how-obama-raised-60-million-by-running-a-simple-experiment/ et http://www.wired.com/2012/04/ff_abtesting/