Skip to main content

12 erreurs à ne pas commettre avec vos tests A/B

Les tests A/B sont des tests simples et efficaces qui peuvent améliorer de manière significative les performances des pages et des sites internet. Même avec le caractère en apparence simple du concept de split-testing où un projet est divisé en deux variantes, certaines erreurs peuvent facilement être commises. Un test A/B doit donc suivre certaines règles précises afin que les résultats ne soient pas dilués ou erronés.

 

Nous allons vous présenter les erreurs les plus courantes des tests A/B et nous vous montrerons comment vous pouvez les éviter. La plus grande source potentielle d’erreur est le facteur humain. Le manque de concept, la négligence ou l’impatience peuvent rendre les tests A/B inutiles pour l’analyse pratique. Nous vous présenterons également quelques outils pour le lancement de tests.

 

Que peut-on tester avec un test A/B ?

 

Supposons que vous vouliez faire un test A/B de la page d’accueil de votre entreprise. Pour ce test, un seul élément de votre page sera testé. Par exemple, une description de produit peut être modifiée pour mettre les caractéristiques d’un article en avant dans une version et mettre les faibles coûts en avant dans une autre version. De plus, la navigation de la page ou les éléments visuels tels que les boutons ou les titres peuvent être modifiés à des fins de test également. Pensez-vous que vos utilisateurs préfèrent cliquer sur des boutons ronds ou carrés ? Vos clients ont-ils tendance à passer à la caisse lorsque l’appel à l’action est affiché en haut ou plutôt en bas de la page de la boutique ? Obtenez toutes ces réponses grâce aux tests A/B.

 

 

Les erreurs les plus courantes dans les tests A/B

 

1. Le test n’a pas duré assez longtemps

N’annulez pas vos tests A/B trop tôt, même s’ils semblent donner des résultats clairs après seulement quelques jours. Afin d’obtenir des résultats de test vraiment significatifs sur le comportement de vos utilisateurs, vous devriez tester les versions différentes pendant au moins une semaine voire même plusieurs semaines. C’est le seul moyen de s’assurer que le plus grand nombre possible d’utilisateurs différents ayant des préférences différentes ont participé au test.

 

2. Le test a duré trop longtemps

Visez un taux de fiabilité d’au moins 90% pour les résultats de vos tests A/B. Si ce nombre est atteint, alors il est inutile de continuer le test. Votre temps sera mieux investi en soumettant d’autres sections de votre site à de nouveaux tests.

 

3. Le test n’est pas lancé en parallèle

Un test A/B n’est fiable que si vous testez deux variantes exactement en même temps. Si la version 1 fonctionne à des moments différents de la version 2, celles-ci seront perçues par des groupes d’utilisateurs différents. Vos utilisateurs ont des horaires de travail et des routines quotidiennes différents et ils vont en ligne à des moments différents.

 

4. Avoir trop de tests lancés à la fois

Si vous effectuez simultanément plusieurs tests A/B dans un même projet, vous diluerez les résultats de vos tests. Il ne sera alors plus facile de déterminer si, par exemple, les changements de couleur de tel ou tel bouton ou les remplacements de telle ou telle image ont amélioré le taux de conversion.

 

5. Vouloir faire trop de changements

Le diable est dans les détails. Vous n’avez le droit de faire qu’un seul changement. Par exemple, si vous modifiez une description et l’image correspondante, vous ne saurez jamais exactement lequel de ces deux changements de détail ont influencé le test le plus. De plus, trop de changements simultanés pourraient décourager les clients existants qui se sont déjà habitués aux conditions précédentes.

 

6. Intervenir pendant le déroulement du test A/B en cours

Si vous modifiez l’une des variantes ou les deux variantes au milieu d’un test A/B en cours, alors l’ensemble du projet devra être remis à zéro. Le temps de test qui s’est écoulé sera invalidé par une modification. Dans tous les cas, il vaut mieux attendre la fin du test A/B avant de modifier d’autres variantes entre-temps.

 

7. Le test est lancé au mauvais moment

Pour votre test A/B, choisissez une des périodes plutôt calmes de l’année. Si, par exemple, vous testez le comportement d’achat de vos utilisateurs peu avant les jours fériés tels que Noël, vous pourriez obtenir un résultat erroné car il y a changement du comportement des consommateurs pendant cette période.

 

8. Tester sans plan

Il ne faut jamais tester sans but particulier. Tout d’abord, créez une hypothèse concernant un élément à tester. Une hypothèse possible pourrait être, par exemple, qu’un bouton qui s’éclaircit lorsque le curseur de la souris de l’utilisateur passe dessus est cliqué plus fréquemment qu’un bouton qui s’assombrit. Réfléchissez à l’avance aux éléments de votre site Web qui peuvent être optimisés davantage du point de vue de l’utilisateur. Définissez le problème rencontrée par l’utilisateur et la solution que vous proposez et ne vous écartez pas de cette hypothèse tant qu’elle n’a pas été prouvée ou réfutée.

 

9. Ignorer ou falsifier les résultats du test A/B

Si vous effectuez des tests A/B, vous devriez accepter leurs résultats honnêtement. En cas de doute, les préférences personnelles doivent être laissées de côté, même si votre variante préférée a « perdu » le test.

 

10. Effectuer des tests A/B inutiles

Ne testez pas des sections de votre site qui ont déjà apporté la preuve de leur efficacité optimale. Vous devriez également vous abstenir d’optimiser davantage les résultats des tests A/B déjà réussis. Si, par exemple, vous avez déjà testé si un bouton rond ou angulaire a plus de succès qu’une autre variation, vous n’avez pas besoin de tester des boutons triangulaires ou en étoile.

 

11. Ne pas tester du tout

Vous ne devriez pas supposer simplement que tout va se passer comme prévu et qu’il ne sera pas nécessaire de faire des tests. Peut-être que tout pourrait marcher comme sur des roulettes. Mais dans de nombreux cas cependant, vous manquerez de bonnes occasions de vous améliorer et, en cas d’échec, vous devriez toujours vous demander comment vous auriez pu faire mieux.

 

12. Utiliser le mauvais outil

Le logiciel avec lequel vous effectuez vos tests A/B peut également entraîner des erreurs. Par exemple, certains outils peuvent ralentir votre site Web, ce qui affecte négativement votre référencement et donc l’expérience utilisateur. Vous trouverez ci-dessous quelques outils utiles pour lancer des tests A/B.

 

 

Outils pour les tests A/B

Afin d’éviter les erreurs les plus courantes dans les tests A/B, vous pouvez obtenir l’aide précieuse de divers outils qui vous faciliteront la planification et l’exécution de vos tests. Voici une petite sélection des prestataires :

AB Tasty : tous les types de tests A/B imaginables peuvent être réalisés avec trois modules différents. Les modules « Tester », « Personnaliser » et « Engagement » s’appliquent aussi bien aux sites web qu’aux sites mobiles et aux applications natives. Il existe deux versions de base de AB Tasty qui coûtent respectivement 29 et 99 euros par mois selon les fonctionnalités qu’elles offrent. En outre, il existe une édition Premium pour 299 euros par mois ainsi qu’une version Entreprise dont vous pouvez demander le prix.

Optimizely : Optimizely peut effectuer des tests A/B pour les sites Web et les applications mobiles. Les modèles payants sont adaptés individuellement aux besoins du client en termes de prix et de contenu.

Unbounce : étant à la base un outil pour construire des landing pages, Unbounce a aussi des fonctions pour lancer des tests A/B. Les tests peuvent déjà être effectués avec la version d’entrée de gamme pour 159 dollars US par mois. Si vous souhaitez tester des landing pages en particulier, cet outil peut être utile de ces deux façons en même temps.

SiteSpect : cet outil de test est principalement conçu pour répondre aux besoins des gros clients. Aucune connaissance technique préalable n’est requise. De plus, Sitespect utilise une architecture de proxy inverse, qui se passe complètement des balises JavaScript. Les éléments statiques et dynamiques des pages Web ou des applications peuvent être testés. Cela inclut également les vidéos ou les fichiers musicaux. Cependant, vous devrez aussi être prêt à investir plus pour obtenir ces fonctionnalités car le prix de base de l’offre mensuelle de Sitespect est de 2 000 euros.

 

Conclusion

Les tests A/B sont d’excellents moyens pour vérifier et améliorer les performances des sites Web, des newsletters ou des landing pages. Si vous suivez nos instructions, alors vous éviterez les pièges et vous pourrez maximiser vos conversions et vous pourrez offrir aux utilisateurs une meilleure expérience client. N’oubliez pas : faites d’abord un bon plan et ne vous en écartez pas par la suite.



Vous souhaiteriez lancer un test A/B ? Nos auteurs peuvent rédiger la version B pour vous.
 
Créez gratuitement un compte client


Articles similaires


Pas de commentaire disponible


Une question ou un commentaire sur cet article ? N'hésitez pas à nous en faire part !

Votre adresse e-mail ne sera pas divulguée. Les champs nécessaires sont indiqués *

*
*

Managed-Service

Vous souhaitez déléguer la gestion de vos projets de textes et recevoir des textes de qualité ? Vous voulez bénéficier de prestations supplémentaires telles que l’optimisation de vos textes selon la formule WDF*IDF ou la gestion de votre blog ? Découvrez notre Managed-Service et bénéficiez de notre solution de confort « 100 % prise en charge ».

Demander une offre non contractuelle

Self-Service

Vous avez besoin de textes ? Le Self-Service vous permet de commander vous-même les textes souhaités, de manière simple et rapide, tout en bénéficiant des meilleures conditions.

S’inscrire gratuitement!

Auteurs

Des milliers d’auteurs dans le monde entier font confiance au n° 1 des plateformes de rédaction en ligne pour gagner de l’argent en écrivant. Décidez vous-même quand, où et quoi écrire et gagnez de l’argent pour chaque mot écrit !

S’inscrire gratuitement!