A/B-testen
Definitie van A/B-testing
A/B-testing (ook wel split test of split testing genoemd) betekent dat twee varianten van iets (zoals webpagina's, headlines, call-to-action-buttons) tegen elkaar worden getest en met elkaar worden vergeleken op prestatie. Dat wil zeggen dat variant A en variant B elk aan een deel van de doelgroep worden getoond (willekeurig toegewezen). De variant die de hoogste conversion rate behaalt, wint de test.
Doel van A/B-tests
Het doel achter A/B-tests is om te ontdekken welke variant beter presteert: de oorspronkelijke of de aangepaste versie? Op die manier kun je bijvoorbeeld in softwareontwikkeling, webdesign of online marketing belangrijke inzichten verkrijgen over benodigde aanpassingen die tot optimalisatie van je resultaat leiden.
Zo kun je de gewenste gebruikersinteractie (bijv. aankopen of nieuwsbriefaanmeldingen)
- datagedreven,
- continu
- en snel
verbeteren.
Welke meetwaarden kun je met A/B-tests verbeteren?
Hier een aantal voorbeelden van meetwaarden die je met A/B-testing kunt verbeteren – op voorwaarde dat je de inzichten uit de tests ook daadwerkelijk gebruikt voor optimalisatie:
- Downloads, bijv. van e-books
- Registraties voor nieuwsbrieven, wachtlijsten, gratis workshops, klantaccounts etc.
- Aankopen in online shops
- Creatie van door gebruikers gegenereerde content zoals reviews en profielen
- Donaties (aantal en hoogte)
Daarbij kun je de volgende vragen meenemen:
- welk design (kleur van tekst, achtergronden, buttons ...),
- welke grafische elementen (foto's, diagrammen, tabellen ...),
- welke woordkeuze (ook: welke Menge an Text),
- welke positie op de webpagina (pop-up, banner, footer ...),
- welke gebruikersbegeleiding en customer journey
converteren het best?
Varianten van A/B-tests
Afhankelijk van wat je met een A/B-test wilt bereiken, kies je een van de 3 varianten om te testen. Hier de bijbehorende definitie:
Klassieke A/B-test
Bij deze manier van testen laat je in de split test een of meerdere varianten tegen de originele versie lopen, maar je test altijd slechts één aangepast element (Beispiel: Button-Farbe) tegelijk.
Multivariate tests
Bij deze variant kun je ook meerdere aangepaste variabelen op een webpagina tegelijkertijd testen. Zo controleer je welke combinatie een betere conversion oplevert – bijv. wanneer je tegelijkertijd de kleur van een CTA-button en een tekst aanpast. De verschillende variabelen worden dan door je A/B-testing-tool automatisch samengevoegd tot testcombinaties. Bij 3 foto's en 2 tekstvarianten krijg je dan bijvoorbeeld 6 verschillende tests.
Doorverwijzingstest of split-URL-test
Bij dit split testing principe kun je bijvoorbeeld volledige landing pages tegen elkaar testen om te controleren welke opbouw, welk design of welke content beter werkt. Het tool dat je voor het testen gebruikt, leidt dan de ene helft van de gebruikers naar de ene versie van de landing page en de andere helft naar de andere versie.
Werkwijze bij A/B-tests
Om verschillende varianten te testen, ga je als volgt te werk:
- Definieer het doel van je A/B-testing. Voorbeeld: Meer gebruikers moeten een klantaccount aanmaken.
- Formuleer een hypothese over het probleem of de hindernis: Waar zou het aan kunnen liggen dat niet meer mensen een klantaccount aanmaken?
- Maak de varianten aan die je wilt testen. Als het bijvoorbeeld aan de woordkeuze zou kunnen liggen, schrijf dan de call-to-action-tekst in een extra variant.
- Zet de A/B-test op met een geschikt tool.
Welke tools zijn er voor A/B-testing?
De volgende testing-tools staan je ter beschikking voor je A/B-testing:
- Google Optimize
- AB Tasty
- Kameleoon
- Optimizely
Aanvullende tools voor probleemidentificatie en data-analyse
Daarnaast is het aan te raden om een webanalytics-tool zoals Google Analytics te gebruiken. En voor het geval je moeite hebt om mogelijke problemen op je website of aan je product te identificeren en bijbehorende hypothesen te formuleren, kunnen de volgende tools je helpen:
- Enquêtes (als persoonlijke interviews of onsite-enquêtes)
- Heatmaps
- Screen- & session-recordings
Waar komt het op aan bij A/B-tests?
Om bij A/B-testing betrouwbare resultaten te krijgen, zijn de volgende punten belangrijk:
- De testgroep moet groot genoeg zijn. Als bijvoorbeeld het verkeer op een te testen e-commerce-pagina te laag is, duurt het lang voordat relevante resultaten beschikbaar zijn. Vooral bij multivariate testing heeft een bedrijf veel verkeer nodig voordat statistische significantie bereikt is.
- Belangrijk bij het testen is dat in versie B steeds slechts één enkel element wordt aangepast en tegen het origineel (versie A) wordt getest (Ausnahme: multivariate Tests). De reden: alleen zo kunnen verschillen in de conversion aan de aanpassingen worden toegeschreven.
- Het testen moet niet te snel worden beëindigd, ook als er al aan het begin veel data in AB Tasty of een ander tool naar keuze binnenkomt. Als vuistregel geldt: laat de test ongeveer 14 dagen lopen.
- Prioriteer de aanstaande A/B-tests op impact en dus belangrijkheid. Een test-roadmap helpt jou en je team om het overzicht te bewaren.
Voordelen van A/B-testing
A/B-tests zijn om de volgende redenen waardevol voor jou en je bedrijf:
- Vooral wanneer A/B-tests steeds opnieuw worden uitgevoerd en veranderingen worden getest, kunnen resultaten en producten continu worden verbeterd. Want bij herhaaldelijk testen kunnen ontwikkelaars stap voor stap voortbouwen op eerdere ervaringen en learnings.
- Dankzij A/B-testing pak jij en je team de optimalisatie van jullie product gestructureerd en strategisch aan, in plaats van chaotisch en ongericht. Want jullie vertrouwen op de resultaten en data die de A/B-tests opleveren, in plaats van op een vaag gevoel waarom bijvoorbeeld de bounce rate van jullie e-mailcampagnes zo hoog is.
- Met A/B-tests verhoog je niet alleen de conversion rate van je webpagina's, apps en meer: je zorgt er automatisch ook voor dat de user experience verbetert. Want naarmate je meer test, leer je steeds meer over je websitebezoekers.