Converteert een website beter met een rode knop of een blauwe? Zorgt de implementatie van een specifiek algoritme voor prestatieverhogingen? Is deze webapplicatie geholpen met een andere navigatie? Als je iets nieuws ontwikkelt of iets bestaands aanpast, dan wil je wel dat de nieuwe versie beter is dan het origineel. Om te checken wat nou daadwerkelijk beter werkt, maken we gebruik van A/B-tests.
Dit zijn A/B-tests en dit is waarom je ze wilt gebruiken
Geschreven door Linda
Wat zijn A/B-tests?
Een A/B-test (ook wel split test genoemd) is een relatief eenvoudige manier om te kijken welk van je keuzes een positieve impact hebben op het gedrag van je eindgebruikers. Je gebruikers worden onwillekeurig opgesplitst in twee groepen (groep ‘A’ en groep ‘B’) en deze krijgen beide een andere versie van je (digitale) product voorgeschoteld. Door vervolgens het gedrag van beide groepen te analyseren (waar wordt geklikt, hoe gebruiken ze de applicatie, hoe lang zijn ze bezig, wat is de laadtijd, etc.) krijg je duidelijk inzichtelijk welk van je twee versies betere resultaten geeft op de vlakken die jij belangrijk vindt. Evidence-based ontwikkelen dus.
Waarom wil je gebruik maken van A/B-tests?
Stel je wil een knop toevoegen aan je webapplicatie, waarmee mensen contact met je op kunnen nemen. Waar plaats je deze knop? Welke kleur geef je de knop? Welke tekst moet er op die knop komen? Helpt het om er een pijltje op te zetten? Met een A/B-test zorg je ervoor dat je je keuzes kan onderbouwen, omdat je ze in de praktijk hebt getest. Vooral bij bijvoorbeeld grote e-commerce bedrijven kan een conversieverhoging van 0.1% al resulteren in een flinke omzetverhoging.
Wanneer zijn A/B-tests relevant?
Bij het ontwikkelen van nieuwe features of bij de overschakeling naar een nieuwe website, maken we met grote regelmaat gebruik van A/B-tests. Zo krijgen we precies inzichtelijk of de aanpassingen ook daadwerkelijk performance verhogend zijn. Zo leveren we een eindproduct wat daadwerkelijk in de markt getest is en kunnen we op elk moment juist díe aanpassingen doen, die jouw bedrijf het meeste oplevert. Daarin is het wel belangrijk dat je software of website door voldoende mensen wordt gebruikt. Een A/B-test op een populatie van 20 bezoekers zegt uiteindelijk niet zo veel.
Hoe zit het met de risico’s?
Je kan zo groot en zo klein testen als je maar zou willen. Zo kan je heel klein kijken naar bijvoorbeeld welke kleur knop het klikgedrag vergroot, of je maakt het zo groot als groep A een compleet andere frontend voorschotelen dan groep B. Om risico’s te beperken – wat nou als die nieuwe frontend een flop is en bezoekers massaal afhaken – kan je ook nog schuiven met hoe groot groep A en hoe groot groep B precies is. Ook is het mogelijk om live resultaten bij te houden en van tevoren precies in te stellen hoe lang je test duurt en bij welke resultaten je een specifieke groep percentueel gezien groter of kleiner maakt.
Conclusie
Over het algemeen zijn A/B-tests een waardevol hulpmiddel, omdat het je in staat stelt datagestuurde beslissingen te nemen over de ontwikkeling van je software of website. Door het gedrag van twee groepen gebruikers te vergelijken, kan je bepalen of een nieuwe functie of wijziging een verbetering is vergeleken met het origineel. Het voorkomt giswerk over wat ‘mooier’ is, maar geeft je inzicht op basis van gegevens waardoor je beslissingen kunt nemen over toekomstige ontwikkelingen.