_ Artikel

Hoe implementeer je een effectieve A/B-teststrategie?

A/B-testen is een van de krachtigste tools om uw marketingacties en -materialen op een effectieve en continue manier te verbeteren, zoals we hebben besproken in ons eerste artikel over A/B-testen.

In dit tweede artikel ontdekt u alles wat u moet weten om uw eerste A/B-tests te laten slagen. We zullen de beste praktijken delen en de fouten benoemen die u moet vermijden. Aan het einde van het artikel zullen we inzoomen op A/B-testen in e-mailmarketing, wat de beste start is om te beginnen.

Article_Strategie_AB_Testing_Hero

Goede praktijken voor effectieve A/B-testen

1 - Een initiële audit uitvoeren

Een audit uitvoeren... het kan irrelevant lijken, maar dat is het niet. A/B-testen dient om de prestaties van bepaalde acties of marketingmaterialen incrementeel te verbeteren. Welke acties of materialen zou u moeten optimaliseren of hebben optimalisatie nodig? De audit is bedoeld om deze vraag te beantwoorden.

We raden u daarom aan om eerst de huidige staat van uw marketingprestaties te evalueren. Deze overzichtsblik zal u helpen om de prioritaire A/B-testen te identificeren die uitgevoerd moeten worden.

Stel uzelf de juiste vragen:

  • Wat zijn de betrokkenheidspercentages van uw e-mailcampagnes (openingspercentages, klikpercentages, uitschrijvingspercentages...)?

  • Hoe gedragen gebruikers zich op uw website? Analyseer bouncepercentages, de gemiddelde duur van sessies, conversiepercentages en gebruikerspaden om sterke punten en irritatiepunten te identificeren.

  • Wat is de prestatie van uw landingspagina's in termen van conversies? Identificeer welke pagina's goed converteren en welke daarentegen onderpresteren.

  • Welke inhoud genereert de meeste interacties op uw sociale netwerken? Evalueer likes, commentaren, deelacties en het betrokkenheidspercentage voor elk type inhoud.

  • Zijn er patronen in klantenfeedback die verbeteringsgebieden kunnen aanduiden? Gebruikerscommentaren zijn een goudmijn van informatie om te detecteren wat goed werkt en wat niet.

  • Hoe variëren uw conversiepercentages van het ene publiekssegment tot het andere?

Deze situatieschets zal u in staat stellen om de prioritaire gebieden voor A/B-testen te identificeren, diegene met het grootste potentieel voor optimalisatie en impact.

2 - Een doelstelling definiëren

Elke A/B-test heeft een doel: het verbeteren van de prestaties van een actie of een communicatiemiddel. Om de prestatie te meten en de resultaten van de test te analyseren, moet u een specifiek en meetbaar doel kiezen, dat wil zeggen gekoppeld aan een of meerdere KPI's.

Bijvoorbeeld, als u de klantbetrokkenheid bij uw e-mailcampagnes wilt verbeteren, kunnen de KPI's zijn: het openingspercentage, het klikpercentage en het responspercentage.

We adviseren om "SMART" doelstellingen te gebruiken, dat wil zeggen specifiek, meetbaar, haalbaar, relevant en tijdgebonden (SMART).

De keuze van de doelstellingen volgt op de initiële audit. De inzichten verkregen tijdens deze initiële fase hebben u in staat gesteld om de prioritaire interventiegebieden en de doelstellingen die de grootste impact op uw prestaties kunnen hebben, te identificeren.

Article_Strategie_AB_Testing_Audit-Smart-EN

Stel dat de audit een abnormaal laag voltooiingspercentage van uw formulier heeft geïdentificeerd. Uw doel zou kunnen zijn om het voltooiingspercentage te verdubbelen (= uw KPI). U gaat meerdere A/B- of multivariate tests uitvoeren om de veranderingen te identificeren die een positieve impact hebben op het voltooiingspercentage.

3 - Elementen selecteren om te testen

Een klassieke A/B-test bestaat uit het vergelijken van variaties van hetzelfde element. Welk element varieert u? Dat is de vraag. De selectie van het of de te testen element(en) is gebaseerd op gezond verstand, enige marketingexpertise en soms een beetje intuïtie.

Bijvoorbeeld, als uw voorafgaande analyse onthult dat uw homepage een hoog bouncepercentage heeft, kunt u overwegen verschillende versies van uw header te testen... of twee volledig verschillende versies van de homepage.

Stel u voor een versie A die klantenbeoordelingen benadrukt en een versie B die de voordelen van uw product benadrukt. In dit laatste geval spreken we van "multivariabele tests" in de zin dat de test betrekking heeft op een complex element (uw homepage) dat in werkelijkheid een reeks elementen is.

De keuze van elementen om te testen is veel eenvoudiger in het geval van een klassieke A/B-test. Als u het openingspercentage van uw e-mailcampagnes wilt verbeteren, hoeft u niet ver te zoeken: het is het onderwerp van de e-mail dat getest moet worden.

Het bepalen van het te testen element is in sommige gevallen meer of minder duidelijk. Dit kan een inhoudselement zijn, een titel, een afbeelding, een video, een call-to-action, een paginastructuur, een aanbod... De kunst van A/B-testen is grotendeels gebaseerd op de keuze van de te testen elementen... maar ook op de inhoud van de variaties.

Article_Strategie_AB_Testing_Pre-Header-Contenu

4 - Varianten creëren

U hebt de elementen gekozen om te testen. De volgende stap is het creëren van varianten die aan de A/B-test worden onderworpen. Hier ontmoet creativiteit strategie. Elke variant moet met het doel in gedachten worden ontworpen. Welke wijzigingen in mijn tekst, mijn knop, mijn e-mailonderwerp zouden een positieve impact kunnen hebben op de resultaten?

Dit vereist opnieuw marketingvaardigheden, intuïtie, gezond verstand maar ook creativiteit, vaardigheden in contentcreatie, in design, om relevante varianten te bedenken en te bewerken. Het vereist vaak meerdere breinen om varianten te produceren die zinvol zijn. A/B-testen is vaak een teaminspanning.

In het kader van een klassieke A/B-test is het erg belangrijk dat het verschil tussen de twee versies beperkt blijft tot het geteste element om te zorgen dat de testresultaten nauwkeurig aan deze specifieke variabele kunnen worden toegeschreven. Deze opmerking is niet van toepassing op multivariabele tests die, per definitie, betrekking hebben op een diverse groep elementen zoals een webpagina of de inhoud van een e-mail.

We raden u bovendien aan om voor varianten te kiezen die echt verschillen. Om het voorbeeld van het e-mailonderwerp te nemen, kies bijvoorbeeld een op voordelen gericht onderwerp en een onderwerp geformuleerd als een intrigerende vraag.

Bijvoorbeeld:

  • Verhoog uw productiviteit met onze AI-functies!

  • Voornaam, bent u klaar om uw manier van werken te veranderen?

Article_Strategie_AB_Testing_Pre-Header-Variantes

Een voorbeeld van twee te vergelijkbare varianten (dus wat niet te doen):

  • Ontdek ons nieuwe product

  • Ons nieuwe product is beschikbaar

5 - De test opzetten

Nadat u de test, het te testen element en de variaties hebt bedacht, is de volgende stap het opzetten van de test.

Allereerst moet u een marketingtool kiezen die geavanceerde A/B-testfuncties biedt, zodat u niet beperkt bent in de keuze van de elementen die u wilt testen en de inhoud van de variaties.

De meeste marketingsoftwareontwikkelaars zijn zich bewust van het belang van A/B-testen en hebben gespecialiseerde functies ontwikkeld. Dit is natuurlijk het geval bij Actito.

Zodra de tool is geselecteerd, moet u de test configureren: de doelgroep, de steekproef, de duur van de test, de succescriteria, de voorwaarden voor het generaliseren van de winnende versie in het geval van een semi-geautomatiseerde A/B-test, het produceren in de tool van de twee versies die op papier zijn bedacht, enz.

De technische details die bij het opzetten van een A/B-test horen, hangen natuurlijk af van de aard van de test en het geteste element.

De duur van de test moet lang genoeg zijn om betekenisvolle gegevens te verzamelen, maar niet zo lang dat externe factoren de resultaten kunnen beïnvloeden. Er moet een middenweg worden gevonden. Over het algemeen duren testperioden enkele dagen.

6 - De resultaten analyseren

Na afloop van de A/B-test is het tijd om de verzamelde gegevens te analyseren om te bepalen welke versie beter heeft gepresteerd en waarom.

Tools die A/B-testfuncties integreren, bieden vaak analyse-instrumenten en rapporten die het werk aanzienlijk vergemakkelijken.

Het is belangrijk om niet bij een oppervlakkige analyse te blijven, dat wil zeggen, bij de vergelijking van de indicatoren voor elke versie. U moet ook de tijd nemen om te begrijpen waarom de ene versie beter heeft gewerkt dan de andere.

Een A/B-test dient niet alleen om de prestaties van een campagne of een specifieke actie te verbeteren. Een A/B-test dient vooral ook om uw kennis van uw klanten te verbeteren, van hun verwachtingen, van de "drivers" van hun betrokkenheid, om de prestaties van uw lopende en toekomstige acties structureel te verbeteren.

Article_Strategie_AB_Testing_Resultats

Veelvoorkomende fouten bij A/B-testen

Geen doelstelling hebben

Wat probeert u te verbeteren? Dat is de eerste vraag die u zich moet stellen.

Het ontbreken van een duidelijk doel in het kader van A/B-testen is als navigeren zonder kompas. Weten wat u wilt verbeteren is de eerste stap voordat u een test lanceert.

Het doel, zoals we hebben gezien, moet specifiek, meetbaar, haalbaar, relevant en tijdgebonden zijn (SMART).

Geen duidelijke hypothese hebben

De hypothese is een min of meer geïnformeerde aanname over wat veranderd zou kunnen worden om uw doel te bereiken. Zonder een goed gedefinieerde hypothese is het alsof u willekeurige wijzigingen aanbrengt.

Een duidelijke hypothese moet met een reden kunnen worden gerechtvaardigd. U moet duidelijk kunnen formuleren waarom u denkt dat het wijzigen van een bepaald element of variatie impact zal hebben op de prestaties.

Bijvoorbeeld, als het doel is om het openingspercentage van uw e-mails te verhogen, kan een hypothese zijn: "Het integreren van de voornaam van de ontvanger in het onderwerp van de e-mail zal het openingspercentage verhogen".

De succescriteria niet duidelijk definiëren

Het is belangrijk om uw succescriteria voor de A/B-test precies te definiëren. De succescriteria zijn direct verbonden met het doel. Ze worden gedefinieerd als een mate van toename of afname van de KPI die u heeft gekozen.

Een criterium kan als volgt worden geformuleerd: "De A/B-test is geslaagd als ik erin slaag om mijn e-mailcampagne met +10 punten in openingspercentage te verhogen".

Een niet-significant datavolume hebben

De betrouwbaarheid van de resultaten van een A/B-test is afhankelijk van de hoeveelheid verzamelde gegevens.

Een onvoldoende hoeveelheid gegevens kan leiden tot onjuiste conclusies: als de steekproef te klein is, kan de variatie in resultaten tussen versie A en versie B te wijten zijn aan toeval en niet aan de effectiviteit van de variant...

De steekproefomvang moet groot genoeg zijn om te voorkomen dat u uitkomt op niet-significante resultaten.

Beginnen met te complexe tests

Het is verstandig om te beginnen met eenvoudige a/b-tests, door slechts één element tegelijk te wijzigen. Dit zal u helpen om het specifieke effect van elke wijziging op de prestaties te isoleren en te begrijpen.

Bijvoorbeeld, in plaats van tegelijkertijd de header, het ontwerp en de inhoud van een webpagina te wijzigen, begin met het wijzigen van alleen de header. Met andere woorden, vermijd het om direct te starten met het opzetten van multivariabele tests!

Te veel tests tegelijkertijd uitvoeren

Het uitvoeren van meerdere A/B-tests parallel op dezelfde doelgroep of via hetzelfde kanaal kan leiden tot wat men noemt testinterferentie: de tests beïnvloeden elkaar, wat de analyse van de resultaten vertroebelt.

Dit soort situatie maakt het moeilijk om de exacte oorzaak van prestatievariaties te bepalen en kan de conclusies vertekenen.

Om dit te voorkomen, plan uw tests zodanig dat ze elkaar uitsluiten of segmenteer uw publiek zodat elke groep slechts aan één test tegelijk wordt onderworpen.

De varianten tijdens de test wijzigen

Zodra een A/B-test is gestart, is het belangrijk om de varianten niet te wijzigen totdat de test is voltooid en de gegevens zijn verzameld.

Het wijzigen van varianten tijdens een test kan vooroordelen introduceren en de resultaten ongeldig maken. U kunt geen betrouwbare conclusies trekken.

Als u een probleem ontdekt of aan een mogelijke verbetering denkt tijdens de test, noteer dit dan voor toekomstige tests.

Niet genoeg tijd uittrekken voor de test

Een van de veelvoorkomende valkuilen bij A/B-testen is om de test te vroeg te concluderen, voordat een significant volume aan gegevens is verzameld.

Het risico bestaat dat er haastige conclusies worden getrokken op basis van tijdelijke variaties of anomalieën in plaats van op stabiele en betrouwbare trends.

De duur van de test varieert afhankelijk van de aard van de test, de inhoud of het medium dat wordt getest, de dag van de week, de periode van het jaar... De duur van de test moet van tevoren worden vastgesteld, gebaseerd op de benodigde steekproefgrootte en de verwachte verkeerspatronen.

Een A/B-test is alleen zinvol als de resultaten statistisch significant en representatief zijn.

Het nalaten van post-test analyse

Na afloop van de A/B-test kan het verleidelijk zijn om snel de winnende variant te implementeren zonder een diepgaande analyse van de resultaten uit te voeren.

Direct overgaan tot actie zonder de reden achter de cijfers te begrijpen, betekent echter dat u de filosofie van A/B-testen negeert.

De post-test analyse bestaat niet alleen uit het identificeren van de variant die het beste presteerde; het doel is ook om te begrijpen waarom de winnende variant effectiever was dan de andere.

Focus op A/B-testen in e-mailmarketing

We hebben herhaaldelijk het voorbeeld van A/B-testen in e-mailmarketing naar voren gebracht. En met goede reden, want het is verreweg de meest gebruikte test door marketingteams. Het testen van de onderwerpregel is DE klassieker.

Dit komt door twee essentiële redenen:

  • E-mail blijft, wat men ook zegt, het belangrijkste communicatiekanaal tussen bedrijven en hun klanten.

  • Het is veel eenvoudiger om een A/B-test uit te voeren op een e-mailonderwerp dan op een landingspagina... E-mailtests zijn technisch gemakkelijk te beheren.

A/B-testen van een e-mailcampagne beperkt zich niet tot het testen van het e-mailonderwerp. Het is mogelijk om andere elementen te testen.

Onze software Actito maakt het mogelijk om A/B-testen uit te voeren op:

  • De inhoud van uw e-mails om te identificeren welke redactionele benaderingen, welke lay-outs, welke CTA's, welke producten het beste resoneren met uw publiek.

  • De naam van de afzender. Actito stelt u in staat om verschillende combinaties van afzendernamen te testen om te vinden welke het meeste vertrouwen wekt bij uw contacten en de beste openingspercentages genereert.

  • De pre-header. Dit is de korte tekst die rechts van het onderwerp in de inbox van uw ontvangers verschijnt. De pre-header vult het onderwerp aan. De optimalisatie ervan kan een significante impact hebben op het openingspercentage.

  • Het tijdstip en de dag van verzending. Het timing van een e-mailcampagne kan een belangrijke impact hebben op de prestatie. Actito geeft u de mogelijkheid om verschillende verzendmomenten te testen om te identificeren wanneer uw ontvangers het meest ontvankelijk zijn voor uw communicatie.

Als u begint, raden we u aan om te beginnen met het focussen op de A/B-test van uw e-mailcampagnes. Dit zal u toelaten:

  • Om de prestatie van wat zeker uw belangrijkste marketingkanaal is, de e-mail, te verbeteren.

  • Om ervaring en vaardigheden op te doen in A/B-testen, wat u later in staat zal stellen om andere soorten meer geavanceerde A/B-tests uit te voeren op webpagina's of andere.

Wat u moet onthouden

Het kunnen uitvoeren van A/B-tests is een essentiële vaardigheid om te verwerven als marketingprofessional. Het is een van de beste tools om te identificeren wat het beste presteert bij uw klanten en om uw marketingacties en -materialen continu te verbeteren.

Het opzetten van A/B-tests vereist veel nauwkeurigheid en een solide methodologie, zoals we in dit artikel hebben gezien. Identificatie van de A/B-tests om uit te voeren, het definiëren van het doel, het kiezen van het element om te testen, het creëren van varianten, het uitrollen van de test, analyse van de resultaten: geen van deze stappen mag worden verwaarloosd.

We raden u aan te beginnen met het A/B-testen van uw e-mailcampagnes. Dit is de beste manier om te leren over deze techniek. Als u advies nodig hebt, of als u op zoek bent naar een softwareoplossing om uw A/B-tests uit te voeren, aarzel dan niet om contact met ons op te nemen om dit te bespreken.

Over de auteur

Img_Article_Thumb_Isa_2021_FR-FR_Digit

Isabelle Henry

Head of Inbound and Growth

Ik ben voortdurend op zoek naar nieuwe vaardigheden en altijd paraat om nieuwe marketingprojecten te lanceren bij Actito. Daarvoor vertrouw ik niet alleen op mijn eigen ervaring, maar ook op alles wat er gebeurt in de digitale wereld, om zo te blijven leren en dat via inspirerende inhoud met jou te kunnen delen. Mijn kleine extra's? Videobewerking en fotografie!

Wil je meer weten over A/B-testen?