Er is een uitdrukking in advertenties die luidt: "Ik weet dat 80% van mijn advertenties niet werkt. Ik weet gewoon niet welke 80% ". Dezelfde logica is van toepassing op alle ontwerpvormen, inclusief webontwerp. Als we wisten welk deel van onze pagina-inhoud, lay-outs en workflows niet zo goed werkten als zou moeten, zou dat dan niet geweldig zijn?

Het lijkt een uitkomst om te weten wat werkt als het gaat om het ontwerpen van gebruikerservaringen, om te hebben bevestigd in harde kwantificeerbare gegevens welke van twee lay-outs, elementen of routes het optimum is en dit is de belofte van A / B-testen. Het is een krachtig hulpmiddel, maar het is geen wondermiddel en een te grote afhankelijkheid ervan kan niet alleen uw oordeel als ontwerper ontzenuwen, maar ook paradoxaal genoeg resulteren in suboptimale oplossingen.

In dit artikel zal ik een aantal valkuilen van het gebruik van A / B-testen bekijken, en hoe dergelijke vergelijkende tests kunnen worden gebruikt als onderdeel van een ontwerpers-toolkit in plaats van een dominante ontwerpmethodologie.

A / B-testen is een krachtige toepassing geworden op het gebied van webdesign. De opkomst van dynamische paginabeheer en van moderne analysesoftware zoals Google Analytics maakt het eenvoudig om A / B-tests in te stellen en uit te voeren, of tests te splitsen. Bezoekers worden afwisselend één pagina-indeling of een andere aangeboden en de software meet die het grootste aantal van een vooraf bepaalde actie genereert, bijvoorbeeld door op een knop Nu kopen te klikken of een registratieformulier in te vullen. Deze acties worden gedefinieerd als doelen: meetbaar, kwantificeerbaar, kenbaar. Bij webontwerp A / B-testen moeten deze doelen iets zijn dat door de analysesoftware kan worden vastgelegd, dus hoewel het doel kan zijn dat een gebruiker op een koppeling naar een artikel klikt, kan het niet registreren of de gebruiker dat artikel leest .

Dit artikel heeft meer informatie over het uitvoeren van A / B-tests, en hier is een overzicht van enkele van de bekendste case studies testen.

A / B-testen is onvermijdelijk reductief, waardoor het 'meest geschikte' ontwerp in de praktijk wordt veranderd. Het testen van twee radicaal verschillende ontwerpen zal u vertellen welke het beste werkt voor het doel dat u aan het testen bent. U kunt deze stap oneindig herhalen. Maar om verder te komen, moet je twee elementen van het meest geschikte ontwerp variëren om de feedbackscore te verbeteren. Vrijwel meteen ben je van het testen van 2 zeer uiteenlopende ontwerpen overgegaan naar het aanpassen van het 'winnende' ontwerp. Statistici noemen dit het vinden van het lokale maximum in plaats van het globale maximum. Je kunt gemakkelijk een weg vinden langs een esthetische doodlopende weg en het mooiste huis op straat vinden in plaats van het beste huis in de hele stad. Het testen van meerdere opties, multivariate testen of bucket-tests genoemd, voegt extra complexiteit toe en de tools zijn vaak duurder.

Zelfs met meerdere opties kan split-testen alleen worden gebruikt om één doel tegelijk te meten en te optimaliseren. Optimaliseren voor één doel kan prima zijn als uw site erg smal gericht is, zoals een e-commercesite, waar een gewenste uitkomst alle andere overtreft. Maar als u meerdere doelen voor uw site heeft, moet u ervoor zorgen dat wijzigingen goed tegen alle doelen worden getest.

Omdat we zo lang hebben getest en een site hebben geoptimaliseerd om dat lokale maximum te vinden, is het begrijpelijk dat een ontwerper niet al die moeite wil verspillen en een ander ontwerp wil nastreven. Om het bot te zeggen, je hebt misschien lang nagedacht over welke van de twee lay-outs de beste is, zonder te beseffen dat beide pagina's zuigen. De zeurende twijfel moet altijd blijven bestaan, als je erin geslaagd bent om de inhoud en UX te optimaliseren van degene met een slagingspercentage van 6% tot een succespercentage van 8%, is er dan nog een ontwerp dat een rendement van 9% of hoger zou opleveren?

De reacties van gebruikers veranderen ook in de loop van de tijd, en wat de afgelopen maand misschien goed is bevonden, levert misschien niet langer de beste resultaten op. Een gevaar is dat je kunt vastlopen in een continue test- en aanpassingscyclus. Op dit punt ben je minder een ontwerper dan een quant-a automaat. Je hebt afstand gedaan van je oordeel en het ontwerp van de gevoeligheid om voortdurend op zoek te gaan naar de geruststelling van de test. Ik ken mensen die geobsedeerd zijn geworden door alles te proberen, decidofobisch, altijd op zoek naar de Shangri-La van optimale conversiepercentages.

Eerste indrukken tellen

"Je krijgt nooit een tweede kans om een ​​eerste indruk te maken", zoals het gezegde luidt. Als Onderzoek op de universiteit van Ontario en elders heeft aangetoond dat bezoekers van een website een onbewuste beslissing nemen om het leuk te vinden of niet in een ongelooflijk korte tijd, zelfs milliseconden. Het 'halo-effect' van deze eerste indruk kleurt het latere oordeel van de gebruiker van de site en bepaalt zelfs hun beoordeling van de geloofwaardigheid van de website. Het heeft me altijd verbaasd het bouncepercentage dat alle websites krijgen, dat zijn mensen die een website bezoeken en bijna meteen weer vertrekken. Vaak is dit te wijten aan frustratie van gebruikers die wachten op het laden van de pagina. Technische optimalisatie en het verlagen van paginagewicht zijn vaak voordeliger dan UX-tests. Langzame paginaweergave zal gebruikers wegjagen van zelfs de best uitziende website.

Dat brengt ons bij een belangrijk voorbehoud: je kunt alleen A / B testen als je eenmaal bent gelanceerd. U moet echte gebruikers hebben met echte doelen om uw site nauwkeurig te splitsen. Zelfs A / B-testen van een privé pre-launch bètasite is onbetrouwbaar, tenzij je een grote beta-community hebt. Een groot aantal voorbeelden (dwz een hoog aantal paginabezoeken) is ook vereist voor nauwkeurige resultaten. Je zult je dus moeten committeren aan het lanceren met een ontwerp voordat je zelfs kunt gaan nadenken over het optimaliseren. Je moet je committeren aan een ontwerp en er is altijd een eerste stap in het onbekende dat A / B-tests niet kunnen helpen.

De vonk van inspiratie

Zoals Henry Ford zei: "Als ik mensen had gevraagd wat ze wilden, zouden ze om snellere paarden hebben gevraagd". Gebruikers zijn niet altijd de beste mensen om feedback te vragen. Dit leidt me tot mijn grootste kritiek op A / B-testen: het dwingt je om je publiek te volgen, niet om ze te leiden. U doet afstand van de verantwoordelijkheid om te beslissen wat uw website het beste doet werken aan de wijsheid van de menigte. Uiteindelijk ontwerp je om het publiek dat je hebt te behagen, niet het publiek dat je wilt.

Deze benadering laat geen plaats voor die vonk van inspiratie, om iets echt origineels te creëren, iets wat we nog nooit eerder hebben gezien. Het is geen wonder dat zoveel websites er zo op lijken dat ze allemaal veilig spelen met een gevestigde uitstraling. Durf jij anders te zijn? Als dit prikkelende gesprek Staten, soms moeten we verder kijken dan de marginale winst en zoeken naar de kwantumsprong, het volgende grote idee.

Een uniek ontwerp en gebruikerservaring zullen waarschijnlijk eerst slecht testen, maar het kan enige tijd duren om grip te krijgen. Langzaam ontwikkelt zich rond het ontwerp een buzz, en het kan een nieuw publiek aantrekken, een die meer bereid is om zich in te laten met de site, de inhoud en het ontwerp in synthese. A / B-testen kunnen worden gebruikt om het ontwerp en de lay-out verder te tweaken en te optimaliseren, maar het kan u niet naar het beloofde land leiden. Je moet de doelen definiëren van wat zorgt voor een betrokken publiek. Paginaweergaven zijn een zeer slechte meetwaarde. Tijd besteed aan een pagina is beter, of het aantal reacties dat een artikel aantrekt. Maar alleen feedback en kwalitatieve analyse van uw publiek zullen u vertellen of zij het leuk vinden om de website te gebruiken, kwantitatieve metingen alleen zullen u niet het volledige verhaal vertellen.

Vertrouw op je oordeel

De grootste daad van ontwerp is om een ​​merk te maken, te weten waarom je het hebt gemaakt en te vertrouwen dat het goed is. Als elk geplaatst element, elk geschreven woord, met twijfel wordt gedaan, hoe kan men dan met vertrouwen bouwen? Ontwerpen met vertrouwen, en onze individuele ontwerpgevoeligheid, is wat ons in staat stelt om te ontwerpen met stijl en persoonlijkheid.

Uiteindelijk zal een site die gebouwd is met de logica en consistentie van een duidelijke ontwerpvisie altijd een site overtroeven die gebouwd is met elk element dat schuchter geplaatst en nerveus getest is.

Dit wil niet zeggen dat A / B-testen niet zijn plaats heeft. Maar het is het meest geschikt voor niche-testelementen, niet voor lay-outs. Het is minder handig om de ene pagina tegen de andere te testen, maar beter om een ​​element te testen, zoals verschillende exemplaren op een knop. Workflows zijn ook rijp voor split-testen: is de aanmeldingsvorm beter als een opeenvolging van kleine stappen of een grote vorm? Wat als het aanmeldingsformulier een modaal venster is overlay op de startpagina? Uitchecken Welke test gewonnen om enkele geweldige voorbeelden en casestudies van UX-tests te zien, voornamelijk op het gebied van e-commerce.

Over het algemeen bent u beter af met de tijd die u hebt besteed aan A / B-tests om uw site aan te passen op andere manieren waarvan u weet dat deze uw site verbeteren, zoals zorgen dat deze op de juiste manier in alle browsers wordt weergegeven en het paginagewicht verlagen. Is de lay-out reageert op verschillende apparaten, met de best mogelijke ervaring? Zijn er typefouten? Ziet het er goed uit op mobiele apparaten?

U hoeft niet altijd A / B-tests uit te voeren om te weten dat u uw website beter maakt.

Hoeveel A / B-tests doe je? Heeft een goede webontwerper überhaupt A / B-testen nodig? Laat ons je mening weten in de reacties.

Uitgelichte afbeelding / thumbnail, beslissing afbeelding via Shutterstock.