Conversion Optimierung

A/B-Tests: Wenn der Gewinner Fragen offen lässt

Einige A/B-Tests liefern Ergebnisse, mit denen keiner gerechnet hat. Vier Test-Beispiele, deren Ergebnisse fragwürdig, aber dennoch valide sind.

© Flickr / Sarah, CC BY 2.0

Manchmal muss man ungewöhnliche Wege gehen, um Erfolg zu haben. A/B-Tests sollen aufzeigen, welche Variante mehrerer Versionen einer Landing Page die beste Conversion Rate hervorruft. Doch was ist, wenn das Ergebnis mehr als fragwürdig ist oder der Test aufgrund eines Bugs ausufert? Len Markidan hat auf Unbounce vier Split-Tests unter die Lupe genommen, die originelle Erkenntnisse zutage förderten.

Zapier – die Quantität im Blick behalten

Zapier ist eine cloudbasierte Integrationsplattform, die alle relevanten Anwendungen verbindet und auf einer einheitlichen Nutzeroberfläche bündelt. Eine zeitlang landete der Nutzer auf der folgenden Landing Page des Unternehmens (Screenshot aus einem kritischen Blogpost):

Screenshot ©  UserTesting.com

Screenshot © UserTesting.com

Und für die oben zu sehende Website hagelte es sogar Kritik auf einem Blog, denn der Betreiber fand sie schrecklich unübersichtlich und nutzte sie als Beispiel für schlechte Usability – doch zu unrecht, wie Co-Gründer Mike Knoop den Betreiber in den Kommentaren wissen ließ: Denn die erwähnte Seite ist nichts weiter als das Ergebnis eines langwierigen und eindeutigen A/B-Testes – keine andere Version konnte eine ähnlich hohe Anzahl an Conversions erreichen, was auch den Gründer überraschte.

Der Test zeigt, dass diese Untersuchungen nicht nur auf qualitativer, sondern auch auf quantitativer Basis durchgeführt werden müssen, um valide Ergebnisse zu erhalten.

Grasshopper – fehlerhafte Software, bessere Conversions

David Hauser von Grasshopper wollte testen, welchen Effekt das Entfernen der Aktivierungsgebühr bei den Anmeldungen auf die Conversions ausübt. Aufgrund einer fehlerhaften A/B-Test Software verschwand die Gebühr aber erst nachdem sich die Seite vollständig aufgebaut hatte und wurde nicht von Anfang an herausgestrichen.

© Grasshopper.com

© Grasshopper.com

Interessanterweise führte dieser Ausblende-Effekt zu höheren Conversions, weshalb Grasshopper dieses „Feature“ nun absichtlich integriert hat.

Der Test zeigt, dass auch nicht statische Effekte getestet werden sollten, denn auch diese haben Einfluss auf das Ergebnis.

Quick Sprout – manchmal ist es nicht die Usability

Neil Patel kann man keine Fahrlässigkeit unterstellen: Was er tut, hat Hand und Fuß. So könnte man auch meinen, er wüsste aufgrund langjähriger Erfahrung, welche Art von Landing Page am besten konvertiert. Das dachte er auch und konzipierte eine sehr simple einseitige Website für den Checkout. Doch wurde diese Seite nicht angenommen und ein Split-Test zeigte sogar, dass eine Aufteilung in zwei Unterseiten zu höheren Conversions führte. Entgegen aller Annahmen und Versuche, es den Usern so einfach wie möglich zu machen, wollten sie es am Ende lieber komplizierter.

Der Test zeigt, dass du beim Split-Testing nicht ausschließlich die Usability in den Vordergrund stellen solltest.

CopyHackers – weniger ist häufig mehr

Als Expertin für Landing Pages wurde Joanna Wiebe, Co-Gründerin von CopyHackers, zum Kunden metageek gerufen, um die Umsätze der zum Download bereitstehenden Produkte mithilfe verbesserter CTAs zu steigern. Zu Anfang fanden die Experten die Download-Links als simple Textlinks vor, was optisch nicht gerade ansprechend ist. Aus diesem Grunde wurden vom Team grafisch anspruchsvolle CTAs eingebaut, die kaum zu übersehen waren. Das Ergebnis war eine zwischen sechs und 80 Prozent schlechtere Conversion Rate als zuvor – und zwar bei allen Tests, die einen ansprechend designten Button enthielten.

© metageek.com / unbounce.com

© metageek.com / unbounce.com

© metageek.com / unbounce.com

© metageek.com / unbounce.com

Der Test zeigt, dass ein hübsches Aussehen nicht alles ist. Gerade beim Download von Software sind Nutzer häufig eher verunsichert und vertrauen seriösen, solide aussehenden Links eher als hochwertig aufbereiteten Buttons, die geradezu danach schreien, geklickt zu werden – und häufig dann doch nur Malware bereithalten.

Hast du bei A/B-Tests auch schon einmal gewollt oder ungewollt ungewöhnliche Ergebnisse zutage fördern können? Schreib uns in den Kommentaren!

Quelle: Unbounce.com

Über Tina Bauer

Tina Bauer

Studierte Sozialwissenschaftlerin mit Hang zu Online und Marketing. Seit 2014 als Redakteurin & Content Managerin bei OnlineMarketing.de.

Ein Gedanke zu „A/B-Tests: Wenn der Gewinner Fragen offen lässt

  1. Ralf Wenda

    Moin,
    ich habe, vor ein paar Monaten, mein Projekt #erfolgswolf auf EMail Optins getestet. Wobei ich fest davon ausgegangen bin, dass ein Video zu besseren Eintragungsraten führt als ein Foto. Doch dem war bei Weitem nicht so.
    Ich habe weitere Erkenntnisse meiner Tests in eine Anleitung für AB Test mittels Google Analytics verpackt: http://erfolgswolf.de/wie-deine-website-durch-ab-tests-mit-google-analytics-kontinuierlich-besser-wird/#axzz3oWoxaRdR

    Beste Grüße
    Ralf

    Antworten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.