Praxisguide
Die Qualitätssicherung von Testvarianten ist wichtig für den Erfolg von A/B- und multivariaten Tests. Darstellungs- und Funktionsfehler in den Testvarianten machen die Testergebnisse wertlos und führen zu unzufriedenen Besuchern.
Dieser Praxisguide zeigt Ihnen im Detail, wie eine gut geplante und effektiv durchgeführt Qualitätssicherung aussieht.
Autor
Julian Kleinknecht
Die Qualitätssicherung von Testvarianten ist wichtig für den Erfolg von A/B- und multivariaten Tests. Darstellungs- und Funktionsfehler in den Testvarianten machen die Testergebnisse wertlos und führen zu unzufriedenen Besuchern.
Testvarianten sind in JavaScript programmiert [1] und der entsprechende Test im Testing-Tool angelegt. Der A/B-Test könnte nun also eigentlich starten. Bevor dies geschieht, sollte jedoch unbedingt sichergestellt werden, dass auch alles wie geplant funktioniert.
Fragen bei der Qualitätssicherung sind zum Beispiel:
In diesem Praxisguide führen wir Sie durch die einzelnen Schritte der Qualitätssicherung. Diese lässt sich in diese drei Abschnitte einteilen.
Im ersten Schritt gilt es sicherzustellen, dass das Testing-Tool korrekt funktioniert. Diese Qualitätssicherung des Tools sollte unbedingt vor der Qualitätssicherung der Testvarianten (siehe nächstes Kapitel) erfolgen. Falls Probleme identifiziert werden, kann es zu einiger Wartezeit kommen, wenn mit anderen Abteilungen, wie der IT, zusammengearbeitet werden muss.
Es kann zwischen zwei verschiedenen Qualitätssicherungen unterschieden werden:
Wenn Sie den ersten Test auf einer Website starten, sollte Sie zuerst überprüfen, ob das Testing-Tool auch korrekt eingebaut ist. [2]
Sofort nach der Implementierung eines Testing-Tools sollte ein A/A-Test durchgeführt werden. Hier werden Besucher zwar auf zwei verschiedene Varianten verteilt, diese Varianten sind jedoch identisch. Dies stellt sicher, dass
Wenn es sich herausstellt, dass eine der beiden Varianten nach einigen Tagen zu einer Steigerung der Conversions oder anderer Ziele geführt hat, die Variante jedoch identisch mit der Kontroll-Variante ist, dann ist die Conversion-Steigerung nicht auf die Testvarianten zurückzuführen. Der Grund sollte identifiziert werden!
Während des A/A-Test sollte auch überprüft werden, ob alle konfigurierten Ziele korrekt gemessen werden. Ein besonderer Fokus sollte natürlich auf die (finalen) Conversions und (falls vorhanden) den Umsatz gelegt werden.
Am einfachsten ist es, einige Test-Conversions durchzuführen, deren Anzahl zu notieren und dann später in der Benutzeroberfläche zu überprüfen, ob auch alle diese Conversions „angekommen“ sind.
Alternativ können Sie auch im Netzwerk-Tab der Entwickler-Tools (F12) nachsehen. Wird vom Testing-Tool eine HTTP-Anfrage gesendet, nachdem eine bestimmte Aktion ausgelöst wurde?
Natürlich sollten die Zahlen auch mit denen im Webanalyse-Tool übereinstimmen. Unsere Checkliste „Abweichungen zwischen Tracking-Tools beheben“ erläutert 19 mögliche Gründe für diese Abweichungen und wie sie behoben werden können.
Die Integration mit anderen Tools erfolgt durch benutzerdefinierte Variablen. Das heißt, an das Webanalyse-Tool oder das Tool für Onsite-Umfragen wird die vom Besucher gesehene Testvariante übergeben. In den Tools kann dann zwischen den Testvarianten unterschieden werden.
Die Integration gilt als korrekt, wenn die IDs der Testvarianten auch tatsächlich korrekt an die Tools übergeben werden.
Vor dem Start eines jeden Tests gilt es zu überprüfen, ob auch das Targeting des Tests korrekt funktioniert. Anders gesagt: Wird der Test dort und nur dort ausgespielt, wo dies geplant ist?
Dafür wird das Targeting des Tests um die Bedingung erweitert, dass ein bestimmter Cookie, der nur im Browser des Qualitätssicherers gesetzt ist (siehe Kapitel 3.3.2), vorhanden sein muss. Zusätzlich wird nur eine Testvarianten aktiv geschaltet und dann der Test gestartet. Beim Aufruf aller verschiedenen Seiten, wo der Test ausgespielt werden soll, sollte dies nun auch geschehen.
Die Checkliste „Vor dem Start eines AB-Tests überprüfen“ erläutert ausführlicher, worauf es hier zu achten gibt.
Wenn feststeht, dass das Testing-Tool korrekt funktioniert, sollten nun die Testvarianten nacheinander überprüft werden.
Welche Eigenschaften muss eine Testvariante erfüllen, sodass sie in einem A/B-Tests getestet werden kann? Diese beiden Eigenschaften sollten auf jeden Fall erfüllt sein:
Jede Testvariante sollte für alle Besucher grafisch korrekt dargestellt werden. Dies bedeutet, dass sie in allen Browsern, auf allen Betriebssystemen und Geräten korrekt angezeigt werden sollte. Dieses Idealbild ist nicht immer zu erreichen; im nächsten Unterkapitel beschreiben wir jedoch, wie man sich ihm annähern kann.
Beispiele dafür, wenn eine Testvariante nicht korrekt dargestellt wird, sind:
Es gibt jedoch auch Unterschiede der Darstellung, die unvermeidlich sind. Dazu gehören unter anderem:
Die zweite Anforderung an eine Testvariante lautet, dass alle Funktionen der jeweiligen Seite (wie der Warenkorb-Button, die Suche oder Filter) noch intakt sind. Es wäre fatal, wenn zentrale Funktionen der Seite auf einer Testvariante nicht mehr funktionieren. Angenommen auf einer Testvariante der Produktdetailseite können keine Produkte in den Warenkorb gelegt werden. Dann haben Sie sofort Umsatzeinbußen, sind die Testergebnisse verfälscht (vielleicht hätte genau diese Variante die höchste Conversion-Rate erzielt) und Sie haben zusätzlich noch mit verärgerten Kunden zu kämpfen.
Ein Grund für viele Probleme der Funktionalität sind Inkompabilitäten zwischen schon vorhandenem JavaScript-Code und JavaScript-Code der Testvariante. Moderne Website bestehen aus sehr viel JavaScript-Code – und der Code der Testvariante kann recht einfach mit dem der Website in Konflikt kommen. Da Point-and-Click-Editoren meistens qualitativ schlechten JavaScript-Code erzeugen,[3] ist die Wahrscheinlichkeit für Probleme bei deren Einsatz noch größer.
Bevor Testvarianten auf die beiden Eigenschaften Darstellung und Funktion überprüft werden, sollten zuerst die Anforderungen an diese festgelegt werden. Diese drei Fragen gilt es zu beantworten:
Die größte Herausforderung der Qualitätssicherung von Testvarianten besteht darin, dass Besucher sehr viele verschiedene Kombinationen an Hard- und Software einsetzen. Diese Faktoren können einen Einfluss auf die korrekte Darstellung und Funktionsweise einer Testvariante haben:
Vor allem ältere Browser interpretieren HTML- und JavaScript-Code unterschiedlich. Durch die steigende Anzahl an Smartphones ist außerdem die Anzahl verschiedener Bildschirmauflösungen sehr hoch. Es ist also viel Aufwand nötig, damit Testvarianten auf allen von Besuchern verwendeten Kombinationen einwandfrei funktionieren.
Die verwendeten Kombinationen sind natürlich für jede Website verschieden. Auf conversionboosting.com sind Chrome und Firefox die mit Abstand beliebtesten Browser. Auf B2C-Websites ist der Internet Explorer häufig Spitzenreiter.
Schauen Sie also in Ihrem Webanalyse-Tool nach und erstellen Sie eine Liste der häufigsten Kombinationen.
Vor allem die hohe Anzahl verschiedener Browserversionen führt dazu, dass diese Liste sehr schnell sehr lange werden kann. Wie empfehlen deshalb diese Überlegungen beim Erstellen der Liste zu beachten:
Falls Test auf einer statischen Landingpage durchgeführt werden, kann dieser Schritt übersprungen werden. Für Online-Shops ist er dagegen möglicherweise sehr wichtig.
Die entscheidende Frage lautet: Falls ein Test über mehrere Seiten hinweg laufen soll, gibt es Unterschiede zwischen den Seiten? Diese Unterschiede haben wir beispielsweise in Kundenprojekten beobachtet:
Auf einer Produktdetailseite können zum Beispiel verschiedene Auswahlwahl-möglichkeiten eines Produkts verfügbar sein (siehe Screenshot). Wenn nicht alle diese Möglichkeiten in den relevanten Kombinationen von Browsern überprüft werden, kann es vorkommen, dass für bestimmte Arten von Produkten die Auswahlmöglichkeit nicht mehr funktioniert oder falsch dargestellt wird.
Verschiedene Buyboxen auf beck-shop.de
Erstellen Sie eine Liste der zu überprüfenden Seiten, falls diese Bedingung auf Ihre Website zutrifft.
Falls Sie diese verschiedenen Seiten nicht kennen, sollten Sie sich frühzeitig mit den entsprechenden Ansprechpartnern in Verbindung setzen.
Um das zweite Ziel – die Funktionalität der Testvariante – systematisch zu überprüfen, empfiehlt es sich, eine Liste aller Funktionalitäten aufzustellen, die auf der Testvariante überprüft werden sollte. Auf diese Weise können diese Funktionen für jede Testvariante nacheinander abgearbeitet werden.
Natürlich sollten alle Funktionen einer Testvariante funktionieren. Das Überprüfen kostet jedoch Zeit und Geld. Wenn eine Funktion von den Testvarianten des aktuellen Tests überhaupt nicht beeinflusst werden kann, dann gehört sie nicht auf die Liste. Wenn zum Beispiel nur Änderungen am Call-to-Action vorgenommen werden, müssen nicht alle Funktionalitäten des Produktbilds überprüft werden.
Erstellen Sie pro Test eine Liste der Funktionen, die überprüft werden sollen.
Für eine Produktdetailseite könnte eine sehr ausführliche Liste wie folgt aussehen:
Für die Kategorieseite eines Online-Shops könnte folgende Liste dienen:
Für Landingpages zur Lead-Generierung prüfen Sie unter anderem diese Punkte:
Nachdem die Vorbereitungen abgeschlossen sind, geht es jetzt an die tatsächliche Qualitätssicherung der Testvarianten. Drei verschiedene Methoden kommen zum Einsatz, um sicherzustellen, dass die Ziele aus Kapitel 3.1 erfüllt sind. Diese sind
Automatisierte Screenshots sind der einfachste und schnellste Weg, Darstellungsprobleme von Testvarianten zu identifizieren.
Es gibt zahlreiche SaaS-Anbieter, welche kostengünstig Screenshots von Websites auf einer schier unendlichen Anzahl von Kombinationen aus Browsern, Betriebssystemen und Geräten aufnehmen. Wir erläutern das Vorgehen am Beispiel von CrossBrowserTesting.com.
In der Benutzeroberfläche können die zuvor definierten Kombinationen (vergl. Kapiel 3.2.1) ausgewählt werden und für die Zukunft gespeichert werden.
Im ersten Schritt sollen Screenshots der aktuellen Seite, die als Kontrollvariante dienen wird, in den ausgewählten Kombinationen erstellt werden. Vor allem ältere Browser werden von der IT-Abteilung oft nicht mehr unterstützt. Wenn schon die aktuelle Seite in manchen Browsern nicht funktioniert, ist es nicht notwendig, dass die Testvarianten in den Kombinationen korrekt angezeigt werden. Die Liste der Kombinationen aus Kapitel 3.2.1 sollte entsprechend angepasst werden.
Nun kann die Vorschau-URL der ersten Testvariante in die Eingabeoberfläche eingefügt werden und das Tool erstellt die Screenshots. Hierbei gilt es auf diese Punkte zu achten:
Nachdem alle Screenshots geladen sind, können diese auf Darstellungsfehler untersucht werden. Falls dies der Fall ist, notieren Sie Testvariante und Browserkombination.
Die Methode der automatischen Screenshots hat die große Schwäche, dass die Funktionalität einer Testvariante nicht überprüft werden kann. Deshalb sollten die Testvarianten tatsächlich im Browser betrachtet werden.
Die einfachste Möglichkeit besteht darin, den kompletten JavaScript-Code einer Testvariante per JavaScript-Konsole der Entwicklertools auszuführen. Dieses Vorgehen ist jedoch nicht zu empfehlen, da es nicht die Situation widerspiegelt, in welcher der JavaScript-Code tatsächlich ausgeführt wird. In „freier Wildbahn“ konkurriert der JavaScript-Code mit anderen Skripten, die zur gleichen Zeit ausgeführt werden und sich möglicherweise behindern. Wir haben oft erlebt, dass – nachdem die Testvariante generiert wurde – anderer JavaScript-Code des Shops noch weitere Änderungen vorgenommen hat.
Zwei bessere Methoden sind der Aufruf der Testvariante
Erstere Methode ist schneller und mit weniger Aufwand verbunden als die zweite. Wenn möglich, empfiehlt es sich, diesen Weg zu gehen. Der genaue Parameter ersterer Methode hängt vom verwendeten Testing-Tool ab.
Die Cookie-Methode kommt hingegen dann zum Einsatz, wenn mehrere Seiten (zum Beispiel bei einem seitenübergreifenden Test oder im Checkout) überprüft werden sollen. Hierfür wird das Targeting des Tests so eingestellt, dass die zu überprüfende Testvariante nur ausgespielt wird, wenn ein bestimmter Cookie im Browser gesetzt ist.
Der Cookie kann mit dieser Zeile JavaScript (ausgeführt in der JavaScript-Konsole) gesetzt werden:
document.cookie = "QA=wahr";
Um das Setzen des QA-Cookies zu vereinfachen, kann ein sogenanntes Bookmarklet in den Lesezeichen angelegt werden. Wenn dieses auf einer Website aufgerufen wird, wird ein Cookie namens „QA“ mit dem Wert „wahr“ gesetzt
Hier der komplette Wert, der in die Zeile URL eingegeben wird:
javascript:(function()%7Bdocument.cookie%3D%22QA%3Dwahr%22%7D)()
Mithilfe eines weiteren Bookmarklets kann der QA-Cookie auch wieder auf falsch gesetzt werden:
javascript:(function()%7Bdocument.cookie%3D%22QA%3Dfalsch%22%7D)()
Nun kommt die zuvor definierte Liste (siehe 3.2.3) zum Einsatz, um die Funktionen nacheinander für die verschiedenen Kombinationen (siehe 3.2.1) zu überprüfen.
Um die Funktionalität der Testvarianten zu überprüfen, sollten alle relevanten Browser auf dem Computer installiert sein. Doch was, wenn Varianten in Browsern überprüft werden sollen, die gar nicht installiert werden können? Von den meisten Browsern lässt sich nur eine einzige Version gleichzeitig installieren und mehrere Rechner nur zur Qualitätssicherung zu betreiben, ist wahrscheinlich unwirtschaftlich.
Es gibt zwei Möglichkeiten, dieses Problem anzugehen:
Zur ersten Möglichkeit gibt es zwei besonders erwähnenswerte Vorgehensweise.
Erstens bietet der Internet Explorer als einziger Browser die komfortable Möglichkeit in den Entwickler-Tools (mit F12 aufzurufen) zwischen dem Verhalten seiner verschiedenen Versionen auszuwählen:
Zweitens müssen die Testvarianten neben den Desktop-Browsern auch auf mobilen Geräten getestet werden. Idealerweise kommen hierbei natürlich die tatsächlichen Handys und Tablets zum Einsatz. Wenn diese jedoch nicht verfügbar sind, kann zumindest die Darstellung und Funktionsweise in Chrome getestet werden. Nach dem Aufrufen der Entwickler-Tools (F12) kann die mobile Ansicht mit einem Klick auf das Handysymbol unten:
Es öffnen sich zusätzliche Konfigurationsmöglichkeiten, wo unter anderem das Gerät ausgewählt werden kann:
Weitere Informationen zur „Mobile Emulation“ liefert die entsprechende Dokumentation: https://developer.chrome.com/devtools/docs/device-mode
Auch mit diesen beiden „Tricks“ können nicht alle relevanten Kombinationen überprüft werden. Um die verbleibenden Kombinationen abzudecken, kann auf virtuelle Maschinen der gleichen Anbieter, die auch automatische Screenshots anbieten, zurückgegriffen werden.
Auf Mausklick werden hier Browser im Rechenzentrum des Anbieters gestartet. In diesem stehen tatsächliche Computer, die von Ihnen ferngesteuert werden können.
Nachdem ein Test gestartet ist, sollte unmittelbar mit den Vorbereitungen für den nächsten Test begonnen werden. Gleichzeitig muss jedoch auch der aktuelle Test laufend überwacht werden.
Natürlich ist es nicht praktikabel, die oben beschriebenen Schritte auch während eines Tests durchzuführen. Um Probleme des Test-Setups oder der Testvarianten trotzdem zu identifizieren, sollten Veränderungen der Ziele überwacht werden.
Überprüfen Sie regelmäßig im Testing-Tool (beispielsweise morgens, mittags und abends), ob dies der Fall ist. Eine unerwartete Veränderung deutet darauf hin, dass etwas mit der entsprechenden Testvariante nicht stimmt.
Falls es das Testing-Tool anbietet, sollten auch automatische Benachrichtigungen aktiviert werden. Google Analytics bietet zum Beispiel die Möglichkeit, E-Mails zu verschicken, wenn eine bestimmte Metrik einen bestimmten Wert unter- oder übersteigt. Wenn also Google Analytics mit dem Testing-Tool integriert ist und die Conversion Rate für einen bestimmten Zeitraum um mehr als eine Standardabweichung von Durchschnitt abweicht, dann werden die Verantwortlichen per E-Mail gewarnt.
[1] Unser Praxisguide „Testvarianten in JavaScript umsetzen“ gibt hilfreiche Tipps zum Umsetzen von Testvarianten in JavaScript.
[2] Unseren beiden „Praxisguides „Implementierungsprojekte planen und Anleitungen für die IT verfassen“ und „Qualitätssicherung von Tags und Implementierungen“ enthalten weitere ausführlicher Informationen und Anleitung zur Implementierung von Tracking-Tools.
[3] Siehe unser entsprechender Praxisguide.
[4] Unser Praxisguide „Willkommens-Layer zur Lead-Generierung“ enthält eine Schritt-für-Schritt-Anleitung zur Erstellung von Willkommens-Layern