Seit über 10 Jahren führen wir A/B-Tests durch. Für Kunden aus allen Branchen und mit allen Geschäftsmodellen: Shops, Lead-Generierung, Portale, Subscription und SaaS.
Dadurch blicken wir über den Tellerrand Ihrer Branche und liefern laufend frische Testkonzepte.
Research + Daten = erfolgreiches A/B-Testing
Wir generieren individuelle Testhypothesen, basierend auf Webanalyse-Daten und qualitativem Research. Wir setzen auf Daten statt Bauchgefühl und Meinung.
Ohne zusätzliche teure Tools
Erfolgreiche Optimierung braucht Analysen, Ideen und Umsetzung - keine neuen Tools. Wir arbeiten mit dem “was da ist” oder finden pragmatisch eine Lösung.
Faire Konditionen, ohne lange “Knebelverträge”
Monatlich kündbar: Wir überzeugen durch kontinuierliche Leistungen und Engagement, nicht durch Verträge.
Optional mit Programmierung der A/B-Tests
Gerne arbeiten wir mit vorhandenen Entwicklern zusammen. Wenn gewünscht, übernehmen wir schnell und effizient die Programmierung der A/B-Tests.
Unsere Kunden kommen aus allen Branchen und haben die unterschiedlichsten Geschäftsmodelle.
Julian schreibt regelmäßig zu A/B-Testing bei LinkedIn. Beliebte Beiträge:
Autor
Julian Kleinknecht
Beim A/B-Testing möchte man unbedingt ausschließen, dass Steigerungen der Conversion-Rate im Test nur zufällig zustande gekommen sind. Stattdessen soll die Steigerung auch bestehen bleiben, sobald die Gewinnervariante allen Besuchern ausgespielt wird.
Je höher die Anzahl der gemessenen Conversions, desto besser die Chancen, statistisch signifikante Ergebnisse zu erzielen - und so nur zufällig bessere Testergebnisse zu vermeiden.
Ab 1000 Conversions je Monat ist A/B-Testing sinnvoll. Dann können mehrere Tests je Monat durchgeführt werden und schneller Erfolge gesammelt werden.
Wichtig: Es müssen mindestens 1000 gemessene Conversions (wie Verkäufe im Shop oder Leads) vorhanden sein. Diese Zahl kann deutlich geringer sein als die Zahl im CRM oder Shopsystem. Fehlender Consent und Adblocker führen häufig dazu, dass viele Conversions im Testing-Tool nicht gemessen werden.
Bei weniger als 1.000 gemessenen Conversions ist A/B-Testing schwierig. Tests müssen lange laufen und führen häufig zu keinem Ergebnis.
Eine häufige Idee: Statt dem Verkauf einfach Mikro-Conversions wie “Produkt zum Warenkorb hinzugefügt” als Metrik im A/B-Test nehmen. Weitere Möglichkeiten sind “X Sekunden auf der Seite” oder “X% gescrollt”.
Leider gibt es meistens keinen Zusammenhang zwischen solchen Mikro-Conversions und der finalen Conversion, die wirklich zu Umsatz führt. A/B-Tests auf Mikro-Conversions sind deshalb nicht sinnvoll.
Trotzdem sollten Mikro-Conversions in A/B-Tests gemessen werden, um den Einfluss der Testvariante besser zu verstehen.
In diesem Fall ist eine Optimierung basierend auf qualitativen Methoden, einem guten Verständnis der Besucher sowie deren Problemen und der Vorteile des Angebots die bessere Wahl. Wir bieten dies mit unserem Website-Konzept an.
Wenn A/B-Tests nur mit Micro-Conversions funktionieren würden, sollte man lieber andere Methoden zur Conversion-Optimierung einsetzen.
Insbesondere qualiative Methoden wie Session-Recordings, Onsite-Umfragen, mit Stakeholdern sprechen oder Best-Practice-Optimierungen sind sinnvoll.
Das Grundprinzip ist einfach: Besuchern wird zufällig eine Testvariante (oder die Kontrollvariante) zugewiesen und nach einer bestimmten Zeit überprüft, ob dies zu mehr Conversion geführt hat. Analog zu einer medizinischen Studie.
Die Testvariante im Browser erzeugt, die bestehende Seite wird per JavaScript “on the fly” angepasst.
Die Testvariante wird schon auf dem Server erstellt und als fertiges HTML an den Browser übermittelt.
Die Client-seitigen Variante hat den großen Vorteil, dass keine Absprache mit Webentwicklern notwendig ist. Die Testvariante kann unabhängig von Releases erstellt (zum Beispiel von einer externen Agentur) und der Test gestartet werden. Gerade in große Unternehmen verlangsamt das den Testing-Prozess.
Es gibt jedoch auch zwei große Nachteile der Client-seitigen Variante:
Beim Server-seitigen Testing ist die Situation vertauscht:
Client-seitige Tests können auf zwei verschiedene Arten umgesetzt werden:
In den meisten Fällen kommt die DOM-Manipulation zum Einsatz. Gründe dafür sind:
Viele A/B-Testing-Tools werden mit einem Drag-and-Drop-Editor (auch “What you see is what you get” - kurz WYSIWYG - genannt). Mit diesem können Marketer man angeblich Testvarianten ohne JavaScript-Kenntnisse selbst erstellen.
In der Realität funktioniert dies nur selten. Es klappt insbesondere nicht, wenn …
Die Drag-and-Drop-Editor eigenen sich bestenfalls für leichte Anpassungen von Texten und Farben auf Landingpages oder zum Ausblenden von Bereichen.
In den meisten Fällen müssen client-seitige A/B-Tests deshalb in JavaScript programmiert werden.