A/B-Test ist eine einfache, aber enorm wirkungsvolle Methode, um Entscheidungen auf deiner Website mit echten Daten zu treffen. Dieser Artikel zeigt, wie du A/B-Tests gezielt für Website und Conversion-Optimierung nutzt: von klaren Zielen über Einrichtung und Durchführung bis zur nachvollziehbaren Auswertung. Du bekommst praxisnahe Beispiele, typische Fehler, nützliche Kennzahlen und ein eingebautes Tool – den A/B-Test Rechner – um Besucherbedarf und Testdauer grob abzuschätzen.
- Konkrete Beispiele und Ideen für A/B-Tests: Shop, Landing-Page und Checkout.
- A/B-Test-Tools: Die beste A/B-Test-Tools verglichen und bewertet
- A/B-Test Rechner zur schnellen Einschätzung von Stichprobe und Laufzeit.
Was ist ein A/B-Test?

Ein A/B-Test vergleicht zwei Versionen derselben Webseite, um herauszufinden, welche Version mehr Conversions erzeugt. Version A ist die bestehende Seite, Version B enthält eine gezielte Änderung, zum Beispiel eine andere Überschrift, ein neues Bild oder einen präziseren Button-Text. Besucherinnen und Besucher werden zufällig auf A oder B verteilt, beide Versionen laufen zur selben Zeit, und am Ende bleibt die stärkere Variante aktiv.
Wofür A/B-Tests auf Websites genutzt werden
Überall dort, wo eine klare Handlung passieren soll, liefern A/B-Tests saubere Antworten. Auf Landing-Pages prüfst du, welche Headline mehr Anfragen auslöst. Auf Produktseiten testest du die Darstellung von Preis, Nutzen und Bildern. Im Checkout vergleichst du Formularfelder oder Hinweistexte, damit weniger Besucher abbrechen. Selbst E-Mail-Kampagnen profitieren, etwa bei Betreffzeilen oder Call-to-Action.
- Headlines und Einleitungen mit klarem Nutzen
- Button-Texte, Farbe, Größe und Position
- Bilder, Produktgalerien und Trust-Elemente wie Bewertungen
- Formularlänge, Reihenfolge von Feldern und Hilfetexte
Warum A/B-Tests funktionieren
Sie basieren auf echtem Verhalten. Statt Annahmen zu diskutieren, beobachtest du, wie Menschen auf deiner Seite handeln. Weil beide Versionen parallel laufen und das Publikum zufällig aufgeteilt wird, lassen sich Unterschiede einer konkreten Änderung zuordnen. Große Produktteams arbeiten seit Jahren so, weil kleine Verbesserungen sich schnell summieren. Ein kompakter Überblick über dieses Vorgehen findet sich in der Forschung ab 2020, zum Beispiel bei Kohavi et al., 2020.
Abgrenzung zu verwandten Verfahren
A/A-Test prüft zuerst, ob deine Messung stabil ist, indem zwei identische Versionen gegeneinander laufen. Split-URL vergleicht komplette Seitenvarianten auf unterschiedlichen Pfaden, praktisch bei großen Layouts. Multivariate Tests verändern mehrere Elemente gleichzeitig und benötigen deutlich mehr Traffic. Für die meisten Websites ist der klassische A/B-Test der beste Startpunkt, weil er schnell klare Entscheidungen ermöglicht.
Was A/B-Tests nicht leisten
Sie liefern eine belastbare Antwort auf die Frage, was besser funktioniert, erklären aber nicht immer, warum. Für das Warum helfen Nutzerinterviews, Session-Replays oder kurze Umfragen. Diese Signale nutzt du am besten vor dem Test als Ideengeber und nach dem Test, um Gewinner weiter zu schärfen.
A/B-Tests Schritt für Schritt

Der Ablauf in kurzen, verlässlichen Schritten
A/B-Tests vergleichen eine bestehende Version deiner Seite mit einer Variante und beantworten eine simple Frage: Welche Version bringt mehr Conversions. Damit das Ergebnis wirklich zählt, laufen beide Versionen parallel, Besucher werden zufällig aufgeteilt, die Messpunkte sind identisch und die Entscheidung wird nach einem vorher festgelegten Kriterium getroffen.
In der Praxis startest du mit einer klaren Beobachtung, baust eine kleine, gezielte Änderung und definierst vorab, woran du Erfolg erkennst. Danach aktivierst du den Test, beobachtest keine Zwischenstände als Entscheidungsgrundlage und ziehst am Ende eine klare Konsequenz: übernehmen oder verwerfen. Das klingt unspektakulär, ist aber genau die Stärke von A/B-Tests für Websites.
Fair verteilen und gleich messen
Die zufällige Zuteilung sorgt dafür, dass Unterschiede nicht aus dem Publikum kommen, sondern aus der Änderung. Wichtig ist, dass beide Versionen dieselbe Zielhandlung erfassen, z. B. Klick auf Kaufen, Formular abgeschickt, Registrierung erfolgreich. Nutze dieselben Ereignisnamen in beiden Versionen und prüfe vor dem Start kurz, ob sie sauber feuern. Wenn du Formulare, Warenkorb oder Login veränderst, teste die komplette Reise bis zum Zielereignis, nicht nur die erste Seite.
Stabilität und Geschwindigkeit
Web-Performance beeinflusst oft mehr als die eigentliche Änderung. Halte daher Bilder, Skripte und Layout zwischen A und B so konstant wie möglich und achte auf stabile Ladezeiten. Wenn eine Variante ungewollt langsamer ist, misst du nicht die Copy, sondern die Technik.
- Ziel festlegen und eine kleine, konkrete Änderung bauen.
- Besucher zufällig auf A und B verteilen und gleich messen.
- Test so lange laufen lassen, bis die geplante Datenbasis erreicht ist.
- Gewinner übernehmen, Ergebnis dokumentieren, nächste Idee wählen.
Was A/B-Tests nicht leisten
A/B-Tests sagen dir, was besser funktioniert, nicht immer warum. Für das Warum helfen kurze Nutzerinterviews, Session-Replays oder Umfragen. Nutze diese Signale vor dem Test für bessere Ideen und nach dem Test, um starke Gewinner weiter auszubauen.
Wann A/B-Tests einsetzen

Gute Einsatzfelder mit schneller Wirkung
A/B-Tests lohnen sich überall dort, wo viele Besucher eine eindeutige Handlung ausführen sollen. Klassische Beispiele sind Produktseiten, Kategorieseiten, Landingpages mit Formular, Pricing und natürlich der Checkout. Hier gibt es häufig klare Hürden, die du mit kleinen Änderungen angehst: verständlichere Benefits, präzisere Button-Texte, übersichtlichere Formulare, bessere Bildauswahl.
Auch wiederkehrende Inhalte wie E-Mail-Betreffzeilen oder Startseiten-Teaser profitieren, weil du dort schnell viele Beobachtungen sammelst. Je mehr relevante Besuche eine Seite bekommt, desto eher lohnt sich ein Test, denn du kommst schneller zu einer belastbaren Entscheidung.
Wenn A/B-Tests weniger geeignet sind
Sehr seltene Zielhandlungen, extrem wenig Traffic oder komplette Redesigns sind schwierige Fälle. Wenn auf einer Unterseite nur wenige Besucher pro Woche landen, dauert ein Test zu lange. Bei sehr großen Änderungen weißt du oft nicht, welches Teilstück wirkt. In solchen Situationen helfen Prototypen-Tests, qualitative Interviews oder ein schrittweiser Rollout besser weiter.
Schnellcheck für die Entscheidung
Stell dir drei Fragen, bevor du Zeit investierst: Erstens, ist das Ziel klar und tritt es regelmäßig auf. Zweitens, hat die betroffene Seite genug Besuche, damit du innerhalb von ein bis drei Wochen entscheiden kannst. Drittens, ist die Änderung klein genug, um die Ursache zu erkennen. Wenn du alle drei Punkte bejahst, ist ein A/B-Test fast immer die richtige Wahl.
- Ziel klar benannt und im Tracking vorhanden.
- Seite erreicht spürbare Besucherzahlen in kurzer Zeit.
- Änderung betrifft genau ein Element oder eine Botschaft.
Womit zuerst anfangen
Beginne dort, wo sich Aufwand und Wirkung treffen. Gute Startpunkte sind der erste sichtbare Bereich auf Landingpages, die Produktdarstellung mit Preis und Nutzen, die Reihenfolge von Formularfeldern oder die Darstellung von Vertrauenselementen wie Bewertungen und Siegel. Mit wenigen, klaren Änderungen sammelst du schnell Lerneffekte, die sich auf weitere Seiten übertragen lassen.
Vorbereitung: Ziele, Hypothesen und Metriken

Das Ziel, das wirklich zählt
Lege eine einzige Hauptkennzahl fest, die zur Seite passt, z. B. abgeschlossene Käufe, abgeschickte Leads oder erfolgreiche Registrierungen. Diese Kennzahl entscheidet am Ende. Ergänzend kannst du ein bis zwei Begleitwerte beobachten, die zeigen, ob es ungewollte Nebeneffekte gibt, zum Beispiel ungewöhnlich viele Checkout-Abbrüche oder deutliche Ladezeitspitzen.
Wichtig ist, dass die Kennzahl eindeutig definiert ist und auf beiden Versionen gleich erfasst wird. Benenne das Ereignis im Tracking sauber, prüfe vor dem Start kurz die Auslösung und notiere dir, wo es auf der Seite passiert. Das spart Diskussionen bei der Auswertung.
Hypothese, die auf den Punkt kommt
Eine Hypothese muss nicht kompliziert sein. Es reicht ein Satz, der Beobachtung, Änderung, Ziel und Zeitraum zusammenbindet. So vermeidest du Interpretationsspielraum.
Vorlage: Weil Beobachtung, wenn wir Änderung umsetzen, steigt Ziel bei Segment innerhalb von Zeitraum.
Beispiel: Weil viele mobile Besucher den Button erst nach Scrollen sehen, wenn wir den Button oberhalb der Falz platzieren, steigt die Anmelderate bei Mobile innerhalb von 14 Tagen.
Messpunkte und Laufzeit planen
Plane vorab, wie lange der Test laufen soll oder welche Datenbasis du erreichen willst. Das verhindert, dass Zwischenergebnisse vorschnell Entscheidungen auslösen.
- Merke – klare Ziele, eine knappe Hypothese und saubere Messpunkte sind die halbe Miete.
Einrichtung von A/B-Tests

Das richtige Element auswählen
Starte mit einem klar sichtbaren Element, das nah an der gewünschten Handlung liegt. Gute Kandidaten sind Headline, Nutzenabsatz, Call-to-Action, Bildauswahl oder die Reihenfolge von Formularfeldern. Je näher das Element an der Conversion, desto schneller erkennst du einen Unterschied.
Messpunkte und Ereignisse prüfen
Lege fest, welche Aktion das Ergebnis entscheidet, z. B. Kauf abgeschlossen, Lead abgeschickt oder Registrierung erfolgreich. Nutze in beiden Versionen dieselben Ereignisnamen und Parameter. Öffne die Vorschau deiner Analytics und löse die Ereignisse manuell aus, um zu prüfen, ob alles ankommt. Eine kurze Referenz zu Ereignissen findest du in der Doku von Google Analytics.
Visuelle Konsistenz und Performance
Wenn B deutlich langsamer ist als A, misst du Technik statt Inhalt. Halte Schriftarten, Bildgrößen und Skripte so identisch wie möglich. Setze Bildbreite und -höhe, nutze responsive Quellen und Lazy Loading außerhalb des Viewports. Orientierung geben Core Web Vitals wie LCP und INP, erklärt auf LCP und INP.
QA vor dem Start
Teste die komplette Reise, nicht nur die erste Seite. Klicke vom Einstieg bis zur Zielaktion durch, mit und ohne Login, mobil und Desktop. Prüfe, ob die Variante überall erscheint und ob Cookies, Consent oder Adblocker die Auslieferung stören. Dokumentiere Screenshots und kurze Notizen, damit du später weißt, was genau live war.
- Mehrere Änderungen auf einmal statt einer klaren Variante.
- Unterschiedliche Ereignisnamen in A und B, dadurch falsche Zählung.
- Layoutspringer oder langsame Assets in nur einer Version.
- Variante erscheint nicht auf allen relevanten Seiten oder Geräten.
- Tipp – notiere vor Livegang in zwei Sätzen, was sich geändert hat und welche Kennzahl entscheidet. Das spart später Diskussionen.
Durchführung von A/B-Tests

Fairer Traffic-Split
Teile Besucher zufällig und gleichmäßig auf A und B auf. Gleiche Anteile stellen sicher, dass Unterschiede aus der Änderung kommen und nicht aus dem Publikum. Wenn du unterschiedliche Anteile wählst, tu das nur aus gutem Grund, etwa zum Schonbetrieb einer riskanteren Variante.
Timing und Saison beachten
Starte Tests nicht kurz vor ungewöhnlichen Aktionszeiträumen, wenn du sie vermeiden kannst. Große Sales, Feiertage oder Kampagnen verschieben Verhalten und können Ergebnisse verfärben. Plane den Start so, dass typische Wochenmuster enthalten sind und lass den Test lange genug laufen, um Wochentage abzubilden.
Laufzeit planen
Lege vorab fest, wie lange der Test laufen soll oder welche Datenbasis du erreichen willst. So vermeidest du spontane Abbrüche bei Zwischenständen. Wenn du unsicher bist, nutze den A/B-Test Rechner in diesem Artikel, um Besuche und Dauer grob abzuschätzen. Wichtiger als eine punktgenaue Zahl ist die Disziplin, dich an die Planung zu halten.
Stoppregeln, die Klarheit bringen
Entscheide vor dem Start, wann du einen Test beendest: feste Dauer, ausreichende Daten, deutlicher Vorsprung oder Probleme in der Technik. Meide das ständige Reinschauen und Umentscheiden mitten im Test. Für Leser, die tiefer gehen möchten, zeigen moderne Arbeiten, wie man Entscheidungen ohne riskantes Zwischendurch-Abbrechen robuster trifft, etwa Howard et al., 2021.
Beobachten ohne zu lenken
Schau während des Tests auf Stabilität: erscheinen beide Versionen, kommen Ereignisse an, bleibt die Seite schnell. Greife nicht ein, solange keine echte Störung vorliegt. Erst am Ende triffst du die Entscheidung, nicht zwischendurch.
- Version A und B werden ausgeliefert und sehen wie geplant aus.
- Messereignisse kommen für beide Versionen an.
- Keine ungewöhnlichen Ladezeiten oder Fehlermeldungen.
Ergebnisse von A/B-Tests interpretieren

Absoluter und relativer Unterschied
Blicke zuerst auf den absoluten Unterschied, zum Beispiel plus 1 Prozentpunkt mehr Käufe, und dann auf den relativen Unterschied, etwa plus 20 Prozent gegenüber dem Ausgangswert 5 Prozent. Beide Sichtweisen sind hilfreich: absolut zeigt den echten Mehrwert, relativ hilft beim Vergleich zwischen Seiten mit unterschiedlichen Ausgangsniveaus.
Stärke des Effekts bewerten
Ein kleiner, aber stabiler Gewinn ist oft wertvoller als ein großer Sprung, der nur an einem Tag passiert. Schau deshalb auf den Verlauf über die Testdauer. Wenn der Abstand zwischen A und B über mehrere Tage sichtbar bleibt, spricht das für einen echten Effekt.
Nebenwirkungen prüfen
Neben der Hauptkennzahl lohnt ein kurzer Blick auf weitere Signale, etwa Abbrüche im Checkout, Rücksendungen oder ungewöhnliche Ladezeiten. Wenn die Variante zwar mehr Klicks bringt, aber gleichzeitig technische Probleme erzeugt, ist das kein echter Gewinn. Dokumentiere deshalb auch diese Beobachtungen in zwei Sätzen.
Was tun bei unklarem Ergebnis
Wenn der Unterschied klein und unruhig ist, entscheide pragmatisch. Möglichkeit eins: Test verlängern, wenn du kurz vor der geplanten Datenbasis bist. Möglichkeit zwei: Idee verfeinern und eine klarere Variante bauen. Möglichkeit drei: Ergebnis akzeptieren und die nächste Stelle testen. Wichtig ist, nicht ewig an einer vagen Änderung festzuhalten.
Ergebnis festhalten und umsetzen
Schreibe ein kurzes Ergebnis-Memo: Was wurde geändert, welche Kennzahl entschied, wie groß war der Unterschied, was wird nun umgesetzt. Verlinke Screenshots und die Testkonfiguration. So entsteht eine Lernsammlung, die später doppelte Arbeit spart und neuen Kolleginnen und Kollegen hilft, schneller einzusteigen.
- Klarer Abstand und stabiler Verlauf über die Testdauer: übernehmen.
- Kleiner Abstand, aber konsistent und ohne Nebenwirkungen: übernehmen, dann weiter verbessern.
- Kein erkennbarer Unterschied oder technische Zweifel: verwerfen oder Variante schärfen und neu testen.
Kennzahlen und Erfolgsmessung
Die eine Kennzahl, die entscheidet
Wähle für jeden A/B-Test eine Hauptkennzahl, die direkt zum Seitentyp passt. Auf Produktseiten ist das meist Käufe, bei Lead-Seiten das abgeschickte Formular, auf Landingpages der Klick zum nächsten Schritt. Diese Kennzahl entscheidet am Ende, ob Variante B bleibt.
Begleitkennzahlen mit Blick behalten
Neben der Hauptkennzahl helfen 1 bis 2 Begleitwerte, um Nebenwirkungen zu sehen: zum Beispiel Abbrüche im Checkout, ungewöhnliche Ladezeiten oder Support-Kontakte. Steigt die Hauptkennzahl, aber es treten klare Nachteile auf, brauchst du eine bessere Variante statt eines schnellen Rollouts. Neutrale Orientierung zu Web-Performance findest du bei web.dev.
So rechnest du den Effekt
Bewerte Ergebnisse absolut und relativ. Absolut: plus 0,4 Prozentpunkte Käufe. Relativ: plus 13,3 Prozent gegenüber 3,0 Prozent Ausgangswert. Erst die absolute Sicht zeigt, ob sich der Einsatz rechnet.
Beispiel: 100.000 Sitzungen, Ausgang 3,0 Prozent Kauf, Variante 3,4 Prozent. Das sind +400 Bestellungen. Bei 60 Euro Warenkorb wären das +24.000 Euro. So wird aus einem Prozentpunkt eine klare Entscheidung.
Stabilität prüfen
Schau nicht nur auf den Endwert, sondern auf den Verlauf über Tage. Bleibt der Abstand zwischen A und B sichtbar, ist das ein gutes Zeichen. Springt er stark, lohnt ein zweiter Blick: Saison-Effekte, Kampagnen oder Technik können stören. Große Teams dokumentieren Verläufe konsequent, Beispiele und Erfahrungsberichte findest du im Netflix Tech Blog.
Wenn das Ergebnis knapp ist
Ist der Unterschied klein, gibt es drei Wege: etwas länger laufen lassen, die Idee schärfen und neu testen oder akzeptieren, dass die Änderung keinen spürbaren Effekt hat. Wichtig ist, nicht an vagen Varianten festzuhalten, nur weil viel Arbeit drinsteckt.
- Erst die Hauptkennzahl, dann 1 bis 2 Begleitwerte betrachten.
- Absolut und relativ rechnen, nicht nur Prozente anschauen.
- Verlauf über Tage prüfen, nicht nur den Endtag.
- Kurz-Memo schreiben: Änderung, Kennzahl, Unterschied, Entscheidung.
- Kurzmerkmal – eine klare Kennzahl entscheidet, die Wirtschaftlichkeit macht den Rückenwind.
Häufige Fehler vermeiden

Zu viele Änderungen auf einmal
Wenn du Überschrift, Bild und Button zugleich änderst, weißt du am Ende nicht, was gewirkt hat. Besser ist eine klare, kleine Änderung pro Test. Große Umbauten zerlegst du in mehrere Schritte.
Falsche Messung
Unklare Ereignisnamen, unterschiedliche Zählung in A und B oder doppelte Trigger führen zu scheinbaren Gewinnen. Prüfe die Ereignisse vor dem Start im Vorschau-Modus deines Analytics.
Zu früh abbrechen
Zwischenergebnisse wirken verlockend, sind aber oft zufällig. Lege vorher fest, wie lange der Test läuft oder welche Datenbasis du brauchst, und halte dich daran. Für Leser mit Interesse an robusten Entscheidungen ohne vorzeitige Abbrüche lohnt der Blick in moderne Forschung wie Howard et al., 2021.
Falsche Prioritäten
Schriftgröße im Footer zu testen, bindet Zeit ohne spürbare Wirkung. Beginne mit Bereichen, die nah an der gewünschten Handlung liegen: erster Abschnitt, Produktdarstellung, Formular, Checkout.
Technik bremst
Wenn eine Variante deutlich langsamer lädt, misst du die Technik statt der Idee. Halte Assets und Layout zwischen A und B stabil.
- Eine Änderung pro Test, nicht drei.
- Messpunkte in A und B identisch benennen und prüfen.
- Laufzeit planen und nicht unterwegs umentscheiden.
- Assets stabil halten, sonst misst du Ladezeit statt Inhalt.
- Ergebnis-Memo schreiben, damit Wissen bleibt.
- Merke – klare Varianten, saubere Messung, geplante Laufzeit. Mit diesem Trio vermeidest du 80 Prozent der typischen Stolpersteine.
Beispiele und Ideen für A/B-Tests

- Headline mit klarem Nutzen vs. neutrale Aussage auf der Landingpage
- Primärer Button oben im sichtbaren Bereich vs. erst nach Scroll
- Produktbild in Anwendung vs. freigestelltes Studiofoto
- Bewertungen direkt neben Preis vs. weiter unten
- Kürzeres Formular mit optionalen Feldern vs. langes Pflichtformular
- Trust-Siegel im Checkout sichtbar vs. nur auf der Footer-Leiste
- Versandinfo als Mini-Box oberhalb des CTAs vs. unterhalb
- Preisstaffel grafisch hervorgehoben vs. reine Textliste
- Sticky-CTA auf Mobil vs. kein Sticky-CTA
- Produktvorteile als 3 Bulletpoints vs. Fließtext
Produktseite
Idee 1 – Nutzen-Headline vs. Feature-Headline. Variante B formuliert den konkreten Vorteil für den Nutzer, nicht die Eigenschaft. Ziel: Klick auf In den Warenkorb.
Idee 2 – Erstes Bild als Anwendungsszene vs. freigestelltes Produkt. Studien zeigen, dass Kontextbilder Orientierung geben können. Für UX-Hintergrund siehe z. B. Forschungssammlungen bei Baymard Institute.
- Kurztest – 3 Nutzen-Bullets direkt unter Preis vs. weiter unten im Text.
Checkout
Idee 1 – Einspaltiges Formular vs. zweispaltig. Ziel ist weniger Abbrüche und mehr abgeschlossene Bestellungen.
Idee 2 – Inline-Hilfen direkt am Feld vs. Hilfetext gesammelt am Ende. Beobachte Fehlermeldungen und Abbruchpunkte. Praxisnahe Richtwerte und Muster findest du in öffentlich einsehbaren UX-Studien wie Baymard Checkout Research.
- Kurztest – Gast-Checkout zuerst anbieten vs. Konto anlegen voraussetzen.
Landingpage
Idee 1 – Hero mit klarem Nutzen plus CTA vs. Hero mit allgemeinem Claim. Ziel: Klick zum nächsten Schritt.
Idee 2 – Sozialer Beweis im sichtbaren Bereich vs. erst im unteren Drittel. Platziere 1 bis 2 aussagekräftige Kundenstimmen mit kurzer Quellenangabe.
- Kurztest – Video-Thumbnail mit Play-Icon vs. statisches Bild.
Preis- und Paketseite
Idee 1 – Paketempfehlung visuell hervorheben vs. neutrale Darstellung aller Pakete. Ziel ist mehr Klicks auf Jetzt testen oder Jetzt kaufen.
Idee 2 – Monats- vs. Jahrespreisansicht als Standard. Beobachte Klicks auf den Planwechsel und nachgelagerte Käufe. Für technische Darstellung von Preisbausteinen liefern Artikel in großen Produktteams nützliche Einblicke, etwa der Netflix Tech Blog.
- Kurztest – 3 Kernfeatures je Paket als Liste vs. langer Textblock.
Formulare und Lead-Gen
Idee 1 – Pflichtfelder reduzieren vs. alles Pflicht. Ziel ist mehr abgesendete Leads bei stabiler Qualität. Prüfe zusätzlich Folgeaktionen wie Terminvereinbarungen.
Idee 2 – Fortschrittsanzeige Schritt 1 von 2 vs. keine Anzeige. Das kann Abbrüche senken, weil der Aufwand sichtbar kontrollierbar wird.
- Kurztest – Platzhalter als konkrete Beispiele vs. generische Labels.
Navigation und Suche
Idee 1 – Prominenter Suchschlitz auf Kategorie vs. nur Icon. Ziel ist mehr erfolgreiche Suchen und Produktaufrufe.
Idee 2 – Filter zusammenklappbar mit klaren Zählern vs. alles aufgeklappt. Beobachte Klicks auf Filter, Verweildauer und Produktklicks.
- Kurztest – Breadcrumbs mit klickbaren Stufen vs. nur aktuelle Ebene.
Vertrauen und Sicherheit
Idee 1 – Bewertungen direkt neben Preis vs. erst weiter unten. Ziel ist mehr Produktklicks und Käufe.
Idee 2 – Garantietext kurz und konkret vs. lang und juristisch. Beobachte Klick zum nächsten Schritt und Rücksprünge.
- Kurztest – Trust-Siegel im Checkout oberhalb des CTA vs. im Footer.
Mobil und Microcopy
Idee 1 – Sticky-CTA am unteren Rand vs. CTA nur im Content. Besonders auf Mobil kann das mehr Klicks auslösen.
Idee 2 – Präzisere Microcopy am CTA Jetzt kaufen vs. Jetzt weiter. Klare Worte reduzieren Zweifel.
- Kurztest – Kürzere Absätze mit Icons vs. längere Textblöcke ohne Struktur.
- Merke – nahe an der Conversion testen, klein starten, Gewinner dokumentieren und behutsam übertragen.
A/B-Test-Tools: Vergleich und Empfehlung

Funktional unterscheiden sich A/B-Test-Tools nur wenig und decken für 99 Prozent der Fälle alles Wichtige ab. Der größte Unterschied liegt in Limitierungen wie Sitzungen oder Nutzer pro Monat, die je nach Plan variieren. Was in der Auswahl sichtbar ins Gewicht fällt: Manche Anbieter verstecken Preise und nennen sie nicht einmal per E-Mail, teilweise sind Free-Trials verborgen oder gar nicht möglich. Das ist aus meiner Sicht eine klare Red Flag und sollte bei der Entscheidung für teure Software unbedingt berücksichtigt werden.
Kameleoon
EU-first Plattform, vollständig auf A/B-Tests und Personalisierung fokussiert statt auf eine breite Tools-Suite (wie bei Optimizely oder VWO). Offener Starter und klarer Testzugang erleichtern die Evaluierung. Aus deiner Sicht besonders stark: sehr gute Nutzerbewertungen, auf Augenhöhe mit Convert, sowie ein hilfreicher KI-Assistent, der tatsächlich bei Planung und Auswertung unterstützt.
- Unlimitiert – Tests, Traffic, Features, Channels und Domains ohne Caps direkt im Grundsetup.
- Praxis – schneller Einstieg dank Free-Trial und öffentlich genanntem Startpreis.
- Bewertungen – Nutzerfeedback vergleichbar positiv mit Convert.
- KI – Assistent wirkt nützlich für Hypothesen, Zieldefinitionen und Ergebnisse.
VWO Testing
Standard A/B-Test-Tool mit großem Funktionsumfang, in der Praxis jedoch teils aufgebläht durch zu viele Zusatzmodule (€€€). In meinem Einsatz kam es zu Problemen mit Firefox – Nutzer wurden nicht verlässlich erfasst, offenbar blockiert der Browser die Lösung bereits ohne Ad-Blocker. Außerdem setzt VWO spürbare Limits und Caps bei Volumen und Features und drängt bei Wachstum auf kostspielige Upgrades. Das ist übrigens auch der Fall bei Convert, AB Tasty und Otimizely.
- Erfahrung – Firefox-Tracking bei mir out of the box blockiert.
- Modell – Caps und Restriktionen, Upgrade-Druck bei steigenden Anforderungen.
- Einordnung – Funktionsreich, aber schwerfällig im Vergleich zu fokussierten Tools.
AB Split Test (für WordPress)
Leichtgewichtiges WordPress-Plugin, das keine Remote-Cookies und keinen externen Tracking-Server nutzt. Das ist stark für Datenschutz und Robustheit, weil Browser-Tracking-Schutz und Ad-Blocker weniger angreifen. Unlimitierte Tests, Varianten, Ziele und Pageviews sind ein klarer Vorteil für wachsende Sites. Transparente Lizenzen: monatlich ab und Perpetual ab verfügbar, plus 7 Tage Pro-Test.
- Vorteil – lokal, schnell, unbegrenzt in Umfang und ohne externe Tracking-Abhängigkeiten.
Convert Experiences
Fokussierte Lösung für Web-Experimente ohne aufgeblähten Zusatzballast. Transparentes Pricing und ein kurzer Testzugang erleichtern die Auswahl, die Implementierung bleibt schlank und techniknah.
- Highlight – keine Third-Party-Cookies, Tracking funktioniert ohne Fremd-Cookies.
- Highlight – keine Limitierung bei der Aufbewahrung von Kampagnendaten.
- Erfahrungen – Nutzerreviews betonen schnellen und hilfreichen Support.
AB Tasty
Ein Standard A/B-Test-Tool mit dem üblichen Funktionspaket wie visueller Editor, Targeting und Segmentierung. Positiv ist, dass keine Third-Party-Cookies nötig sind, was Datenschutz und Robustheit gegenüber Browser-Tracking-Schutz verbessert. Kritik: Preise sind nicht öffentlich und eine offene Free-Trial ist in der Regel nicht verfügbar, was schnelle Proofs-of-Concept erschwert. Nutzerberichte zum Support wirken gemischter und insgesamt weniger positiv als bei Convert.
- Plus – kein Einsatz von Third-Party-Cookies.
- Transparenz – keine öffentlichen Preise, kein direkter Trial.
- Support-Erfahrungen – Bewertungen tendenziell schwächer als bei Convert.
Optimizely Web Experimentation
Ein Standard A/B-Test-Tool mit dem üblichen Funktionspaket – visueller Editor, Targeting, Audiences und viele Integrationen – so wie es auch andere Anbieter liefern. Kritik: fehlende Preistransparenz und in der Regel keine offene Free-Trial. Aus meiner Praxis: Ich habe Optimizely mehrfach per E-Mail um konkrete Preise und einen kurzen Testzugang gebeten. Die Antworten verwiesen wiederholt nur auf einen Terminlink und blieben inhaltlich vage. Ergebnis: weder Trial noch belastbare Preisinformationen erhalten. Für eine seriöse Vorauswahl ist das schwach und aus Kundensicht frustrierend.
- Transparenz – keine öffentlichen Preise und kein direkter Testzugang sind ein Red-Flag und erschweren eine sachliche Toolbewertung.
- Praxis-Fazit – ohne vorab testbare Version und klare Kostenspanne nicht empfehlenswert.
| Tool | Preis | Free-Trial | Sitz |
|---|---|---|---|
| Optimizely | nicht öffentlich | keine Standard-Trial | USA |
| VWO | ab 236 € mtl. | 30 Tage | Indien |
| AB Tasty | nicht öffentlich | keine Standard-Trial | EU |
| Kameleoon | ab 495 $ mtl. | Free Starter Trial | EU |
| Convert Experiences | ab 299 $ mtl. | 15 Tage | USA |
| AB Split Test | ab 11 $ mtl. oder 319 $ einmalig | 7 Tage Pro | Kanada |
Fazit A/B-Test-Tools

Aus meinen Tests kristallisieren sich zwei klare Gewinner heraus. Für Nicht-WordPress-Setups überzeugt Kameleoon: voll auf A/B-Tests und Personalisierung fokussiert, sehr gute Nutzerbewertungen, hilfreicher KI-Assistent, keine künstlichen Caps bei Tests, Traffic, Features, Channels oder Domains, plus transparenter Einstieg mit Testzugang. Das macht Evaluierung und Skalierung spürbar einfacher als bei Anbietern mit aufgeblähter Suite und versteckten Preisen.
Für WordPress ist AB Split Test die beste Wahl. Das Plugin läuft auf dem eigenen Server, setzt keine Remote-Cookies ein und wird dadurch seltener von Browser-Tracking-Schutz oder Ad-Blockern ausgebremst. Unlimitierte Tests, Varianten, Ziele und Pageviews sind inklusive. Dazu kommen faire Lizenzen – monatlich oder als Lifetime – und ein schneller, praxisnaher Start. In Summe liegt AB Split Test auf WordPress spürbar vor allen Alternativen.
Kameleoon – für Websites ohne WordPress. Fokus auf A/B-Tests und Personalisierung, sehr gute Reviews, KI-Assistent, keine Caps, transparenter Start mit Trial. Website
AB Split Test – für WordPress. Läuft lokal, keine Remote-Cookies, unlimitierte Tests und Pageviews, resistenter gegen Browser-Blocking, monatliche und Lifetime-Lizenz. Website
A/B-Test Rechner

Der A/B-Test Rechner hier im Artikel ist für die Signifikanzrechnung gedacht. Du gibst die Ergebnisse eines bereits gelaufenen Tests ein und erhältst, ob Variante B im Vergleich zu A statistisch überzeugend gewinnt oder nicht.
Quellen und weiterführende Literatur zu A/B-Tests
- Google Search Central. Website experiments in Google Search.
- Google Analytics Developers. GA4 data collection overview.
- web.dev. Core Web Vitals overview.
- web.dev. Largest Contentful Paint.
- web.dev. Interaction to Next Paint.
- Netflix Tech Blog. Experimentation articles.
- Kohavi, Ron et al. Trustworthy Online Controlled Experiments. Cambridge University Press, 2020.
- Howard, Steven R. et al. Time-uniform, nonparametric confidence sequences. PNAS, 2021.
- Baymard Institute. Checkout usability research.
- Baymard Institute. E-commerce UX research catalog.
- WebKit Blog. Full third-party cookie blocking and more.
- Pew Research Center. Users click fewer links when an AI summary appears, 2025.
- Search Engine Journal. CTRs drop for top result after AI Overview rollout.
- Search Engine Land. AI Mode and Search Console traffic data.
FAQs zu A/B-Tests
Was ist ein A/B-Test?
A/B-Tests vergleichen zwei Varianten derselben Seite oder Komponente, um mit echtem Nutzerverhalten eine bessere Version zu finden. Variante A ist der Ist-Zustand, Variante B ändert gezielt einen Hebel wie Headline, Bild oder Button. Gut dokumentierte Praxisgrundlagen findest du bei Google zu Website-Experimenten und in moderner Literatur zu Online-Experimenten.
Google Search Central – Website experiments • Kohavi et al., 2020
Wie funktioniert ein A/B-Test auf Websites konkret?
Der Traffic wird zufällig in zwei Gruppen aufgeteilt. Beide sehen die Seite gleichzeitig, messen aber getrennt die Hauptkennzahl wie Käufe, Leads oder Klicks. Nach Laufzeitende wird bewertet, ob B gegenüber A einen echten Unterschied zeigt und nicht nur Schwankung ist. Wichtig: nur eine zentrale Änderung pro Test, sonst weißt du nicht, was gewirkt hat.
Wann sollte ich A/B-Tests einsetzen?
A/B-Tests lohnen sich überall dort, wo es um Entscheidungen nahe an der Conversion geht: Hero-Bereich auf Landingpages, Produktdarstellung, Checkout, Lead-Formulare. Starte mit Seiten, die viel Traffic und klare Ziele haben. Für Shops sind z. B. Produktseiten und Checkout erste Adressen, wie zahlreiche UX-Studien zum Checkout nahelegen.
Welche Kennzahlen sind in A/B-Tests wirklich wichtig?
Definiere eine Hauptkennzahl je Test, die direkt zum Seitentyp passt, z. B. Käufe oder abgeschickte Formulare. Ergänze 1 bis 2 Begleitwerte wie Abbrüche im Checkout oder Ladezeit. Zähle Ergebnisse absolut und relativ: Prozentpunkte zeigen den echten Effekt, Relativwerte helfen beim Einordnen.
Wie prüfe ich die Signifikanz eines A/B-Tests?
Nutze einen Signifikanzrechner mit Besucher A, Conversions A, Besucher B, Conversions B. Du erhältst p-Wert und Konfidenzintervall. Ist der p-Wert kleiner als 0,05, gilt der Unterschied als statistisch belastbar bei 95 Prozent. Für laufende Entscheidungen sind Verfahren aus neuer Forschung hilfreich, um zu frühzeitige Abbrüche zu vermeiden.
Howard et al., 2021 – Confidence sequences • Kohavi et al., 2020
Wie lange sollte ein A/B-Test laufen?
Teste über volle Wochenzyklen, damit Wochentagseffekte sich ausgleichen, und beende erst, wenn die geplante Datenbasis erreicht ist. Zwischendurch nicht umentscheiden. Große Produkteams berichten, dass das Stabilität in den Ergebnissen schafft.
Beeinflussen A/B-Tests meine SEO?
Ja, wenn du Varianten unterschiedlich indexierbar machst oder Inhalte für Bots anders ausspielst. Halte dich an die Google-Empfehlungen: konsistente Inhalte je Variante, keine Cloaking-Muster, Experimente zeitlich begrenzen und sauber ausrollen. So vermeidest du negative Effekte.
Funktionieren A/B-Tests ohne Third-Party-Cookies?
Ja. Moderne Browser blockieren Third-Party-Cookies breitflächig. A/B-Tests sollten deshalb cookie-sparsam oder serverseitig funktionieren und keine Fremd-Cookies voraussetzen. Das verbessert Datenschutz und Robustheit gegenüber Tracking-Schutz.
WebKit – Full third-party cookie blocking • Mozilla – Enhanced Tracking Protection
Warum zählen A/B-Tests in Firefox manchmal anders?
Firefox aktiviert einen Tracking-Schutz, der bestimmte Skripte und Cookies standardmäßig blockt. Tools, die auf fremde Domains oder Third-Party-Cookies setzen, können dadurch Sitzungen verlieren. Prüfe immer Firefox und Safari separat, bevor du rollst.
A/B-Test oder multivariater Test – was ist sinnvoller?
Starte mit A/B-Tests, wenn du einen klaren Hebel prüfen willst. Multivariat lohnt sich erst bei sehr hohem Traffic und stabiler Messung, weil Kombinationen schnell explodieren. Für die meisten Teams ist A/B die schnellere und robustere Option.
Wie viele A/B-Tests darf ich parallel fahren?
Parallel geht, solange sich Tests nicht gegenseitig beeinflussen. Vermeide Überschneidungen auf derselben URL und priorisiere nahe an der Conversion. Große Teams nutzen Test-Slots pro Template und dokumentieren sauber, um Interferenzen zu vermeiden.
Was sind die häufigsten Fehler in A/B-Tests?
Zu viele Änderungen auf einmal, vorzeitiger Abbruch, unklare Events, Technikunterschiede zwischen A und B und fehlende Dokumentation. Halte die Messung identisch, plane die Laufzeit und schreibe ein kurzes Ergebnis-Memo je Test.
Wie wähle ich gute Hypothesen für A/B-Tests aus?
Leite Hypothesen aus Nutzersignalen ab: Klickpfade, Suchanfragen, Formularabbrüche, Heatmaps. Priorisiere nach Einfluss auf die Zielhandlung und Aufwand. Für Shops geben Studien zu Produktdarstellung und Checkout wiederkehrende Muster vor.
Wie messe ich den wirtschaftlichen Effekt eines A/B-Tests?
Rechne den absoluten Unterschied in Bestellungen oder Leads und multipliziere mit durchschnittlichem Warenkorb oder Lead-Wert. Beispiel: von 3,0 Prozent auf 3,4 Prozent bei 100.000 Sitzungen sind +400 Bestellungen. So wird aus Prozent ein Euro-Betrag.
Was ist das beste A/B-Test-Tool?
Aus meiner Praxis gibt es zwei klare Empfehlungen: Für Nicht-WordPress überzeugt Kameleoon mit Fokus auf A/B-Tests und Personalisierung, sehr guten Nutzerbewertungen, nützlichem KI-Assistenten und ohne Caps bei Tests, Traffic, Features, Channels und Domains. Für WordPress ist AB Split Test die erste Wahl, weil es lokal läuft, ohne Remote-Cookies auskommt und unbegrenzte Tests, Varianten, Ziele und Pageviews bietet. Beide senken Hürden in der Evaluierung durch transparente Einstiege.
Hallo aus Frankfurt! Ich bin Lucas, Online-Marketing-Experte mit über 10 Jahren Erfahrung im Aufbau und in der Optimierung von Online-Marketing-Strategien, aktuell In-House bei einem führenden SaaS-Anbieter.
Auf Datenbasiert.de schreibe ich über Taktiken, Strategien und Ideen, die im Alltag wirklich funktioniert: von SEO/GEO und Paid Media bis Analytics und Conversion-Optimierung.
Hast du Fragen, Ideen oder möchtest dich austauschen? Schreib mir gerne auf LinkedIn 🙂






