BuildingAktualisiert

A/B-Testing

Beim A/B-Test zeigst du zwei Varianten einer Seite oder eines Features parallel an verschiedene User-Gruppen und misst, welche besser konvertiert.

A/B-Testing (auch Split-Testing) ist eine Methode, um datenbasiert zu entscheiden, welche Version einer Seite, eines Features oder eines Texts besser funktioniert. Du baust zwei Varianten – Variante A und Variante B – zeigst sie zufällig 50 % deiner Nutzer und misst, welche mehr Conversions bringt.

Statt zu raten, ob die rote oder grüne Button-Farbe besser ist, lässt du die Daten entscheiden. Bei genug Traffic ist das Ergebnis statistisch belastbar. A/B-Testing ist seit Jahren Standard bei großen Tech-Firmen (Google testet hunderte Varianten parallel) und durch Tools wie PostHog inzwischen auch für kleine Teams möglich.

Wie funktioniert ein A/B-Test?

Ein typischer Ablauf:

  1. Hypothese formulieren – "Eine kürzere Headline erhöht Signups um 10 %"
  2. Erfolgs-Metrik definieren – Signups, Käufe, Klicks
  3. Variante B bauen – die alternative Version
  4. Traffic splitten – 50/50 oder anders, abhängig von Tool
  5. Genug Daten sammeln – meistens 1–4 Wochen
  6. Statistische Signifikanz prüfen – ist der Unterschied echt oder Zufall (p-Wert < 0.05)
  7. Gewinner ausrollen oder Test verwerfen

Wichtige Begriffe:

  • Statistical Significance – ist der Unterschied wirklich echt
  • Sample Size – wie viele User braucht es für ein verlässliches Ergebnis
  • Conversion Rate – Anteil der User, die das Ziel erreichen
  • Lift – relativer Unterschied zwischen Varianten

Wofür brauchst du A/B-Testing?

  • Landing Pages optimieren – Headlines, CTA-Texte, Hero-Bilder
  • Pricing testen – funktionieren 19 € oder 29 € besser
  • Onboarding-Flows – verschiedene Reihenfolgen testen
  • Email-Subjects – welcher Betreff wird häufiger geöffnet
  • Feature-Rollouts – neues Feature für 10 % der User, dann ausweiten
  • CTA-Buttons – "Jetzt starten" vs "Kostenlos testen"
  • Marketing-Kampagnen – verschiedene Ad-Creatives gegen einander

A/B-Testing ist nichts für sehr kleine Sites: Mit 100 Besuchern pro Woche dauert ein Test ewig. Faustregel: Mindestens 1.000 Conversions pro Variante für verlässliche Ergebnisse.

A/B-Testing und VibeCoding

Mit modernen Tools und Claude Code integrierst du A/B-Tests in Minuten in deine App. PostHog Feature-Flags machen das besonders einfach: Du definierst einen Flag im Dashboard, gibst ihm zwei Varianten, fragst im Code mit useFeatureFlag('headline-test') ab.

Beispiel-Workflow mit Claude Code:

  1. "Bau mir eine Variante B der Hero-Section mit anderer Headline"
  2. Claude generiert die Komponente
  3. "Wickle das in einen PostHog-Feature-Flag"
  4. Claude fügt den Flag-Code ein
  5. Im PostHog-Dashboard aktivieren, Test läuft

Vercel hat zusätzlich Edge Config, mit dem du Tests am Edge ausspielen kannst – ohne dass User die Variante "blitzt", weil die Entscheidung schon vor dem Page-Load gefallen ist.

Häufige Fehler:

  • Zu früh stoppen – nach 100 Conversions sind Ergebnisse meist Zufall
  • Mehrere Tests gleichzeitig auf derselben Seite – Effekte überlagern sich
  • Keine Hypothese – einfach drauflos testen ist Lotterie
  • Mobile vs Desktop nicht trennen – kann zu falschen Schlüssen führen

Empfehlung

  • Beste All-in-One-Lösung: PostHog (Analytics + Flags + Tests)
  • Klassiker für Marketing: Optimizely, VWO
  • Edge-basiert: Vercel Edge Config + PostHog
  • Email-Tests: in Resend, ConvertKit oder Customer.io eingebaut
  • Für ganz kleine Projekte: noch nicht nötig – erst mehr Traffic generieren

Häufige Fragen

Wie viel Traffic brauche ich für einen aussagekräftigen A/B-Test?

Faustregel: 1.000 Conversions pro Variante. Bei 5 % Conversion-Rate sind das 20.000 User pro Variante, also 40.000 insgesamt. Mit weniger Traffic dauern Tests Wochen oder die Ergebnisse sind nicht signifikant.

Wann ist ein A/B-Test "fertig"?

Wenn die statistische Signifikanz erreicht ist (p < 0.05) UND du genug User pro Variante hast. Vorher abzubrechen führt zu falschen Conclusions. Tools wie PostHog sagen dir automatisch, wann der Test belastbar ist.

Kann ich A/B-Tests auch ohne fertige Tools selbst bauen?

Technisch ja, mit zwei Code-Branches und manueller Analyse. Praktisch nicht empfehlenswert: Statistische Auswertung ist tricky, und PostHog/Vercel sind kostenlos im Free-Tier. Spar dir den Eigenbau.

VibeCoding Masterclass

Alles davon lernst du in der VibeCoding Masterclass.

Statt nur nachzuschlagen — anwenden. Bau Schritt für Schritt deine eigenen KI-Produkte, geführt von echten Projekten und einer aktiven Community.

Auf die Warteliste