Typ 1 Fehler
Inhalt
Was ist ein Fehler vom Typ 1?
Ein Fehler vom Typ 1 (oder Fehler vom Typ I) ist ein Begriff aus der Statistik, der sich auf eine Art von Fehler bezieht, der bei einem Test auftritt, wenn ein eindeutiger Gewinner erklärt wird, obwohl der Test eigentlich nicht eindeutig ist.
Wissenschaftlich gesprochen wird ein Fehler vom Typ 1 als Ablehnung einer echten Nullhypothese bezeichnet, denn eine Nullhypothese ist definiert als die Hypothese, dass es keinen signifikanten Unterschied zwischen bestimmten Populationen gibt, wobei jeder beobachtete Unterschied auf Stichproben- oder Experimentierfehler zurückzuführen ist.
Mit anderen Worten, ein Fehler vom Typ 1 ist wie ein "falsches Positiv", eine falsche Annahme, dass eine Variation in einem Test einen statistisch signifikanten Unterschied bewirkt hat.
Dies ist nur eine der Arten von Fehlern, denn das Gegenteil eines Fehlers vom Typ 1 ist ein Fehler vom Typ 2, der als die Nichtverwerfung einer falschen Nullhypothese oder eines falschen Negativs definiert ist.
Warum treten Fehler vom Typ 1 auf?
Fehler können leicht passieren, wenn Statistiken beim A/B-Testing und beim Experimentieren mit Produkten falsch verstanden oder falsch angewandt werden.
In der Statistik ist der Begriff des statistischen Fehlers ein integraler Bestandteil des Testens jeder Hypothese.
Kein Hypothesentest ist jemals sicher. Da jeder Test auf Wahrscheinlichkeiten basiert, besteht immer ein geringes Risiko, eine falsche Schlussfolgerung zu ziehen (z. B. ein Fehler vom Typ 1 (falsch positiv) oder vom Typ 2 (falsch negativ)).
Bei der Berechnung der statistischen Signifikanz wird traditionell davon ausgegangen, dass der Test innerhalb eines festen Zeitrahmens abläuft und endet, sobald die entsprechende Stichprobengröße erreicht ist. Dies wird als 'fester Zeithorizont' bezeichnet.
Bei der Methode des 'festen Horizonts' wird davon ausgegangen, dass Sie erst dann eine Entscheidung treffen, wenn die endgültige Stichprobengröße erreicht ist.
In der Welt des A/B-Testing funktioniert das natürlich nicht so. Da es keine festgelegte Stichprobengröße gibt (und die Ergebnisse statistisch nicht signifikant sind), ist es leicht, einen Fehler vom Typ 1 zu begehen.
Hypothesentests sind mit einer statistischen Signifikanz verbunden, die durch den griechischen Buchstaben Alpha, α, gekennzeichnet ist.
Die durch α dargestellte Zahl ist eine Wahrscheinlichkeit für das Vertrauen in die Richtigkeit der Testergebnisse. In der Welt des digitalen Marketings ist es heute Standard, dass statistisch signifikante Ergebnisse einen Wert von Alpha bei 0,05 oder 5% Signifikanzniveau haben.
Ein Konfidenzniveau von 95% bedeutet, dass es eine 5%ige Chance gibt, dass Ihre Testergebnisse das Ergebnis eines Fehlers vom Typ 1 (falsch positiv) sind.
Warum ist es wichtig, auf Fehler vom Typ 1 zu achten?
Der Hauptgrund, warum Sie sich vor Fehlern vom Typ 1 hüten sollten, ist, dass sie Ihr Unternehmen eine Menge Geld kosten können.
Wenn Sie eine falsche Annahme treffen und dann die kreativen Komponenten einer Landing Page auf der Grundlage dieser Annahme ändern, könnten Sie riskieren, dass Ihre Conversion Rate erheblich leidet.
Der beste Weg, Fehler vom Typ 1 zu vermeiden, besteht darin, Ihre Vertrauensschwelle zu erhöhen und Experimente länger laufen zu lassen, um mehr Daten zu sammeln.
Beispiel für einen Fehler vom Typ 1
Lassen Sie uns eine hypothetische Situation betrachten. Sie sind verantwortlich für eine E-Commerce-Website und testen Variationen für Ihre Landing Page. Wir werden untersuchen, wie sich ein Fehler vom Typ 1 auf Ihre Verkäufe auswirken würde.
Ihre Hypothese ist, dass die Änderung der Schaltfläche "Jetzt kaufen" von grün auf rot die Conversions im Vergleich zu Ihrer ursprünglichen Seite deutlich erhöhen wird.
Sie starten Ihren A/B-Test und überprüfen die Ergebnisse innerhalb von 48 Stunden. Sie stellen fest, dass die Conversion Rate für die neue grüne Schaltfläche (5,2 %) mit 90 %iger Sicherheit höher ist als für die ursprüngliche Schaltfläche (4,8 %).
Aufgeregt erklären Sie die grüne Schaltfläche zum Gewinner und machen sie zur Standardseite.
Zwei Wochen später taucht Ihr Chef bei Ihnen auf und stellt Fragen zu einem starken Rückgang der Conversions. Als Sie Ihre Daten überprüfen, sehen Sie, dass die Daten der letzten zwei Wochen darauf hindeuten, dass die ursprüngliche Farbe der CTA-Schaltfläche tatsächlich der Gewinner war.
Was war geschehen? Auch wenn das Experiment ein statistisch signifikantes Ergebnis mit einem Konfidenzintervall von 90 % ergeben hat, bedeutet das immer noch, dass in 10 % der Fälle die Schlussfolgerung, zu der das Experiment geführt hat, tatsächlich falsch ist oder zu falsch positiven Ergebnissen führt.
Wie Sie Fehler vom Typ 1 vermeiden können
Sie können Fehler vom Typ 1 vermeiden, indem Sie das erforderliche Signifikanzniveau vor einer Entscheidung anheben (z.B. auf 95% oder 99%) und das Experiment länger laufen lassen, um mehr Daten zu sammeln. Die Statistik kann uns jedoch nie mit 100%iger Sicherheit sagen, ob eine Version einer Webseite die beste ist. Statistiken können nur Wahrscheinlichkeiten liefern, keine Gewissheit.
Bedeutet das, dass A/B-Tests nutzlos sind? Ganz und gar nicht. Auch wenn immer die Möglichkeit eines Fehlers vom Typ 1 besteht, werden Sie statistisch gesehen in den meisten Fällen richtig liegen, wenn Sie ein ausreichend hohes Konfidenzintervall festlegen. Wie in der Technik und anderen Disziplinen ist absolute Sicherheit nicht möglich, aber durch die Festlegung des richtigen Konfidenzintervalls können wir das Risiko eines Fehlers auf einen akzeptablen Bereich reduzieren.